Pase de Mensaje MPI Elaborado: Betzaida Romero. Agenda  Historia y Evolución  Que es MPI  Conceptos  Ventajas  Desventajas  Ejemplo  Conclusiones.

Slides:



Advertisements
Presentaciones similares
Arquitectura Cliente Servidor
Advertisements

Informe oral sobre La Historia de la Computadora
LENGUAJES PARALELOS Chang y Smith (1990) clasificación:
Ventajas y Desventajas
INTRODUCCIÓN A JAVA.
Algoritmos paralelos Lab. 1: Introducción
Estructura de un Sistema Operativo
ASPECTOS DEL DISEÑO DE SD
INTRODUCCIÓN ESTADO DE LA TÉCNICA PROCESAMIENTO DISTRIBUIDO CON MPI PROCESAMIETNO DISTRIBUIDO DE IMÁGENES GENÉRICO CON VTK PROCESAMIENTO DISTRIBUIDO DE.
Arquitectura Orientada a Servicios (SOA)
FLAN “F- LINKS AND NODES”
 Es un sistema operativo desarrollado y comercializado por Apple.  Mac OS es un sistema perfecto que sólo funciona en ordenadores Apple, este sistema.
Profesor: Ing. Matías Vallerga Ayudante: Lic. Cristian Kenny
Java Binding for the OpenGL API Unidad III. ¿Qué es OpenGL? Open GL es un entorno de desarrollo portable de aplicaciones gráficas interactivas en 2D y.
Tipos de Servicios Web.
Tecnología Cliente Servidor
REDES DE COMPUTADORAS LINA MARCELA HERRERA P ASIGNATURA:OFIMATICACARRERA: TECNOLOGIA EN INFORMATICA APLICADA UNIVERSIDAD CATOLICA MANIZALES JUNIO 2 / 2004.
RMI Remote Method Invocation
Base de Datos Distribuidas
Ing. Horacio Carlos Sagredo Tejerina.  La historia de Internet se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de.
PROCESAMIENTO PARALELO.  Organización lógica ◦ Visión que tiene el programados  Capacidad de expresar tareas paralelas (Estructura de control)  Método.
Universidad de SonoraArquitectura de Computadoras1 PROGRAMA CION PARALELA Y DISTRIBUIDA PRESENTA: JESUS BECERRIL PACHECO MODELOS DE ACCESO A LA MEMORIA.
Paradigmas de Programación
Left Case: Int Case v1.0 Roberto Galache García Tutores: Francisco José García Peñalvo Francisco José García Peñalvo Iván Álvarez Navia Iván Álvarez Navia.
Introducción a la Computación Paralela Germán Larrazábal Departamento Computación, FACYT, Universidad de Carabobo, Venezuela
Computadoras analógicas Miden magnitudes físicas que se distribuyen en escala continua como pueden ser la temperatura y la presión. Este tipo de computadoras.
Curso de Computación Científica en Clusters
OMAR SANCHEZ ROBLES HECTOR PEREZ GARCIA. “Sistemas de cómputo compuesto por un gran número de CPU´s conectados mediante una red de alta velocidad”, Tanenbaum.
Programación de Memoria Compartida
Programación de Memoria Compartida
PRESENTADO POR LEIDY RODRÍGUEZ JOHANNA VALERO CAMILO VELANDIA MERCADEO.
SISTEMAS OPERATIVOS INTRODUCCIÓN Definición de Sistema Operativo
CONCEPTES AVANÇATS DE SISTEMES OPERATIUS Departament d’Arquitectura de Computadors (apunts de l’assignatura en format transparència) Beowulf Vs Clusters.
Clusters Presentado por : Manuel Alejandro ahumada trochez Yenny carabali.
FUNDAMENTOS DE PROGRAMACIÓN ISC. GABRIEL ZEPEDA MARTÍNEZ EST. ABRAHAM F. MACHUCA VAZQUEZ.
Introducción al modelo Cliente-Servidor Carlos Rojas Kramer Universidad Cristóbal Colón.
Desarrollo de aplicaciones para ambientes distribuidos
Características de un sistema operativo
Sistemas Operativos II MC. Daniel Fajardo Delgado INSTITUTO TECNOLÓGICO DE CD. GUZMÁN 30 de Mayo de 2004.
SISTEMAS OPERATIVOS.
INNOVACIONES DE LA INFORMATICA
Estructuras en Sistemas Operativos DAISY KATERINE RODRÍGUEZ.
PROGRAMACIÓN PARALELA Modelos de programación paralela Modelos computacionales Paradigmas de programación paralela Programación en memoria compartida:
MPI: Message Passing Interface Vera Ortíz Thimoty Duéñez Saúl Moncada Ma. Cristina Otero Carolina teja.
Aitor Viana Sánchez Octavio Hombrados Juan F. Ramos Jesús López Bustos
(agradecimiento: Ruben Weht
ARQUITECTURAS PARALELAS
NOTA: Para cambiar la imagen de esta dispositiva, seleccione la imagen y elimínela. A continuación haga clic en el icono Imágenes en el marcador de posición.
Programación de Dispositivos Móviles “Conceptos de J2ME” Rogelio Ferreira Escutia.
Agenda  Introducción  Relevamientos de tecnologías Objetivos de la fase de relevamiento de tecnologías Principales tecnologías disponibles -OpenMosix,
Departamento de Informática Universidad de Rancagua
Sistemas Operativos.
Institución Escuela Normal superior de Pasto
Por: Ernesto Y. Soto Rivas G
Cluster de Computadores de Alto Desempeño con Acceso Remoto Santiago Iturriaga Damián Pintos Paulo Maya.
Cluster de Computadores de Alto Desempeño con Acceso Remoto
Sistemas Operativos II MC. Daniel Fajardo Delgado INSTITUTO TECNOLÓGICO DE CD. GUZMÁN 22 de Mayo de 2004.
ARQUICTECTURA DE SERVIDORES
Bases de Datos II BASES DE DATOS DISTRIBUIDAS
Son los atributos de un sistema que son visibles para un programador, es decir aquellos atributos que impactan directamente en la ejecución lógica de un.
Bases de datos distribuidas
ORGANIZACIÓN DE COMPUTADORAS DRA. LETICIA FLORES PULIDO.
BASE DE DATOS DISTRIBUIDAS
Computadoras de Alto Rendimiento (HPC)
Tendencia De Los Sistemas Operativos
Conociendo el modelo Cliente-Servidor
MY SQL UNIVERSIDAD NACIONAL MICAELA BASTIDAS DE APURÍMAC CENTRO DE INTERNET E INFORMÁTICA.
INTRODUCCION A M (ESSAGE) P (ASSING) I (NTERFACE) Paradigma de Transferencia de Mensajes Cada procesador corre un programa Todas las variables son privadas.
Message Passing Interface
Transcripción de la presentación:

Pase de Mensaje MPI Elaborado: Betzaida Romero

Agenda  Historia y Evolución  Que es MPI  Conceptos  Ventajas  Desventajas  Ejemplo  Conclusiones

Historia MPI  Al diseñarse MPI, se tomaron en cuenta las características más atractivas de los sistemas existentes para el paso de mensajes, resultando así, en una fuerte influencia para MPI los trabajos hechos por IBM, INTEL, NX/, Express, nCUBE's Vernex, p4 y PARMACS. Otras contribuciones importantes provienen de Zipcode, Chimp, PVM, Chameleon y PICL. Estandarizar MPI involucró a cerca de 60 personas de 40 organizaciones diferentes principalmente de U.S.A. y Europa. La mayoría de los vendedores de computadoras concurrentes estaban involucrados con MPI, así como con investigadores de diferentes universidades, laboratorios del gobierno e industrias.

Historia MPI  El proceso de estandarización comenzó en el taller de estándares para el paso de mensajes en un ambiente con memoria distribuida, patrocinado por el Centro de Investigación en Computación Paralela en Williamsburg, Virginia,Estados Unidos (Abril de 1992).Williamsburg VirginiaEstados Unidos Se llegó a una propuesta preliminar conocida como MPI1, enfocada principalmente en comunicaciones punto a punto sin incluir rutinas para comunicación colectiva y no presentaba tareas seguras. El estándar final por el MPI fue presentado en la conferencia de Supercómputo en Noviembre de 1993, constituyéndose así el foro para el MPI. En un ambiente de comunicación con memoria distribuida en la cual las rutinas de paso de mensajes de nivel bajo, los beneficios de la estandarización son muy notorios. MPI-1 apareció en 1994, el estándar MPI-2 fue lanzado en 1997

Pase de Mensaje MPI Las arquitecturas de Computación paralela pueden verse como una extensión de las arquitecturas convencionales que permiten la cooperación y comunicación entre elementos de procesos.  Existen actualmente 2 paradigmas en las arquitecturas de computación paralela: Paradigmas Arquitectura Programación Comunicación

Pase de Mensaje MPI  Respecto al modelo de programación existe hoy en día 3 paradigmas principales Modelo de memoria Compartida Paralelizacion De datos Modelo Pase de Mensaje

Que es MPI  La Interfaz de Paso de Mensajes (conocido ampliamente como MPI, siglas en inglés de Message Passing Interface) es un protocolo de comunicación entre computadoras. Es el estándar para la comunicación entre los nodos que ejecutan un programa en un sistema de memoria distribuida. Las implementaciones en MPI consisten en un conjunto de bibliotecas de rutinas que pueden ser utilizadas en programas escritos en los lenguajes de programación C, C++, Fortran y Ada java etc

Objetivo Principal  El objetivo principal de MPI es logar la portabilidad a través de diferentes máquinas, tratando de obtener un lenguaje de programación que permita ejecutar de manera transparente, aplicaciones sobre sistemas heterogéneos.

Biblioteca de Pase de Mensajes Java 

Bibliotecas 

Ventajas  La escalabilidad. Las computadoras con sistemas de memoria distribuida son fáciles de escalar, mientras que la demanda de los recursos crece, se puede agregar más memoria y procesadores. La ventaja de MPI sobre otras bibliotecas de paso de mensajes, es que los programas que utilizan la biblioteca son portables (dado que MPI ha sido implementado para casi toda arquitectura de memoria distribuida), y rápidos, (porque cada implementación de la librería ha sido optimizada para el hardware en la cual se ejecuta).

Desventajas  El acceso remoto a memoria es lento. La programación puede ser complicada

Ejemplo  #include int main(int argc, char *argv[]) { char idstr[32]; char buff[128]; int numprocs; int myid; int i; MPI_Status stat; MPI_Init(&argc,&argv); //sus arg son punteros a las func //main(),argc,argv // Determino el numero de proceso MPI_Comm_size(MPI_COMM_WORLD,&numprocs); MPI_Comm_rank(MPI_COMM_WORLD,&myid); //comunicador envia mensajes entre si

Ejemplo  if(myid == 0) { printf("Tenemos %d procesadores\n", numprocs); for(i=1;i<numprocs;i++) { sprintf(buff, "¡Holaaa %d! ", i); // Regresa el resultado MPI_Send(buff, 128, MPI_CHAR, i, 0, MPI_COMM_WORLD); } for(i=1;i<numprocs;i++) { // Recive el valor de cada proceso MPI_Recv(buff, 128, MPI_CHAR, i, 0, MPI_COMM_WORLD, &stat); printf("%s\n", buff); }

Ejemplo  else { // Recive el valor de cada proceso MPI_Recv(buff, 128, MPI_CHAR, 0, 0, MPI_COMM_WORLD, &stat); sprintf(idstr, "Procesador %d ", myid); strcat(buff, idstr); strcat(buff, "reportandose\n"); // Regresa el resultado MPI_Send(buff, 128, MPI_CHAR, 0, 0, MPI_COMM_WORLD); } // FInaliza MPI_Finalize(); return 0; }

Trabajos Futuros 

Conclusiones  El acceso remoto a memoria es lento. La programación puede ser complicada Java Puro escaso rendimiento debido a la inicialización costosa RMI Falta de rendimiento se agudiza para redes de baja latencia (Myrinet, SCI