ARQUITECTURAS PARALELAS

Slides:



Advertisements
Presentaciones similares
Arquitectura de Sistema de E/S
Advertisements

UNIVERSIDAD DEL VALLE DE MEXICO CAMPUS CHAPULTEPEC
Tipos de Organización ... La organización de máquinas multiprocesadores más típicas son: Mesh Networks. Binary Tree Networks. Hypertree Networks. Pyramid.
COLEGIO UNIVERSITARIO DE ADMINISTRACION Y MERCADEO
Multiprocesadores 3.1 Dominios de aplicación
I.T.E.S.R.C. Romina Tamez Andrea Martínez Ma. De Lourdes Solís
SISTEMAS OPERATIVOS Un Sistema operativo (SO) es un software que actúa de interfaz entre los dispositivos de hardware y los programas de usuario.
ASPECTOS DEL DISEÑO DE SD
Fecha: 11/09/13.  Todos los sistemas distribuidos constan de varias CPU, organizadas de diversas formas.  La forma de interconectarlas entre sí. 
Sistemas en estratos. Descripción: se organiza en una jerarquía de estratos, estando construido cada uno de ellos sobre el otro que tiene menor jerarquía.
Introducción a los Sistemas Operativos Memoria Virtual
REDES DE COMPUTADORAS LINA MARCELA HERRERA P ASIGNATURA:OFIMATICACARRERA: TECNOLOGIA EN INFORMATICA APLICADA UNIVERSIDAD CATOLICA MANIZALES JUNIO 2 / 2004.
Memoria Compartida Distribuida
Composición Interna de un Procesador
Direcciones físicas y direcciones virtuales (lógicas)
PROCESAMIENTO PARALELO.  Organización lógica ◦ Visión que tiene el programados  Capacidad de expresar tareas paralelas (Estructura de control)  Método.
Universidad de SonoraArquitectura de Computadoras1 PROGRAMA CION PARALELA Y DISTRIBUIDA PRESENTA: JESUS BECERRIL PACHECO MODELOS DE ACCESO A LA MEMORIA.
Arquitectura del Computador
ISA (Instruction Set Architecture)
HILOS Y COMUNICACIÓN ENTRE PROCESOS
Centralizados y Distribuidos
ARQUITECTURAS SIMD TIPOS
Algoritmos Distribuidos Semana 1. Parte 2 Comunicación por Pase de Mensajes Claudia León Universidad Central de Venezuela Facultad de Ciencias Escuela.
Organización del Computador I Verano MIPS (1 de 2) Basado en el capítulo 3 del libro de Patterson y Hennessy Verano 2004 Profesora Borensztejn.
INSTITUTO TECNOLÓGICO DE CD. GUZMÁN
Administración de Memoria Memoria Virtual
Tema 10.3: Asignación de Espacio No Contiguo. Tema 10.3: 2 Silberschatz, Galvin and Gagne ©2005 Fundamentos de los Computadores (ITT, Sist. Electr.),
Asignación de Espacio No Contiguo
SISTEMAS OPERATIVOS →¿Qué es un sistema operativo?
Electrónica aplicada al tratamiento de datos Procesadores digitales de señal (PDS) DSP: Digital Signal Processors (procesadores) DSP: Digital.
EL SISTEMA OPERATIVO.
MÁQUINAS MULTINIVEL NIVEL 5 Lenguajes de alto nivel
Introducción a los Sistemas Operativos
SISTEMAS OPERATIVOS.
TEMA 10. SISTEMAS OPERATIVOS DISTRIBUIDOS
Inst. Tec. de Morelia ISC BASES DE DATOS DISTRIBUIDAS VERANO DEL 2006 MC. Anastacio Antolino Hernández TAXONOMÍA DE FLYNN.
14 de diciembre de 2005 Universidad de Murcia1 Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de.
Arquitecturas Paralelas
Tema 3: Paralelismo en Multiprocesadores (I)
ARQUITECTURA DE COMPUTADORES Semestre A-2009 Clase 21 La mayor parte del contenido de estas láminas, ha sido extraído del libro Computer Organization and.
Tema 1: Introducción Motivación del procesamiento paralelo, su “inevitabilidad” Supercomputadores: Los Top 500 Paralelismo en Multiprocesadores: Perspectiva.
PROGRAMACIÓN PARALELA Modelos de programación paralela Modelos computacionales Paradigmas de programación paralela Programación en memoria compartida:
Introducción a los SOs.
Tema 8: Introducción a los SOs. Tema 8: 2 Silberschatz, Galvin and Gagne ©2005 Fundamentos de los Computadores (ITT, Sist. Electr.), Introducción.
Tema 5: Multiprocesadores
VIII. TOPICOS AVANZADOS DE SISTEMAS OPERATIVOS
Sánchez Manjarrez Silvana Ing. Daniel Domínguez C. México, D.F. a 13 de septiembre del 2006 Arquitectura de Computadoras Arquitecturas CISC Y RISC Campus.
Prueba de diagnostico Andrés Vargas Fundamentos tecnológicos de la información 04 Febrero 2013.
JHON JAIRO MONTOYA GIRALDO INFORMATICA EMPRESARIAL.
Generaciones de Sistemas Operativos
Unidad 2 – Gestión de Procesos
ARQUICTECTURA DE SERVIDORES
Bases de Datos II BASES DE DATOS DISTRIBUIDAS
La importancia de un equipo de computo
Son los atributos de un sistema que son visibles para un programador, es decir aquellos atributos que impactan directamente en la ejecución lógica de un.
* UNIVERSIDAD TECNOLOGICA DE PUEBLA TECNOLOGIAS DE LA INFORMACION Y COM. AREA REDES Y TELECOMUNIC IONES ADMINISTRACION DE SERVIDORES «ARQUITECTURA DE COMPUTADORAS»
UNIDAD 1. ORGANIZACIÓN BÁSICA Y DISEÑO DEL COMPUTADOR
Computadora Es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos.
ARQUITECTURAS DE LOS SERVIDORES El computador tiene 2 aspectos para entender su funcionamiento al nivel de programación: Almacenamiento Procesamiento Para.
Estructuras en Sistemas Operativos DAISY KATERINE RODRÍGUEZ.
LAN (Local Area Network – Red de Área local) Una Red de Área Local es un conjunto de elementos físicos y lógicos que proporcionan interconexión a una.
Republica Bolivariana de Venezuela Universidad Alonso de Ojeda Facultad de Ingeniería Escuela de Computación Ing. Prof. Leonel Sequera Entrada y Salidas.
SISTEMAS OPERTIVOS DE RED Los usuarios están conectados a la red y que pueden compartir recursos. Cada equipo ejecuta con sus propios recursos su propio.
PROCESADOR.- El procesador es el cerebro del sistema, encargado de procesar toda la información. Básicamente, es el "cerebro" de la computadora. Prácticamente,
Gestión de Memoria – Parte 2
Arquitectura de Computadores IIC 2342 Semestre Rubén Mitnik Pontificia Universidad Católica de Chile Escuela de Ingeniería Departamento de Ciencia.
Estructura del sistema operativo
Apuntes preparados por Néstor González Valenzuela slide 1 Arquitecturas de Sistemas Distribuidos y Paralelos.
1/50 Ing. Gerardo Chávez Malpartida Administración de Memoria SISTEMAS OPERATIVOS.
Transcripción de la presentación:

ARQUITECTURAS PARALELAS ACTUALES

Arquitectura Paralela : AYER Históricamente, la computación paralela ha consistido en una serie de modelos rivales y arquitecturas divergentes, sin una línea de desa- rrollo predecible Software de Aplicaciones Software del Sistema Arrays Sistólicos SIMD Arquitectura Pase de Mensajes Memoria Compartida Flujo de Datos La incertidumbre arquitectural ha paralizado el desarrollo del software paralelo

Arquitectura Paralela : HOY Extensión de la noción clásica de la arquitectura de computadores (ISA), para soportar comunicación y cooperación Arquitectura de Comunicaciones = Abstracción de la Comunicación + Implementación Abstracción: Primitivas de comunicación HW/SW visibles al programador (ISA) Ej.: memoria compartida, pase de mensajes, … Se asume que las primitivas se implementan eficientemente Implementación: Integración del controlador de comunicaciones Estructura de la red de interconexión

Arquitectura de Comunicaciones Multi- Programación Memoria Compartida Pase de Mensajes Paralelismo de datos Modelo de Programación Compilación Librería Nivel Usuario Abstracción de la Comunicación Nivel Sistema Soporte del Sistema Operativo Hardware de Comunicación Frontera Hardware/ Software Medio de Comunicación Físico Objetivos: Amplia aplicabilidad Facilidad de programación Escalable Bajo coste

Arquitecturas de Memoria Compartida Propiedad Clave: Todos los procesadores pueden acceder de forma directa a todas las posiciones de memoria en el sistema (mecanismo convenien- te y rápido (?) para la comunicación) Abstracción de la Comunicación: Espacio de Direccionamiento Virtual Compartido Múltiples procesos pueden tener una región de memoria com- partida proyectada sobre su espacio de direcciones virtual, de modo que las escrituras de variables residentes en esta región son visibles para el resto de los procesos.

Espacio de Direcciones Compartido Pn LOAD Direcciones Físicas Comunes P2 STORE P1 P0 Espacio de Direcciones Compartido Direcciones Físicas Diferentes Espacio de Direcciones Privado La comunicación, compartición y sincronización se hace mediante operaciones Load/Store de variables compartidas Modelo de programación agradable (uniprocesador + sincronización) Una desventaja potencial es la escalabilidad

Arquitecturas de Pase de Mensajes Propiedad Clave: La comunicación (cooperación entre procesadores está integrada al nivel de I/O, y no en el sistema de memoria (ahora los bloques de diseño son computadores completos) Abstracción de la Comunicación: Espacio de Direccionamiento Local Los procesadores solo pueden acceder a su memoria local, establecién- dose la comunicación/sincronización mediante llamadas explícitas al S.O. (mensajes send/receive)

Abstracción del Pase de Mensajes recv Y,P,t send X,Q,t Dirección Y Dirección X Espacio de Direcciones Local Espacio de Direcciones Local Proceso P Proceso Q La combinación send-recv establece una copia memoria a memoria y una sincronización entre los procesos involucrados Enviar un mensaje consume mucho tiempo: - Construir la cabecera del mensaje; copiar los datos en el buffer de la red; enviar el mensaje; copiar los datos en el buffer receptor; copiar los datos del espacio S.O. al espacio usuario

Organización de Paralelismo de Datos Procesador de Control P-M P-M    P-M P-M P-M    P-M          P-M P-M    P-M Matriz de muchos procesadores simples y con poca memoria La matriz se conecta a un procesador de control de propósito general Comunicación eficiente general y especializada Sincronización global rápida

Arquitecturas de Paralelismo de Datos Modelo de Programación: Las operaciones se ejecutan paso a paso y en paralelo sobre cada Elemento de una gran estructura de datos regular (típicamente un array) Las operaciones suelen ser aritméticas y transferencias globales de datos Cada procesador tiene asociado un elemento de la estructura de datos

Evolución y Convergencia Origen a mediados de los 60 : El coste hardware/temporal de leer una instrucción era muy superior al de su ejecución. Muchas aplicaciones científicas operan sobre datos estructurados matricialmente y con depen- dencias locales. Resurgimiento a mediados de los 80 : La tecnología VLSI permite construir máquinas con miles de procesadores elementales, con procesamiento a nivel de bit y palabras multi-bit Aplicabilidad restringida: Máquinas restringidas a cálculos científicos regulares Utilidad controvertida : Las aplicaciones regulares suelen exhibir una fuerte localidad espacial y temporal, haciéndolas Aptas para su paralelización eficiente en multiprocesadores El modelo de programación paralelismo de datos ha evolucionado en el modelo SPMD (Single Program Multiple Data)

! Hardware Organizations : Scalability Network Network M M    M Network Network M M M $ $ $ $ $ $ P P P    P P P NUMA (Non-Uniform Memory Access) Dance-Hall or UMA (Uniform Memory Access) - Medium/low-BW network - Medium/low-latency memory access - High-BW network - High-latency memory access Complex memory controller ! Cache coherency problem

Arquitectura Paralela Genérica Network    M C $ P Colección de computadores esencialmente completos, incluyendo uno o varios procesadores y Memoria, conectados a través de una red de comunicaciones escalable Cada nodo incluye un controlador de comunicaciones, que determina las características clave de la arquitectura: denominación, compartición, protección, sincronización, ...