Universidad de SonoraArquitectura de Computadoras1 PROGRAMA CION PARALELA Y DISTRIBUIDA PRESENTA: JESUS BECERRIL PACHECO MODELOS DE ACCESO A LA MEMORIA.

Slides:



Advertisements
Presentaciones similares
II. ARQUITECTURAS PARALELAS
Advertisements

COLEGIO UNIVERSITARIO DE ADMINISTRACION Y MERCADEO
Multiprocesadores 3.1 Dominios de aplicación
Bases de datos distribuidas
Base de Datos Distribuidas FUNDAMENTOS DE BASES DE DATOS DISTRIBUIDAS
Aplicaciones Cliente-Servidor
Carlos Rojas Kramer Universidad Cristóbal Colón
Estructura de un Sistema Operativo
ASPECTOS DEL DISEÑO DE SD
Ana Lucia Farfan Estrada. Angela Aybar Rengifo.
Base de Datos Distribuidas
Sistema de Gestión de Base de Datos
S.O. Multiusuario, red. Servicio: Cliente/Servidor, p2p
Arquitecturas Paralelas IF - EHU Arquitecturas Paralelas 7. Coherencia de Datos en computadores DSM - Introducción - Directorios de coherencia: MP/MC -
Introducción a los Sistemas de Bases de Datos Distribuidos
Algorítmo de Mapeo Directo
Por: Santiago Toro Rendón Raquel Sepúlveda.  El SO se instala en una sección definida de la unidad de disco duro, denominada partición de disco. Existen.
Universidad Centroamericana
Composición Interna de un Procesador
Direcciones físicas y direcciones virtuales (lógicas)
Problema Procesador-Memoria
PROCESAMIENTO PARALELO.  Organización lógica ◦ Visión que tiene el programados  Capacidad de expresar tareas paralelas (Estructura de control)  Método.
PROCESAMIENTO PARALELO
Departamento de Computación, FACYT, Universidad de Carabobo
Introducción a los Sistemas Distribuidos. Prof. Yudith Cardinale Sept – Dic 2006 Universidad Simón Bolívar Departamento de Computación y T. I Tópicos en.
Algoritmos Distribuidos Semana 1. Parte 2 Comunicación por Pase de Mensajes Claudia León Universidad Central de Venezuela Facultad de Ciencias Escuela.
Redes III. Primeras Redes Empezaron agregando redes y expandiendo las redes existentes casi tan rápidamente como se producía la introducción de nuevas.
PARTICIÓN DE DISCOS - HERRAMIENTAS
OMAR SANCHEZ ROBLES HECTOR PEREZ GARCIA. “Sistemas de cómputo compuesto por un gran número de CPU´s conectados mediante una red de alta velocidad”, Tanenbaum.
Memoria Cachés. Universidad de SonoraArquitectura de Computadoras2 Introducción Caché es el nivel de memoria situada entre el procesador y la memoria.
Introducción al modelo Cliente-Servidor Carlos Rojas Kramer Universidad Cristóbal Colón.
Manuela Chavarriaga Betancur Telecomunicaciones 11º3 Resumen Capitulo 2.
Computación en la Nube UASF.
5. Sistemas de archivos avanzados1 Tema 5: Sistemas de Archivos Avanzados Resumen: –Sistema de archivos distribuido –File Replication Service.
Servidores Conceptos Generales.
Redes de Computadores I Agustín J. González
TEMA 10. SISTEMAS OPERATIVOS DISTRIBUIDOS
14 de diciembre de 2005 Universidad de Murcia1 Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de.
Arquitecturas Paralelas
PROGRAMACIÓN PARALELA Modelos de programación paralela Modelos computacionales Paradigmas de programación paralela Programación en memoria compartida:
TOPOLOGIAS DE RED PRESENTADO A : FABIO ANDRES LASSO
Ingeniería de software
Memoria virtual.
ARQUITECTURAS PARALELAS
NOTA: Para cambiar la imagen de esta dispositiva, seleccione la imagen y elimínela. A continuación haga clic en el icono Imágenes en el marcador de posición.
Redes de Area Local, LAN Una red de área local es una red de datos de alta velocidad que cubre un área geográfica relativamente pequeña. Típicamente conecta.
Tema 5: Multiprocesadores
COLEGIO DE BACHILLERES N° 16 PLANTEL TLAHUAC “MANUEL CHAVARRIA CHAVARRIA”
VIII. TOPICOS AVANZADOS DE SISTEMAS OPERATIVOS
Cloud Computing Grupo 4 de computación y programación
Almacenamiento virtual de sitios web “HOSTS VIRTUALES”
Redes: Principios básicos CAPITULO 1. Pager/ Celular Servicio Postal LANs/WANs Telefónica TV/Radio Comunicaciones Redes de Comunicaciones.
Modelo de 3 capas.
Introducción a los Sistemas Distribuidos. Prof. Yudith Cardinale Sept – Dic 2008 Universidad Simón Bolívar Departamento de Computación y T. I Sistemas.
ESCALABILIDAD Es un mecanismo que funciona en entornos pequeños o globales (número de máquinas, distancia, ancho de banda, capacidad, etc.)
SEGMENTACIÓN DE LA RED UNIVERSIDAD NACIONAL DE INGENIERÍA
ARQUICTECTURA DE SERVIDORES
ARQUITECTURAS DE LOS SERVIDORES El computador tiene 2 aspectos para entender su funcionamiento al nivel de programación: Almacenamiento Procesamiento Para.
BASE DE DATOS DISTRIBUIDAS
1 Temas fundamentales del Curso Conceptos básicos de Sistemas Distribuidos. Caracterización de los sistemas distribuidos. Concurrencia en Sistemas Distribuidos.
Computación en la Nube.
QUE ES UNA RED Una red es un grupo de equipos de sobremesa o portátiles (y otros dispositivos de red, como impresoras) conectados entre sí El propósito.
*UNIVERSIDAD JUARES DEL ESTADO DE DURANGO “EXPOSICIÓN” *ERICK DE JESUS MONTIEL REYES *JORGE LUIS FLORES NEVARES *1-F TURNO VESPERTINO.
Conjunto de elementos físicos y lógicos que proporcionan interconexión en un área privada y restringida. Por tanto, tiene entre otras las siguientes.
BASES DE DATOS DISTRIBUIDAS M.C.C. María Guadalupe Villanueva Carrasco INGENIERIA EN SISTEMAS COMPUTACIONALES.
WLAN (Wireless Local Area Network). WLAN  Es un sistema de comunicación de datos inalámbrico flexible muy utilizado como alternativa a la LAN cableada.
13/11/14. UNIDADES DEL SEMESTRE Este trabajo esta diseñado para saber los propósitos de los sistemas de información, así como el buen desempeño que le.
Consistencia y Replicación
Apuntes preparados por Néstor González Valenzuela slide 1 Arquitecturas de Sistemas Distribuidos y Paralelos.
Transcripción de la presentación:

Universidad de SonoraArquitectura de Computadoras1 PROGRAMA CION PARALELA Y DISTRIBUIDA PRESENTA: JESUS BECERRIL PACHECO MODELOS DE ACCESO A LA MEMORIA Uniform Memory Access (UMA,NUMA,COMA,NORMA)

Uniform Memory Access (UMA) En sistemas con uniform memory access (acceso a memoria uniforme), cada procesador tiene acceso directo a una sola memoria compartida. Todas las ubicaciones de la memoria son equidistantes (en cuanto a tiempos de acceso) a cada procesador. La mayoría de los sistemas UMA incorpora caché para eliminar las disputas de la memoria pero este mecanismo no se ve desde las aplicaciones.

Cache-only Memory Architecture (COMA) Sistemas con cache only memory access (acceso a memoria solo en caches) no tiene memoria compartida física, pero el cache solo constituye la memoria de las máquinas. Se provee un solo espacio físico de direcciones pero los tiempos de acceso varían dependientemente si la ubicación de la memoria requerida está en el caché local o en uno remoto. El software de aplicación ignoraría la arquitectura del sistema ya que la máquina se comporta en forma muy parecida a una máquina UMA con caché.

Non uniform Memory Access (NUMA) Sistemas con nonuniform memory access (acceso a memoria no uniforme) tienen una memoria física compartida distribuida. Cada partición de esta memoria se ata directamente a un nodo pero se puede acceder a ella por procesadores en otro nodos via la red de interconexión. Así, los tiempos de acceso a la memoria difieren dependiendo de si la ubicación requerida es local al nodo o remota a este. Este nivel de complejidad agregado puede ser escondido del software de aplicación pero hacer esto lleva a un desempeño suboptimo. Para hacer mejor uso del hardware, el programador debe tomar la arquitectura en consideración. El cache se usa entre procesadores y memoria local asi como entre nodos. Máquinas con caché coherente a nivel del hardware se llaman ccNUMA.

Los rasgos de UMA UMA (Uniform Memory Access) La memoria física es compartida uniformemente por todo procesadores. Todos los procesadores tienen tiempo de acceso igual a la memoria. Se llama también sistema acoplado hermético debido al alto grado de compartir recursos. La interconexión del sistema toma la forma de un bús común, un crossbar switch. El modelo UMA es satisfactorio para aplicaciones de propósitos generales y tiempo compartido para múltiples usuarios.

Los rasgos de NUMA y pasos de mensajes. La memoria compartida es fisicamente distribuida a todos los procesadores, llamada memorias locales. La colección de todas las memorias locales forma un espacio de la direcciones global accesible por todo procesadores. Es más lento acceder a la memoria remota atada a otros procesadores debido al retraso agregado por la red de interconexión. Hay dos maneras de comunicación de datos entre procesadores. Se pueden direccionar memorias separadas como un espacio de direcciones compartido lógicamente, se llama DSM (Distributed Shared Memory: Memoria Distribuida Compartida) o NUMA (NonUniform Memory Access), ya que el tiempo de acceso depende de la ubicación de memoria, la misma dirección física en dos procesadores refiere a la misma localidad en memoria.

Comparación de costo y escalabilidad En sistemas UMA, cada procesador conecta a memoria compartida via un bus de sistema o crossbar. Se puede expandir de 2 a 32 procesadores. Debido al ancho de banda del bus y el ancho de banda de la memoria al procesador unido se restringe la escalabilidad. Acerca del costo, debido a que la expansión esta limitada por el tamaño, el costo es relativamente más alto. En cambio, en sistemas de paso de mensajes (NUMA), cada procesador tiene su propia memoria, cache y E/S. No como UMA, se puede extender fácilmente y ninguna restricción de máquina, así el costo es relativamente más bajo.

Comparación de NUMA y COMA En el actual mundo de arquitecturas de memoria distribuida compartida, hay dos arquitecturas dominantes: El más popular es un diseño llamado Cache-Coherent Non-Uniform Memory Access ( "ccNUMA"). El otro diseño emergente es el Cache Only Memory Architecture ( "COMA"). Asi como UMA difiere de estas ya que tiene una memoria uniforme para todos los procesadores, ccNUMA y COMA se diferencian por la forma de uso del caché (ya que las dos usan memoria distribuida). En una máquina ccNUMA, la dirección (física) en un bus de memoria de un nodo de proceso se usa para determinar la ubicación de memoria del nodo hogar de un dato particular. La jerarquía de cache en cada nodo de proceso se construye para reproducir y mantener copias de los datos de no sólo la memoria local, sino también de la memoria de nodos remotos. La coherencia del hardware y mecanismo de directorios sirven para mantener éstas copias de cachés consistentes. Mientras el caché ayuda a reducir la latencia de acceso a una memoria remota, el total disponible es restringido al tamaño del caché en cada nodo. Además, si los datos estan ubicados en un nodo remoto entonces hay un causa para emigrarlos localmente. De cualquier modo, tal migración es una operación costosa envuelviendo sincronisación del sistema operativo entre todos los nodos compartidos.

En una máquina COMA, hardware adicional incluyendo etiquetas (tags) y estado de memoria se agragan a la DRAM de cada nodo de proceso para convertirlo en un tipo de caché que llamamos memoria de atracción. Este hardware adicional habilita la desasociación de la ubicación actual de los datos en la máquina de las direcciones físicas producidas por los procesadores. Haciendo esto habilita los datos para ser reproducidos y emigrados automáticamente según demanda alrededor de la máquina, creando una plataforma mucho más flexible para las aplicaciones. En resumen, una máquina COMA provee una plataforma muy flexible para una procesar una aplicación, pero sobre un gasto en memoria adicional de sobreuso del sistema y quizás más importantemente, una implementación del controlador de la coherencia de la atracción de la memoria complejo. Por contraste, una arquitectura ccNUMA es más fácil de implementar, (posiblemente porque ya esta implementada), pero da fuerza a ser más firme en cuanto al grado de replicación de los datos que una aplicación usaría, y el significante costo más alto de ubicar los datos incorrectamente y la migración (si es posible por la aplicación).