La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Universidad de SonoraArquitectura de Computadoras1 PROGRAMA CION PARALELA Y DISTRIBUIDA PRESENTA: JESUS BECERRIL PACHECO MODELOS DE ACCESO A LA MEMORIA.

Presentaciones similares


Presentación del tema: "Universidad de SonoraArquitectura de Computadoras1 PROGRAMA CION PARALELA Y DISTRIBUIDA PRESENTA: JESUS BECERRIL PACHECO MODELOS DE ACCESO A LA MEMORIA."— Transcripción de la presentación:

1 Universidad de SonoraArquitectura de Computadoras1 PROGRAMA CION PARALELA Y DISTRIBUIDA PRESENTA: JESUS BECERRIL PACHECO MODELOS DE ACCESO A LA MEMORIA Uniform Memory Access (UMA,NUMA,COMA,NORMA)

2 Uniform Memory Access (UMA) En sistemas con uniform memory access (acceso a memoria uniforme), cada procesador tiene acceso directo a una sola memoria compartida. Todas las ubicaciones de la memoria son equidistantes (en cuanto a tiempos de acceso) a cada procesador. La mayoría de los sistemas UMA incorpora caché para eliminar las disputas de la memoria pero este mecanismo no se ve desde las aplicaciones.

3 Cache-only Memory Architecture (COMA) Sistemas con cache only memory access (acceso a memoria solo en caches) no tiene memoria compartida física, pero el cache solo constituye la memoria de las máquinas. Se provee un solo espacio físico de direcciones pero los tiempos de acceso varían dependientemente si la ubicación de la memoria requerida está en el caché local o en uno remoto. El software de aplicación ignoraría la arquitectura del sistema ya que la máquina se comporta en forma muy parecida a una máquina UMA con caché.

4 Non uniform Memory Access (NUMA) Sistemas con nonuniform memory access (acceso a memoria no uniforme) tienen una memoria física compartida distribuida. Cada partición de esta memoria se ata directamente a un nodo pero se puede acceder a ella por procesadores en otro nodos via la red de interconexión. Así, los tiempos de acceso a la memoria difieren dependiendo de si la ubicación requerida es local al nodo o remota a este. Este nivel de complejidad agregado puede ser escondido del software de aplicación pero hacer esto lleva a un desempeño suboptimo. Para hacer mejor uso del hardware, el programador debe tomar la arquitectura en consideración. El cache se usa entre procesadores y memoria local asi como entre nodos. Máquinas con caché coherente a nivel del hardware se llaman ccNUMA.

5 Los rasgos de UMA UMA (Uniform Memory Access) La memoria física es compartida uniformemente por todo procesadores. Todos los procesadores tienen tiempo de acceso igual a la memoria. Se llama también sistema acoplado hermético debido al alto grado de compartir recursos. La interconexión del sistema toma la forma de un bús común, un crossbar switch. El modelo UMA es satisfactorio para aplicaciones de propósitos generales y tiempo compartido para múltiples usuarios.

6 Los rasgos de NUMA y pasos de mensajes. La memoria compartida es fisicamente distribuida a todos los procesadores, llamada memorias locales. La colección de todas las memorias locales forma un espacio de la direcciones global accesible por todo procesadores. Es más lento acceder a la memoria remota atada a otros procesadores debido al retraso agregado por la red de interconexión. Hay dos maneras de comunicación de datos entre procesadores. Se pueden direccionar memorias separadas como un espacio de direcciones compartido lógicamente, se llama DSM (Distributed Shared Memory: Memoria Distribuida Compartida) o NUMA (NonUniform Memory Access), ya que el tiempo de acceso depende de la ubicación de memoria, la misma dirección física en dos procesadores refiere a la misma localidad en memoria.

7 Comparación de costo y escalabilidad En sistemas UMA, cada procesador conecta a memoria compartida via un bus de sistema o crossbar. Se puede expandir de 2 a 32 procesadores. Debido al ancho de banda del bus y el ancho de banda de la memoria al procesador unido se restringe la escalabilidad. Acerca del costo, debido a que la expansión esta limitada por el tamaño, el costo es relativamente más alto. En cambio, en sistemas de paso de mensajes (NUMA), cada procesador tiene su propia memoria, cache y E/S. No como UMA, se puede extender fácilmente y ninguna restricción de máquina, así el costo es relativamente más bajo.

8 Comparación de NUMA y COMA En el actual mundo de arquitecturas de memoria distribuida compartida, hay dos arquitecturas dominantes: El más popular es un diseño llamado Cache-Coherent Non-Uniform Memory Access ( "ccNUMA"). El otro diseño emergente es el Cache Only Memory Architecture ( "COMA"). Asi como UMA difiere de estas ya que tiene una memoria uniforme para todos los procesadores, ccNUMA y COMA se diferencian por la forma de uso del caché (ya que las dos usan memoria distribuida). En una máquina ccNUMA, la dirección (física) en un bus de memoria de un nodo de proceso se usa para determinar la ubicación de memoria del nodo hogar de un dato particular. La jerarquía de cache en cada nodo de proceso se construye para reproducir y mantener copias de los datos de no sólo la memoria local, sino también de la memoria de nodos remotos. La coherencia del hardware y mecanismo de directorios sirven para mantener éstas copias de cachés consistentes. Mientras el caché ayuda a reducir la latencia de acceso a una memoria remota, el total disponible es restringido al tamaño del caché en cada nodo. Además, si los datos estan ubicados en un nodo remoto entonces hay un causa para emigrarlos localmente. De cualquier modo, tal migración es una operación costosa envuelviendo sincronisación del sistema operativo entre todos los nodos compartidos.

9

10 En una máquina COMA, hardware adicional incluyendo etiquetas (tags) y estado de memoria se agragan a la DRAM de cada nodo de proceso para convertirlo en un tipo de caché que llamamos memoria de atracción. Este hardware adicional habilita la desasociación de la ubicación actual de los datos en la máquina de las direcciones físicas producidas por los procesadores. Haciendo esto habilita los datos para ser reproducidos y emigrados automáticamente según demanda alrededor de la máquina, creando una plataforma mucho más flexible para las aplicaciones. En resumen, una máquina COMA provee una plataforma muy flexible para una procesar una aplicación, pero sobre un gasto en memoria adicional de sobreuso del sistema y quizás más importantemente, una implementación del controlador de la coherencia de la atracción de la memoria complejo. Por contraste, una arquitectura ccNUMA es más fácil de implementar, (posiblemente porque ya esta implementada), pero da fuerza a ser más firme en cuanto al grado de replicación de los datos que una aplicación usaría, y el significante costo más alto de ubicar los datos incorrectamente y la migración (si es posible por la aplicación).


Descargar ppt "Universidad de SonoraArquitectura de Computadoras1 PROGRAMA CION PARALELA Y DISTRIBUIDA PRESENTA: JESUS BECERRIL PACHECO MODELOS DE ACCESO A LA MEMORIA."

Presentaciones similares


Anuncios Google