La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Organización del Computador

Presentaciones similares


Presentación del tema: "Organización del Computador"— Transcripción de la presentación:

1 Organización del Computador
Memorias

2 Jerarquía de las memorias

3 Jerarquía de memorias en un Pentium

4 Métricas de las memorias
Capacidad de almacenamiento: en bytes o múltiplos (kB, MB, TB) Tiempo de acceso: en segundos o submúltiplos (ns, ms) Velocidad de tranferencia de datos: en bytes/seg o múltiplos Comsumo de energía: en Watts Tamaño físico: en cm3 Costo total y costo por MB: en $ y $/MB

5 Tipos y tecnología de memorias
Memorias ROM (Read Only Memory) Programable ROM Erasable Programable ROM Electronically Erasable Programable ROM Memorias RAM (Random Access Memory) RAM estáticas vs dinámicas RAM volátiles vs no volátiles Memorias FLASH

6 Ejemplo memoria OTP EPROM

7 Características físicas de la EPROM

8 Ejemplo memoria OTP EPROM

9 Diagrama de tiempos de la EPROM

10 Ejemplo EEPROM

11 Ejemplo EEPROM

12 Ejemplo memoria FLASH

13 Ejemplo memoria SRAM

14 Ejemplo memoria SRAM

15 Ejemplo memoria SRAM

16 Ejemplo memoria SRAM

17 Ejercicio Dada un espacio de memoria de 64 K x 8 bits, y el siguiente mapa de memoria, diseñar el circuito lógico de selección. Mapa de memoria: 0000 a 2000 hex => EPROM 2000 a 8000 hex => RAM 8000 a FFFF hex => FLASH

18 Tecnología de Integración Actual
65 nm nanotechnology Imágenes obtenidas con TEM (Transmission Electron Microscope) de una cepa del virus de la gripe, y de un transistor construido con la tecnología de 65 nm utilizada desde el año 2005 en el Procesador Pentium IV y posteriores.

19 Tecnología de memorias: RAM Dinámica
CAS RAS Cd Bit de datos de salida al bus Buffer Transistor Diagrama de un bit elemental de DRAM (Dynamic RAM). Almacena la información como una carga en una capacidad espuria de un transistor. Una celda (un bit) se implementa con un solo transistor  máxima capacidad de almacenamiento por chip. Ese transistor consume mínima energía  Muy bajo consumo. Al leer el bit, se descarga la capacidad  necesita regenerar la carga  aumenta entonces el tiempo de acceso de la celda.

20 Tecnología de memorias: RAM Estática
Línea de Bit Selección 3 4 1 6 2 5 Diagrama del biestable de un bit básico de SRAM (Static RAM). Almacena la información en un biestable. Una celda (un bit) se compone de seis transistores  menor capacidad de almacenamiento por chip. 3 transistores consumen energía máxima en forma permanente y los otros 3 consumen mínima energía  Mayor consumo La lectura es directa y no destructiva  tiempo de acceso muy bajo

21 Estructura de Bus clásica
Desde fines de los años 80, los procesadores desarrollaban velocidades muy superiores a los tiempos de acceso a memoria. En este escenario, el procesador necesita generar wait states para esperar que la memoria esté lista (“READY”) para el acceso. ¿Tiene sentido lograr altos clocks en los procesadores si no puede aprovecharlos por tener que esperar (wait) a la memoria? Procesador Bus Local del Procesador CONTROL DATOS ADDRESS Bus de Control Buffer de Datos Buffer de Address BUS DEL SISTEMA Memoria del Sistema E/S del Sistema

22 Crecimiento de la velocidad de clock de las CPU versus memoria
1100 1000 900 800 700 600 500 400 300 200 100 89 90 91 92 93 94 95 96 97 98 99 00 486 DX4 100 MHz. 386 DX 33 MHz Pentium II 400 MHz. Pentium III 1GHz Memorias

23 El problema RAM dinámica (DRAM) RAM estática (SRAM) Consumo mínimo.
Capacidad de almacenamiento comparativamente alta. Costo por bit bajo. Tiempo de acceso alto (lento), debido al circuito de regeneración de carga. Si construimos el banco de memoria utilizando RAM dinámica, no aprovechamos la velocidad del procesador. RAM estática (SRAM) Alto consumo relativo. Capacidad de almacenamiento comparativamente baja. Costo por bit alto. Tiempo de acceso bajo (es mas rápida). Si construimos el banco de memoria utilizando RAM estática, el costo y el consumo de la computadora son altos.

24 La solución: Memoria cache
Se trata de un banco de SRAM de muy alta velocidad, que contiene una copia de los datos e instrucciones que están en memoria principal El arte consiste en que esta copia esté disponible justo cuando el procesador la necesita permitiéndole acceder a esos ítems sin recurrir a wait states. Combinada con una gran cantidad de memoria DRAM, para almacenar el resto de códigos y datos, resuelve el problema mediante una solución de compromiso típica. Requiere de hardware adicional que asegure que este pequeño banco de memoria cache contenga los datos e instrucciones mas frecuentemente utilizados por el procesador.

25 Referencias El tamaño del banco de memoria cache debe ser:
Suficientemente grande para que el procesador resuelva la mayor cantidad posible de búsquedas de código y datos en esta memoria asegurando una alta performance Suficientemente pequeña para no afectar el consumo ni el costo del sistema. Se dice que se logra un hit cuando se accede a un ítem (dato o código) y éste se encuentra en la memoria cache. En caso contrario, se dice que el resultado del acceso es un miss. Se espera un hit rate lo mas alto posible Cantidad de accesos con presencia en Memoria Cache hit rate = Cantidad total de accesos a memoria

26 Operación de Lectura de memoria
Inicio Busca ítem en cache CPU envía señal de lectura Busca ítem en cache y envía a la CPU Busca ítem en memoria del sistema Escribe ítem en el cache Actualiza directorio cache Envía ítem a la CPU Fin Miss Hit!!

27 Estructura de Bus del sistema con cache
Memoria cache Controlador de Memoria caché Buffer de Address Datos BUS DEL SISTEMA Bus Local del procesador Procesador Bus de Control CONTROL DATOS ADDRESS Bus Local del controlador cache Bus de Datos Bus de Dir.

28 Como trabaja el controlador cache
El controlador cache trabaja mediante dos principios que surgen de analizar el comportamiento de los algoritmos de software que se emplean habitualmente. Principio de vecindad temporal: Si un ítem es referenciado, la probabilidad de ser referenciado en el futuro inmediato es alta. Principio de vecindad espacial: Si un ítem es referenciado, es altamente probable que se referencie a los ítems vecinos a éste. Ejemplo: Algoritmo de convolución for (i = 0 ; i < 256 ; i++ ){ suma = 0.0f; for (j = 0 ; (j <= i && j < 256) ; j++) suma += v0[i-j] * v1[j]; fAux[i] = suma; } i, j, suma, se utilizan a menudo. Por lo tanto si se mantienen en el cache, el tiempo de acceso a estas variables por parte del procesador es óptimo.

29 Estructura de memoria cache
Tag Línea Dirección 1 2 3 4 5 6 7 8 9 Línea Línea: Elemento mínimo de palabra de datos dentro del cache. Corresponde a un múltiplo del tamaño de la palabra de datos de memoria. Razón: Cuando se direcciona un ítem en memoria generalmente se requerirá de los ítem que lo rodean (Principio de vecindad espacial) Ancho de palabra

30 Controlador de Memoria caché Memoria SRAM ultrarrápida (cache)
Memoria Cache Baja capacidad, pero accesible a la velocidad del procesador Procesador Bus del Procesador (Bus local) Subsistema caché Hardware adicional. Mantiene el cache con los datos mas frecuentemente utilizados por el procesador Controlador de Memoria caché Memoria SRAM ultrarrápida (cache) Bus del Sistema Directorio de Cache Interfaz con el Bus Local Control del Cache Interfaz con el Procesador Bus de Address del procesador Control del bus local del controlador cache Bus de Snoop Arbitración del Bus Control del bus Local del Procesador Bus de Control de la Memoria Cache Decodificaciones del bus local del procesador Memoria DRAM

31 Organización del caché: Mapeo Directo
Directorio de Caché Interno 4 Gbytes de Memoria Principal Tag 17 bits Bit de validez del Tag Bits de validez de las líneas 32 Kbytes (igual tamaño que el de la cache) Set 0 Set 1 Set 1023 Memoria Caché Pag.0 Pag Línea 1 Línea = 4 bytes

32 Organización del caché de mapeo directo
15 14 A5 4 31 2 Tag de 17 bits (1 de las 217 páginas) Set Address (1 de 1024 sets) Caché Address (1 de 8 KLíneas) Selector de Línea (1 de 8 líneas) Bit de validez del Tag Bits de validez de la línea 1 Nro de Set 1023 Directorio de Caché Interno

33 Organizacion del cache: Asociativo de dos vías
Directorio de Caché Interno 4 Gbytes de Memoria Principal Tag 18 bits Bit de validez del Tag Bits de validez de las líneas (igual tamaño Que el de cada banco del cache) 16 Kbytes Set 0 Set 1 Set 512 Memoria Caché Pag.0 Pag Línea 1 Línea = 4 bytes Bits LRU

34 Organización del caché asociativo de dos vías
Caché Address (1 de 4 KLíneas) A31 A14 A13 A5 A4 A2 Selector de Línea (1 de 8 líneas) Tag de 18 bits (1 de las 218 páginas) Set Address (1 de 512 sets) Bit de validez del Tag Bits de validez de la línea 1 Nro de Set 512 Directorio de Caché Interno

35 Manejo del contenido Algoritmos de reemplazo del contenido de la memoria cache LRU: Least Recently Used. Se corresponde con el principio de vecindad temporal. LFU: Least Frecuently Used Random FIFO

36 Cache miss: Impacto en el Pipeline de instrucciones
Pipeline: permite superponer en el tiempo la ejecución de varias instrucciones a la vez. No requiere hardware adicional. Solo se necesita lograr que todas las partes del procesador trabajen a la vez. Trabaja con el concepto de una línea de montaje: Cada operación se descompone en partes Se ejecutan en un mismo momento diferentes partes de diferentes operaciones Cada parte se denomina etapa (stage) Resultado Una vez en régimen ejecuta a razón de una instrucción por ciclo de clock

37 Cache miss: Impacto en el Pipeline de instrucciones
Si la búsqueda de una instrucción o de un operando en el cache falla, entonces el procesador debe recurrir a la memoria principal. La demora en el acceso hace que el pipeline se atasque (stall) Una vez recuperado el dato de memoria principal se requieren (en este ejemplo), 5 ciclos de reloj adicionales para recuperar el ritmo de operación del pipeline!!

38 Coherencia de un cache Una variable que está en el caché también está alojada en alguna dirección de la DRAM. Ambos valores deben ser iguales Cuando el procesador la modifica hay varios modos de actuar Write through: el procesador escribe en la DRAM y el controlador cache refresca el cache con el dato actualizado Write through buffered: el procesador actualiza la SRAM cache, y el controlador cache luego actualiza la copia en memoria DRAM mientras el procesador continúa ejecutando instrucciones y usando datos de la memoria cache Copy back: Se marcan las líneas de la memoria cache cuando el procesador escribe en ellas. Luego en el momento de eliminar esa línea del caché el controlador cache deberá actualizar la copia de DRAM. Si el procesador realiza un miss mientras el controlador cache está accediendo a la DRAM para actualizar el valor, deberá esperar hasta que controlador cache termine la actualización para recibir desde este la habilitación de las líneas de control para acceder a la DRAM.

39 Estructura de Bus del sistema Multiprocesador con cache
Controlador de Memoria caché Memoria cache BUS DEL SISTEMA Procesador Bus de Control CONTROL DATOS ADDRESS Buffer de Address Datos SNOOP BUS Bus del cache Bus local del controlador cache Bus local del procesador

40 Multilevel cache CPU Cache Level 2 Cache controller System Memory
On chip Cache Level 2 Cache controller Tamaño Cache L2 > Tamaño Cache L1 Velocidad Cache L1 > Velocidad Cache L2 System Memory (DRAM)

41 Implementaciones prácticas de memoria cache (1)
Intel 80486 8 Kbytes de cache L1 on chip Tamaño de línea: 16 bytes Organización asociativa de 4-vías Pentium dos caches on-chip, uno para datos y otro para instrucciones. Tamaño de cada cahe: 8 Kbytes Tamaño de línea: 32 bytes PowerPC 601 cache on-chip de 32 Kbytes Organización asociativa de 8-vías

42 Implementaciones prácticas de memoria cache (2)
PowerPC 603 Dos caches on-chip, una para datos y otra para instrucciones Tamaño de cada cache: 8 Kbytes Tamaño de línea: 32 bytes Organización asociativa de 2-vías (organización del cache más simple que en el 601 pero un procesador mas fuerte) PowerPC 604 Tamaño de cada cache: 16 Kbytes Organización asociativa de 4-vías PowerPC 620 Tamaño de cada cache: 32 Kbytes Tamaño de línea: 64 bytes Organización asociativa de 8-vías


Descargar ppt "Organización del Computador"

Presentaciones similares


Anuncios Google