Universidad Politécnica de Tulancingo Catedrático Ing. Jorge Luis Neri Trejo Asignatura Ing. De Hardware III Tema Procesamiento Paralelo Presenta Verónica.

Slides:



Advertisements
Presentaciones similares
“Fundamentos de Sistemas Distribuidos”
Advertisements

TEMA 1 Introducción a la Programación Concurrente
1.3. PROGRAMACION PARALELA
Tipos de Organización ... La organización de máquinas multiprocesadores más típicas son: Mesh Networks. Binary Tree Networks. Hypertree Networks. Pyramid.
II. ARQUITECTURAS PARALELAS
Paralelismo en Sistemas
Multiprocesadores 3.1 Dominios de aplicación
SISTEMAS OPERATIVOS Un Sistema operativo (SO) es un software que actúa de interfaz entre los dispositivos de hardware y los programas de usuario.
Microprocesadores.
Fecha: 11/09/13.  Todos los sistemas distribuidos constan de varias CPU, organizadas de diversas formas.  La forma de interconectarlas entre sí. 
HISTORIA Y CLASIFICACIÓN DE LOS SISTEMAS OPERATIVOS
EMISION MULTIPLE DE INSTRUCCIONES
Mejoras a las Máquinas Von Neumann
Tecnologías de la Información y de las telecomunicaciones Elementos de un sistema de Información 1.Hardware Visión Gerencial 2013.
Introducción *  Computadoras grandes y costosas  Las organizaciones tenían pocas computadoras  No existía una forma de conectarlas  Operaban.
Sistemas Distribuidos y Paralelos
Departamento de Computación, FACYT, Universidad de Carabobo
Facultad de Ingeniería Manufactura Integrada Por Computador II
Introducción a los Sistemas Distribuidos. Prof. Yudith Cardinale Sept – Dic 2006 Universidad Simón Bolívar Departamento de Computación y T. I Tópicos en.
Centralizados y Distribuidos
ARQUITECTURAS SIMD TIPOS
Conceptos generales: Concurrencia: Existencia simultánea de varios procesos en ejecución. IMPORTANTE: EXISTENCIA SIMULTÁNEA NO IMPLICA EJECUCIÓN SIMULTÁNEA.
Algoritmos Distribuidos Semana 1. Parte 2 Comunicación por Pase de Mensajes Claudia León Universidad Central de Venezuela Facultad de Ciencias Escuela.
ARQUITECTURA DE MÁQUINAS COMPUTADORAS III
PROGRAMACIÓN PARALELA Tema 4: Metodología de la programación
Diseño y Mantenimiento de un cluster para la dinámica de fluidos
CONCEPTOS FUNDAMENTALES FORMAS DE ALMACENAR INFORMACION UNIDAD BASE DE INFORMACION: BIT BYTE = 8 BITS UN KILOBYTE = 1024 BYTES UN MEGABYTE = 1024 KILOBYTES.
Procesamiento paralelo
INSTITUTO TECNOLÓGICO DE CD. GUZMÁN
Contenido Marco de referencia Arquitectura de computadoras paralelas
Conceptos Arquitectónicos del computador
SISTEMAS OPERATIVOS.
TEMA 2: Organización de computadores
Organización de Computadoras
Hebras, SMP, y Microkernels
Características de un sistema operativo
SISTEMAS OPERATIVOS.
FUNDAMENTOS TECNOLÓGICOS DE INFORMACIÓN
Despliegue de la aplicación Web
William Stallings Organización y Arquitectura de Computadores
Una computadora MIMD intrínseca implica interacciones entre n procesadores debido a que todos los flujos de memoria se derivan del mismo espacio de datos.
TEMA 10. SISTEMAS OPERATIVOS DISTRIBUIDOS
Inst. Tec. de Morelia ISC BASES DE DATOS DISTRIBUIDAS VERANO DEL 2006 MC. Anastacio Antolino Hernández TAXONOMÍA DE FLYNN.
14 de diciembre de 2005 Universidad de Murcia1 Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de.
Arquitecturas Paralelas
Tema 3: Paralelismo en Multiprocesadores (I)
PROGRAMACIÓN PARALELA Modelos de programación paralela Modelos computacionales Paradigmas de programación paralela Programación en memoria compartida:
VIII. TOPICOS AVANZADOS DE SISTEMAS OPERATIVOS
Proceso Un proceso es un conjunto de actividades o eventos (coordinados u organizados) que se realizan o suceden (alternativa o simultáneamente) con un.
Sánchez Manjarrez Silvana Ing. Daniel Domínguez C. México, D.F. a 13 de septiembre del 2006 Arquitectura de Computadoras Arquitecturas CISC Y RISC Campus.
ARQUICTECTURA DE SERVIDORES
ARQUITECTURA ALTERNATIVA DE SERVIDORES SISTEMAS OPERTIVOS DE RED En un sistema operativo de red los usuarios saben que están conectados a la red y que.
La importancia de un equipo de computo
Son los atributos de un sistema que son visibles para un programador, es decir aquellos atributos que impactan directamente en la ejecución lógica de un.
Principio unidad 1.
* UNIVERSIDAD TECNOLOGICA DE PUEBLA TECNOLOGIAS DE LA INFORMACION Y COM. AREA REDES Y TELECOMUNIC IONES ADMINISTRACION DE SERVIDORES «ARQUITECTURA DE COMPUTADORAS»
FUNDAMENTOS TECNOLÓGICOS DE INFORMACIÓN
Funciones principales!
Computadoras de Alto Rendimiento (HPC)
SISTEMAS OPERATIVOS.
También es conocido como proceso ligero. Es una entidad básica de utilización de CPU y esta formado por un contador de programa, algunos registros y una.
Republica Bolivariana de Venezuela Universidad Alonso de Ojeda Facultad de Ingeniería Escuela de Computación Ing. Prof. Leonel Sequera Entrada y Salidas.
SISTEMAS OPERTIVOS DE RED Los usuarios están conectados a la red y que pueden compartir recursos. Cada equipo ejecuta con sus propios recursos su propio.
PROCESADOR.- El procesador es el cerebro del sistema, encargado de procesar toda la información. Básicamente, es el "cerebro" de la computadora. Prácticamente,
Sistemas Distribuidos Conceptos Básicos Propiedades MSI. Nancy A. Olivares Ruiz.
CAPITULO V Arquitectura de Von Neumann
ORGANIZACIÓN DE COMPUTADORAS DRA. LETICIA FLORES PULIDO.
Apuntes preparados por Néstor González Valenzuela slide 1 Arquitecturas de Sistemas Distribuidos y Paralelos.
Hiperpipeline Superescalares Arquitectura de Computadoras 2012.
Transcripción de la presentación:

Universidad Politécnica de Tulancingo Catedrático Ing. Jorge Luis Neri Trejo Asignatura Ing. De Hardware III Tema Procesamiento Paralelo Presenta Verónica Patricia Gress Maldonado Ma. Eugenia López Vargas Sandra Céspedes Nohemi

Procesamien to Paralelo Grupo de técnicas utilizadas para proporcionar tareas simultáneas de procesamiento de datos con el fin de aumentar la velocidad computacional de un sistema de computadoras. En lugar de procesar cada instrucción de forma secuencial como lo es una computadora convencional un sistema de procesamiento en paralelo puede ejecutar procesamiento concurrente de datos para conseguir un menor tiempo de ejecución.

El procesamiento paralelo se basa en la explotación de sucesos concurrentes en el proceso de computo por tanto la concurrencia implica: 1. Sucesos Paralelos: Ocurren en múltiples recursos durante el mismo intervalo de tiempo. 2. Sucesos Simultáneos: Ocurren en el mismo instante. 3. Sucesos Pipeline: Ocurren en lapsos superpuestos.

SIMD Single Instruction Multiple Data Secuencias de instrucciones pasan a través de múltiples procesadores cada uno con su propia unidad de control comparten una memoria común. Clasificación de Flynn Modelo tradicional de computación secuencial donde una unidad de procesamiento recibe una sola secuencia de instrucciones que operan en una secuencia de datos. En este caso se tienen múltiples procesadores que sincronizadamente ejecutan la misma secuencia de instrucciones, pero en diferentes datos, utilizan memoria distribuida. Este modelo es asíncrono cada procesador puede ejecutar su propia secuencia de instrucciones y tener sus propios datos. Single Instruction Single Data SISD Multiple Instruction Multiple Data MIMD Multiple Instruction Single Data MISD

SMP Multiprocesamiento Simétrico Se caracteriza por el hecho de que varios microprocesadores independientes comparten el acceso a memoria y se comunican con ella a través de un bus compartido

Pero… Existe un problema conforme se añaden procesadores el tráfico en el bus de memoria se satura. Al manejar ocho o diez procesadores el cuello de botella se vuelve crítico por lo que se considera poco escalable.

MPP Procesamiento Masivamente Paralelo No utiliza memoria compartida en su lugar distribuye la RAM entre los procesadores equitativamente (cada procesador con su memoria distribuida), reduce el tráfico del bus, tecnología altamente escalable.

SPP Procesamiento Paralelo Escalable Híbrido de SMP y MPP, utiliza una memoria jerárquica de dos niveles para alcanzar la escalabilidad. La primera capa consiste de componentes de memoria distribuida que con esencialmente parte de sistemas MPP completos con múltiples nodos (nodo = procesador + memoria), y el segundo nivel de memoria está globalmente compartido al estilo SMP.