COMPUTACION PARALELA GLORIA PATRICIA FLOREZ ANGIE PAOLA ANCHICO.

Slides:



Advertisements
Presentaciones similares
Informática Etimología de informática Integrantes:  Amanda Loayza  Michael Saltos  Doris Ramírez UNIVERSIDAD TÉCNICA DE MACHALA FACULTAD DE CIENCIAS.
Advertisements

Estructura de un ordenador. Ronald Valverde Zambrano.
UNIDAD 1 MANEJA COMPONENTES DEL EQUIPO DE CÓMPUTO PIPM-03 PTB en Enfermería General.
PLACA MADRE DE UNA COMPUTADORA IPCC - INFORMATICA APLICADA- -Baolini María Belén -Camargo Facundo.
CONCEPTOS BÁSICOS DE REDES. ALUMNO: LUIS MANUEL GARCÍA ESPINOZA MAESTRO: CRISTÓBAL CRUZ MATERIA: INFORMÁTICA GRADO Y GRUPO: 3°C.
CONCEPTOS BÁSICOS DE REDES. ALUMNO: LUIS MANUEL GARCÍA ESPINOZA MAESTRO: CRISTÓBAL CRUZ MATERIA: INFORMÁTICA GRADO Y GRUPO: 3°C.
Componentes de un ordenador ÍNDICE EL ORDENADOR PERSONAL PARTES DEL PC Hardware Software PERIFÉRICOS DE ENTRADA PERIFÉRICOS DE SALIDA PERIFÉRICOS DE.
ITESCO – Arquitectura Computadoras L. S. C. A. Raúl Monforte Chulin - MORCH Systems 1.1. Arquitectura básica y sus operaciones. Objetivo: El estudiante.
Componentes Internos Docente Martin Marengo Curso 5I TT y TM
Subtema: Hardware y Software básico
? INTERRUCCIONES Y BUSES Interrupciones Buses
“Alternativa para procesamiento de datos oceanográficos que requieren gran capacidad de cómputo, por medio de programación en paralelo con el programa.
TERMINOLOGÍA BÁSICA Informática: conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático y racional de la información,
Hardware de Computador
Quinta generación de computadoras
Estructuras de interconexión de un computador
Menú Presentación Dispositivos de Salida Que es informática
Procesos Concurrentes
Unidad 2: LAS ETAPAS DE LA SIMULACION NUMERICA. Tema: 2
Sistemas basicos Investigación la historia del Computador ¨servidor¨
Parcial # 1 La Computadora.
Sistemas Distribuidos
Fundamentos de programación
EL CPU.
Hardware Software Sistema Informática Computadora Computación Datos.
GENERACIÓN DE COMPUTADORAS
ALGORITMOS, LENGUAJES Y TECNICAS DE PROGRAMACION
REDES DE COMPUTADORAS SEGÚN TOPOLOGIA.
HILOS EN SISTEMAS DISTRIBUIDOS
En la siguiente presentación veremos algunos términos que debemos conocer para iniciar la educación virtual.
REDES INFORMÁTICAS.
Tercera Generación de las Computadoras
REDES DE COMPUTADORAS SEGÚN TOPOLOGIAS
Multitarea y Monotarea
Computadora La computadora es una máquina capaz de realizar y controlar a gran velocidad cálculos y procesos complicado que requieren una toma rápida de.
INNOVACIONES TECNICAS A LO LARGO DE LA HISTORIA
El CPU.
Computación Curso 2017.
Hardware, software, y periféricos
M.I.R.S.T. Gabriel Orozco Martínez
MENU SOFWARE Y HADWARE DISPOSITIVOS DE SALIDA DISPOSITIVOS DE ENTRADA
Salir de la presentación
Tema: Redes Grado: 1° Grupo: C Nombre: Lisda Iveth Hernández Velázquez
Tendencias en los sistemas operativos
ELEMENTOS DE UN COMPUTADOR
Hardware interno.
Administrador de Tareas
TAREA DEFINICIONES: Software: Equipamiento lógico o soporte lógico de una computadora digital; comprende el conjunto de los componentes lógicos necesarios.
Almacenamiento El computador tiene 2 aspectos
GENERACIÓN DE COMPUTADORAS
Michelle Vanessa Rojas Torres 1101
Redes.
Conceptos básicos.
Java – programación orientada a objetos programación ii – iee
Sistemas operativos Amparo Pinal y Nayla Carcamo 4 año división “B”
Los Sistemas Operativos.
SISTEMAS OPERATIVOS DISTRIBUIDOS. Es la unión de varios sistemas de computo compuestos posiblemente cada uno de varios CPU's, interconectados mediante.
INGENIERÍA INFORMÁTICA Y DE SISTEMAS Docente: Mg Ing. Jesús Ocaña Velásquez ARQUITECTURA DEL COMPUTADOR.
.La Computadora. La computadora es una maquina capaz de realizar y controla a gran velocidad cálculos y procesos complicados que requieren una toma.
Diego Felipe Morales Cerón
CURSO PROGRAMACIÓN BÁSICA SEMANA 2
FUENTES GONZÁLEZ, JONY MARDOQUEO
Técnicas de Comunicación Colectiva sobre QsNet
Redes de Área Amplia Dispositivos, Routers
1 TEMA 2: Organización de computadores Procesadores Memorias Dispositivos de E/S.
La técnica como sistema, clases y sus elementos comunes
PLANIFICACIÓN INTEGRADA DE TAREAS
2 Es el dispositivo digital lógico de interconexión de equipos que opera en la capa de enlace de datos del modelo OSI. Su función es interconectar dos.
Introducción a las redes locales
ESTRUCTURA DE UNA PC.
Transcripción de la presentación:

COMPUTACION PARALELA GLORIA PATRICIA FLOREZ ANGIE PAOLA ANCHICO

COMPUTACION PARALELA La computación Paralela, es muy importante actualmente, al permitir mejorar la velocidad en la solución de grandes problemas, de modo que se mejora el rendimiento de computo.

La computación paralela es una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente, operando sobre el principio de que problemas grandes, a menudo se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente en paralelo.

PARALELISMO El paralelismo se ha empleado durante muchos años, sobre todo en la computación de altas prestaciones, pero el interés en ella ha crecido últimamente debido a las limitaciones físicas que impiden el aumento de la frecuencia. Como el consumo de energía y por consiguiente la generación de calor

TIPOS DE PARALELISMO Paralelismo a nivel de BIT Paralelismo a nivel de Instrucción Paralelismo de datos Paralelismo de tareas

PARALELISMO A NIVEL DE BIT Es cuando se aumenta el tamaño de la palabra en la computadora esto reduce el número de instrucciones que el procesador debe ejecutar para realizar una operación en variables cuyos tamaños son mayores que la longitud de la palabra.

PARALELISMO A NIVEL DE INSTRUCCION Es cuando un grupo de instrucciones que compone un programa son ejecutadas paralelamente sin cambiar el resultado final del programa.

PARALELISMO DE DATOS Es cuando se distribuyen los datos a través de diferentes nodos de computo para que los procesen en paralelo y las tareas que realizan son comunes y el resultado es uno solo.

PARALELISMO DE TAREAS El paralelismo de tareas es la característica de un programa paralelo en la que «cálculos completamente diferentes se pueden realizar en cualquier conjunto igual o diferente de datos».

MEMORIA Y COMUNICACION La memoria principal en un ordenador en paralelo puede ser compartida—compartida entre todos los elementos de procesamiento en un único espacio de direcciones, o distribuida

La comunicación procesador-procesador y procesador-memoria se puede implementar en hardware de varias maneras: a través de memoria compartida —ya sea multipuerto o multiplexado un conmutador de barras cruzadas (crossbar switch) un bus compartido o una red interconectada de una gran variedad de topologías como estrella, anillo, árbol, hipercubo, hipercubo grueso —un hipercubo con más de un procesador en un nodo.

CLASES DE COMPUTACION PARALELA Computación Multinúcleo Multiprocesamiento simetrico Computadoras paralelas especializadas

COMPUTACION MULTINUCLEO Un procesador multinúcleo es un procesador que incluye múltiples unidades de ejecución (núcleos) en el mismo chip. Los procesadores superescalares pueden ejecutar múltiples instrucciones por ciclo de un flujo de instrucciones (hilo).

MULTIPROCESAMIENTO SIMETRICO Un multiprocesador simétrico (SMP) es un sistema computacional con múltiples procesadores idénticos que comparten memoria y se conectan a través de un bus.

COMPUTADORAS PARALELAS ESPECIALIZADAS Dentro de la computación paralela, existen dispositivos paralelos especializados que generan interés. Aunque no son específicos para un dominio, tienden a ser aplicables sólo a unas pocas clases de problemas paralelos.

El cómputo reconfigurable: es el uso de un arreglo de compuertas programables El cómputo de propósito general en las unidades de procesamiento de gráficos (GPGPU) es una tendencia relativamente reciente en la investigación de ingeniería informática. Se han diseñado varios circuitos integrados de aplicación específica (ASIC) para hacer frente a las aplicaciones paralelas. Debido a que un ASIC (por definición) es específico para una aplicación dada, puede ser completamente optimizado para esa aplicación. Un procesador vectorial es un CPU o un sistema computacional que puede ejecutar la misma instrucción en grandes conjuntos de datos.

LENGUAJE DE PROGRAMACION EN PARALELO Han sido creados para la programación de computadores paralelos. Estos generalmente se pueden dividir en clases basadas en las suposiciones que se hacen sobre la arquitectura de memoria subyacente: compartida, distribuida, o compartida-distribuida.