Descargar la presentación
La descarga está en progreso. Por favor, espere
Publicada porVíctor Manuel Ramírez Gómez Modificado hace 9 años
1
Redes II Ingeniería de Sistemas 2016
2
Question! In cluster need, generation, construction or specific need is the MAIN subject, so an importat question arises: WHAT AM I GONNA DO WITH THAT?? For heavy data processing? Rendering? Load-balancing? Storage?... Do I need it now? Tomorrow? Always? Sometimes?? Everywhere? Only in my «place»? Is it gonna be private o public-accessed?
3
Design… HAC - High-Availability Clusters High-availability or "failover" clusters are especially useful for mission-critical databases, services and files for business applications. They are based on several different redundant servers or "nodes" that replicate data, programs and server functions so that when components fail, one of the nodes can resume service without any noticeable interruption in service. A large site like Amazon.com, for example, is run from a data center that contains many, many failover clusters.
4
Design… LBC - Load-Balancing Clusters Network load balancing (NLB) is a performance-oriented implementation that uses the unique attributes of clustered computers to distribute computing jobs among a number of local servers. This is most useful in organizations in which high-use, resource-intensive applications are expected to perform reliably. In an environment that uses thin clients, this is most appropriate, where the server is expected to do the work of processing.
5
Design… HPC - High-Performance Clusters High-performance clusters are most like what you picture when you think of supercomputers: raw processing power. These configurations are usually used in serious computing environments, such as in laboratory research or programming code compiling. Each node in the cluster lends its processing power cumulatively, contributing to a central task that benefits from an immense pool of resources.
6
Design… HTC - High- Throughput Clusters HTC clusters are most like its only objective is to execute the higher amount of tasks in the lowest amount of time possible, so, data and individual tasks are independet. Delay among cluster nodes is not considered a big problem…
7
Design… Cloud Computing Cloud computing differs from other cluster computing methods in that it is distributed over, theoretically, a substantially larger physical area as high- speed Internet connections have become ubiquitous. Virtually any computing device, including cell phones and in some cases video game consoles, can be nodes for a computer cloud. The concept has been most popular as a way to synchronize and share data with a minimum of effort, but has also been used for distributed computing tasks, such as Folding@Home.
9
Intro a los Sist. Paralelos Paradigmas de la computación paralela, concurrente y distribuida
10
Tarea: programa o un conjunto de instrucciones (tipo- programa) que se ejecuta en un procesador. Computación Concurrente: Es la simultaneidad en la ejecución de múltiples tareas interactivas. Es la base de la Comp. Paralela. procesos o hilos secuenciales Son tareas que se ejecutan en el mismo instante. Es una colección de procesos o hilos secuenciales que se ejecutan (lógicamente) en paralelo. Pseudo-paralelismo: cuando las tareas se ejecutan en una máquina secuencial.
11
Como se puede implementar la concurrencia? Multiprogramación: Los threads multiplexan su ejecución sobre una máquina secuencial Multiprocesamiento: Los threads multiplexan su ejecución sobre multicores o multiprocesadores Procesamiento distribuido: Los procesos multiplexan su ejecución sobre diferentes máquinas
12
Computación Paralela vs. Computación Distribuida La Paralela divide una aplicación en tareas que se ejecutan al mismo tiempo. La distribuida divide una aplicación en tareas que se ejecutan usando diferentes recursos
13
Computación Paralela Divide una aplicación en tareas que se ejecutan simultáneamente (fuertemente acoplado) Se considera una aplicación por vez. Objetivo: acelerar la ejecución de una aplicación Se ejecutan sobre arquitecturas homogéneas con memoria compartida
14
Computación Distribuida Utiliza diferentes recursos físicamente separados Se consideran varias aplicaciones a la vez (pueden pertenecer a diferentes usuarios). Objetivo: permitir que varios usuarios trabajen en forma cooperativa Se ejecutan sobre arquitecturas heterogéneas, abiertas y dinámicas
15
Sistema Distribuido Cada procesador tiene su propia memoria: La dirección de memoria de un procesador no mapea en otro procesador (no hay direcciones globales a través de los procesadores). Cada procesador opera independientemente El acceso a los datos de otro procesador lo define explícitamente el usuario (pasaje de mjes, sync., etc.)
16
Ventajas: Memoria escala con el número de procesadores Cada procesador accede a su propia memoria sin interferencia ni overhead causado por mantener la coherencia de la memoria Desventajas: El programador es responsable de la comunicación Difícil mapear datos basados en memoria global Sistema Distribuido
17
Sin embargo tienen muchas características en común: Múltiples procesadores Los procesadores están interconectados por alguna red Múltiples procesos están en progreso al mismo tiempo y cooperan unos con otros Sistema Distribuido
20
Terminología Tarea Paralela: se ejecuta en varios procesadores en forma segura (resultados correctos) Comunicación: A través de pasaje de mensajes A través de memoria compartida Acceso a memoria remota Sincronización: Coordinación de tareas paralelas en tiempo real. El tamaño de un proceso puede ser descrito por su granularidad
21
Como métrica de granularidad se puede utilizar una relación entre computación y comunicación: Granularidad = T comp /T comm Aumentar la granularidad: Reduce los costos de creación de procesos y comunicación entre procesos Reduce los costos de creación de procesos y comunicación entre procesos Reduce el número de procesos concurrentes y la cantidad de paralelismo Reduce el número de procesos concurrentes y la cantidad de paralelismo
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.