Descargar la presentación
La descarga está en progreso. Por favor, espere
1
Ingeniería de Sistemas
Redes II Ingeniería de Sistemas 2017
2
Question! In cluster need, generation, construction or specific need is the MAIN subject, so an importat question arises: WHAT AM I GONNA DO WITH THAT?? For heavy data processing? Rendering? Load-balancing? Storage?... Do I need it now? Tomorrow? Always? Sometimes?? Everywhere? Only in my «place»? Is it gonna be private o public-accessed?
3
Design… HAC - High-Availability Clusters
High-availability or "failover" clusters are especially useful for mission-critical databases, services and files for business applications. They are based on several different redundant servers or "nodes" that replicate data, programs and server functions so that when components fail, one of the nodes can resume service without any noticeable interruption in service. A large site like Amazon.com, for example, is run from a data center that contains many, many failover clusters.
4
Design… HPC - High-Performance Clusters
High-performance clusters are most like what you picture when you think of supercomputers: raw processing power. These configurations are usually used in serious computing environments, such as in laboratory research or programming code compiling. Each node in the cluster lends its processing power cumulatively, contributing to a central task that benefits from an immense pool of resources.
12
Design… HTC - High- Throughput Clusters
HTC clusters are most like its only objective is to execute the higher amount of tasks in the lowest amount of time possible, so, data and individual tasks are independet. Delay among cluster nodes is not considered a big problem…
13
Design… LBC - Load-Balancing Clusters
Network load balancing (NLB) is a performance-oriented implementation that uses the unique attributes of clustered computers to distribute computing jobs among a number of local servers. This is most useful in organizations in which high-use, resource-intensive applications are expected to perform reliably. In an environment that uses thin clients, this is most appropriate, where the server is expected to do the work of processing.
14
Design… Cloud Computing
Cloud computing differs from other cluster computing methods in that it is distributed over, theoretically, a substantially larger physical area as high-speed Internet connections have become ubiquitous. Virtually any computing device, including cell phones and in some cases video game consoles, can be nodes for a computer cloud. The concept has been most popular as a way to synchronize and share data with a minimum of effort, but has also been used for distributed computing tasks, such as
16
TIA-942 Tambien aprobado por la ANSI (American National Standards Institute) Se complementa con los niveles de TIERS (1 a 4) del Uptime Institute Fue establecida en el 2004 Inicialmente establecida para los sistemas de “cableado estructurado”
17
TIA-942 Nomenclatura estándar Fail-safe operation
Protección contra accidentes de origen humano o naturales Long term confiability Capacidad de expansión y escalabilidad
18
TIA-942 Subsistemas: Telecomunicaciones Arquitectura Sistema eléctrico
Sistema mecánico
20
Intro a los Sist. Paralelos
Paradigmas de la computación paralela, concurrente y distribuida
21
Tarea: programa o un conjunto de instrucciones (tipo-programa) que se ejecuta en un procesador.
Computación Concurrente: Es la simultaneidad en la ejecución de múltiples tareas interactivas. Es la base de la Comp. Paralela. Son tareas que se ejecutan en el mismo instante. Es una colección de procesos o hilos secuenciales que se ejecutan (lógicamente) en paralelo. Pseudo-paralelismo: cuando las tareas se ejecutan en una máquina secuencial.
22
Como se puede implementar la concurrencia?
Multiprogramación: Los threads multiplexan su ejecución sobre una máquina secuencial Multiprocesamiento: Los threads multiplexan su ejecución sobre multicores o multiprocesadores Procesamiento distribuido: Los procesos multiplexan su ejecución sobre diferentes máquinas
23
Computación Paralela vs. Computación Distribuida
La Paralela divide una aplicación en tareas que se ejecutan al mismo tiempo. La distribuida divide una aplicación en tareas que se ejecutan usando diferentes recursos
24
Computación Paralela Divide una aplicación en tareas que se ejecutan simultáneamente (fuertemente acoplado) Se considera una aplicación por vez. Objetivo: acelerar la ejecución de una aplicación Se ejecutan sobre arquitecturas homogéneas con memoria compartida
25
Computación Distribuida
Utiliza diferentes recursos físicamente separados Se consideran varias aplicaciones a la vez (pueden pertenecer a diferentes usuarios). Objetivo: permitir que varios usuarios trabajen en forma cooperativa Se ejecutan sobre arquitecturas heterogéneas, abiertas y dinámicas
26
Sistema Distribuido Cada procesador tiene su propia memoria: La dirección de memoria de un procesador no mapea en otro procesador (no hay direcciones globales a través de los procesadores). Cada procesador opera independientemente El acceso a los datos de otro procesador lo define explícitamente el usuario (pasaje de mjes, sync., etc.)
27
Sistema Distribuido Ventajas: Memoria escala con el número de procesadores Cada procesador accede a su propia memoria sin interferencia ni overhead causado por mantener la coherencia de la memoria Desventajas: El programador es responsable de la comunicación Difícil mapear datos basados en memoria global
28
Sistema Distribuido Sin embargo tienen muchas características en común: Múltiples procesadores Los procesadores están interconectados por alguna red Múltiples procesos están en progreso al mismo tiempo y cooperan unos con otros
31
Terminología Tarea Paralela: se ejecuta en varios procesadores en forma segura (resultados correctos) Comunicación: A través de pasaje de mensajes A través de memoria compartida Acceso a memoria remota Sincronización: Coordinación de tareas paralelas en tiempo real. El tamaño de un proceso puede ser descrito por su granularidad
32
Como métrica de granularidad se puede utilizar una relación entre computación y comunicación: Granularidad = Tcomp/Tcomm Aumentar la granularidad: Reduce los costos de creación de procesos y comunicación entre procesos Reduce el número de procesos concurrentes y la cantidad de paralelismo
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.