La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Ingeniería de Sistemas

Presentaciones similares


Presentación del tema: "Ingeniería de Sistemas"— Transcripción de la presentación:

1 Ingeniería de Sistemas
Redes II Ingeniería de Sistemas 2017

2 Question! In cluster need, generation, construction or specific need is the MAIN subject, so an importat question arises: WHAT AM I GONNA DO WITH THAT?? For heavy data processing? Rendering? Load-balancing? Storage?... Do I need it now? Tomorrow? Always? Sometimes?? Everywhere? Only in my «place»? Is it gonna be private o public-accessed?

3 Design… HAC - High-Availability Clusters
High-availability or "failover" clusters are especially useful for mission-critical databases, services and files for business applications. They are based on several different redundant servers or "nodes" that replicate data, programs and server functions so that when components fail, one of the nodes can resume service without any noticeable interruption in service. A large site like Amazon.com, for example, is run from a data center that contains many, many failover clusters.

4 Design… HPC - High-Performance Clusters
High-performance clusters are most like what you picture when you think of supercomputers: raw processing power. These configurations are usually used in serious computing environments, such as in laboratory research or programming code compiling. Each node in the cluster lends its processing power cumulatively, contributing to a central task that benefits from an immense pool of resources.

5

6

7

8

9

10

11

12 Design… HTC - High- Throughput Clusters
HTC clusters are most like its only objective is to execute the higher amount of tasks in the lowest amount of time possible, so, data and individual tasks are independet. Delay among cluster nodes is not considered a big problem…

13 Design… LBC - Load-Balancing Clusters
Network load balancing (NLB) is a performance-oriented implementation that uses the unique attributes of clustered computers to distribute computing jobs among a number of local servers. This is most useful in organizations in which high-use, resource-intensive applications are expected to perform reliably. In an environment that uses thin clients, this is most appropriate, where the server is expected to do the work of processing.

14 Design… Cloud Computing
Cloud computing differs from other cluster computing methods in that it is distributed over, theoretically, a substantially larger physical area as high-speed Internet connections have become ubiquitous. Virtually any computing device, including cell phones and in some cases video game consoles, can be nodes for a computer cloud. The concept has been most popular as a way to synchronize and share data with a minimum of effort, but has also been used for distributed computing tasks, such as

15

16 TIA-942 Tambien aprobado por la ANSI (American National Standards Institute) Se complementa con los niveles de TIERS (1 a 4) del Uptime Institute Fue establecida en el 2004 Inicialmente establecida para los sistemas de “cableado estructurado”

17 TIA-942 Nomenclatura estándar Fail-safe operation
Protección contra accidentes de origen humano o naturales Long term confiability Capacidad de expansión y escalabilidad

18 TIA-942 Subsistemas: Telecomunicaciones Arquitectura Sistema eléctrico
Sistema mecánico

19

20 Intro a los Sist. Paralelos
Paradigmas de la computación paralela, concurrente y distribuida

21 Tarea: programa o un conjunto de instrucciones (tipo-programa) que se ejecuta en un procesador.
Computación Concurrente: Es la simultaneidad en la ejecución de múltiples tareas interactivas. Es la base de la Comp. Paralela.  Son tareas que se ejecutan en el mismo instante.  Es una colección de procesos o hilos secuenciales que se ejecutan (lógicamente) en paralelo.  Pseudo-paralelismo: cuando las tareas se ejecutan en una máquina secuencial.

22 Como se puede implementar la concurrencia?
Multiprogramación: Los threads multiplexan su ejecución sobre una máquina secuencial Multiprocesamiento: Los threads multiplexan su ejecución sobre multicores o multiprocesadores  Procesamiento distribuido: Los procesos multiplexan su ejecución sobre diferentes máquinas

23 Computación Paralela vs. Computación Distribuida 
La Paralela divide una aplicación en tareas que se ejecutan al mismo tiempo. La distribuida divide una aplicación en tareas que se ejecutan usando diferentes recursos

24 Computación Paralela Divide una aplicación en tareas que se ejecutan simultáneamente (fuertemente acoplado) Se considera una aplicación por vez. Objetivo: acelerar la ejecución de una aplicación Se ejecutan sobre arquitecturas homogéneas con memoria compartida

25 Computación Distribuida
Utiliza diferentes recursos físicamente separados Se consideran varias aplicaciones a la vez (pueden pertenecer a diferentes usuarios). Objetivo: permitir que varios usuarios trabajen en forma cooperativa Se ejecutan sobre arquitecturas heterogéneas, abiertas y dinámicas

26 Sistema Distribuido Cada procesador tiene su propia memoria: La dirección de memoria de un procesador no mapea en otro procesador (no hay direcciones globales a través de los procesadores).  Cada procesador opera independientemente  El acceso a los datos de otro procesador lo define explícitamente el usuario (pasaje de mjes, sync., etc.)

27 Sistema Distribuido Ventajas: Memoria escala con el número de procesadores Cada procesador accede a su propia memoria sin interferencia ni overhead causado por mantener la coherencia de la memoria  Desventajas: El programador es responsable de la comunicación Difícil mapear datos basados en memoria global

28 Sistema Distribuido Sin embargo tienen muchas características en común:  Múltiples procesadores  Los procesadores están interconectados por alguna red  Múltiples procesos están en progreso al mismo tiempo y cooperan unos con otros

29

30

31 Terminología Tarea Paralela: se ejecuta en varios procesadores en forma segura (resultados correctos) Comunicación: A través de pasaje de mensajes A través de memoria compartida Acceso a memoria remota  Sincronización: Coordinación de tareas paralelas en tiempo real. El tamaño de un proceso puede ser descrito por su granularidad

32 Como métrica de granularidad se puede utilizar una relación entre computación y comunicación: Granularidad = Tcomp/Tcomm Aumentar la granularidad: Reduce los costos de creación de procesos y comunicación entre procesos Reduce el número de procesos concurrentes y la cantidad de paralelismo


Descargar ppt "Ingeniería de Sistemas"

Presentaciones similares


Anuncios Google