La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Módulo 3 Equipos de servidor

Presentaciones similares


Presentación del tema: "Módulo 3 Equipos de servidor"— Transcripción de la presentación:

1 Módulo 3 Equipos de servidor
Versión 1.0 21 de septiembre de 2011

2 Visión de conjunto de la tecnología de servidores estándar

3 Consumo energético y ahorro potencial de energía en los servidores de los centros de datos
El consumo energético de los servidores puede representar el 30-40% del consumo energético total de un centro de datos; La adopción de medidas de hardware (por ejemplo, gestión de la energía) puede mejorar la eficiencia energética en un 15-30%; Las medidas de software que implican una virtualización pueden conducir a un ahorro energético superior al 90% en áreas donde la virtualización se aplica de forma efectiva; Los efectos positivos se duplican en cuanto a la refrigeración y las fuentes de alimentación se refiere.

4 Tipos de servidores en los centros de datos
Normalmente, los tipos de servidores empleados en los centros de datos incluyen los cuatro factores de forma generales: torres, racks, blades y ordenadores centrales. Los ordenadores centrales están especialmente diseñados para ofrecer una alta resiliencia y volumen de trabajo o información, y utilizan sistemas operativos patentados, la mayoría de los cuales se basan en Unix y un número cada vez mayor en Linux. A menudo se utilizan los servidores para aplicaciones como el procesamiento de grandes cantidades de datos, control de procesos, estadísticas sobre la industria y el consumo, planificación de los recursos empresariales y el procesamiento de transacciones financieras. Los tipos de servidores más comunes en los centros de datos son los factores de forma rack y blade. Por ello, las consideraciones que se hagan a partir de ahora se centrarán en estos dos tipos de servidor. Torre Bastidor (rack) Blade Ordenador central

5 Servidores rack y servidores en torre
Los servidores rack basados en una plataforma x86 siguen dominando en todos los tipos de empresas de centros de datos y en el futuro mantendrán una alta relevancia en el mercado. Los servidores rack están diseñados para ser instalados en un armario o rack de 19 pulgadas (48,26 cm). Los servidores tienen ranuras de expansión para añadir tarjetas NIC (de interfaz de red) o tarjetas HBA (adaptador de bus de host) de canal de fibra. En comparación con los servidores en torre, los servidores rack aportan un uso eficiente de la superficie, ofrecen una gestión centralizada de los servidores y del cableado, y aumentan la escalabilidad de la infraestructura. Los modelos de servidores rack están disponibles con factores de forma de 1U[1] a 8U (e incluso más). [1] unidad rack o U: unidad de medida utilizada para describir la altura del equipo a montar en un rack de 19 pulgadas; 1U equivale a una altura de 1,75 pulgadas (44,45 mm). El rendimiento de los servidores rack cubre un amplio espectro: desde el nivel de entrada a un nivel medio. Normalmente la actual gama de productos que abarca desde servidores de nivel de entrada a servidores de rango medio ofrece de 1 a 8 unidades centrales de procesamiento (CPUs) con entre dos a seis núcleos que funcionan a velocidades de hasta 3 GHz o más. Los servidores en torre son unidades verticales independientes que contienen todos los componentes básicos de un servidor y normalmente están equipados con un sistema de almacenamiento adjunto directo (DAS). Por lo general, este tipo de servidor precisa una mayor superficie que los servidores blade o los montados en rack y ofrece una escalabilidad menor, por lo que representa productos de servidor de nivel de entrada. Los servidores en torre basados en una plataforma x86 representan la categoría de nivel de entrada de los productos de servidor corporativos. En el extremo más bajo, este tipo de servidor se ofrece como un servidor “de escritorio” que viene equipado con los componentes tradicionales de un PC (por ejemplo, una CPU, discos duros y fuentes de alimentación). Este tipo de servidor se utiliza principalmente en oficinas pequeñas. Energy Star define este tipo de servidor como “servidores de pequeña escala”. Los servidores de pequeña escala están diseñados para ejecutar funciones como servicios de infraestructura de red (por ejemplo, archivos) y el alojamiento de datos/medios. Estos productos no están diseñados para procesar información para otros sistemas o ejecutar servicios de web como función principal. Energy Star especifica unos criterios de eficiencia energética para los servidores de escala pequeña, por ejemplo, el consumo energético en el modo de reposo y el desactivado, así como la eficiencia de la fuente de alimentación.

6 Ejemplos de un chasis blade y un blade de servidor típicos
Chasis blade, servidores blade y servidores multinodo Los servidores blade consisten en un chasis blade y unos blades de servidor montados en el chasis. Los servidores blade permiten organizar altos volúmenes de procesamiento de datos con unos requisitos limitados en lo que a espacio y tiempo para la gestión se refiere. Los servidores blade individuales comparten los componentes de hardware incluidos en el chasis: módulos de alimentación, ranuras de medios, conexiones USB, ventiladores de intercambio en caliente, módulos de entrada/salida (por ejemplo, canal de fibra, Ethernet) compartimentos modulares de gestión, compartimentos modulares de tejido conmutado estándar, cuatro compartimentos modulares de tejido conmutado de alta velocidad Normalmente el chasis soporta 7, 14, 16 o más blades. Los sistemas blade incluyen uno o más módulos de gestión para la gestión del chasis así como unas interfaces KVM (teclado, monitor y ratón). Los servidores blade incluyen CPU, memoria RAM e interfaces para almacenar los recursos o conectarlos a la red. El blade de servidor está conectado a la potencia, E/S, la red, el almacenamiento y los recursos compartidos, a través de una placa de circuito (backplane o mid-plane) situada en el chasis. Así, en comparación con los servidores rack estándar, es más fácil añadir y mantener el hardware del servidor. Los blades pueden intercambiarse en caliente, lo que permite realizar actualizaciones mientras el sistema está funcionando. Normalmente, la placa base aloja una o dos CPUs. Los blades de entrada/salida proporcionan una E/S y unas características de red especializadas, con capacidades de conmutación y enrutamiento para los sistemas blade. Dadas las mayores densidades de procesamiento de datos que nos ofrece la tecnología de servidores blade, ahora resulta ventajoso utilizar una Ethernet de 10GB como tecnología de interconexión en el backbone del centro de datos. Muchas funciones de red y E/S pueden apoyarse en módulos E/S plugin que se insertan en las ranuras del módulo E/S. Sin embargo, los conmutadores Fast Ethernet pueden precisar que los blades tengan puertos Ethernet de 10 Gb. Ejemplos de un chasis blade y un blade de servidor típicos

7 Servidores de dos nodos y multinodo
Hasta cierto punto, los servidores de dos nodos y los multinodo se basan en una filosofía similar a los servidores blade. El concepto de multinodo combina varias unidades de servidor (normalmente 2-4) en un chasis montado en un rack. Los servidores comparten las fuentes de alimentación y los ventiladores; sin embargo, si los comparamos con los servidores blade, no son modulares ni flexibles en lo que a su configuración se refiere. Así, los servidores multinodo están concebidos para implementar una densidad de procesamiento de datos ligeramente superior a un coste comparativamente bajo. Normalmente este tipo de hardware está diseñado para cubrir objetivos de pequeñas y medianas empresas. Si embargo, también es posible encontrar conceptos de dos nodos de altas prestaciones, por ejemplo, para sistemas blade que combinan dos servidores en un único servidor blade (Sun Blade X6275 M2). La imagen muestra un servidor estándar de dos nodos con las interfaces E/S, CPU, ventiladores y fuentes de alimentación compartidas y un blade de dos nodos de alta gama diseñado para lograr el máximo rendimiento en sistemas blade virtualizados. Servidor estándar de dos nodos Blade de dos nodos (SUN)

8 Conceptos generales de eficiencia energética para los servidores

9 Tipos de centros de datos
Según unos estudios alemanes y estadounidenses, los centros de datos pueden clasificarse según el número de servidores, la demanda energética y la superficie. La tabla muestra la cantidad típica de los diferentes tipos de servidor en las distintas categorías de centros de datos. La tabla muestra que: los armarios de servidores y salas de servidores de hasta 20 m2 de superficie son los principales tipos de instalaciones informáticas, representando más del 95% del número total de instalaciones; los centros de datos pequeños (<150m2) representan menos del 5% y los centros de datos de tamaño medio-grande representan menos del 1%. Sin embargo, como muestra la siguiente diapositiva, los centros de datos de gran tamaño pueden albergar miles de servidores, mientras que los armarios y salas de servidores solo albergan unos pocos. Fuente: [Hint 2010]

10 Porcentaje de los diferentes tipos de servidor en los centros de datos
De la tabla se concluye que: los servidores rack representan el factor de forma de servidor más común (casi el 50%) seguidos por los servidores blade (aproximadamente 18%) los ordenadores centrales/UNIX (aproximadamente 17%) y los servidores en torre (aproximadamente 15%) los servidores en torre son más comunes en los armarios de servidores, mientras que los servidores rack abundan en todas las clases de centro de datos los servidores blade son más comunes en los centros de datos de pequeño tamaño, mientras que los ordenadores centrales están presentes principalmente en centros de datos de tamaño medio-grande. Fuente: [Hint 2010]

11 Opciones de gestión de la energía desde el nivel de componente a nivel de sistema
Las tecnologías de gestión de la energía pueden implementarse a muy diferentes niveles. Algunas propiedades de la gestión de la energía están integradas en componentes individuales y solo están relacionadas con el funcionamiento de estos. Otras propiedades funcionan a nivel de unidad del servidor y gestionan varios componentes al mismo tiempo. Existe un tercer grupo que funciona a nivel de rack o de centro de datos y que gestiona conjuntos de servidores o incluso poblaciones de servidores completas. Las políticas de gestión de la energía pasan de un nivel jerárquico al siguiente, de modo que cada nivel puede autogestionarse en tiempo real. Por ejemplo, un control de la gestión de la energía de balanceo de carga del centro de datos (a nivel de múltiples racks o centro de datos) no microgestionaría los componentes de cada servidor (a nivel de componentes) sino que ejecutaría decisiones sobre políticas para las unidades del servidor, permitiéndoles gestionar sus componentes internos de forma inteligente. La existencia de controles a niveles inferiores es importante para que los controles de políticas a niveles superiores sean efectivos. Para los componentes y sistemas, los estados típicos de rendimiento que apoyan la gestión de la energía están definidos por la Interfaz Avanzada de Configuración y Energía (ACPI). Esta especificación facilita algunos términos clave que permiten a los diseñadores de sistemas implementar propiedades de ahorro de energía. Algunos estándares de estado de las máquinas no están incluidos en la ACPI debido a los nuevos desarrollos. Ejemplos de la evolución de esos nuevos estándares de gestión de la energía o definiciones de los estados de funcionamiento son las definiciones del protocolo ASPM (Administración de Energía de Estado Activo) de enlaces de alta velocidad (estado L) y estados Core C, que describen el estado de los núcleos en una CPU de varios núcleos. Los nuevos controles de los componentes y el sistema ofrecen una resolución más definida para que las máquinas de adopción de políticas a niveles superiores ajusten la energía y el rendimiento basándose en la demanda real.

12 Gestión de la energía desde el nivel de componente a nivel de sistema

13 Consumo energético y eficiencia de los procesadores Intel y AMD
Bandas de potencia AMD Prefijo numérico de procesador Intel® Xeon® (por ejemplo _5482) Alto rendimiento (pero elevado consumo energético) Alta gama (SE) X - Rendimiento Estándar Potencia estándar E - Mainstream Eficiente desde el punto de vista energético Alta eficiencia (HE) L- Potencia optimizada Muy eficiente desde el punto de vista energético Eficiencia energética (EE) Procesador AMD Opteron 61xx [OPT11] Número de núcleos Velocidad de reloj [GHz] ACP [Vatios] 6132 HE 8 2.2 65 6140 2.6 80 6166 HE 12 1.8 6176 2.3 6180 SE 2.5 105 Normalmente las hojas de datos incluyen la Potencia de Diseño Térmico (TDP), que representa la máxima cantidad de energía que el sistema de refrigeración de un servidor debe disipar. Tanto Intel como AMD han definido la TDP. Sin embargo, las interpretaciones de Intel y AMD (especialmente importantes a la hora de establecer comparaciones de CPUs basadas en hojas de datos) difieren hasta cierto punto. Según Intel, el punto superior de la TDP debería utilizarse para establecer objetivos relacionados con el diseño térmico del procesador y no es la potencia máxima que el procesador puede disipar. Según la definición de AMD, la potencia de diseño térmico es la potencia máxima que un procesador puede extraer durante un periodo significativo desde el punto de vista térmico mientras ejecuta un software comercialmente útil. Las notas de las tablas de energía especifican las condiciones restrictivas para la TDP. Recientemente, AMD ha introducido un nuevo valor denominado ACP (Potencia Media de la CPU), que queda definido como la potencia media (media geométrica) que un procesador disipa mientras ejecuta un conjunto de 5 benchmarks diferentes (Consejo de Rendimiento de Procesamiento de Transacciones - TPC, TPC Benchmark*-C, SPECcpu*2006, SPECjbb*2005 y STREAM). Normalmente las CPUs de los servidores se clasifican en tres o cuatro tipos de TDP - o bandas de potencia. AMD e Intel utilizan una terminología diferente. Las tablas muestran la categorización de las bandas de potencia de las CPU y algunos ejemplos de series de procesadores AMD.

14 Potencia de diseño térmico y potencia media de las CPU de AMD
ACP (potencia media de la CPU) TDP (potencia de diseño térmico) Serie de CPU 105 W 140 W 6100 (G34) 80 W 115 W 65 W 85 W 75 W 95 W 4100 (C32) 50 W 32 W 35 W Zócalo F[1] AMD Opteron 6100 AMD Opteron Banda de potencia ACP [vatio] TDP [vatio] ACP [vatio] ACP [vatio] Eficiencia energética (EE) 40 60 - 32 35 Alta eficiencia (HE) 55 79 65 85 50 Potencia estándar 75 115 80 95 Alta gama (SE) 105 137 140 Las tablas muestran la potencia típica (ACP y TDP) para diferentes bandas de potencia y CPUs específicas de AMD (alto rendimiento versus baja potencia, optimización).

15 Mejora de la eficiencia energética de una a otra generación de productos y CPUs
G5 (2.66GHz, Xeon L5430) G6 (2.40 GHz, Xeon L5530) G7 (2.26 GHz, Xeon L5640) Algunos desarrollos recientes relacionados con la eficiencia energética de las CPUs en servidores rack a diferentes niveles de carga pueden ilustrarse con el ejemplo de la familia de servidores DL380 de Hewlett-Packard. La familia de servidores ProLiant DL 380 de HP representa unos servidores rack de volumen con amplias opciones de expansión para admitir aplicaciones de bases de datos, y virtualización en un factor de forma de 2U. Los modelos de esta familia se presentan en el mercado como versátiles, con servidores montados en rack con 1-2 procesadores de uso general adecuados para centros de datos corporativos y entornos PYME sofisticados que implementen aplicaciones de bases de datos y , y aplicaciones de red front-end. Los datos del benchmark SPECpower (SPECpower_ssj2008 es un benchmark centrado en el rendimiento energético de una CPU) están disponibles para las generaciones de servidores G5-G7. Tomando como referencia ese benchmark, se ha evaluado la generación más reciente, la G7, para dos tipos diferentes de CPU con base en series Intel Xeon X (rendimiento) y series L (potencia optimizada). Se muestra el perfil obtenido tras aplicar el benchmark a cada uno de estos servidores, con un gráfico de rendimiento (columnas rojas) y la captación de potencia activa (línea azul) para puntos de carga de entre el 10% y el 100%. La captación de potencia para el reposo activo se traza de manera adicional. Según los datos, la relación de la energía en reposo y la potencia de carga al 100% se ha reducido radicalmente desde los modelos de la G5 a los de la G7. Para el servidor DL380 G5, la energía en reposo (sin carga) era un 33% (170 vatios) menor que la potencia al 100% (253 vatios). En el caso de la energía en reposo de la G7 es solo una cuarta parte de la potencia máxima. Por lo tanto, la nueva tecnología de servidores se ha vuelto mucho más eficiente desde el punto de vista energético a niveles de carga bajos gracias a la gestión inteligente de la potencia a nivel de CPU.

16 Mejora de la eficiencia energética de una a otra generación de productos y CPUs
G7 (2.26 GHz, Xeon L5640) G7 (3.07 GHz, Intel Xeon X5675) La TDP para ambos servidores G7 se establece en 95 y 60 vatios, respectivamente. Esta diferencia en el consumo energético de las CPUs puede relacionarse con la diferencia en la energía punta (a una carga objetivo del 100%) de 222 versus 172 vatios. Sin embargo, para ambos modelos de servidor, la eficiencia energética media en las cargas de trabajo (3,197 versus 3,052 ssj_ops/vatio general) es bastante parecida (Xeon X5675: 3,07 GHz y Xeon L5640: 2,26 GHz) y la energía en reposo activa (52,3 y 53,6 vatios respectivamente) también es bastante similar. Por lo tanto, no se recomienda evaluar la eficiencia energética de las CPUs tomando como base la TDP.

17 Tecnología Turbo Boost de Intel
La tecnología Turbo Boost de Intel aumenta temporalmente el rendimiento de la CPU al aumentar la frecuencia de uno o más núcleos. Originalmente la tecnología Turbo Boost fue introducida en la familia de CPUs de Intel Core (principalmente para ordenadores portátiles y sistemas de escritorio) y se basaba en una arquitectura de procesadores Nehalem, aunque ahora también está disponible en procesadores de servidor XEON. La tecnología Turbo Boost viene habilitada por defecto y se activa cuando el sistema operativo solicita el estado de mayor rendimiento del procesador (P0). El procesador puede funcionar en modo Turbo Boost mientras permanece dentro de sus límites térmicos (TDP y temperatura máxima). La frecuencia va aumentándose gradualmente. La frecuencia máxima depende del número de núcleos activos. La cantidad de tiempo que el procesador esté en modo boost dependerá de la carga de trabajo y del entorno operativo. La tecnología Turbo Boost depende del sistema operativo, lo que significa que los sistemas operativos con un enfoque ACPI (Interfaz Avanzada de Configuración y Energía) no precisan ningún cambio para admitir esta tecnología. Este concepto puede contribuir a lograr una mayor eficiencia energética, especialmente si solo se requiere el rendimiento máximo puntualmente y por cortos periodos de tiempo. En este caso, no es necesario elegir CPUs de alto rendimiento con consumos elevados de energía, ya que Turbo Boost facilita un margen de rendimiento suficiente para aceptar picos de carga ocasionales.

18 Enfoque para optimizar la capacidad de la fuente de alimentación – Limitación de energía
Efecto de la limitación de energía La asignación de los presupuestos energéticos a los servidores es conocida como power capping (limitación de energía). Los gestores informáticos pueden especificar las restricciones para los servidores teniendo en cuenta los requisitos reales. La limitación de energía dinámica nos permite reducir la capacidad de energía y la energía real del sistema. La limitación de energía reduce el estado de rendimiento de las CPUs (P-state) a un nivel de consumo energético menor. Los estados de rendimiento de la CPU son estados definidos de rendimiento del procesador que pueden variar según el tipo de procesador. Los estados P corresponden a una frecuencia específica de núcleo (por ejemplo, 2,0/2,33/2,66GHz para diferentes niveles de rendimiento). Los estados de energía inferiores a los definidos por los estados de rendimiento pueden accederse regulando la velocidad de reloj a través del sistema básico de entrada y salida (BIOS). Sin embargo, una gestión que utilice estados de rendimiento es normalmente la forma más eficaz de limitar la pérdida de rendimiento. La reducción de la frecuencia del procesador se continúa automáticamente hasta que la potencia pico es inferior a la limitación definida por el usuario. La limitación de energía dinámica que se ejecuta a través de un controlador de gestión es mucho más rápida y permite realizar ciclos de control cortos, si lo comparamos con la limitación de energía a través de un BIOS (varias lecturas por segundo). La limitación de energía permite optimizar el abastecimiento energético más allá del nivel normalmente admitido por los configuradores de energía online (facilitados por los fabricantes). El uso de configuradores de energía online ya nos facilita una estimación mucho más precisa de la capacidad de energía y refrigeración requerida en comparación con el uso de la información sobre el potencia nominal que podemos encontrar en la placa del fabricante. Sin embargo, la limitación de energía dinámica permite optimizar aún más el tamaño de la capacidad de energía y refrigeración y, por lo tanto, ofrece un ahorro adicional de energía y costes. La imagen muestra una representación esquemática del uso energético a lo largo del tiempo y empleando la limitación de energía, además del cálculo de la demanda energética o la simple consideración de la potencia establecida en la placa del fabricante. Es importante resaltar que la limitación de energía no mejora la eficiencia energética de unidades de servidor individuales (por ejemplo, en lo que a operaciones por vatio se refiere), pero ayuda a optimizar la distribución de energía entre los servidores y a aumentar la eficiencia global del uso energético al eliminar picos de energía que precisan una alta capacidad de energía. Reducción de la demana energética máxima con la limitación de energía (estudio de caso HP)

19 Requisitos Energy Star de eficiencia para las fuentes de alimentación de los servidores
Tipo de fuente de alimentación Potencia nominal de salida Carga al 10% Carga al 20% Carga al 50% Carga al 100% Salida múltiple (CA-CC & CC-CC) Todos los niveles de salida N/A 82% 85% Salida única (CA-CC & CC-CC) ≤ 500 vatios 70% 89% > 500 – vatios 75% > vatios 80% 88% 92% La eficiencia de las fuentes de alimentación fue un tema relegado a un segundo plano durante mucho tiempo, pero ha mejorado notablemente en los últimos años. El programa Energy Star para servidores ha definido unos requisitos para la eficiencia de las fuentes de alimentación, estableciendo niveles de eficiencia a cargas del 10%, 20%, 50% y 100% para fuentes de alimentación de salidas múltiples y una única salida. En este segundo caso, los requisitos se especifican para diferentes niveles de potencia nominal.

20 Requisitos Energy Star de factores de energía para las fuentes de alimentación de los servidores
Tipo de fuente de alimentación Potencia nominal de salida Carga al 10% Carga al 20% Carga al 50% Carga al 100% Salida múltiple (CA-CC & CC-CC) Todos los niveles de salida N/A Salida única (CA-CC & CC-CC) ≤ 500 vatios 0,80 0,90 0,95 > 500 – vatios 0,65 > vatios

21 Requisitos de eficiencia energética y de factores de energía en el programa 80plus
% de carga nominal 20% 50% 100% 80 PLUS Bronce 81% 85% 80 PLUS Plata 89% 80 PLUS Oro 88% 92% 80 PLUS Platino 90% 94% 91% Factor de potencia 80 PLUS Bronce 0,9 (carga al 100%) 80 PLUS Plata 0,9 (carga al 50 %) 80 PLUS Oro 80 PLUS Platino 0,99 (carga al 100 %) La metodología de la certificación 80 Plus para fuentes de alimentación también proporciona unos requisitos de eficiencia, aunque excluye el nivel de carga al 10%. Los requisitos 80 Plus Oro y Plata son más exigentes que los niveles de Energy Star. Las categorías de eficiencia más altas de 80 Plus son más exigentes que los requisitos de Energy Star.

22 Punto de funcionamiento típico de las fuentes de alimentación según el estudio Energy Star
Muchos servidores rack estándar que funcionan a niveles de carga relativamente bajos, están equipados con fuentes de alimentación redundantes con una carga nominal excesivamente alta. Es evidente que estas configuraciones generan muchas pérdidas energéticas debido al punto de funcionamiento poco favorable de la fuente de alimentación. Enegy Star ha publicado información detallada sobre la potencia reactiva, la potencia máxima y la potencia nominal para las configuraciones máximas y mínimas de varias familias de servidores. Hacer la media de la potencia máxima y la reactiva para las configuraciones más altas y bajas posibles proporciona una variable para un consumo de energía realista. Si relacionamos esta variable para una potencia media con la potencia nominal de una configuración con una única fuente de alimentación, los resultados obtenidos son bastante decepcionantes. La gran mayoría de los servidores trabajan con fuentes de alimentación con un abastecimiento excesivo. Dado que muchos servidores están equipados con fuentes de alimentación redundantes, la carga realista de la fuente de energía indicada en la imagen superior tiene que dividirse por dos. Compañías como HP (por ejemplo, en sus series de servidores ProLiant G6 y G7) proporcionan un modo de funcionamiento especial de la fuente de alimentación para atajar este problema. Este sistema en ROM proporciona al usuario un modo “High Efficiency” (de alta eficiencia) y un modo “Balanced” (equilibrado). En el modo equilibrado, las dos fuentes de alimentación proporcionan energía de igual manera, mientras que en el modo de alta eficiencia el sistema solo utiliza una fuente de alimentación hasta que la carga del sistema supera cierto umbral. La segunda fuente de alimentación permanece online, manteniendo la redundancia. Ambos modos proporcionan una redundancia de energía total en caso de que falle una fuente de alimentación o un circuito.

23 Utilización de los componentes hardware por diferentes tipos de cargas de trabajo
CPU RAM Discos duros E/S Servidor de impresión /ficheros o + ++ Servidor de correo virtualización +++ Servidor web Servidor de base de datos aplicaciones terminales Una correcta configuración de los servidores es fundamental para lograr un rendimiento adecuado cuando la eficiencia energética es óptima. Reducir la configuración del hardware puede causar problemas de rendimiento, mientras que otros sistemas con un suministro excesivo generarán un consumo de energía innecesario. Así, es crucial definir requisitos de rendimiento basados en el tipo e intensidad de las cargas de trabajo. La tabla ofrece una indicación aproximada de los requisitos de rendimiento para los componentes hardware de diferentes tipos de aplicaciones. Otro aspecto importante para una adecuada configuración del hardware es la capacidad de expansión. A menudo una excesiva capacidad de expansión también supone una fuente de ineficiencia. Muchos vendedores permiten una actualización extensiva del almacenamiento, la memoria o las CPUs que, sin embargo, no suele utilizarse en la práctica. Un hardware que permita realizar una actualización extensiva pero que no se utiliza es menos eficiente y, por lo tanto, debería evitarse.

24 Gestión de la energía por perfil energético
Propiedad para ahorrar energía Máximo rendimiento Rendimiento & energía equilibrados Uso mínimo de energía Regulador de energía Estático alto Dinámico Estático bajo Gestión de energía QPI[1] (Interconexión de camino rápido) Off On Intercalado de memoria Intercalado total Deshabilitado PCIe 2.0 Activo Velocidad de memoria Auto 800 MHz Energía en reposo mínima del procesador Sin estados C C6 El concepto de perfiles de energía a nivel de servidor puede explicarse con el ejemplo de una propiedad actualmente disponible para la serie HP ProLiant 300, G6 y G7. El Perfil de Energía HP define tres posibles configuraciones para las características relativas a la energía, proporcionando un mecanismo sencillo para que los usuarios configuren opciones de gestión de la energía basadas en la tolerancia a oscilaciones en el suministro eléctrico versus rendimiento. Hay tres posibles configuraciones para este concepto de perfil: máximo rendimiento rendimiento y energía equilibrados uso mínimo de energía La gestión de la energía trabaja con la CPU, la memoria y las interfaces. La tabla incluye los valores preestablecidos para estas tres categorías.

25 Modos de ahorro energético a nivel de sistema operativo (por ejemplo, servidor Windows 2008)
La gestión de la energía a nivel de sistema operativo puede ilustrarse con el ejemplo del servidor Windows Esta versión de sistema operativo ofrece unas configuraciones para estrategias de ahorro energético en diferentes modos de gestión de la energía: Balanced mode, o modo equilibrado - optimiza la eficiencia de la energía de uso directo High performance mode, o modo de rendimiento - adecuado para servidores que trabajan mucho y necesitan proporcionar el máximo rendimiento, sea cual sea el coste energético Power saver mode, o modo de ahorro de energía - puede emplearse para servidores que trabajan a cargas bajas y tienen una capacidad de rendimiento mayor a la que realmente necesitan. La activación del modo de ahorro energético en Windows 2008 puede resultar en un ahorro de más del 15%, especialmente en situaciones de carga media (ver imágenes).

26 Evaluación de las opciones de consolidación utilizando un software de apoyo (por ejemplo: Capacity Advisor) Perfiles de diferentes cargas de trabajo analizadas para la consolidación A continuación se ofrece un ejemplo práctico para evaluar el uso de la CPU en diferentes servidores. Se puede observar el análisis de la carga de trabajo en Capacity Advisor o el uso de la memoria a lo largo del tiempo. La figura muestra un gráfico de la utilización de la CPU para un único sistema durante un periodo de un mes. El valor punta está identificado con un (1). Al comparar los dos gráficos, se observa que las cargas de trabajo punta en los dos sistemas no ocurren al mismo tiempo ni precisan el mismo porcentaje de núcleos de CPU asignados, lo que sugiere una oportunidad de consolidar ambos sistemas. Normalmente se utiliza un total de 4 núcleos (2 por sistema). Del gráfico se desprende que el volumen punta de las cargas de trabajo combinadas es inferior a la capacidad de los 2 núcleos de CPU. Incluso utilizando los límites establecidos, es poco probable que se necesiten 4 núcleos de CPU para cubrir la demanda de carga de trabajo del sistema.

27 Evaluación de las opciones de consolidación utilizando un software de apoyo
Perfil de cargas de trabajo combinadas La imagen muestra el resultado obtenido al usar un escenario hipotético de Capacity Advisor para combinar las cargas de trabajo en un sistema.

28 Propiedades de las herramientas de planificación de Capacity Ejemplo: HP Capacity Advisor
Recopilación de datos sobre la utilización de energía, núcleos de CPU, memoria, E/S de red y de disco Visualización de la utilización de los recursos a lo largo del tiempo para cargas de trabajo controladas y de todo el sistema operativo en sistemas HP-UX y OpenVMS, y utilización de los recursos de las cargas de trabajo de todo el sistema operativo en los sistemas Microsoft Windows y Linux Visualización de la utilización de los recursos de cargas de trabajo a lo largo del tiempo y agregación de la utilización por todo el continuum de partición Preparación de informes sobre la utilización de recursos Planificación de los cambios de sistema o cargas de trabajo y evaluación del impacto en la utilización de los recursos. Evaluación del impacto de la utilización de los recursos para los cambios propuestos en la ubicación o tamaño de la carga de trabajo. Evaluación de las tendencias para predecir necesidades de recursos. HP Insight Capacity Advisor nos permite controlar y evaluar la utilización del sistema y de la carga de trabajo, por ejemplo, los núcleos de CPU, la memoria, la E/S de red y disco, y la energía. Esta información ayuda a los responsables del centro de datos a aumentar la eficiencia energética mediante la optimización de los niveles de carga de trabajo en los recursos de hardware disponibles. Es posible evaluar y controlar uno o más sistemas conectados en una configuración de clúster o a una red. Capacity Advisor nos ayuda a evaluar las consolidaciones del sistema, el balanceo de carga, la modificación de los atributos del sistema y, por lo tanto, es una base para tomar decisiones relativas a la organización de las cargas de trabajo para mejorar la utilización. El análisis ofrecido puede ser un apoyo para el planificador a la hora de estimar las futuras cargas de trabajo del sistema y planificar las configuraciones del sistema. Además, todas las propiedades pueden servir para evaluar las diferentes opciones de mejora de la eficiencia energética. Las tareas aquí mencionadas son solo algunas de las tareas que pueden realizarse. Capacity Advisor puede utilizar los datos recopilados a lo largo del tiempo para mostrar los resultados obtenidos al realizar cambios de configuración. Se muestran los efectos de los cambios a lo largo del tiempo y el grado de utilización del sistema, lo que permite comparar el uso de los recursos y la calidad de los servicios antes y después de realizar un determinado cambio. En general, en comparación con decisiones tomadas sin una base sólida, el uso de planificadores de capacidad proporciona una gran ventaja para el diseño y planificación del sistema. Las herramientas ofrecen una base cuantitativa para examinar el uso de los recursos actuales y la capacidad de hacer simulaciones (escenarios hipotéticos) para mover cargas de trabajo o recursos antes de implementar un cambio.

29 Propiedades de las herramientas de gestión de la energía Ejemplo: Active Energy Manager IBM
Control y registro de datos sobre el consumo energético Gestión de la energía: estableciendo opciones de ahorro energético estableciendo limitaciones de energía automatizando las tares relacionadas con la energía Configuración de dispositivos de medición, como PDUs y sensores Visualización de eventos Cálculo del gasto energético y ahorro energético estimado Establecimiento de umbrales Creación y establecimiento de políticas energéticas Control de los equipos de refrigeración y energía relacionados con la informática Esta herramienta es un plugin de IBM Systems Director [IBMAEM] diseñada para controlar y gestionar la energía y la refrigeración de los sistemas de servidor blade y rack de IBM. IBM asegura que también es posible controlar los sistemas que no son IBM con la utilización de productos de medición adecuados, por ejemplo, unidades de distribución de potencia (PDU), sensores e integración con el software de las instalaciones. Algunas de las tareas que pueden realizarse con los recursos Active Energy Manager son: véase Imagen. La configuración de dispositivos de medición (PDUs y dispositivos sensores, para asociarlos con otros recursos) y de dispositivos de refrigeración nos permite ver todos los recursos enfriados por un dispositivo de refrigeración y todos los dispositivos de refrigeración que enfrían un recurso. Esta propiedad facilita medidas de apoyo para los recursos enfriados. El valor de la limitación de energía para los servidores IBM y los sistemas IBM BladeCenter puede establecerse para asegurar que el consumo eléctrico del sistema se mantenga en el valor definido en la configuración o por debajo de éste. Es posible definir una política energética de sistemas (configuración de la limitación de energía o del ahorro energético aplicable a los sistemas IBM Power y los sistemas zEnterprise) para cualquier número de sistemas individuales o grupos de sistemas. La política de limitación de energía de un grupo especifica el límite energético general que los sistemas del grupo en conjunto no deben superar. Puede aplicarse a cualquier número de grupos. Un plan de automatización de eventos puede servir para definir unos criterios (filtros) de eventos de energía que generen unas acciones ante eventos relacionados con la energía.

30 Opciones de ahorro energético para servidores blade y servidores multinodo

31 Beneficios de la tecnología multinodo y blade
Las ventajas principales de los sistemas blade son: Alta densidad de procesamiento y poca demanda de espacio; Tiempo reducido para el mantenimiento y expansión del sistema ya que es posible sustituir en caliente módulos y propiedades de gestión integradas; Eficiencia energética algo mayor que los servidores rack si se optimiza la refrigeración y la gestión de la energía. Las ventajas principales de los servidores multinodo son: Menor coste y demanda de espacio en comparación con los servidores rack; Consumo energético ligeramente menor dado que se comparten las fuentes de alimentación y los ventiladores.

32 Eficiencia energética de los servidores blade Fuentes de alimentación
A menudo, las fuentes de alimentación de mayor tamaño son más eficientes y pueden diseñarse para alcanzar una mayor eficiencia. Así, las estrategias para reducir el número de fuentes de alimentación en los sistemas informáticos y lograr una consolidación para reducir las fuentes de alimentación de mayor tamaño, como por ejemplo ocurre en los sistemas blade, permiten aumentar la eficiencia energética. La imagen muestra una fuente de alimentación de la categoría platino de una potencia nominal de 2990 kW para un chasis blade. Como criterio de adquisición para las fuentes de alimentación en un chasis blade, se recomienda un nivel del 90% a una carga de entre el 20 y el 100%. Para las nuevas generaciones de productos de servidores multinodo y blade, algunos fabricantes ofrecen fuentes de alimentación con una ranura común para diferentes niveles de potencia nominal. Estas fuentes de alimentación permiten una adaptación de la capacidad según la demanda energética del servidor. Esta adaptación se apoya en configuradores de hardware online y calculadoras de energía ofrecidos tanto por los fabricantes como por el análisis de limitación de la energía. Eficiencia de la fuente de alimentación de nivel platino para los chasis blade (80plus 2011)

33 Eficiencia energética de los servidores blade en comparación con los servidores rack
Para realizar una comparación a grandes rasgos de la eficiencia energética de los servidores rack estándar y los servidores blade, podemos considerar el ejemplo de un sistema blade totalmente configurado y compararlo con el mismo número de servidores rack estándar. Esta comparación global puede basarse en algunos datos de eficiencia energética publicados por Dell. En 2010 Dell publicó unos datos SpecPower (SPECpower_ssj2008) para un sistema blade y unos servidores rack comparables. SPECpower_ssj2008 es un benchmark de eficiencia energética para servidores que se centra en algunos componentes hardware, como la eficiencia de la CPU. Por lo tanto, no es una herramienta pensada para una valoración holística de la eficiencia energética de los servidores. Aquí, se utiliza para realizar una comparación a grandes rasgos para el objetivo dado y, por lo tanto, la interpretación de los resultados debe ser cautelosa. Los valores SPECpower se han publicado para los servidores Dell PowerEdge 610 tanto para la versión rack (1U, R610) como para la versión blade (16 blades, M610, chasis PowerEdge M1000E). Ambos tipos de servidores usan las mismas CPUs, tienen una velocidad de reloj idéntica (Xeon 5670) y la misma configuración de chips (2 chips con 6 núcleos por servidor, con un total de 12 núcleos). Los resultados SPEC que muestra la imagen indican un rendimiento máximo de 3885 ops/vatios (ops = operaciones por segundo) a una carga del 100% para el sistema blade y 3739 ops/vatio para el sistema rack de 1U, lo que indica que el rendimiento por vatio o la eficiencia energética a una carga máxima es un 4% mejor en la solución blade que en la solución rack. La diferencia asciende hasta aproximadamente el 8% para cargas bajas (carga del 10%) y el 11% para el funcionamiento en reposo. En 2009 HP ya había señalado unos resultados parecidos para un sistema blade y un servidor rack comparable, aunque no se publicaron oficialmente. Sin embargo, aunque en el párrafo anterior ya se han dado razones para que no se haga una interpretación excesiva de los resultados, estos resultados parecen plantear la conclusión de que los sistemas blade, incluso si están totalmente configurados y optimizados para su ensayo, solo presentan una eficiencia ligeramente mejor que los servidores rack estándar, particularmente a cargas altas. La diferencia parece aumentar a niveles de carga bajos, lo que sugiere una gestión global de la energía mejor en el sistema blade. SPECpower_ssj2008 para servidores blade Dell M610 y servidores rack R610 de 1U: (2 x Intel Xeon 5670, 2,93GHz), julio/septiembre de 2010, SPEC

34 Calculadora de energía de los blades Limitación de energía dinámica
Definición de la capacidad de energía máxima tomando como base la limitación de energía Ejemplo de adaptación del volumen de energía utilizando la limitación de energía (HP) Calculadora de energía de los blades Limitación de energía dinámica Energía de los blades (16 blades) 6000 W 4790 W Coste del suministro eléctrico 100% 80% Establecimiento de la limitación de energía con Insight control (HP) La limitación de energía dinámica puede utilizarse de forma incluso más efectiva en el chasis blade que en los servidores rack estándar, ya que la limitación de energía dinámica puede especificarse en un número variado de servidores dentro del chasis. El procesador de servicios y el administrador integrados ajustarán dinámicamente las limitaciones de energía. Los blades que ejecuten cargas de trabajo menores recibirán unas limitaciones más bajas que los que trabajan con cargas más altas. Dado que la dinámica y la intensidad de la carga de trabajo serán diferentes para los diferentes blades, los picos de energía tendrán lugar en momentos diferentes y, en consecuencia, la limitación global para el chasis puede establecerse a un nivel inferior en comparación con la suma de las limitaciones individuales establecidas para cada blade. Los chasis blade de HP, por ejemplo, controlan, ensayan y graban datos que incluyen la potencia real media, mínima y máxima. Comprueban las especificaciones de las fuentes de energía y ejecutan las configuraciones relativas a la limitación de energía. Los datos de energía punta se ofrecen para cada servidor durante la autoprueba de encendido (o POST, por sus siglas en inglés). Un administrador integrado gestiona de forma activa las limitaciones de energía tomando como base un algoritmo multi-nivel. HP ha calculado el ahorro energético y reducido el TCO para un centro blade donde el diseño de la fuente de alimentación se basó en calculadoras de energía, comparando este caso con una situación de aplicación de la limitación de energía. Los resultados están resumidamente recogidos en la tabla de Potencia máxima y el coste del aprovisionamiento de energía se redujo en aproximadamente un 20% en la solución que aplicaba la limitación de energía.

35 Enfoque para la optimización de la capacidad de las fuentes de alimentación
Establecimiento de un grupo de trabajo junto con algunos expertos en materia de refrigeración y fuentes de alimetanción Comprobación de la gestión de la energía y opciones de limitación de energía de tu hardware Preparación de una optimización de primer orden de la demanda de capacidad de refrigeración / energía utilizando para ello calculadoras de energía facilitadas por los fabricantes Evaluación de la demanda energética real con las herramientas de gestión disponibles para ciclos de trabajo completos y establecimiento de limitaciones de energía teniendo en cuenta el pico de consumo eléctrico Adaptación de las necesidades de demanda eléctrica del sistema de refrigeración a un sistema ajustado basado en unas limitaciones definidas Adopción de medidas relevantes para el diseño de la refrigeración y la energía. Seguimiento continuado del uso y ajuste de la energía S2 S3 S4 S5 Pasos típicos para la aplicación de la gestión de la energía y la limitación de energía para el desarrollo y aprovisionamiento de infraestructuras y hardware informáticos. La limitación de energía en los sistemas blade ofrece un ahorro mayor si las cargas de trabajo ejecutadas en los diferentes blades son diferentes. En este caso, los picos de energía también son diferentes y las limitaciones globales pueden fijarse a valores significativamente más bajos que los valores de los servidores blade individuales. El ahorro puede ser relativamente bajo en comparación con un procesamiento de alto rendimiento en los casos en que las cargas de trabajo idénticas sincronizadas son ejecutadas en paralelo. S6

36 Retos para los sistemas blade de alta densidad
Suficiente capacidad de refrigeración y adecuado diseño de refrigeración para hacer frente a altas densidades de calor Distribución de potencia suficiente (capacidad local de las unidades de distribución de potencia locales, cableado, etc.) Análisis a realizar Capacidad de energía disponible – distribución y capacidad de energía local, sistema de alimentación ininterrumpida Distribución y capacidad de refrigeración disponible – distribución y capacidad total de refrigeración/ uso para cargas locales de calor superiores Demanda de refrigeración del sistema blade

37 Diseño y refrigeración de los sistemas blade a nivel de centro de datos
Los diferentes niveles de densidad de los chasis nos ofrecen las siguientes opciones para la refrigeración de los sistemas blade: Repartir la carga de calor del chasis blade entre diferentes racks: los chasis blade individuales están montados en racks diferentes para distribuir la carga de calor. En este planteamiento, el porcentaje de blades en el sistema tiene que ser relativamente bajo ya que la capidad de refrigeración existente se utiliza para suministrar a los blades. Instalar una refrigeración suplementaria: se facilita una refrigeración suplementaria para los racks blade. La densidad de energía por rack puede ser de hasta 10 kW. Este planteamiento también posibilita una alta eficiencia y un buen aprovechamiento de la superficie. Definición/diseño de un área de alta densidad: una zona concreta del centro de datos se destina a los blades (hilera o zona de alta densidad). Alta eficiencia y alto aprovechamiento de la superficie. Densidad de hasta 25kW. Es necesario planificar y rediseñar esta área. Diseño de un centro de alta densidad: racks blade de alta densidad distribuidos por todo el centro de datos. Un planteamiento extremo muy poco común que en la mayoría de los casos da lugar a unos costes elevados y un desaprovechamiento de la infraestructura.

38 Ventajas generales de la virtualización de servidores
Consolidación y delimitación: aumento de la utilización de los servidores del 5-15% al 60-80% Optimización del desarrollo y los ensayos: una provisión rápida de servidores de prueba y desarrollo, reutilizando sistemas pre- configurados y fomentando la colaboración entre los desarrolladores Continuidad del negocio: reducción del coste y la complejidad de la continuidad del negocio (alta disponibilidad y soluciones de recuperación ante desastres), introduciendo sistemas completos en archivos individuales que pueden reproducirse y restaurarse en cualquier servidor meta Sistema operativo de escritorio: proteger los portátiles, las estaciones de trabajo y los PC no gestionados sin perjudicar la autonomía del usuario final, estableciendo una política de seguridad en el software de los equipos virtuales de escritorio La virtualización de los servidores ofrece un gran potencial de ahorro energético. La consolidación de los servidores mediante la virtualización disminuye el consumo energético al reducir radicalmente el número de servidores físicos y aumentar el uso de estos. Plataformas de virtualización consolidadas como VMWare, Microsoft HyperV y Citrix XEN ofrecen muchas propiedades adicionales, como una alta disponibilidad, tolerancia a fallos (failover), planificación de los recursos distribuidos, balanceo de carga, funciones de copia de seguridad automática, gestión de energía distribuida, vmotion (red, almacenamiento, servidor), etc.

39 Virtualización de servidores

40 Visión global del mercado de productos de virtualización
VMWare ESX/ESXi, Vsphere lanzado al mercado en 2001 apoyo para los sistemas operativos huésped más comunes potentes herramientas de gestión Microsoft HyperV poca demanda de memoria se conecta en los entornos informáticos existentes Citrix XENServer forma rentable de implementar la virtualización Las mejores plataformas de virtualización en el mercado, VMWare ESX/ESXi/Vsphere4, Microsoft HyperV y Citrix XEN, proporcionan unas oportunidades efectivas para el ahorro en el gasto administrativo y energético. Ofrecen un apoyo para sistemas operativos huésped como Windows Server 2003/2008, Windows XP, Vista, Windows7 y SUSE/Redhat Linux, y proporcionan potentes consolas de administración para la gestión de entornos de servidor de pequeño tamaño así como la gestión a nivel de centro de datos.

41 Ahorro energético logrado con la virtualización de servidores Ejemplo 1: virtualización de servidores+escritorios Consumo energético (kWh/año) Viejos servidores+ almacenamiento 21314 Viejos PCs 29523 Total equipos viejos 50837 Nuevos servidores+ 16934 Clientes ligeros 2790 Total equipos nuevos 19724 La virtualización es una de las tecnologías más importantes para reducir la demanda energética en los centros de datos. Consolidar que el hardware del servidor concentre la carga de trabajo en un número menor de servidores físicos puede generar un ahorro energético de entre el 40% y el 80%, a veces incluso más, depende de cada caso específico. La tecnología actual nos permite implementar la virtualización con factores de consolidación de, al menos, 10-20, según los requisitos y sistemas en cuestión. Aquí se muestra otro ejemplo de virtualización de SUN, con una consolidación de los servidores y una virtualización de los escritorios. Este caso se ha llevado a cabo en un pequeño municipio de Alemania. El ahorro energético logrado fue de alrededor del 60%. Fig. Virtualización de servidores+escritorios (SUN 2009)

42 Ahorro energético logrado con la virtualización de servidores Ejemplo 2: virtualización de servidores La virtualización es una de las tecnologías más importantes para reducir la demanda energética en los centros de datos. Consolidar que el hardware del servidor concentre la carga de trabajo en un número menor de servidores físicos puede generar un ahorro energético de entre el 40% y el 80%, a veces incluso más, depende de cada caso específico. La tecnología actual nos permite implementar la virtualización con factores de consolidación de, al menos, 10-20, según los requisitos y sistemas en cuestión. Aquí se muestra otro ejemplo de virtualización de SUN, con una consolidación de los servidores y una virtualización de los escritorios. Este caso se ha llevado a cabo en un pequeño municipio de Alemania. El ahorro energético logrado fue de alrededor del 60%. Virtualización de servidores en el Ministerio de Medio Ambiente alemán

43 Herramientas de software para planificar la virtualización y calcular el ROI/TCO (retorno de la inversión/coste total de propiedad) Propiedades Detección de clientes, servidores y aplicaciones en todo el entorno informático Realización de unas evaluaciones de virtualización y migración para los proyectos informáticos Auto-preparación de informes y propuestas Adaptación de las soluciones para ajustarlas tanto a los pequeños negocios como a las grandes empresas Cálculo del ahorro energético y propuesta de virtualización Informe y propuesta para la migración de los servidores: Windows Server 2008 y preparación de informes sobre “huéspedes virtualizados por hosts” Propuestas e informes sobre la migración y virtualización de las aplicaciones Microsoft : consejos para la aplicación de la virtualización utilizando App-V. Assessment and Planning (MAP) Toolkit de Microsoft ayuda a planificar la migración a tecnologías informáticas energéticamente eficientes. MAP-Toolkit es una herramienta de inventario, evaluación y elaboración de informes que puede analizar y evaluar entornos informáticos para la virtualización y diferentes migraciones de plataformas sin utilizar agentes de software. El inventario automatizado y los informes de evaluación de MAP generan recomendaciones específicas de actualizaciones para una migración a los sistemas operativos Windows Vista y Windows Server 2008 (ahorro energético) y también para la virtualización. Ofrece recomendaciones de cómo pueden consolidarse los servidores físicos en un entorno Microsoft Hyper-V virtualizado.

44 Calculadora del ROI/TCO de Microsoft
Además, Microsoft Integrated Virtualization ROI Tool facilita el cálculo del ahorro de coste energético potencial con Hyper-V antes de la implementación. La herramienta Microsoft Integrated Virtualization ROI mostrada en la imagen fue desarrollada independientemente por antiguos trabajadores de Gartner expertos en TCO/ROI (Coste Total de Propiedad/Retorno de la Inversión) para Alinean, Inc., empresa de referencia en el desarrollo de herramientas ROI. Esta herramienta ayuda a los gestores informáticos a la hora de examinar los actuales servidores de producción, servidores de desarrollo y oportunidades de virtualización de las aplicaciones y los escritorios, mediante la cuantificación del ahorro potencial, los beneficios de los niveles de servicio, las inversiones y el ROI para soluciones de virtualización Microsoft. La herramienta recoge información concreta sobre los gastos actuales y las oportunidades de mejora, y proyecta los gastos y beneficios potenciales para varias estrategias de optimización, utilizando para ello Microsoft Virtualization Solutions. Expertos de Alinean y Microsoft realizaron un estudio de mercado para evaluar el gasto y el ahorro típico para una empresa de tamaño y características similares.

45 Cálculo del TCO/ROI con la calculadora de VMWare
Antiguos trabajadores de Gartner expertos en ROI/TCO validaron en la empresa de consultoría Alinean Inc. la metodología TCO/ROI utilizada por VMWare a fin de cuantificar el ahorro de costes y el valor empresarial de las soluciones VMWare. La metodología se basa en técnicas financieras probadas, la investigación industrial, datos de consumo y de campo VMWare, y parámetros de usuario para cuantificar y comparar el ahorro relacionado con el TCO, la inversión precisa y las ventajas empresariales de implementar soluciones de virtualización VMWare. La metodología se aplica en la calculadora TCO/ROI de VMWare, una herramienta online creada para ayudar a las organizaciones a recopilar información clave sobre sus oportunidades de mejora y cuantificar los beneficios que pueden lograrse con las soluciones de virtualización. Valores clave como ahorro, inversión, ROI, ahorro VAN (Valor Actual Neto), oportunidades TCO y el plazo de recuperación se calculan tomando como base datos relacionados con los usuarios. Cuando no hay disponibles datos específicos de los usuarios, se proporcionan datos estadísticos de la industria que pueden emplearse. La metodología TCO/ROI ayuda primero a las organizaciones a cuantificar el coste de propiedad actual de la informática y las infraestructuras antes de la virtualización.

46 Cálculo del TCO/ROI con la calculadora de VMWare
El análisis TCO compara el escenario de virtualización con un escenario de situación sin cambios para obtener el cambio en el TCO. El análisis ROI compara el beneficio neto con la inversión incremental y lo expresa como un porcentaje para ilustrar la razón de retorno versus inversión (ROI = beneficio neto/inversión). El análisis del plazo de recuperación determina el tiempo que ha de transcurrir antes de que el beneficio neto de la solución propuesta supere la inversión acumulada en el proyecto. En resumen, los proyectos de virtualización tienen un claro retorno de inversión (ROI) ya que la consolidación de los servidores reduce el coste de hardware así como el gasto de refrigeración y energía; además, sus características avanzadas reducen los gastos generales de gestión. Sin embargo, los cálculos ROI son aún un elemento básico para el éxito de los proyectos de virtualización. Los mejores cálculos ROI tienen en cuenta todos los costes (hardware, software y diversos costes ocultos) y cuantifican detalladamente el beneficio de los proyectos de virtualización de los servidores. Si se cuenta con una información precisa sobre el ROI y el TCO de la virtualización, se facilita la implementación de los proyectos de virtualización. Los cálculos también ayudan a descubrir problemas potenciales en la planificación del proyecto. La metodología empleada en estas herramientas se basa en técnicas financieras probadas, la investigación industrial y parámetros y datos sobre los consumidores. Se analiza el ahorro relacionado con el TCO, la inversión precisa y las ventajas empresariales de las soluciones de virtualización.

47 Gestión de la energía con la migración de servidores Herramienta DPM, de VMWare
VMWare Vsphere4 Distributed Power Management en un clúster DRS (Planificador de Recursos Distribuidos) puede emplearse para reducir el consumo energético de los hosts ESX. DPM controla el uso de recursos de las máquinas virtuales que funcionan en el clúster. Si hay una capacidad excesiva significativa, DPM recomienda mover algunas máquinas virtuales entre los hosts y pone algunos hosts en modo de espera (standby) para conservar energia. Si no hay suficiente capacidad, DPM recomienda que se restablezca la energía en los hosts en modo de espera para que recuperen el estado activo. La gestión de la energía puede configurarse para trabajar en modo manual o automático. En el modo manual, el usuario debe confirmar las recomendaciones relativas al estado de energía de los hosts para la migración. En el modo automático el vCenter Server traslada las máquinas virtuales y lleva los hosts al modo de espera o los saca de este modo automáticamente.

48 Gestión de la energía con la migración DPM Características de la herramienta de migración
Evaluación precisa de la demanda de recursos de las cargas de trabajo. Un error por exceso en la estimación puede llevarnos a un ahorro energético nada aconsejable, mientras que un error por defecto puede tener como consecuencia un rendimiento bajo y una infracción de los Acuerdos de Nivel de Servicios (SLA) sobre el nivel de recursos del DRS. Evitar apagar y encender los servidores con demasiada frecuencia. A menudo, apagar y encender los servidores demasiadas veces puede perjudicar el rendimiento porque se requieren unas operaciones de VMotion innecesarias. Reaccionar rápidamente ante un aumento repentino de las demandas de las cargas de trabajo de modo que el ahorro energético no perjudique el rendimiento. Selección de los hosts adecuados a encender o apagar. Apagar un host de tamaño mayor con diversas máquinas virtuales podría infringir el límite de utilización meta de uno o más hosts de menor tamaño. Redistribución inteligente de las máquinas virtuales una vez se hayan encendido o apagado los hosts introduciendo el DRS de manera continuada El objetivo de VMWare DPM es mantener el uso de los hosts ESX del clúster dentro de unos límites meta, respetando las restricciones especificadas por los parámetros operativos de VMware DPM y aquellos asociados con HA (Alta Disponibilidad) y DRS (Planificador de Recursos Distribuidos). VMWare DPM evalúa las recomendaciones para el encendido de hosts si hay hosts con niveles de uso superiores a esos límites, y para el apagado de hosts si hay hosts con niveles de uso inferiores a dichos límites. Aunque este planteamiento puede parecer sencillo, hay varios retos clave que VMware DPM debe superar para convertirse en una solución de ahorro energético efectiva. VMware DPM se ejecuta como parte de la solicitud periódica de uso del DRS (cada cinco minutos por defecto), justo después de que finalice el análisis del clúster de DRS y el paso de reequilibrio.

49 Diferentes opciones de uso de la herramienta VMware DPM
Establecer VMware DPM en el modo automático y dejar que el algoritmo VMware DPM dicte cuándo encender o apagar los hosts. Ajustar VMware DPM para que sea más conservador o más agresivo, cambiando el umbral DPM Threshold en los ajustes del clúster (Cluster Settings) o la opción avanzada de la razón demanda/capacidad meta. Aumentar la razón demanda/capacidad meta. Para ahorrar más energía aumentando el uso de los hosts (consolidando más máquinas virtuales en unos pocos hosts), el valor de la razón demanda/capacidad meta podría aumentar desde un porcentaje por defecto del 63% a, por ejemplo, el 70%. Usar VMware DPM para forzar el encendido de todos los hosts antes de las horas de oficina y después realizar el apagado selectivo de hosts cuando hayan pasado las horas punta de carga de trabajo. La forma básica de utilizar VMware DPM es encender y apagar los hosts ESX tomando como base la utilización de patrones durante una jornada o una semana laboral típica. Por ejemplo, servicios como , fax, intranet y consultas de bases de datos se utilizan más durante las horas de trabajo de 9 de la mañana a 5 de la tarde. Fuera de estas horas, los niveles de uso pueden bajar notablemente, haciendo que la mayoría de los hosts estén desaprovechados. Su principal función durantes estas horas de inactividad podría ser realizar copias de seguridad, crear archivos, dar respuesta a solicitudes exteriores, etc. Así, la consolidación de máquinas virtuales y el apagado de hosts prescindibles durante las horas de inactividad reduce el consumo energético.

50 Requisitos de energía y refrigeración tras la virtualización
Adaptación a escala de la infraestructura según la carga La variación dinámica de la energía en entornos virtualizados es una razón de peso para inclinarse por la refrigeración rack o en hilera. La virtualización puede reducir la carga de refrigeración en un centro de datos hasta niveles muy bajos, lo que puede tener efectos negativos en los equipos de refrigeración (por ejemplo, carga del compresor). Así, establecer el volumen adecuado de energía y refrigeración es otro elemento crucial para explotar con éxito el potencial de ahorro energético a través de la virtualización. Una información precisa sobre la demanda de capacidad de energía y refrigeración es crucial para asegurar que la capacidad de la infraestructura pueda adaptarse a los perfiles de carga cambiantes en el tiempo. La gestión de la capacidad ofrece una instrumentación para el análisis y seguimiento en tiempo real de información sobre las capacidades energéticas, de refrigeración y de espacio físico y posibilita un uso eficiente y efectivo de los recursos en todo el centro de datos. Es posible identificar áreas con una capacidad muy baja o con capacidad disponible. Una información precisa sobre la demanda de capacidad de energía y refrigeración es crucial para asegurar que la capacidad de la infraestructura pueda adaptarse a los perfiles de carga cambiantes en el tiempo.

51 Demanda de refrigeración variable durante la migración de los servidores
La virtualización puede aumentar la densidad de energía de los racks y provocar el cambio dinámico de la densidad local, aumentando así a nivel local las demandas de infraestructura de refrigeración y energía y, al mismo tiempo, reduciendo la demanda energética global. Los requisitos básicos de la virtualización en cuanto a energía y refrigeración se refiere son similares a los introducidos en el pasado por los sistemas blade de alta intensidad. Se trata de tecnologías ya disponibles para cubrir las necesidades de refrigeración y energía de un entorno virtualizado. Si la capacidad de energía y refrigeración no se adapta a los niveles de carga inferiores, la PUE empeorará tras la virtualización, lo que refleja los gastos generales adicionales de la capacidad de refrigeración y potencia en reposo. Aunque la virtualización reduce el consumo energético general de un centro de datos, a menudo los servidores se agrupan de tal forma que pueden crear “puntos calientes” o “hot spots”. La virtualización también nos permite mover, iniciar o detener las aplicaciones de manera dinámica, causando cargas cambiantes en el tiempo y el espacio. En un entorno convencional con los tradicionales pisos falsos, la refrigeración basada en salas puede configurarse para refrigerar esos puntos calientes adecuadamente mediante la reorganización de las baldosas de ventilación. Con la carga dinámica de los servidores, el perfil térmico puede cambiar sin necesidad de realizar cambios físicos en el equipo. Una solución a este reto es colocar unidades de refrigeración dentro de las hileras y prepararlas para notar y responder a los cambios de temperatura. La ubicación de unidades de refrigeración cerca de los servidores proporciona trayectos en línea cortos entre la refrigeración y la carga.

52 Características de la gestión de la capacidad de energía y refrigeración
Cambio de ubicación y densidad local – La virtualización puede crear unos puntos calientes sin añadir o mover los servidores físicos ya que el sistema de gestión de la energía distribuida apaga unos servidores y enciende otros. Cambios dinámicos – Mantener la estabilidad del sistema puede resultar difícil, especialmente si varias partes están realizando cambios sin que haya una coordinación centralizada. Gestión de las interdependencias – La virtualización hace que las dependencias compartidas y los efectos secundarios en la relación entre las capacidades de energía, refrigeración y espacio sean más complejos. Suministro ajustado de energía y refrigeración – Durante la virtualización, la carga de energía y refrigeración baja y vuelve a subir a medida que se crean nuevas máquinas virtuales. Esta situación puede gestionarse correctamente utilizando sistemas escalables de energía y refrigeración. La gestión de la capacidad ofrece unos instrumentos para el análisis y seguimiento en tiempo real de información sobre las capacidades energéticas, de refrigeración y de espacio físico y posibilita el uso eficiente y efectivo de los recursos en todo el centro de datos. Es posible identificar áreas con una capacidad muy baja o con capacidad disponible.

53 Adaptación de la infraestructura de energía y refrigeración tras la virtualización
Adaptación a la baja de la capacidad de energía y refrigeración para que se corresponda con la carga Bombas y ventiladores con variador de frecuencia que se controlan según la demanda de refrigeración Utilización de los equipos con una mayor eficiencia Arquitectura de refrigeración que incluya unos trayectos lineales más cortos (por ejemplo, en hilera) Sistema de gestión de la capacidad para adaptar la capacidad a la demanda Paneles ciegos para recudir la mezcla de aire en el rack Tras la virtualización, el consumo energético siempre será menor gracias a la reducción de la población de servidores y la disminución de la energía consumida por los sistemas de refrigeración. Sin embargo, la eficiencia de la infraestructura del centro de datos será baja si no se modifica la dimensión de los sistemas de energía y refrigeración, reduciéndolos para adaptarlos a la nueva, e inferior, carga informática. En resumen, al realizar proyectos de virtualización, la capacidad de energía y refrigeración debe adaptarse a los niveles de carga inferiores. De lo contrario, la PUE aumentará, reflejando los gastos generales adicionales de la capacidad de energía y refrigeración. Aunque la virtualización reduce el consumo energético general en un centro de datos, puede causar cargas cambiantes en el tiempo y el espacio. Con la carga dinámica de los servidores, el perfil térmico puede cambiar sin necesidad de realizar cambios físicos en el equipo. En un entorno convencional con los tradicionales pisos falsos, la refrigeración basada en salas puede configurarse para refrigerar los puntos calientes adecuadamente mediante la reorganización de las baldosas de ventilación.

54 Recomendaciones de buenas prácticas

55 Recomendaciones de buenas prácticas Adquisición & configuración del hardware
Considera los requisitos de rendimiento de tus cargas de trabajo y evita tener un suministro excesivo de potencia informática. Define criterios de adquisición basados en unos requisitos prácticos bien fundados. Considera detenidamente la probable necesidad de realizar actualizaciones de los componentes y adapta las especificaciones a unos requisitos realistas. A menudo no es necesario adoptar en la práctica actualizaciones de envergadura. Considera los criterios de eficiencia energética facilitados por los requisitos Energy Star para los servidores. Evita un abastecimiento excesivo de suministro de potencia. Por desgracia, este exceso de suministro es bastante común.

56 Recomendaciones de buenas prácticas Adquisición & configuración del hardware
Considera fuentes de alimentación con una alta eficiencia, por ejemplo, de las series 80PLUS Platino y Oro. Mejora la eficiencia energética de fuentes de alimentación redundantes utilizando modos de ahorro de energía [opciones de modo de espera – o standby – de bajo consumo para unidades centrales de procesamiento (CPUs) redundantes]. Solicita a los fabricantes datos comparativos y de referencia (benchmarking), por ejemplo, SPECpower_ssj2008 (SPEC-SERT tan pronto como esté disponible). Para SPECpower_ssj2008, considera los siguientes factores: a menudo los servidores se ensayan con configuraciones bajas considera la eficiencia a diferentes niveles de carga que sean comunes para tus cargas de trabajo y nivel de consolidación SPECpower_ssj2008 está bastante centrado en la CPU y puede que no ofrezca suficientes datos para la memoria, el disco y cargas de trabajo intensivas de entrada y salida

57 Recomendaciones de buenas prácticas Planificación y gestión informática
Beneficio obtenido de los niveles optimizados de resiliencia del hardware. Evalúa el nivel de resiliencia del hardware que pueda justificarse considerando el impacto que previsiblemente tendrán en la empresa los incidentes en el servicio para cada uno de los servicios implementados. Utiliza herramientas de gestión de servidores para el desarrollo de la eficiencia energética de los servicios y una planificación de la capacidad que persiga lograr unos sistemas virtualizados y firmemente consolidados. Habilita opciones de gestión de la energía a nivel de CPU por defecto. Cancela servicios que no se utilizan y elimina el hardware. Valora las opciones de cancelar servicios de poco valor para la empresa.

58 Recomendaciones de buenas prácticas Implementación de servidores blade
Define y evalúa las principales razones para implementar una tecnología blade en el centro de datos, por ejemplo, por restricciones de espacio, etc. En principio, toda decisión de gestión relativa a la implementación de tecnología blade en el centro de datos debería basarse en unos criterios de decisión claros. Evalúa los beneficios que cabe esperar en comparación con la tecnología rack y comprueba si esas expectativas son realistas. Considera si la virtualización puede ser una solución alternativa teniendo en cuenta los objetivos definidos. Evalúa la eficiencia energética y el Coste Total de Propiedad (TCO) previstos en comparación con otras opciones (tomando como base la información facilitada por los proveedores).

59 Recomendaciones de buenas prácticas Planificación y evaluación de los sistemas blade
Define los niveles de trabajo actuales y niveles de trabajo previstos que se ejecutarán en los sistemas blade. Compara el coste y la eficiencia energética de los sistemas blade ofrecidos por diferentes vendedores. Solicita a los proveedores información de los productos sobre: el TCO la eficiencia energética global (por ejemplo: SPECpower2008jpp, SPEC- SERT tan pronto como esté disponible) componentes hardware energéticamente eficientes, por ejemplo: eficiencia y nivel adecuado de las fuentes de alimentación herramientas de gestión que también abarquen la gestión de la energía y la optimización del diseño de los sistemas elije equipos que ofrezcan la mayor eficiencia energética para los niveles y tipos de cargas de trabajo con los que estás trabajando así como unas opciones adecuadas de gestión de la energía

60 Recomendaciones de buenas prácticas Gestión de los sistemas blade
Utiliza herramientas de gestión para optimizar la eficiencia energética de los sistemas blade. Utiliza herramientas de gestión y dispositivos inteligentes de energía y red para controlar el consumo energético y la carga de tu sistema blade. Analiza posibles opciones para equilibrar y gestionar las cargas y el consumo energético en todos los racks y chasis blade. Utiliza las funciones de equilibrio y limitación de energía del chasis blade.

61 Recomendaciones de buenas prácticas Infraestructura para los sistemas blade
Establece un grupo de trabajo en colaboración con expertos responsables de la refrigeración y la infraestructura. Comprueba hasta qué punto la actual infraestructura de energía y refrigeración apoya el uso de una tecnología blade. Define la densidad de energía/calor prevista/precisada por rack y en total. Comprueba: si la densidad de energía/calor puede mantenerse con la capacidad e infraestructura energética y de refrigeración existente. ¿Es posible repartir la capacidad libre existente sin realizar grandes esfuerzos? si se necesita más refrigeración. Define el concepto adecuado y evalúa el coste y la eficiencia. si es necesario definir y diseñar un área específica de gran densidad para los sistemas blade. Evalúa el coste y la eficiencia. Define con los expertos en infraestructuras el nivel de sistema apropiado para los racks e hileras.

62 Recomendaciones de buenas prácticas Aspectos de la virtualización
Desarrollo de una estrategia de virtualización Identificación de candidatos para la virtualización requisitos del rendimiento de la CPU, memoria requerida, intensidad de entrada/salida de disco, requisitos de red, configuración del sistema operativo Selección del producto y tipo de virtualización Adaptación de los procesos informáticos y los flujos de trabajo implantación de máquinas virtuales, escritorios virtuales, procesos de copia de seguridad/recuperación de datos, administración de parches, consideraciones sobre la disponibilidad

63 Recomendaciones de buenas prácticas Aspectos de la virtualización
Selección del software con un análisis de las ventajas/desventajas de los diferentes productos: Interfaz de administración Coste de licencia de un hipervisor, coste de licencia de un sistema operativo invitado, etc. Características de gestión, por ejemplo, herramientas de gestión de la energía y migración del servidor Consideración de medidas adecuadas de la infraestructura El sistema de refrigeración puede hacer frente a: Mayores densidades de carga de refrigeración Densidades cambiantes y dinámicas debido al apagado y migración del servidor Interdependencias compartidas y efectos secundarios

64 Recomendaciones de buenas prácticas Consideración del retorno de la inversión / coste total de propiedad (ROI/TCO) para su virtualización Para que la planificación e implementación optimizadas de las soluciones de virtualización sean exitosas, es necesario realizar una evaluación del TCO y del ROI teniendo en cuenta los aspectos siguientes: los vendedores de tecnología pueden facilitarnos herramientas de cálculo del ROI los cálculos deberían comenzar con los factores más importantes los modelos se definirán y concretizarán teniendo en cuenta las necesidades de la empresa en cuestión las consideraciones de los costes deberían incluir los costes laborales, el coste de las actualizaciones del hardware (servidores, almacenamiento, red, infraestructura), el coste de posibles tiempos de parada de los sistemas, así como diferentes formas de reducir costes (por ejemplo: copias de seguridad/recuperación, disponibilidad, etc.)

65 Debate Preguntas relacionadas con el módulo

66 Preguntas/discusiones relacionadas con el módulo
De media, ¿qué porcentaje representa el consumo energético de los servidores? ¿Cuáles son las principales ventajas de la virtualización de los servidores? ¿Cuál es el ahorro potencial de energía que puede atribuirse a la virtualización? Por favor, menciona uno de los seis enfoques posibles para optimizar la capacidad de suministro eléctrico. En tu opinión, ¿cuáles son los principales obstáculos para la eficiencia energética en los equipos de los servidores?

67 Otras lecturas recomendables
Libros blancos Publicaciones online Etc.

68 Otras lecturas recomendables
Cinco formas de reducir el consumo eléctrico de los servidores en un centro de datos Uso de la virtualización para mejorar la eficiencia de los centros de datos Adaptación a los niveles adecuados de la energía consumida por los equipos informáticos y las cargas de refrigeración

69 Otras lecturas recomendables
Análisis de los resultados de un estudio sobre servidores no utilizados Hoja de ruta para la adopción de propiedades relacionadas con la energía en los servidores Análisis de los incentivos de las compañías eléctricas para virtualizar los servidores


Descargar ppt "Módulo 3 Equipos de servidor"

Presentaciones similares


Anuncios Google