Listado de Productos

  • Articulo Técnico - Delta
  • Articulo Técnico

     

    La evolución del enfriamiento del centro de datos

    Hay alrededor de 8,5 millones de centros de datos en el mundo. 3 millones de ellos se encuentran solo en los EE.UU., si se cuenta también los más pequeños. Es casi un centro de datos por cada 100 personas. Y también representan casi el 2% de toda la electricidad consumida en los EE.UU.

    ¿Qué le pasa a toda esta energía? El 100% de la electricidad consumida por el hardware de TI se convierte en calor. Pero a los servidores no les gusta el calor. Por lo tanto, necesita una refrigeración potente (y eficiente) para el centro de datos. La refrigeración por métodos convencionales también requiere energía. De hecho, es tanta energía que la refrigeración puede representar más del 50 por ciento de los requisitos de energía total de un centro de datos.

    Básicamente, esto convierte nuestros centros de datos en enormes calentadores eléctricos. Y seguimos construyendo más de ellos. Es una tendencia que amenaza con hacer que la sostenibilidad sea más difícil para las empresas e incluso para los países. Afortunadamente, hay alternativas más eficientes a los métodos convencionales de enfriamiento del centro de datos. La barra de medición utilizada para determinar la eficiencia de una operación de sistema de refrigeración de un centro de datos es conocido como Eficiencia en el Uso de Energía o PUE (por sus siglas en inglés). Cuanto más bajo sea la PUE, mejor. Es la relación entre la potencia total utilizada por un centro de datos y la potencia entregada al hardware de TI. Un puntaje de 2,0 se considera estándar, 1,4 es bueno y 1,0 es el mejor puntaje PUE que puede lograr.

     

    A la antigua usanza: enfriamiento de piso elevado

    En los últimos 50 años, la mayoría de los centros de datos se han enfriado con aire a presión desde un piso elevado. Un Acondicionador de Aire para Sala de Computadoras (CRAC) o un Controlador de Aire para Sala de Computadoras (CRAH) enfrían el aire que es impulsado por ventiladores a una velocidad constante. Este tipo de sistema funcionaba bien cuando las densidades de cómputo eran bajas y la eficiencia no era alta en la lista de prioridades de nadie. Pero las desventajas se han vuelto más significativas con el tiempo. PUEs superiores a 2,0 son comunes aquí, por ejemplo.

    Un problema importante con este tipo de enfriamiento es el gradiente de temperatura desde la parte inferior del gabinete hasta la parte superior, conocido como estratificación. Los servidores cercanos al piso obtienen aire más frío, y los servidores en la parte superior del gabinete suelen tener una temperatura de entrada considerablemente más alta. Si aumenta el flujo de aire para aliviar este problema, la eficiencia disminuirá porque el aire ahora pasa a través de la parte frontal de la carcasa del servidor y se mezcla con el aire caliente de retorno. En consecuencia, se han desarrollado estrategias de contención como las configuraciones de pasillo caliente/pasillo frío. Estos arreglos también reducen la recirculación, que ocurre cuando el aire caliente de la parte posterior del servidor se empuja hacia adelante, lo que puede generar niveles peligrosos de temperatura del equipo.

    Soluciones modernas de enfriamiento de precisión

    La tecnología de enfriamiento ha recorrido un largo camino desde la época en que los ventiladores de velocidad constante soplaban aire en un piso elevado. La creciente densidad ha hecho que estos avances sean necesarios. Con diseños de contención de aire frío y de contención de aire caliente, las limitaciones de estratificación y desviación se han superado enormemente. Las unidades de enfriamiento en línea permiten una eficiencia aún mayor. Aquí, los ventiladores de velocidad variable instalados en unidades de enfriamiento que están integrados en las líneas mismas permiten a los operadores de centros de datos controlar las temperaturas y el consumo de energía con mucha mayor precisión. La potencia consumida por estos ventiladores de velocidad variable es significativamente menor que en los sistemas que usan ventiladores de velocidad constante.

    El uso de economizadores está en aumento

    Es difícil imaginar que después de décadas de construir centros de datos, el futuro de su enfriamiento podría ser tan abierto e incierto. La física subyacente no ha cambiado. Sin embargo, los enfoques aún varían ampliamente. Parte de esto puede explicarse por las diferencias climáticas en ubicaciones geográficas de todo el mundo. Una de las estrategias más prometedoras para ahorrar energía al enfriar centros de datos se conoce como enfriamiento gratuito o economía. En este enfoque, el aire exterior se usa en una torre de enfriamiento o para expulsar el calor de un refrigerador. Por supuesto, este método depende de que la temperatura del aire fuera del centro de datos sea lo suficientemente baja como para proporcionar el enfriamiento necesario. Los climas más fríos tienen una ventaja importante aquí.

    Electricidad no es el único recurso que consume un centro de datos

    Algunos métodos alternativos de enfriamiento de centros de datos que usan torres de enfriamiento consumen cantidades significativas de agua. Sin embargo, muchos centros de datos se encuentran en partes del mundo afectadas por la sequía. Incluso cuando no lo son, el agua es un recurso natural valioso que siempre debemos tratar de conservar. Esto parecería, al menos en la superficie, una ventaja para los sistemas de enfriamiento en seco. Sin embargo, teniendo una visión más holística, también debemos considerar que la fase de vapor de una planta de combustibles fósiles también consume agua. Tanta agua que la energía extra requerida por los sistemas de enfriamiento en seco da como resultado un mayor consumo de agua para el enfriamiento en seco en total en comparación con las torres de enfriamiento en el sitio.

    El enfriamiento de aire fresco con PUE baja es tentador

    Lo único seguro es que se necesitarán nuevos enfoques. ¡Y no hay escasez de ellos! Uno de los enfoques más prometedores, pero también problemáticos utiliza aire externo fresco para enfriar el centro de datos. Con aire fresco, los PUE que se acercan a 1,0 son posibles, como lo demostró Yahoo con su diseño de "gallinero". Pero traer aire fresco al centro de datos implica una serie de desafíos. Primero, las temperaturas exteriores deben ser lo suficientemente frías para proporcionar temperaturas de entrada seguras para los equipos de TI. De lo contrario, se requieren sistemas de enfriamiento de respaldo. Pero la humedad y el polvo también son problemas difíciles de resolver.

    Si la humedad en el centro de datos es demasiado baja, aumenta el riesgo de descarga electrostática. Sin embargo, investigaciones recientes minimizan el riesgo de descarga electrostática (ESD) para los equipos de TI. Especialmente cuando los servidores están montados en el chasis, el riesgo de daños es bajo. Y cuando los técnicos trabajan en el equipo del centro de datos, siempre se recomienda usar una correa de conexión a tierra.

    El exceso de humedad, por otro lado, puede presentar un mayor riesgo. A medida que el aire se humedece, recoge más partículas de polvo, que pueden acumularse en los equipos informáticos. A medida que se acumulan partículas de polvo, aíslan los componentes y dificultan el enfriamiento. Las partículas de zinc también se pueden depositar en los circuitos a través del aire húmedo, lo que conduce a cortocircuitos. Por lo tanto, el aire muy húmedo requiere deshumidificación, lo que a su vez consume energía y hace que este bajo PUE sea menos atractivo.

    Otro problema considerable con el enfriamiento del aire fresco es el polvo y el humo. Dependiendo de las partículas en el aire, el enfriamiento con aire fresco puede requerir filtros costosos. E incluso con una buena filtración, existe el riesgo de que los sistemas de extinción de incendios extremadamente sensibles en un centro de datos moderno puedan ser activados por contaminantes del aire provocados por el enfriamiento con aire fresco.

    Enfriamiento por inmersión

    Los transformadores de línea de potencia requieren más enfriamiento del que permite el enfriamiento por aire. Esto se logra sumergiendo los circuitos en un fluido dieléctrico, generalmente aceite mineral. Como el aceite conduce el calor, pero no la electricidad, no daña los componentes. El enfriamiento por inmersión también se puede utilizar para servidores. Con este método, el calor se elimina de la electrónica de manera mucho más eficiente que con la refrigeración por aire. Los proveedores ahora ofrecen soluciones de enfriamiento por inmersión para aplicaciones de centros de datos.

    ¿Qué tan frío debe ser realmente tu equipo?

    Los equipos informáticos son evaluados de acuerdo con las clases definidas por el Comité Técnico de la Sociedad Americana de Ingenieros de Calefacción, Refrigeración y Aire Acondicionado (ASHRAE, por sus siglas en inglés). Estas clases (A1 a A4) son parte de un conjunto de pautas desarrolladas por ASHRAE para determinar los niveles óptimos de temperatura y humedad para el hardware del centro de datos. A1 tiene el rango de temperatura más bajo permitido.

    Pero muchos fabricantes de hardware de TI ahora están produciendo equipos de clase A2 o incluso A3, lo que puede dar a los centros de datos una mayor flexibilidad en sus opciones de enfriamiento. Por lo tanto, es aconsejable examinar cuidadosamente los requisitos de enfriamiento para su equipo en lugar de simplemente seguir las recomendaciones estándar de ASHRAE para las clases A1-A4. Sí, por supuesto, cuanto más caliente sea su equipo, menos confiable será. Pero el costo de una falla de hardware es calculable. Al predecir el mayor riesgo de falla con el aumento de las temperaturas, puede calcular los ahorros de una refrigeración más baja en comparación con el costo de una mayor tasa de fallas. Y muchas empresas están reemplazando sus equipos de TI después de solo tres años. En este caso, el impacto de temperaturas más altas puede no ser significativo.

    La experimentación conducirá a una mayor eficiencia

    Los diseños de enfriamiento más eficientes utilizan enfriamiento gratuito o aire fresco de alguna manera. CRAC a menudo se requiere como respaldo cuando las condiciones exteriores (días calurosos y húmedos de verano) no pueden proporcionar suficiente enfriamiento para satisfacer las necesidades de un centro de datos. Sin embargo, una de las claves que vemos en todos estos proyectos pioneros es que la estructura del edificio siempre juega un papel clave. Los días de planear un edificio, poner todo el equipo de TI posible en el espacio y luego pensar en la refrigeración, pueden haber terminado. Los nuevos conceptos del centro de datos deberán diseñarse teniendo en cuenta la refrigeración desde el principio.

    Los nuevos conceptos del centro de datos deberán diseñarse teniendo en cuenta la refrigeración desde el principio. La mitad del disco está dentro del edificio y la otra mitad afuera. A medida que el disco gira, se calienta por dentro y transfiere el calor acumulado al aire exterior en el momento en que regresa. Pero el disco en sí es bastante grande y requiere una cantidad considerable de espacio para las áreas internas y externas a través de las cuales gira el disco.

    Otra opción, en lugar de simplemente arrojar calor residual al medio ambiente, es hacer un buen uso de él. Ya hay proyectos en los que los centros de datos se han integrado en los sistemas urbanos de calefacción y refrigeración. De esta manera, el calor residual del centro de datos se está utilizando para calentar hogares. Este puede ser el ejemplo más sostenible de todos. Y los sistemas de refrigeración de distrito también proporcionan una forma muy eficiente de enfriar el centro de datos. Este es un momento emocionante, se pueden obtener grandes ventajas competitivas al lograr altas eficiencias de enfriamiento. La cuestión de cómo lograr esto todavía está completamente abierta.

    Delta InfraSuite Percision Cooling

    top

    QUICK LINKS

    Suscribir Boletín