Aquà hay cinco formas en que los CIO pueden volverse ecológicos. Lo mejor de todo: la mayorÃa de estos movimientos también le harán lucir bien. Incluso si su organización no está tratando de salvar el planeta.
Cada vez más, las iniciativas de sustentabilidad corporativa se están abriendo camino en el centro de datos. Pero muchos CIO que invierten e implementan tecnologÃa de vanguardia para reducir las emisiones de carbono ni siquiera saben que están tomando medidas climáticas. Sólo están tratando de mejorar el resultado final.
Eso coloca a los CIO en una posición envidiable. En la mayorÃa de los rincones de la empresa, la toma de decisiones con el Medio ambiente, el ámbito Social y la Gobernanza (ESG, por sus siglas en inglés) requiere cuadrar los posibles beneficios climáticos con el gasto adicional, la incertidumbre y la interrupción de los combustibles, materiales y procesos de próxima generación.
Pero los tomadores de decisiones de TI tienen la oportunidad de eludir ese problema en el centro de datos, que es responsable de aproximadamente el dos por ciento de las emisiones de gases de efecto invernadero de Estados Unidos. Las innovaciones emergentes están ayudando a convertir sus complejos de servidores masivos con uso intensivo de recursos en un raro frente libre de concesiones en la guerra de la sostenibilidad, donde las reducciones en las emisiones de carbono a menudo van de la mano con costos más bajos.
Cada vez más, es un frente digno de inversión. Las preocupaciones del lado de la oferta, como los precios elevados del combustible y las inestabilidades geopolÃticas, son solo una parte de la motivación. La energÃa ya es el mayor gasto del centro de datos. Y el deseo aparentemente insaciable de obtener más información de más datos está impulsando implementaciones más densas de racks repletos de CPU y GPU que consumen cada vez más energÃa.
Para empeorar las cosas, los centros de datos están llegando al punto en que la energÃa requerida para enfriar los racks repletos de esos robustos servidores está aumentando más rápido de lo que se necesita para ejecutarlos.
Según algunas estimaciones, hasta el 40 por ciento del presupuesto de energÃa de un centro de datos ahora se dedica a la refrigeración. Para tratar de revertir la tendencia, muchos gerentes de instalaciones han adoptado el enfriamiento por evaporación. Eso puede ayudar a reducir la demanda de electricidad de las unidades HVAC y los ventiladores a bordo. Pero requiere enormes cantidades de agua: colectivamente, alrededor de 174 millones de galones por año en Estados Unidos.
Eso es, como, insostenible. Es por eso que los CIO preocupados por los costos y la sustentabilidad miran más allá del enfriamiento evaporativo.
“La forma en que hemos enfriado los centros de datos tendrá que cambiarâ€, dijo Scott Tease, vicepresidente y gerente general de HPC e IA en Lenovo. “La refrigeración por aire tradicional simplemente no puede seguir el ritmo. Y ya no tenemos el agua para suministrar las cantidades masivas que requiere el enfriamiento por evaporación. Es un gran, gran problemaâ€.
Más empresas reconocen que reducir el uso de agua en el centro de datos se está volviendo tan urgente como reducir el consumo de combustibles fósiles. AWS, por su parte, ya está dando un salto en ambos. En su evento re:Invent a fines del mes pasado, el proveedor de nube más grande del mundo se comprometió a ser positivo para el agua para 2030 . Además, la compañÃa reiteró su compromiso de alimentar el 100 por ciento de las operaciones con energÃa renovable para 2030 . Durante su discurso de apertura, los asistentes vitorearon cuando el director ejecutivo Adam Selipsky les dijo que la empresa ya habÃa recorrido más del 85 % del camino.
“Por favor, todos, participenâ€, imploró Selipsky a la multitud. “Es un problema de todos nosotrosâ€.
IA para minimizar el costo de la IA
Al igual que con la mayorÃa de las actualizaciones de centros de datos, las opciones de eficiencia energética son mucho más variadas y abundantes si comienza desde cero con una nueva instalación, ya sea en las instalaciones, en una ubicación conjunta o en la nube. Dicho esto, los CIO tienen opciones atractivas para reducir las emisiones de carbono y reducir los costos de energÃa que son efectivas independientemente de si se implementan en sitios nuevos o en actualizaciones de servidores individuales en racks existentes.
Irónicamente, una forma cada vez más popular de revertir el impacto de la IA y el aprendizaje automático en la demanda de energÃa del centro de datos es con más IA y ML: es decir, software y servicios para ayudar a TI a optimizar el almacenamiento y las cargas de trabajo en los activos existentes para garantizar el mayor impacto climático. distribuciones amigables y rentables.
Anthony Behan, director general de los esfuerzos de Telecomunicaciones, Medios y Entretenimiento de Cloudera, señaló que la transición a 5G de alta potencia ha hecho que sus clientes se centren con precisión en minimizar las transferencias de datos para impulsar el ahorro de energÃa y, como consecuencia, el costo, impulsando las cargas de trabajo de datos. más cerca de donde se recopilan y almacenan los datos.
“En telecomunicaciones, cada ejecutivo de nivel C tiene un costo como elemento de lÃnea en su revisión de desempeñoâ€, aseveró Behan. “Es algo en lo que están pensando constantemente. Asà que esto tiende a ser lo que ilumina sus ojosâ€.
Refrigeración lÃquida
Los tomadores de decisiones de TI pueden hacer mella en las demandas de energÃa con refrigeración lÃquida, que se está convirtiendo rápidamente en una alternativa lÃder. Es mucho más eficiente que el enfriamiento por aire e incluso el enfriamiento por evaporación. Los proveedores dicen que pueden ahorrar hasta un 40 por ciento en la factura de energÃa para enfriamiento y permitir implementaciones de servidores y racks de mucha más alta densidad.
Y debido a que los sistemas de refrigeración lÃquida son de circuito cerrado, no hay factura de agua.
La tecnologÃa se ha utilizado para enfriar supercomputadoras durante años. Recientemente, comenzó a caer en cascada en los centros de datos cotidianos. Los proveedores ahora ofrecen implementaciones de refrigeración lÃquida para racks, servidores e incluso componentes individuales. Nvidia, por ejemplo, anunció planes para comenzar a ofrecer GPU refrigeradas por lÃquido este invierno.
Intel, el proveedor de literalmente el otro componente de servidor más popular, ha estado trabajando durante varios años para ayudar a garantizar opciones de refrigeración lÃquida viables para el centro de datos. En 2019, se asoció con el pionero Lenovo para combinar la tecnologÃa de refrigeración lÃquida Neptune de Lenovo y la plataforma de infraestructura TruScale con el hardware de servidor Xeon Scalable de Intel para aplicaciones HPC e IA.
Más recientemente, Intel ha anunciado esfuerzos con otros proveedores, incluidos Submer y Green Revolution Computing, asà como una inversión de 700 millones de dólares en una instalación de I+D de refrigeración lÃquida en Oregón.
Empezando desde cero
Los CIO que buscan implementar un nuevo sitio, ya sea en las instalaciones, con un proveedor de colocación o un proveedor de la nube, pueden encontrar oportunidades para reutilizar el calor que difunden las implementaciones de refrigeración lÃquida.
Cloud&Heat , por ejemplo, ofrece centros de datos autónomos que pueden calentar los edificios de oficinas cercanos en invierno. Si está buscando otras aplicaciones de calor difuso, puede ver lo que otros están haciendo en este mapa de proyectos. El proveedor alemán de tecnologÃas sostenibles en la nube y en las instalaciones coordina el esfuerzo de mapeo bajo los auspicios del Open Compute Project.
De hecho, uno de los sitios en el mapa de reutilización es una instalación de colocación de Montreal que está desarrollando QScale , una empresa emergente que ofrece instalaciones de centros de datos de alta densidad. La primera fase, que se espera que entre en funcionamiento a principios de 2023, marca la mayorÃa de las casillas de sostenibilidad. Por ejemplo, es:
- Ubicado en un clima del norte que requiere mucho menos enfriamiento,
- Alimentado casi en su totalidad por energÃa renovable, y
- Proporcionar calor a lo que podrÃa considerarse una colocación agrÃcola: un complejo de invernaderos construidos para cultivar frutas y verduras durante todo el invierno.
“Todos estamos acostumbrados a que las cosas sostenibles sean más carasâ€, aseveró Martin Bouchard, cofundador y director ejecutivo de QScale. “Pero no somos más caros que un centro de datos simple y sucio. Por lo tanto, puede tener una producción de carbono limpia y sostenible y ser súper eficiente, todo al mismo tiempoâ€.
Eso deberÃa ser música para los oÃdos de los CIO, independientemente de si están trabajando para hacer que sus centros de datos sean más sostenibles. O simplemente reducir costos.
Mike Feibus, CIO.com
