Muchas compañías tecnológicas ponen en práctica estrategias ecológicas en sus procesos de fabricación y desarrollo, pero Facebook tiene un enfoque original: incluso llegó a utilizar papas en el aislamiento de sus servidores, en su intento por atenuar su recalentamiento y respeto al medio ambiente.
Bajo el proyecto de Informática Abierta, Facebook pretende mejorar la eficiencia de servidores, dispositivos de almacenamiento y centros de datos que soportan su plataforma de red social. La compañía está avanzando en los componentes de sus servidores y sus avances son compartidos con el resto de la comunidad OCP, para que introduzcan sus propias mejoras y así reducir el impacto medioambiental de las TI a escala global.
Y realmente se lo toma en serio. Una de las ideas fue eliminar las tapas superiores de los servidores, lo que dio como resultado que se sobrecalentasen. En un principio, la compañía probó con cubiertas de plástico pero, como destacó el vicepresidente de diseño de hardware y operaciones de suministro de la empresa, Frank Frankovsky, “resultó muy frustrante, porque introdujimos un material que también forma parte de la cadena de residuos”.
En busca de un material más ecológico para esta tapa, Facebook probó con el material procedente de las patatas que se emplea para fabricar utensilios de cocina y que está compuesto en 80 por ciento de almidón y en 20 por ciento de aceite de soya.
“Hemos creado una tapa térmica de ese material, pero nos hemos dado cuenta bastante rápido de que cuando aumenta el calor, huele muy parecido a papas fritas”, asegura Frankovsky. Además del apetito que despierta entre los trabajadores, los expertos de Facebook se han dado cuenta de que el nuevo material, Spudware, también resulta inconsistente.
Los progresos de la red social
Al margen de este anecdótico ejemplo, este directivo anima a otros operadores de centros de datos a que apuesten por la innovación y la eficiencia. No en vano, los progresos de Facebook en cuanto a efectividad de utilización de la energía, han sido certificados por una mejora en el ratio PUE del 1.07 que supera el “estándar de oro” de la industria, fijado en 1.5. Esta medida indica la cantidad de electricidad que llega al servidor, en comparación con la cantidad que sale de la propia red.
La compañía logra, en parte, esta eficiencia porque sus centros de datos funcionan sin aire acondicionado, en su lugar, confía en el aire exterior para enfriar sus servidores y eficiencia energética para prevenir el sobrecalentamiento. Esto supone ahorrar energía en la refrigeración de sus centros y el resultado es una instalación 38 por ciento más eficiente y 24 por ciento más barata con respecto a sus predecesores, explicó Frankovsky.
Los escépticos aseguran que estos ahorros son posibles porque Facebook construye centros de datos súper eficientes, ahora y desde cero, mientras que las empresas convencionales están comprometidas con sus centros de datos durante al menos 20 años.
Sin embargo, Frankovsky subrayó que Facebook también lograba ahorros de hasta 30 por ciento en su gasto energético cuando alquilaba espacio de hospedaje en centros de datos de terceros. “Empezamos a apagar el aire acondicionado de la sala de cómputo, separamos un pasillo caliente de otro frío, cosas que los propietarios de estos centros no habían hecho antes”, explicó el directivo.
En todo caso, hay zonas y lugares del mundo en el que estos ahorros de energía no son posibles, ya que tienen condiciones climáticas que los equipos no podrían soportar, indicó el ejecutivo.
No obstante, hay otras muchas cosas que se pueden hacer en favor de la eficiencia energética. Por ejemplo, la compañía ha puesto en marcha una iniciativa para reducir la huella de carbono de los camiones que los equipos de transporte que dan soporte a su único centro de datos europeo, situado en Lulea, Suecia. “Diseñamos tanto la cubierta del rack como los palés que los transportan para que encajaran perfectamente en las dimensiones de un camión y no se desperdiciara nada de espacio, lo que redujo nuestros costes de transporte”, concluyó.
– Sam Shead, Techworld.com