Los retos de Facebook son los mismos que los de otras empresas y operadores de centros de datos, que se encuentran ante un rápido y constante crecimiento del tráfico de datos y las nuevas necesidades de las redes, pero al tener que tratar con 1.200 millones de usuarios activos al mes, la compañía se ve forzada a buscar una solución lo antes posible.
El mayor volumen de tráfico enFacebook no se genera por las entradas y salidas de sus centros de datos sino entre sus servidores entre sí. Esto se debe a que cada vez que un usuario accede al website, cientos o miles de servidores entran en acción para computar las diferentes partes de sus peticiones. Este tráfico, conocido como ‘este-oeste’, también crece más rápidamente a medida que las apps de Facebook se hacen más complejas, al igual que sucede con las interacciones de los usuarios.
En esta situación, mientras muchas empresas comienzan ahora a desplegar 10 Gigabit Ethernet, en Facebook esas velocidades son hoy el mínimo exigido. “No hemos desplegado nada inferior a 10 Gigabit Ethernet desde hace dos años”, asegura el director de operaciones técnicas de Facebook, Najam Ahmad . “Para enlazar servidores entre sí y los tráficos que salen de ellos utilizamos 40 Gigabit Ethernet y unos pocos enlaces 100 Gigabit. El dominio de 40G se debe a que 100G todavía es demasiado caro, señala Ahmad. “Pero en uno o dos años, 100G se convertirá en la opción mayoritaria en la compañía”.
Las crecientes necesidades de computación de Facebook están obligando a la compañía a crear campus con distintos centros de datos para cuya comunicación a Ahmad le gustaría disponer de tecnología de fibra que pueda cubrir uno o dos kilómetros a 100 Mbps inicialmente para pasar a 200 y 400 Mbps según crezcan las necesidades de tráfico. Para ello, contempla el uso de fibra monomodo en vez de la fibra multimodo generalmente empleada hoy en los centros de datos debido a su menor alcance.
Facebook está evaluando además la fotónica de silicio, una tecnología emergente que aplica el material semiconductor más común del mundo para la conectividad óptica. Según Ahmad, Facebook está explorando fotónica de silicio porque quiere utilizar la llamada computación rack-level, que concentra la computación, el almacenamiento y la memoria en racks separados y conectados a altas velocidades para formar el equivalente a múltiples servidores. Otra opción para conseguir esto es PCIe.
Para los enlaces de larga distancia entre sus cada vez más centros de datos, Facebook está comenzando a comprar e iluminar su propia capacidad de ‘fibra oscura’, en lugar de alquilarla a los operadores. Una razón es que el alquiler de la clase de ancho de banda que Facebook necesita resulta algunas veces más caro que comprar la capacidad. Además, controlando directamente la propia fibra, la compañía además puede responder a los rápidos cambios del tráfico, segura Ahmad.