La hiperconvergencia está ayudando a poner fin a algunos de los tradicionales silos de los centros de datos. La infraestructura del centro de datos es, a menudo, compleja y costosa. Los sistemas hiperconvergentes están aportando una vía para ofrecer flexibilidad, escalabilidad y facilidad de gestión de los sistemas on-premise. ¿Por qué?
La hiperconvergencia tiene su base en la adopción generalizada de la virtualización, y hasta cierto punto, puede ser vista como parte de la evolución hacia una automatización mucho mayor de la operativa del centro de datos.
John Abott, analista de la firma 451 Research, aporta una visión más amplia al explicar que “es una capa del centro de datos definida por software, en la que hay muchas más opciones por debajo de lo que aparenta su infraestructura, porque casi toda la inteligencia está integrada en el software. Su labor es desviar las cargas de trabajo a la infraestructura más adecuada”.
En pocas palabras, la hiperconvergencia es una aproximación a la infraestructura que combina las funciones de servidor, almacenamiento y red, que son administrados a través de una capa de software.
Esto permite acabar con algunos de los tradicionales silos de algunas partes de los centro de datos y, a diferencia de los sistemas de infraestructura convergente, depender de diferentes sistemas modulares de hardware básico. El almacenamiento definido por software es parte clave de esto, con appliances hiperconvergentes que utilizan almacenamiento local, en lugar de SAN dedicadas.
Además, también supone que los clientes tienen un único proveedor con el que tener que contactar si algo falla.
Como explica Jesse St Laurent, vicepresidente de estrategia de producto de SimpliVity, “el objetivo es simplificar la infraestructura de TI, cuya complejidad es muy elevada”. Y en paralelo con la simplificación de la infraestructura y las operaciones, también reducir costes.
“En un ambiente tradicional hay entre 10 o 12 cosas diferentes que hay que gestionar” (dispositivos, paquetes de software, aplicaciones y otras cosas por el estilo), mientras que la infraestructura hiperconvergente se basa en una “única interfaz unificada que se integra en algo que una empresa ya utiliza (el toolkit de gestión del hipervisor) para gestionar todo el hardware”.
Una de sus ventajas es que permite añadir módulos hiperconvergentes individuales para ampliar los despliegues, con máquinas virtuales que están trabajando en 15 minutos, según algunos proveedores.
Éste es un segmento que está creciendo mucho y donde cada vez hay más proveedores.
IDC estima que estos sistemas generarán unos ingresos de 2,000 millones de dólares este año, cifra que llegará a los 4,000 millones en 2019.
Nutanix fue el primer proveedor en ofrecer este tipo de sistemas, y pronto se unieron SimpliVity y otras startups como Scale Computing, pero hay más proveedores entrando en este mercado, a menudo a través de acuerdos con estas jóvenes empresas.
Por ejemplo, VMware ha llegado a acuerdos con muchos proveedores de hardware para que trabajen con sus productos VSAN y EVO:RAIL, entre ellos con Fujitsu y Dell, mientras que HPE ha optado por ir sola con su sistema HC-250 StoreVirtual.
Hitachi Data Systems tiene también un appliance centrado en Hadoop, y EMC dispone de VCE VxRack, VxRail y Scarle IO.
En las últimas semanas, VCE, Cisco y HPE han anunciado sus intenciones en este mercado, y Juniper y Lenovo también han llegado a un acuerdo al respecto.
Al principio, los proyectos se han centrado en pequeñas y medianas empresas, con presupuestos más ajustados y equipos de TI más pequeños. No obstante, los fabricantes dicen que también están realizando inversiones las grandes empresas, para las que los costes y la necesidad de agilidad son más que un problema.
La adopción con frecuencia se produce en torno a la infraestructura de desktop virtual (VDI), aunque también son comunes en las áreas de recuperación ante desastres y de sucursales y oficinas.