Gracias a lo que empresas como Google, Facebook, Amazon y Alibaba invirtieron en su crecimiento, así como la base de ingenieros que crearon diversas soluciones que hoy éstas emplean, contamos con múltiples opciones generadas por esos mismos ingenieros que se salieron de las filas de estos gigantes para incursionar en la industria a través de sus propias compañías.
Otros se han sumado a las filas de otras empresas disruptivas en el concepto de Centros de Datos, con todo lo que conlleva su infraestructura y gestión respecto a servidores, almacenamiento, respaldo, conectividad y seguridad, para diferentes arquitecturas y en diferentes plataformas.
El hecho es que la productividad, la reducción de costos por licenciamiento innecesario y la elasticidad que hoy nos ofrecen las tecnologías para tener exactamente lo que se necesita en el momento indicado, permiten contar con un dimensionamiento acorde a las necesidades de las empresas, y tener opciones que van desde virtualización a Edge Computing e Hiperconvergencia como ejemplos de soluciones en infraestructura que nos dan un alto procesamiento.
Dos cambios en el “paradigma datacenter”
Conviene aquí mencionar dos aspectos que cambiaron el paradigma de la gestión de un centro de datos como hasta hace poco se concebía: primero, los límites o fronteras entre el software, hardware, telecomunicaciones y virtualización han desparecido; por lo que las funciones que antes eran claras para el administrador de servidores, DBA o administrador de redes están ahora fusionadas en una consola que opera un solo experto, encargándose de todo lo anterior.
La segunda consideración tiene que ver con la escalabilidad. No más rigidez de ambientes: la época de Digital, VAX e IBM ha desaparecido; ya no es necesario comprar monolitos de hardware que se utilizarían máximo cinco años. Sin duda, el negocio de los fabricantes tradicionales de hardware estuvo más que amenazado.
La automatización, orquestación, protección de datos y aplicaciones, así como las actualizaciones, respaldos y restauraciones sin interrupciones son una realidad. Sin embargo, también el recurso humano con la capacidad
técnica, conocimientos y experiencia es fundamental.
Lamentablemente en América Latina, y en el caso particular de México, la adopción de las nuevas tecnologías para el Centro de Datos va lenta en comparación con Estados Unidos, Canadá, Brasil, China, Corea del Norte, Alemania, Singapur y Reino Unido.
Hoy trabajamos con un paradigma distinto a la operación tradicional de un Centro de Datos respecto a cómo se hacía hasta hace pocos años. En efecto, el modelo “como servicio” se incorporó al ambiente de los Centros de Datos con el concepto de “Data Center as a Service” de la mano de la Inteligencia Artificial.
La alta disponibilidad, velocidad instantánea, confiabilidad y seguridad de los datos provienen de la fuente de grandes Centros de Datos, donde se procesa, prepara y presenta la información en cuestión de segundos.
Las caídas que originan malestar por la indisponibilidad de plataformas como WhatsApp y Facebook le afectan a usuarios, negocios y gobiernos, debido a que estas aplicaciones ya forman parte de sus ecosistemas productivos e incluso políticos. Es por ello que las caídas de servicios cuestan hoy más dinero que nunca. También habrá nuevas regulaciones de ley por parte de diferentes gobiernos, pero ese es otro tema. Aunado a lo anterior, los Centros de Datos de las compañías dominantes deberán estar ubicados en función de la localización de sus clientes.
Cuando sea una realidad el funcionamiento de la 5G, con todo lo que ofrecerá el Internet de las Cosas y el Big Data, esa red se volverá un genérico o commodity.
Por supuesto, se requerirá la suma de Hiperconvergencia, Edge Data Center, Data Center as a Service e Inteligencia Artificial. Sin embargo, lo más crítico será contar con el recurso humano: ese ingeniero que sea capaz de diseñar las arquitecturas y administrar las plataformas y servidores será el recurso más escaso y peleado por las compañías.