Contenido Exclusivo

VIDEO: Escalabilidad, seguridad y latencia: los 3 desafíos de la IA en redes de datos

Emilio Madero, Vicepresidente Ejecutivo de Marketing en Cirion Technologies,...

¿Cómo comunicar los riesgos de ciberseguridad al Consejo de Administración?

Los Consejos de Administración de las organizaciones deben comprender...

VIDEO: ¿Qué funciones desempeña un Chief Business Officer (CBO)?

¿Por qué es importante crear el puesto de CBO...

¿A qué se debe la repatriación de cargas de trabajo a clouds on-premises?

Durante los últimos años, la digitalización ha impactado la forma de trabajar y crear valor en múltiples industrias, requiriendo una mayor capacidad de almacenamiento y procesamiento de datos y, más recientemente, el entrenamiento de modelos cognitivos que le entreguen a las compañías ventajas competitivas.

En este contexto, hemos podido observar una creciente tendencia de las empresas por repatriar las cargas de trabajo desde el cloud público al cloud privado, motivado principalmente por la reducción de costos, la búsqueda de un mayor control sobre la información, garantizar el cumplimiento normativo y mejorar el rendimiento de sus aplicaciones empresariales. Según el estudio de IDC presentado por DELL Technologies, el 74% de las organizaciones planea repatriar cargas, y sólo un 12% permanecerá totalmente en el cloud público.

Esta nueva práctica se instaló hace algunos años en las grandes corporaciones, a raíz del estudio The Cost of Cloud, a Trillion Dollar Paradox, de Andreessen Horowitz, que concluyó que, para el caso de proveedores de servicios digitales, la repatriación de sus workloads a un modelo cloud, pero on-premises, aumentó su flujo de efectivo y market cap, al punto que el estudio estima en unos 500 mil millones de dólares el valor bursátil que se podría capturar desde el mercado por la repatriación.

La principal razón radica en la búsqueda por optimizar el costo de cloud, moviéndose de un modelo basado en OPEX a uno de CAPEX. Los modelos basados en OPEX, es decir, el arriendo de infraestructura o “as-a-service”, son altamente adecuados para ciertos casos de uso, así como empresas que aún no tienen una predictibilidad de capacidad de corto y mediano plazo.

Sin embargo, en aquellos casos que las necesidades de cómputo son sostenidas, predecibles, y de mediano a largo plazo, tiene más sentido un modelo de CAPEX, en el cual se invertirá en infraestructura digital, que podrá ser explotada a costos más bajos por 3, 5 o más años.

Además de lo financiero, hay beneficios técnicos, como reducir la latencia, en algunos casos de más de 100 ms a menos de 10 ms, lo que tiene un gran impacto en aplicaciones interactivas, y será un factor aún más crucial en la nueva generación de aplicaciones que se están desarrollando para 5G.

Por ejemplo, una Smart City no podrá controlar los semáforos, o los trenes, desde un cloud público en otro continente, sino que requerirá latencia baja, lo que requiere proximidad de ~ 1000 Km.

Otro factor fundamental es la necesidad de que organizaciones reguladas o los gobiernos aseguren que la información de sus servicios y/o ciudadanos resida en lugares bajo su propia legislación. De hecho, este asunto es muy serio en Estados Unidos y Europa, donde las regulaciones en relación al cloud consideran no solo la localización física de los datos, sino también por donde transitan, para asegurar que no existan brechas de seguridad.

Este factor tomó especial importancia el año pasado, luego de que algunos gobiernos latinoamericanos perdieran acceso a aplicaciones de misión crítica, cuando un centro de datos de su proveedor en otro país fue víctima de ransomware.

Finalmente, el control de cloud toma especial importancia en medio de la creciente tendencia por adoptar modelos de Inteligencia Artificial. ¿Cuántas compañías querrían albergar sus modelos cognitivos en infraestructura de terceros versus desarrollar estas capacidades diferenciadoras en las propias instalaciones, a un costo de operación menor?

Ahora bien, ¿qué tan complejo es emprender este viaje? Depende, ya que el modelo de aplicaciones en micro-servicios puede ser la piedra angular.

Cuando Google liberó en 2014 su tecnología de orquestación cloud, bajo el nombre de Kubernetes, vino a resolver el gran problema de fragmentación que existía en el espacio de las nubes. Kubernetes se posicionó como el estándar de facto para la orquestación de aplicaciones en contenedores, ya que permitía estandarizar el cómo desplegar, operar, actualizar, orquestar, securizar y respaldar aplicaciones, en cualquier cloud,  haciéndose cargo de todos los procesos pesados del ciclo de vida de las aplicaciones.

De esta manera, si una organización tiene sus aplicaciones contenerizadas corriendo en el cloud público, la transición al cloud privado es muchísimo más sencillo, y las aplicaciones raramente notarán la diferencia.

De hecho, esto mismo es lo que hace viable el modelo de cloud híbrida o multi clouds, ya que, si no se pudiera estandarizar el traslado de aplicaciones, las barreras de entrada y salida del cloud serían altas.

El cloud privado ofrece la oportunidad de ejercer un mayor control sobre los datos a través de la implementación de medidas de seguridad personalizadas y adaptadas a las necesidades de cada industria, así como también le permite a las empresas cumplir con regulaciones específicas al tener un control más directo sobre la infraestructura digital y el almacenamiento de datos.

Hoy es fundamental que las industrias adopten enfoques integrales, donde la ciberseguridad y la eficiencia sean parte fundamental de la estrategia de crecimiento de las empresas. En este contexto, la repatriación de las cargas de trabajo se ha convertido en una solución para un desarrollo digital exitoso y efectivo.

Por José Miguel Guzmán, Co-fundador de Whitestack.

Lo Más Reciente

¿Qué es la componibilidad empresarial y por qué es el futuro de la banca?

Tanto en los negocios como a nivel personal, la...

VIDEO: Escalabilidad, seguridad y latencia: los 3 desafíos de la IA en redes de datos

Emilio Madero, Vicepresidente Ejecutivo de Marketing en Cirion Technologies,...

CDMX ya es el mercado de talento tecnológico más grande de América Latina

La Ciudad de México superó a Sao Paulo este año...

Preponderante estrangula inversiones telco en México

El agente económico preponderante en telecomunicaciones (AEP-T) en México,...

Newsletter

Recibe lo último en noticias e información exclusiva.

¿Qué es la componibilidad empresarial y por qué es el futuro de la banca?

Tanto en los negocios como a nivel personal, la única constante es el cambio. En ambos casos, nuestra capacidad de adaptación determina el éxito....

VIDEO: Escalabilidad, seguridad y latencia: los 3 desafíos de la IA en redes de datos

Emilio Madero, Vicepresidente Ejecutivo de Marketing en Cirion Technologies, expuso de qué manera su compañía está apoyando a las organizaciones con la infraestructura digital...

CDMX ya es el mercado de talento tecnológico más grande de América Latina

La Ciudad de México superó a Sao Paulo este año como el mercado de talento tecnológico más grande de América Latina, según el informe anual...