El futuro de la inteligencia artificial (IA) y el aprendizaje automático (AM) parece ser aquel en el que las máquinas escriban código revolucionario y diagnostiquen enfermedades antes de que se produzcan, entre otras acciones. ¿El problema? Para que la IA sea realmente disruptiva y pueda dar ese gran salto, los centros de datos tendrán que evolucionar y ampliar enormemente su infraestructura actual.
Las tareas de aprendizaje profundo son costosas desde el punto de vista computacional, por lo que exigen enormes recursos y asignaciones de TI. A medida que la carrera de la IA generativa se acelera y más organizaciones incorporan herramientas predictivas, los profesionales de TI se enfrentan a una ardua batalla para dar soporte a las aplicaciones de IA ávidas de potencia.
Aumenta la demanda de la IA generativa
Según el último informe Nutanix Enterprise Cloud Index (ECI), la gran mayoría de los encuestados (86%) identificó la ejecución de cargas de trabajo de alto rendimiento, incluyendo análisis de datos, IA y ML, como un desafío con su infraestructura de TI actual.
De hecho, los Modelos de Lenguaje de Gran Tamaño (LLM) de nueva generación, como GPT-4 de OpenAI y PaLM 2 de Google, son hasta 100 veces más grandes que los modelos de IA anteriores. Aunque las cargas de trabajo de IA generativa suelen ejecutarse en infraestructuras de nube pública -donde los grandes hiperescaladores públicos tienen acceso a clústeres de servidores gigantes y a las últimas y mejores GPU-, el aumento de los costos de los centros de datos y la baja disponibilidad, han hecho que las organizaciones busquen otras alternativas para que la IA pueda dar el gran salto.
Una opción viable para los despliegues de LLM es la multi-nube híbrida. A medida que más empresas adoptan nuevas tecnologías de IA y ML, las nubes privadas y de borde han ido en aumento. Para las organizaciones que buscan desplegar IA localmente, en el borde, o sobre una mezcla de nubes públicas y privadas.
La realidad es que existe un desajuste enorme entre la oferta y la demanda, incluso para ejecutar algo relativamente básico. El ecosistema de TI en general ha estado aislado de esto hasta cierto punto porque los grandes hiperescaladores (Microsoft, Amazon y Google) se introdujeron pronto en el aprendizaje profundo. Tienen reservas de cientos de miles de GPU.
El camino hacia la Inteligencia Artificial General
En este sentido, una encuesta realizada por McKinsey en 2023 reveló que el 40% de las organizaciones esperan invertir más en IA, citando el marketing, el despliegue de productos, la gestión de la cadena de suministro y la fabricación entre los principales casos de uso empresarial.
Los LLM perfeccionados para aplicaciones médicas de IA en contextos específicos ya están avanzando en el floreciente campo de la medicina personalizada, una disciplina que utiliza el análisis de datos para personalizar los tratamientos médicos según el perfil de cada paciente.
En comparación con los avances de la ingeniería mecánica desde la Edad Media, las próximas generaciones de máquinas y programas informáticos impulsados por IA serán herramientas muy avanzadas que ampliarán enormemente las capacidades humanas. Una cosa es segura: el centro de datos y la nube desempeñarán un papel crucial en el avance de la IA generativa.
Por: Fernando Zambrana, Director de Ventas de Nutanix México.