La Inteligencia Artificial (IA), la mayor estrella de esta década en lo que respecta a tecnología, seguirá aumentando en los próximos años. Proyecciones de Gartner señalan que, para 2026, más del 80% de las empresas habrán utilizado modelos de Inteligencia Artificial Generativa (Gen AI) o implementado aplicaciones habilitadas para Gen AI en entornos de producción.
Sin embargo, el crecimiento también pone de relieve los desafíos que enfrentan las organizaciones al lidiar con la IA: más del 30% de estos proyectos deberán abandonarse a finales de 2025 debido a la baja calidad de los datos, un control de riesgos inadecuado, poca percepción de valor y altos costos.
Para los expertos del mercado, el elevado número de proyectos frustrados son el resultado de la creencia de las empresas de que las nuevas tecnologías, como la IA, deberían actuar como una solución mágica a todos los problemas. “Vivimos en una panacea de desarrollo reciente en América Latina con la nube, y ahora vemos que la historia se repite con la Inteligencia Artificial. Hay una emoción que, al mismo tiempo, trae tensión y presión a los CIO para que produzcan cualquier cosa con esta tecnología, sin mucho análisis ni estrategia. Y definitivamente éste no es el mejor camino”, afirmó Gilson Magalhães, Vicepresidente y General Manager de Red Hat para América Latina.
Para hacer frente a los desafíos de sus elecciones pasadas, especialmente en lo que respecta a la seguridad y la calidad de los datos, las organizaciones deben avanzar en los llamados “agentes”, componentes de software más simples, que se conectarán a las aplicaciones existentes para modernizarlas.
Además, se espera que el mercado vuelva a las aplicaciones predictivas de IA, y más de la mitad de los casos de IA se centran en ofrecer personalización al cliente y optimización de la cadena de suministro.
“Las organizaciones dependerán de más plataformas AIOps para reducir la deuda técnica y mejorar los resultados comerciales, y encontrarán en las soluciones de código abierto la respuesta que necesitan para avanzar con seguridad y eficiencia”, añadió Magalhães.
Cómo obtener el poder de la inteligencia humana
La sinergia entre código abierto e Inteligencia Artificial para impulsar el avance de las TI empresariales fue tema central del principal evento de código abierto de América Latina, el Red Hat Summit: Connect, que pasó por seis países y abordó las tendencias para el futuro que deberían transformar una vez más el viaje digital de las organizaciones.
“En medio de todos los desafíos y predicciones para los próximos años, ahora estamos hablando no sólo de IA, sino más bien de cómo obtener el poder de la inteligencia humana, ayudado por el trabajo que su IA puede hacer mejor, o más rápido, que posiblemente los humanos puedan hacer”, aseveró Magalhães.
En otras palabras, la respuesta a un avance sostenible de la IA radica en la convergencia de esta inteligencia con las habilidades y el conocimiento humanos.
“La Inteligencia Artificial ya es una realidad y el siguiente paso es hacer que interactúe satisfactoriamente con el conocimiento humano. Esto significa contar con herramientas de IA alineadas mejor para resolver los procesos del día a día, automatizar el trabajo repetitivo y mejorar las capacidades de los recursos humanos para tareas más estratégicas. Las herramientas de código abierto son grandes aliadas en este camino”, aseveró el directivo.
¿Hacia dónde apuntan las inversiones en IA?
Según las previsiones de Forrester, mientras que casi el 90% de los tomadores de decisiones tecnológicas globales dicen que sus empresas aumentarán la inversión en infraestructura, gestión y gobernanza de datos, los líderes tecnológicos seguirán siendo pragmáticos al invertir en IA para maximizar el valor comercial derivado de la tecnología. De cara a 2025, la transformación más significativa de las inversiones se centrará en pequeños modelos de inteligencia artificial (SLM, por sus siglas en inglés). Con menor costo, mayor asertividad y menos posibilidades de alucinación, estos modelos también son más especializados y pueden ser entrenados y ejecutados mucho más fácilmente.
En la práctica, comprender la sopa de letras de los LLM y SLM es sencillo. Ambas siglas hacen referencia a tipos de sistemas de IA entrenados para interpretar el lenguaje humano, incluidos los lenguajes de programación. Los LLM a menudo pretenden emular la inteligencia humana en un nivel muy amplio y, por lo tanto, están capacitados en una amplia gama de grandes conjuntos de datos.
Por lo tanto, pueden presentar las llamadas “alucinaciones”, respuestas potencialmente incorrectas, ya que no tienen el afinamiento y la capacitación en el dominio para responder con precisión a cada consulta.
Los SLM, por otro lado, normalmente se entrenan en conjuntos de datos más pequeños adaptados a dominios industriales específicos (es decir, áreas de especialización).
Por ejemplo, un proveedor de atención médica puede utilizar un chatbot con tecnología SLM y entrenado en conjuntos de datos médicos para inyectar conocimiento de un dominio específico en la consulta no experta de un usuario sobre su salud, enriqueciendo la calidad de preguntas y respuestas.
¿Qué modelo es mejor?
“Todo dependerá de los planes, recursos, y otros factores de cada organización”, manifestó el directivo de Red Hat. “Además de la elección, el código abierto es sin duda la clave que marcará la diferencia”.
Aunque la Inteligencia Artificial sigue dominando los debates, se espera que para 2025 otros temas ganen fuerza en la TI empresarial.
En opinión de Magalhães, la automatización y la informática estarán en la agenda de las organizaciones públicas y privadas con un avance más acelerado del Internet de las cosas (IoT). Además, la computación cuántica podría dar un salto importante: la ONU, ha proclamado que 2025 será el Año Internacional de la Ciencia y la Tecnología Cuántica, esperando que la investigación sobre esta solución salga de laboratorios y obtenga aplicaciones más prácticas en la vida cotidiana.
“La virtualización también tendrá un espacio de crecimiento. Las mismas máquinas virtuales que fueron fundamentales para la evolución de la computación en la nube ahora contribuyen al entrenamiento del modelo AI/ML, con aislamiento y reproducibilidad, escalabilidad, aceleración de hardware, flexibilidad en la configuración del software y gestión y seguridad de los datos”, explica Magalhães.
Al respecto, Gartner señala que el 70% de las cargas de trabajo que alimentan computadoras personales y servidores de centros de datos seguirán utilizando virtualización basada en hipervisor hasta 2027.
Por el lado de las telecomunicaciones, la apuesta está en la evolución de las redes 5G y 6G, más rápidas y fiables, que impulsarán las ciudades inteligentes, los vehículos autónomos y las tecnologías inmersivas.
La preocupación por soluciones más sostenibles también irá en aumento, y las empresas buscarán reducir su huella de carbono, con innovaciones en tecnología solar, almacenamiento de baterías y centros de datos sin emisiones de carbono. Las inversiones en ciberseguridad completan la lista, con soluciones sólidas y descentralizadas para que las organizaciones se protejan contra ataques crecientes, filtraciones de datos y ransomware, finalizó Magalhães.