Desde leer los correos, hasta recomendar los artÃculos más novedoso, los asistentes virtuales no son simples chatbot; pertenece a una nueva generación de sistemas a la que la comunidad académica llama IA agéntica o Agentic AI, un enfoque de inteligencia artificial (IA) que busca desarrollar sistemas capaces de operar como agentes autónomos, con la habilidad de interactuar con su entorno, tomar decisiones de forma independiente, aprender a partir de la experiencia y alcanzar metas especÃficas con poca o nula intervención humana.
De herramienta reactiva a aliado proactivo
Durante años, la inteligencia artificial fue concebida como una herramienta de consulta, similar a un motor de búsqueda sofisticado, señala el Mtro. Sergio Ernesto Hernández Moreno, docente de la Escuela de Administración y Negocios de CETYS Universidad Campus Mexicali. Se le proporcionaba un prompt y se obtenÃa una respuesta puntual. La IA agéntica, sin embargo, transforma este enfoque al comportarse más como un colaborador que como un software convencional. La diferencia radica en tres elementos esenciales: objetivos, memoria y acción. Un agente no solo responde; planifica, recuerda lo ocurrido y —lo más inquietante— decide por sà mismo cuál será el siguiente paso.
El Experto CETYS dio como ejemplo el de una profesora de Historia Económica. Cada semestre enfrentaba la misma maratón de corrección de ensayos: subrayar ideas vagas, anotar fuentes faltantes, devolver borradores… Ahora utiliza un agente que lee los textos, aplica rúbricas personalizadas y genera retroalimentación detallada. Pero lo valioso no es la corrección automática; es que el sistema aprende el estilo de la maestra.. Al cuarto ensayo ya anticipa sus comentarios favoritos (“cita la fuente primariaâ€, “explica el contexto en Méxicoâ€) y la maestra dedica su energÃa a conversar sobre el argumento, no a cazar errores o faltas de ortografÃa.
¿De qué está hecho un agente?
Si pudiéramos abrir la “caja negraâ€, verÃamos un modelo de lenguaje poderoso —el mismo que alimenta chat-bots—, que contiene tres órganos vitales:
Un planificador que divide una meta (por ejemplo, programar una conferencia) en subtareas lógicas. Un sistema de memoria que recuerda desde las preferencias de cada alumno hasta los correos que enviaste hace unas semanas. Un set de herramientas con acceso a APIs, navegadores, bases de datos e incluso robots fÃsicos.
“Ese trÃo convierte a la IA en agente: percibe, reflexiona y actúa, creando un ciclo continuo de mejora. Si la analogÃa sirve, hemos pasado de tener un chatGPT a contratar un ayudante académico que lee, experimenta y ajusta el método sobre la marchaâ€, explicó el Mtro. Hernández Moreno.
¿Todo es tan perfecto?
No. Los agentes todavÃa pierden el hilo en conversaciones largas; el Experto CETYS menciona que la memoria a largo plazo está en sus inicios y basta un cambio en la API de un proveedor para que el sistema tropiece. Además, un ligero matiz en el “prompt†puede desviar el resultado como una brújula descompuesta.
Y surge la pregunta incómoda: ¿puede un agente equivocarse de forma peligrosa? La respuesta es sÃ. Un algoritmo que reprograma citas médicas podrÃa priorizar mal si no entiende la urgencia médica. Por eso, los expertos insisten en mantener un humano en el ciclo en escenarios de alto riesgo, registrar cada decisión para auditarla y proteger los datos con el mismo cuidado que se protege un laboratorio biológico.
Un futuro que se escribe hoy
Los gigantes tecnológicos ya experimentan con ecosistemas de agentes que colaboran entre sÃ. A medida que estas piezas comiencen a integrarse plenamente, será posible contar con agentes capaces de acompañar proyectos de principio a fin. El Mtro. Hernández Moreno, señala que ante este panorama, la cuestión no es únicamente si se está listo, sino cómo las personas pueden estar preparadas. Iniciar con proyectos piloto, documentar tanto los aciertos como los errores, abrir el debate ético en el aula y, sobre todo, fomentar una actitud de curiosidad constante, serán pasos clave.
