Contenido Exclusivo

¡Ya está aquí la Revista Digital “Los Mejores 20 CISO de México 2025”!

CIO Ediworld lo invita a sumergirse en el contenido de la...

¡Descarga la Revista Digital “Los Mejores 100 CIO de México 2025”!

Descarga la revista digital CIO Ediworld Edición Especial "Los...

¿Alucinaciones en la Inteligencia Artificial?

Imagine tener un problema con su banco y, para resolverlo, consulta con un ejecutivo virtual disponible 24/7. Pero en lugar de ofrecerle una solución clara, le da una respuesta incoherente o incorrecta. Este fenómeno se conoce como “alucinaciones” en la Inteligencia Artificial.

Las Inteligencias Artificiales a veces pueden dar respuestas escritas de forma coherente, pero con datos incorrectos, sesgados o simplemente equivocados. Es decir, tienen tendencia a “alucinar”. Estos errores se pueden deber a un mal proceso de decodificación de la información o también a que muchos desarrolladores nutren a los sistemas con información de Internet, la cual no siempre es correcta.

“En el caso de los chatbots de bancos y fintechs, por ejemplo, su sistema usa modelos lingüísticos LLM (Large Language Model) que aprenden automáticamente de diversas fuentes de información, pero no tienen forma de evaluar que lo que reproducen es correcto”, explicó Pablo Velán, CTO de N5, empresa especializada en software para la industria financiera.

Estas alucinaciones, en el sector financiero, no son solo un error técnico, sino un desafío que afecta la confianza de los clientes en las soluciones digitales. Si los modelos no son monitoreados adecuadamente, pueden difundir información incorrecta y afectar la credibilidad de los bancos y fintechs.

Según un análisis de Vectara, los chatbots pueden cometer errores en entre el 3% y el 27% de sus respuestas, lo que representa un desafío significativo para el sector financiero.

¿Es posible un producto a gran escala sin alucinaciones?

La IA Generativa ya es una realidad en México, impactando la manera en que operan bancos y fintechs. En 2023, este mercado fue valorado en 1.12 billones de dólares, y se espera que alcance los 4.37 billones para 2027, según Market.us. La confianza en estos sistemas es clave para su adopción masiva.

“En N5, con el lanzamiento de nuestras tres Inteligencias Artificiales ‘Fin Skys’, aplicamos dos estrategias clave: mantenerlas aisladas de la red y utilizar múltiples sistemas para validar sus respuestas. Esto reduce drásticamente los errores y mejora la confianza en la IA dentro del sector financiero”, detalló Velán.

Así es como los productos Alfred, Pep y Singular pueden sortear esta dificultad que preocupaba al sector financiero. Al poder integrarse en cualquier sistema core, CRM y/o BPM de la institución, estos algoritmos poseen independencia de datos para máxima seguridad, lo que reduce notablemente la cantidad de alucinaciones.

 

Lo Más Reciente

El impacto de la IA avanzada en la seguridad digital

Sophos explica que el modelo tradicional de seguridad digital...

Shadow AI: Los empleados ya están filtrando información de la empresa

La adopción de inteligencia artificial en las empresas está...

Más de un millón de cuentas bancarias fueron comprometidas

Más de un millón de cuentas de banca en...

¿Basta con el control parental? Los riesgos digitales que aún acechan a los niños

La vida digital de niños y adolescentes ha dejado...

Newsletter

Recibe lo último en noticias e información exclusiva.

El impacto de la IA avanzada en la seguridad digital

Sophos explica que el modelo tradicional de seguridad digital funciona bajo una dinámica relativamente conocida: se descubre una vulnerabilidad, el proveedor libera un parche...

Shadow AI: Los empleados ya están filtrando información de la empresa

La adopción de inteligencia artificial en las empresas está creciendo más rápido que su regulación interna. Mientras las organizaciones buscan capitalizar sus beneficios, un...

Más de un millón de cuentas bancarias fueron comprometidas

Más de un millón de cuentas de banca en línea fueron comprometidas en 2025, según un informe de Kaspersky, que advierte un cambio en...