Con sus 200 millones de usuarios globales, ChatGPT de OpenAI se ha convertido en el más popular entre los grandes modelos de lenguaje, captando la atención de muchas personas interesadas en cómo puede mejorar su trabajo y su vida personal. Sin embargo, los estafadores también han tomado nota de su aparición y ahora están ansiosos por explotar la tecnología para su propio beneficio.
En un blog titulado The Age of AI Has Begun, Bill Gates afirmó: “Esta revolucionaria tecnología es la mayor innovación desde la computadora fácil de usar”. Estamos presenciando el amanecer de una nueva era tecnológica en la que la IA se integrará en todos los aspectos de la vida cotidiana.
Estafas a escala
A medida que avanza la tecnología, también lo hacen los métodos de fraude. Los estafadores ahora pueden explotar la capacidad de ChatGPT para generar correos electrónicos y textos que parezcan auténticos y humanos, lo que les facilita llevar a cabo estafas de phishing.
Las víctimas luchan por diferenciar entre correos electrónicos fraudulentos generados por IA y los legítimos, pero ésa no es la única preocupación.
Las empresas se enfrentan a desafíos adicionales, incluido el uso de la IA para socavar la tecnología de autenticación. Algunos servicios generativos de IA pueden imitar cualquier voz humana utilizando una muestra de menos de tres segundos. Este nivel de suplantación de voz da lugar a preocupaciones sobre el uso generalizado de deepfakes con fines fraudulentos. Por ejemplo, los estafadores podrían emplear dicha tecnología para hacerse pasar por la voz de un asesor bancario y persuadir convincentemente a las víctimas para que realicen transacciones, lo que provocaría pérdidas financieras.
Las capacidades de la IA también representan una amenaza potencial, ya que pueden realizar fraudes a gran escala. Gracias a las vastas posibilidades de la IA generativa, junto con el reconocimiento de voz y las técnicas de expresión, un solo estafador puede estar detrás de miles de llamadas telefónicas fraudulentas. Actualmente, los estafadores están limitados en el número de víctimas que pueden manejar, ya que un estafador solo puede hablar con una víctima a la vez. Sin embargo, con la IA, los estafadores pueden dirigirse efectivamente a más personas a la vez.
Protección de la información confidencial
Las preocupaciones de seguridad de datos son de hecho prominentes cuando se trata del uso de grandes modelos de lenguaje como ChatGPT. Las empresas deben tener cuidado para evitar que sus empleados inadvertidamente compartan información confidencial con proveedores externos de tecnología de IA generativa.
En un caso, un ingeniero cargó inadvertidamente código confidencial y solicitó a ChatGPT que identificara y optimizara las fallas de software. Desafortunadamente, esto resultó en que ChatGPT agregara el código fuente a su base de datos y materiales de aprendizaje haciéndolo que ya no fuera confidencial.
En los próximos meses y años, la aplicación de medidas de seguridad de datos será crucial para proteger eficazmente contra los intentos de fraude impulsados por IA. Las medidas de seguridad insuficientes crean oportunidades para que las víctimas sean engañadas por correos electrónicos o llamadas telefónicas aparentemente auténticos. El fortalecimiento de la seguridad de los datos a través de factores de autenticación mejorados fortalecerá la seguridad general.
Combinación de herramientas de prevención del fraude
La batalla contra el fraude es un desafío continuo, pero el advenimiento de la IA provoca una transformación en las reglas de combate. Detectar y detener eficientemente el fraude será cada vez más difícil a medida que el volumen de ataques sigue aumentando. Es imperativo que las empresas y otras partes interesadas eduquen al público sobre el uso seguro de la IA, enfatizando la importancia de no compartir datos confidenciales que podrían plantear riesgos de ciberseguridad.
Las empresas que carecen de un enfoque de múltiples capas para mitigar el riesgo de fraude son particularmente vulnerables a los ataques. Un modelo de varias capas puede ser muy eficaz para combatir el impacto de los ataques impulsados por IA. Por ejemplo, los modelos de detección de estafas optimizados para Machine Learning (ML) ya están obteniendo altas tasas de detección.
Las organizaciones pueden colaborar para compartir inteligencia en tiempo real y frustrar ataques replicados que son orquestados por redes de fraude organizadas. Al combinar el comportamiento fuera de línea con la inteligencia en línea, las organizaciones pueden establecer una red sólida que prevenga de manera eficiente que los estafadores exploten las herramientas impulsadas por IA para defraudar al público y a las organizaciones por igual.
Por Adrián Sánchez, Director de planeación estratégica para América Latina y el Caribe en LexisNexis Risk Solutions