Contenido Exclusivo

¿Cómo comunicar los riesgos de ciberseguridad al Consejo de Administración?

Los Consejos de Administración de las organizaciones deben comprender...

¡Última semana para postularse! Los Mejores 20 CISO de México 2024

CIO Ediworld le invita a participar en la tercera edición...

El auge del fraude impulsado por IA

Con sus 200 millones de usuarios globales, ChatGPT de OpenAI se ha convertido en el más popular entre los grandes modelos de lenguaje, captando la atención de muchas personas interesadas en cómo puede mejorar su trabajo y su vida personal. Sin embargo, los estafadores también han tomado nota de su aparición y ahora están ansiosos por explotar la tecnología para su propio beneficio.

En un blog titulado The Age of AI Has Begun, Bill Gates afirmó: “Esta revolucionaria tecnología es la mayor innovación desde la computadora fácil de usar”. Estamos presenciando el amanecer de una nueva era tecnológica en la que la IA se integrará en todos los aspectos de la vida cotidiana.

 

Estafas a escala

A medida que avanza la tecnología, también lo hacen los métodos de fraude. Los estafadores ahora pueden explotar la capacidad de ChatGPT para generar correos electrónicos y textos que parezcan auténticos y humanos, lo que les facilita llevar a cabo estafas de phishing.

Las víctimas luchan por diferenciar entre correos electrónicos fraudulentos generados por IA y los legítimos, pero ésa no es la única preocupación.

Las empresas se enfrentan a desafíos adicionales, incluido el uso de la IA para socavar la tecnología de autenticación. Algunos servicios generativos de IA pueden imitar cualquier voz humana utilizando una muestra de menos de tres segundos. Este nivel de suplantación de voz da lugar a preocupaciones sobre el uso generalizado de deepfakes con fines fraudulentos. Por ejemplo, los estafadores podrían emplear dicha tecnología para hacerse pasar por la voz de un asesor bancario y persuadir convincentemente a las víctimas para que realicen transacciones, lo que provocaría pérdidas financieras.

Las capacidades de la IA también representan una amenaza potencial, ya que pueden realizar fraudes a gran escala. Gracias a las vastas posibilidades de la IA generativa, junto con el reconocimiento de voz y las técnicas de expresión, un solo estafador puede estar detrás de miles de llamadas telefónicas fraudulentas. Actualmente, los estafadores están limitados en el número de víctimas que pueden manejar, ya que un estafador solo puede hablar con una víctima a la vez. Sin embargo, con la IA, los estafadores pueden dirigirse efectivamente a más personas a la vez.

 

 

Protección de la información confidencial

 

Las preocupaciones de seguridad de datos son de hecho prominentes cuando se trata del uso de grandes modelos de lenguaje como ChatGPT. Las empresas deben tener cuidado para evitar que sus empleados inadvertidamente compartan información confidencial con proveedores externos de tecnología de IA generativa.

En un caso, un ingeniero cargó inadvertidamente código confidencial y solicitó a ChatGPT que identificara y optimizara las fallas de software. Desafortunadamente, esto resultó en que ChatGPT agregara el código fuente a su base de datos y materiales de aprendizaje haciéndolo que ya no fuera confidencial.

En los próximos meses y años, la aplicación de medidas de seguridad de datos será crucial para proteger eficazmente contra los intentos de fraude impulsados por IA. Las medidas de seguridad insuficientes crean oportunidades para que las víctimas sean engañadas por correos electrónicos o llamadas telefónicas aparentemente auténticos. El fortalecimiento de la seguridad de los datos a través de factores de autenticación mejorados fortalecerá la seguridad general.

 

Combinación de herramientas de prevención del fraude

 

La batalla contra el fraude es un desafío continuo, pero el advenimiento de la IA provoca una transformación en las reglas de combate. Detectar y detener eficientemente el fraude será cada vez más difícil a medida que el volumen de ataques sigue aumentando. Es imperativo que las empresas y otras partes interesadas eduquen al público sobre el uso seguro de la IA, enfatizando la importancia de no compartir datos confidenciales que podrían plantear riesgos de ciberseguridad.

Las empresas que carecen de un enfoque de múltiples capas para mitigar el riesgo de fraude son particularmente vulnerables a los ataques. Un modelo de varias capas puede ser muy eficaz para combatir el impacto de los ataques impulsados por IA. Por ejemplo, los modelos de detección de estafas optimizados para Machine Learning (ML) ya están obteniendo altas tasas de detección.

Las organizaciones pueden colaborar para compartir inteligencia en tiempo real y frustrar ataques replicados que son orquestados por redes de fraude organizadas. Al combinar el comportamiento fuera de línea con la inteligencia en línea, las organizaciones pueden establecer una red sólida que prevenga de manera eficiente que los estafadores exploten las herramientas impulsadas por IA para defraudar al público y a las organizaciones por igual.

 

Por Adrián Sánchez, Director de planeación estratégica para América Latina y el Caribe en LexisNexis Risk Solutions

 

Lo Más Reciente

IA y Colaboración: Los ingredientes secretos de la Transformación Digital, según Cisco

Cancún, México – En el segundo día de actividades en el...

Claves de ciberseguridad ante el auge del ransomware en universidades

La pandemia impulsó la adopción de soluciones de aprendizaje...

Se prevé que el mercado móvil de México llegue a 149,5 M de líneas para finales de 2024

La adopción de segundas líneas móviles por usuario, junto...

Newsletter

Recibe lo último en noticias e información exclusiva.

IA y Colaboración: Los ingredientes secretos de la Transformación Digital, según Cisco

Cancún, México – En el segundo día de actividades en el Cisco Connect, continuaron las ponencias donde expertos profundizaron las principales tendencias en tecnología empresarial. Destacó...

Claves de ciberseguridad ante el auge del ransomware en universidades

La pandemia impulsó la adopción de soluciones de aprendizaje en línea en las universidades mexicanas para asegurar la continuidad académica. Desde el año 2000,...

Crecimiento del e-commerce farmacéutico, reto para la cadena de frío en medicamentos

Cada 17 de septiembre, el Día Mundial de la Seguridad del Paciente resalta la importancia de prevenir errores médicos y fomentar la seguridad en...