Contenido Exclusivo

Los ataques de phishing y deepfakes aumentan con el uso de la IA

La Inteligencia Artificial (IA) ya no es un tema del futuro, es parte de la vida cotidiana de todos los internautas que conviven con ella al desbloquear sus dispositivos con reconocimiento facial, usar navegadores y mapas en línea, o emplear asistentes de voz y/o chatbots. Sin embargo, expertos de Kaspersky alertan que la eficiencia de esta herramienta también puede trasladarse a actividades con fines maliciosos como phishing y deepfakes.

De acuerdo con Isabel Manjarrez, Investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky, entre los fines relacionados con el uso de la IA se encuentran la recolección de datos personales, incluyendo los de reconocimiento (voz, rostro, huellas dactilares), generación de código malicioso, evasión de medidas de seguridad o ataques DDoS, como el recién ocurrido con ChatGPT. Sin embargo, existen otros riesgos que destacan por su crecimiento acelerado y su alta tasa de éxito, debido al desconocimiento de los usuarios y el exceso de información presente en línea.

Por ejemplo, están los ataques de phishing personalizados, con un 42.8% de mensajes fraudulentos dirigidos principalmente a robar datos financieros, de acuerdo con el Panorama de Amenazas para América Latina de Kaspersky. Éste registró 286 millones de intentos de ataques de phishing en el último año, lo que representa un alarmante aumento del 617% a nivel global, en comparación con el año anterior. Si bien no se trata de un riesgo reciente, llama la atención que su incremento se debe, entre otros factores, a la aparición de herramientas que utilizan la Inteligencia Artificial para facilitar la creación de estafas de forma automatizada.

Otra de las amenazas que ha crecido a la par de la IA son los deepfakes. Los expertos de Kaspersky han alertado sobre estos contenidos donde imágenes y videos son alterados para mostrar información diferente a la original, por ejemplo, para que una persona suplante a otra. Asimismo, se ha dado a conocer la venta de este material falso en la Darknet con el fin de facilitar fraudes financieros, estafas empresariales, chantaje político, venganza, acoso y pornografía.

deepfakesAhora, los investigadores también han identificado deepfakes de todo tipo; con audios o voz modificados, y otros de texto, creados usando una redacción similar a la de alguna persona conocida por la víctima. A pesar de que la propagación de esta amenaza y sus consecuencias pueden afectar la reputación, privacidad, así como las finanzas de instituciones y usuarios, cifras de la compañía revelan que la mayoría de los mexicanos no sabe qué es un deepfake (72%) y tampoco sabría reconocer un contenido de este tipo (62%). Esto hace que las personas sean más susceptibles a los fraudes y estafas impulsados por esta técnica.

“Para bien, la Inteligencia Artificial se ha convertido en una herramienta valiosa que complementa las funciones humanas de manera eficaz. Su aplicación, por ejemplo, facilita actividades sencillas de nuestro día a día, como desbloquear nuestros dispositivos móviles, hasta acciones más complejas, como impulsar la alfabetización digital. Para mal, también ha facilitado la expansión de nuevas y ya existentes ciberamenazas, a medida que su uso se va generalizando y haciendo más accesible”, comentó Isabel Manjarrez. “La Inteligencia Artificial ya está aquí y seguirá desarrollándose. Como cualquier otra tecnología puede traer grandes posibilidades siempre y cuando la usemos de manera segura y responsable”, añadió.

Para evitar ser víctimas de las amenazas generadas por IA, Kaspersky recomienda:

  • Mantenerse informado sobre las nuevas tecnologías y sus riesgos: Conocer la IA, cómo funciona y tener en cuenta que ya existen amenazas asociadas a esta herramienta.
  • Utilizar siempre fuentes de información confiables: Recuerda que el analfabetismo informativo sigue siendo un factor crucial para la proliferación de ciberamenazas como el phishing y los deepfakes.
  • Tener buenos hábitos digitales como “confiar, pero verificar”: Actúa con cautela y escepticismo ante correos electrónicos, mensajes de texto o voz, llamadas, videos u otro contenido multimedia que veas o recibas, especialmente si comunican información extraña o ilógica.
  • Utilizar soluciones de seguridad: Si bien la protección contra ciberataques o estafas generadas por la IA recién ha comenzado a surgir, ya existen herramientas de ciberseguridad que ayudan a proteger contra todo tipo de amenazas, conocidas y desconocidas.

Lo Más Reciente

Tenable descubre nuevas técnicas de ataque en software de código abierto

El equipo de investigación de seguridad en la nube...

Shopperbot: robot mexicano que ayuda a tomar mejores decisiones de compra

Como parte de las soluciones para impulsar la hiperpersonalización...

Los ‘Scam-Yourself Attacks’ aumentan 614% en el tercer trimestre del año: informe

Los 'Scam-Yourself Attacks' o "ataques de estafa”, en los...

Newsletter

Recibe lo último en noticias e información exclusiva.

Karina Rodríguez Peña
Karina Rodríguez Peñahttps://iworld.com.mx/author/karina-rodriguez/
Periodista de Tecnología con más de 13 años de experiencia. Anteriormente se desempeñó como reportero en PCWorld México, editora en Computerworld México y Content Manager en CIO Ediworld.

Tenable descubre nuevas técnicas de ataque en software de código abierto

El equipo de investigación de seguridad en la nube de Tenable descubrió nuevas técnicas de ataque en los Lenguajes Específicos de Dominio (DSLs, por...

“Mejorar la visibilidad en el ecosistema tecnológico, interno y de cara al cliente” : José Armando López Flores, CISO de Crediclub

“Queremos ser esa institución financiera que cubra con las expectativas de los clientes a través de garantizarles que su patrimonio estará seguro”. Con el objetivo...

Shopperbot: robot mexicano que ayuda a tomar mejores decisiones de compra

Como parte de las soluciones para impulsar la hiperpersonalización en la atención al cliente por medio de la tecnología, PepsiCo México desarrolló a Shopperbot....