Contenido Exclusivo

¿Cómo comunicar los riesgos de ciberseguridad al Consejo de Administración?

Los Consejos de Administración de las organizaciones deben comprender...

¡Última semana para postularse! Los Mejores 20 CISO de México 2024

CIO Ediworld le invita a participar en la tercera edición...

Clonación de voz con IA abre una ventana de posibilidades para cometer fraudes

La locución “robotizada” del asistente virtual, la que lee las noticias o que da las indicaciones en la app de tránsito ya no es el referente de una voz hecha con inteligencia artificial (IA), ahora, ésta puede sonar como un artista de cine, un amigo o, incluso, un familiar cercano.

A esto se le conoce como suplantación de identidad a través de la clonación de voz hecha con IA generativa, y hoy está al alcance de cualquier persona gracias al Internet, donde es posible encontrar herramientas gratuitas de clonación de voz y cientos de tutoriales de cómo usarlas.

“La clonación de voz es un proceso que utiliza IA para analizar y copiar las características únicas de la voz de una persona, tales como tono, ritmo, inflexiones y pronunciación. Se logra mediante el uso de modelos o redes generativas antagónicas (GAN, por sus siglas en inglés), que es un tipo avanzado de deep learning. Un GAN consta de dos redes neuronales que colaboran entre sí pero con objetivos opuestos. De modo que se entrenan mutuamente para generar voces cada vez más realistas con la posibilidad de replicar las sutilezas del habla humana”, explica Ricardo Robledo, director general y fundador de Tu Identidad, plataforma en validación de identidad para empresas y personas.

De acuerdo con un estudio realizado por McAfee, a nivel global 1 de cada 10 personas dijo haber recibido un mensaje de un clon de voz con IA y el 77% de esas víctimas confesó haber perdido dinero como resultado del crimen. Además, el mismo estudio revela que cerca del 70% de la población es casi incapaz de reconocer una voz clonada de una voz real.

 

¿Reconoces este modus operandi?

Al margen de lo que podría pensarse no se requieren audios extensos y claros para clonar la voz, ya que existen herramientas que pueden replicar la voz con muestras de voz que duren segundos. Con estos fragmentos se entrena al modelo de IA para que aprende a imitar dicha voz y puede generar palabras o frases nuevas. Una vez entrenado el modelo, los delincuentes generan audios que suenan exactamente como la voz clonada.

Los delincuentes suelen utilizan estas reproducciones para solicitar dinero, información confidencial o realizar movimientos financieros, o incluso simular accidentes o secuestros.

“Los delincuentes investigan a sus potenciales víctimas, recolectan información de fuentes públicas y redes sociales. Luego, seleccionan a un familiar o conocido de la persona cuya voz clonaron y utilizan este recurso para hacer una llamada de emergencia falsa”, explica Robledo.

 

Consejos para evitar ser víctima del fraude

Para Tu identidad es fundamental tomar medidas para protegerse contra estas amenazas. A continuación, se presentan cinco recomendaciones que ayudarán a los usuarios a evitar ser víctimas de este tipo de fraude:

 

  • Verificación de identidad: Actúa con cautela y comprueba la identidad de la persona al otro lado de la línea, a través de una palabra clave establecida previamente o información que sólo sea del conocimiento de la supuesta víctima.
  • Cuidado de la información personal: Evita compartir videos donde se escuche tu voz real y detalles de tu vida personal en plataformas públicas y redes sociales.
  • Monitoreo de actividad en redes sociales: Supervisa regularmente tus cuentas de redes sociales y otras plataformas en línea para detectar cualquier actividad inusual. Si observas algo sospechoso, como intentos de acceder a su información personal o de contactarse con sus conocidos utilizando su voz clonada, repórtalo.
  • Concientización: Manténte informado sobre las técnicas de estafa más comunes y las nuevas amenazas relacionadas con la clonación de voz. Comparte la información con tu familia y amigos para que estén alerta.

 

Lo Más Reciente

Archivos PDF con código QR: el objetivo del malware

Cada año se crean más de 2.5 mil millones...

¿La IA podría quitarnos nuestro trabajo?

La inteligencia artificial es una herramienta cada vez más...

Gobierno federal utilizó 31% de su presupuesto TIC en el primer semestre de 2024: Select

El gobierno federal utilizó 31% de su presupuesto para...

Dólares digitales: protección para el ahorro e inversiones

México es uno de los mercados emergentes más sólidos...

Newsletter

Recibe lo último en noticias e información exclusiva.

Archivos PDF con código QR: el objetivo del malware

Cada año se crean más de 2.5 mil millones de archivos PDF, un formato creado en 1993 por Adobe System y que sigue siendo...

¿La IA podría quitarnos nuestro trabajo?

La inteligencia artificial es una herramienta cada vez más competente para realizar tareas en el entorno laboral. Y aunque ha facilitado muchas funciones en...

Gobierno federal utilizó 31% de su presupuesto TIC en el primer semestre de 2024: Select

El gobierno federal utilizó 31% de su presupuesto para tecnología y telecomunicaciones en el primer semestre de 2024, esto significa 13,575 millones de pesos,...