Si bien las aplicaciones deepfake son capaces de crear imágenes de identificaciones que parecen legítimas o incluso videos de personas que no existen, de acuerdo con Tanium con las plataformas que dependen de la verificación de identidad están intentando ir un paso por delante, requiriendo “pruebas de vida” más complejas para verificar a las personas ya que los ciberdelincuentes todo el tiempo intentan eludir los esfuerzos de prevención del fraude y verificación de identidad que sólo un “humano” debería poder realizar.
Los deepfakes o “falsedades profundas” son archivos de video, imagen o voz manipulados mediante un software de Inteligencia Artificial (AI) de modo que parezcan auténticos y reales, por lo que consiguen engañar fácilmente. Los deepfakes se utilizan para inducir al error a las personas receptoras, por lo que suponen una gran amenaza para la sociedad actual, impulsando la desinformación y que los ciudadanos pasen a desconfiar de cualquier fuente de información.
El término “deepfake” normalmente evoca a operaciones criminales, pero existe un mercado legítimo para la tecnología subyacente. Han surgido múltiples empresas de software que presentan oportunidades para utilizar las capacidades de deepfake en la industria del entretenimiento con el consentimiento del “modelo” en el que se basa. Incluso puede archivar su huella de voz para utilizarla si desarrolla una condición que le impida hablar por su cuenta. Las mismas tecnologías utilizadas para crear deepfakes también son esenciales para generar detecciones de abuso de ellos. Como ocurre con cualquier tecnología poderosa, la legalidad está en la intención, el consentimiento y la divulgación.
No obstante, para Tanium las amenazas que plantean los deepfakes son reales ya que más allá de una simple identificación falsa para una transacción fraudulenta, estos deepfakes pueden provocar un trauma psicológico y daños a la reputación personal. Hemos observado recientemente una campaña de interferencia electoral falsa, así como la explotación ampliamente publicitada de las imágenes de Taylor Swift. Esos abusos de deepfake fueron muy publicitados, pero no son novedosos, y las personas son víctimas de estos crímenes a un ritmo creciente y alarmante.
Cuando se considera que los deepfakes tienen la capacidad de estafar a familiares, amigos y personas cercanas, infligir traumas psicológicos, arruinar carreras o influir en el curso de la democracia, es evidente que la educación, la regulación y la detección igualmente sofisticada desempeñarán un papel en la protección de la sociedad.
“Tenemos que elevar nuestras campañas de educación y concientización para incluir la comprensión de que existen deepfakes y, al mismo tiempo, emplear capas adicionales de verificación para flujos de trabajo y transacciones sensibles: ya no es suficiente confiar en un mensaje de texto, una llamada telefónica o incluso una videollamada como forma de verificación de identidad. A menudo, simplemente colgar y llamar a un número de contacto conocido y confiable de la “persona que llamó” para exponer la estafa y, en los negocios, establecer flujos de trabajo que se basen en formas más sólidas de autenticación que no puedan ser falsificadas por una Inteligencia Artificial: los tokens de seguridad FIDO2, las aprobaciones y verificaciones de varias personas son un buen punto de partida”, señaló Miguel Llerena, vicepresidente para Latinoamérica de Tanium.