Mientras México se prepara para las elecciones de 2024, la utilización de la IA en las campañas electorales alrededor del mundo ha demostrado ser una herramienta de doble filo, capaz tanto de innovar en la forma en que nos comunicamos como de socavar los cimientos mismos de nuestra democracia. Check Point Research, la división de Inteligencia de Amenazas Check Point, analizó más de 36 campañas electorales a nivel mundial y ha descubierto que una tercera parte de ellas incluye material de audio y video generado por IA.
Los materiales deepfake (audio, video e imágenes generadas por IA que engañan de manera convincente, alterando la apariencia, voz o acciones de los candidatos políticos) se difunden durante las campañas electorales.
Las tecnologías de IA se han utilizado para crear contenido que engaña a los votantes, promueve candidatos, ataca a adversarios políticos y manipula la opinión pública.
Check Point Research ha revelado el tráfico de herramientas sofisticadas en los mercados criminales de Internet, que incorporan capacidades de IA para crear deepfakes y gestionar cuentas de redes sociales. Una de estas plataformas, ofrecida en un foro clandestino ruso, emplea IA para automatizar la distribución de contenidos a través de perfiles falsificados en plataformas de redes sociales como Instagram y Facebook. Esta plataforma es capaz de gestionar cientos de cuentas, facilitar publicaciones diarias y es experta en campañas electorales de influencia a gran escala. Asimismo, han surgido múltiples servicios especializados en la creación de deepfakes, RVC (conversión de voz basada en recuperación) y correos electrónicos de spam impulsados por IA, que explotan esta tecnología para eludir los protocolos de seguridad y aumentar sus tasas de éxito a la hora de dirigirse al electorado.
Las capacidades de la IA han sido ampliamente utilizadas en campañas electorales a nivel mundial. Los avances de este año en la sofisticación y accesibilidad de la IA generativa han aumentado la preocupación sobre la integridad del proceso electoral.
La posibilidad de campañas de desinformación, particularmente el temor de que la aplicación generalizada de nuevas tecnologías, capaces de producir y difundir contenido de video y audio fabricado, pueda desvincular el discurso público de sus raíces factuales y disminuir la confianza pública en las instituciones democráticas.
“Hasta ahora, en lugar de atacar directamente las infraestructuras electorales, la aplicación principal de la IA en la política ha sido influir en los votantes a través de campañas de desinformación, lo que incluye audio deepfake y videos, así como la difusión de contenido manipulado para influir en la opinión pública. Estas tácticas ya están demostrando ser efectivas para crear confusión y desconfianza entre los votantes”, afirma Sergey Shykevich, director del Grupo de Inteligencia sobre Amenazas de Check Point Research.
Frente a este escenario, Check Point Software alerta del uso de la Inteligencia Artificial para influir en las campañas electorales y señala los principales peligros de estas tecnologías usadas de forma malintencionada:
- Manipulación de la opinión pública: ejemplos recientes incluyen deepfakes de audio tan convincentes que los electores tienen dificultades para distinguir entre contenido real y generado por IA. Dado que la tecnología de manipulación de audio es más madura y difícil de detectar, representa una amenaza mayor para la integridad de la información. Mediante esta técnica, en enero de 2024, se distribuyó una llamada automática en la que se escuchaba la voz falsa de Joe Biden, el actual presidente de EE. UU. y candidato de nuevo a las elecciones, en la que incitaba a los habitantes de New Hampshire a no votar.
- Desinformación masiva: durante los períodos electorales, se observa un incremento significativo en el empleo de cuentas falsas para difundir desinformación o noticias falsas, llegando a alcanzar hasta un 80%, según Meta (Facebook, Instagram y WhatsApp). Estas cuentas fraudulentas se vuelven cada vez más difíciles de identificar tanto para las plataformas como para los usuarios, en gran parte debido a la utilización de la Inteligencia Artificial (IA). Por ejemplo, durante las elecciones en Eslovaquia, circularon en redes sociales grabaciones deepfake del líder de un partido haciéndose pasar por un candidato liberal y hablando de manipular elecciones, lo que influía potencialmente en los resultados.
- Daño a la confianza: la proliferación de contenido generado por IA puede erosionar la confianza del electorado en los medios y las instituciones, como se refleja en el concepto del “Liar’s Dividend”, término acuñado por los juristas Robert Chesney y Danielle Keats Citron, donde, a medida que el público se vuelve más consciente sobre la idea de que el video y el audio pueden ser falsificados de manera convincente, aparecerán más ciberdelincuentes que intenten falsificarlos.
“Aunque los ataques directos utilizando IA contra los sistemas electorales no han sido un factor significativo hasta la fecha, el potencial para tales tácticas no debe subestimarse. La ciberseguridad en los sistemas electorales sigue siendo una preocupación crítica, ya que los atacantes continúan mejorando sus métodos. A medida que la IA avanza, también lo hace el potencial para el uso malintencionado de ataques más sofisticados que podrían apuntar a la infraestructura técnica de las elecciones”, destaca Sergey Shykevich.
Es esencial implementar medidas legislativas y soluciones tecnológicas para contrarrestar el avance de la tecnología deepfake y mantener la confianza en los procesos democráticos. La ciudadanía debe ser consciente de la importancia de verificar la autenticidad de la información que consumen y limitar su difusión a fuentes confiables y actualizadas. Asimismo, es importante que todos los actores involucrados en las elecciones trabajen en conjunto para establecer regulaciones que controlen el uso de tecnologías avanzadas, garantizando así la seguridad y transparencia en los comicios futuros.
“La evolución de las tácticas de ataque subraya la necesidad urgente de que las empresas y entidades gubernamentales implementen medidas proactivas de ciberseguridad. Manteniéndonos alerta, desplegando protección sólida de endpoint y fomentando una cultura de conciencia de ciberseguridad, podemos fortalecer nuestras defensas contra los ciberataques en constante evolución y proteger nuestras democracias”, concluye Maya Horowitz, VP de Investigación de Check Point Software.