En un año clave para la política global, 2024 se perfilaba como el escenario donde la inteligencia artificial (IA) tendría un impacto significativo en los procesos electorales, especialmente en Estados Unidos. Sin embargo, la realidad está tomando un rumbo distinto al esperado. Lejos de ver una avalancha de deepfakes o noticias fabricadas que cambien la opinión pública, la IA está actuando de una manera más sutil y peligrosa: amplificando la desinformación ya existente y profundizando la polarización social. Y no solo los políticos son vulnerables; el sector privado, especialmente las empresas con alta visibilidad pública, está igualmente expuestas y tienen mucho que aprender de este fenómeno.
Las empresas que se encuentran en momentos de alta exposición mediática —como lanzamientos de productos, rebranding o fusiones— son objetivos atractivos para ataques de desinformación. Las estructuras de recompensa de las redes sociales han cambiado y ahora impulsan la compartición rápida y sensacionalista de información, lo que fomenta la propagación de noticias falsas a gran escala. Este riesgo afecta tanto a las empresas como a los políticos y se ha vuelto esencial para el sector privado aprender de lo que ocurre en el entorno político para proteger su reputación.
“Nos preocupaba que la IA inundara las elecciones con noticias falsas y videos deepfake, creando realidades paralelas; pero lo que hemos visto es una amenaza menos obvia: la IA amplifica y distribuye contenido engañoso de manera casi imperceptible para el público”, señala Adolfo Corujo, socio y director general corporativo de talento e innovación de LLYC, en el pódcast “Esto es lo que AI”. “Esta amenaza sutil está cambiando la forma en que las campañas manejan la comunicación y obliga a las marcas y candidatos a estar más vigilantes que nunca”.
Un estudio reciente del Pew Research Center, reveló que el 57% de los adultos estadounidenses están muy preocupados de que la IA se utilice para difundir información falsa sobre los candidatos. Aunque algunos ejemplos como la imagen falsa de Taylor Swift apoyando a Donald Trump han acaparado titulares, el peligro real está en la capacidad de la IA para amplificar teorías conspirativas y manipular el discurso público en redes sociales, algo que se extiende a las empresas y marcas.
Un análisis más profundo del fenómeno revela que, en las elecciones de Reino Unido y Europa de 2024, no hubo pruebas de que la desinformación habilitada por IA influyera significativamente en los resultados, según un estudio de The Alan Turing Institute. La razón es que la mayoría del contenido manipulado fue visto por usuarios que ya compartían esas creencias políticas, lo que consolidó sus perspectivas en lugar de cambiar la opinión de los votantes indecisos. Esto mismo puede suceder en el entorno corporativo: la desinformación no siempre busca alterar la opinión pública general, sino reforzar ideas preconcebidas entre grupos específicos de consumidores o accionistas.
Además, un estudio de la Universidad del Sur de California (USC) mostró que un pequeño grupo de usuarios tiene un impacto desproporcionado en la difusión de información falsa. Solo el 15% de los usuarios más activos en compartir noticias fueron responsables de entre el 30% y el 40% de las noticias falsas distribuidas en redes sociales. Esto es preocupante porque demuestra cómo un grupo reducido puede influir enormemente en la percepción pública, algo que también afecta la imagen y la reputación de las empresas cuando se enfrentan a campañas de desinformación.
Asimismo, las empresas que tienen directores ejecutivos con alta visibilidad en redes sociales o aquellas que están involucradas en transacciones públicas importantes, como una oferta pública inicial (IPO) o una fusión, son objetivos preferidos para los ataques de desinformación. Estos ataques pueden aprovechar la IA para crear contenidos que se diseminan rápidamente, distorsionando la percepción pública.
Ante este panorama, LLYC, firma global de Marketing y Corporate Affairs, sugiere que las empresas adopten estrategias proactivas para proteger su identidad y reputación:
Monitorear y aprovechar las redes sociales: Es fundamental vigilar los canales sociales en tiempo real para anticipar y detectar posibles campañas de desinformación en sus primeras etapas.
Blindar la identidad de la marca: Crear una estrategia sólida que fortalezca la credibilidad de la empresa ante posibles ataques de desinformación, anticipando riesgos antes de que se materialicen.
Desarrollar un plan de recuperación: Integrar un plan de respuesta a la desinformación dentro del programa de gestión de crisis de la empresa, para actuar rápida y efectivamente ante cualquier amenaza que afecte la reputación de la marca.
Si bien el impacto directo de la desinformación habilitada por IA puede no ser siempre evidente, como se ha visto en algunas elecciones, la amenaza persiste y debe tomarse en serio. Tanto en el ámbito político como en el corporativo, el desafío más allá de identificar la desinformación, está en aprender a mitigar su impacto antes de que cause un daño irreparable. El entorno digital ha redefinido la comunicación y las reglas de juego para campañas y empresas. Mientras que en el pasado, tener una presencia fuerte en redes sociales generaba confianza, hoy esa visibilidad también representa un riesgo si no se gestiona adecuadamente.