¿Es posible que la Inteligencia Artificial genere noticias falsas? Sí es posible. Hace unos meses, Yannic Kilcher, un youtuber que forma parte del desarrollo de Inteligencia Artificial, utilizó un código de acceso libre para generar más de 15,000 mensajes en 4chan, un foro donde se comparten discursos de odio, llegando a tener más de 30,000 publicaciones en un solo día que nunca pudo hacer él mismo, sino que utilizó una máquina para hacerlos y enviarlos.
En el 2019, otro de los casos ha sido la suplantación de rostros y cambiar los mensajes o frases de políticos, artistas o empresarios para apoyar alguna propuesta política. Lo hicieron en su momento con Obama y con Donald Trump, en lo que se llama ‘deepfake’, o ultra-falsedad.
En su reciente libro, Kai-Fu Lee (AI hacia el 2041, 10 visiones de nuestro futuro), propone un escenario donde un chico puede cambiar el rostro, el discurso y los movimientos de un político en un país ficticio para desacreditarlo y evitar que llegue al poder. Para esto, el personaje empleó la llamada tecnología Generative Adversarial Networks (GAN), que utiliza aprendizaje automático, el cual le permite a la Inteligencia Artificial combinar millones de registros de rostros para generar los rasgos de uno propio. El rostro resultante es extraordinario, según el libro, y hace ver a los emisores de miles de mensajes como meros principiantes para engañar a los usuarios.
Estos ejemplos nos llevan a varias reflexiones. Una de ellas, sobre si debemos permitir el acceso abierto del código generado con la Inteligencia Artificial. Esta práctica ha ayudado a acelerar el avance del campo, ya que muchas personas pueden estar trabajando en un mismo código, eliminar errores y desarrollar nuevas aplicaciones de IA, pero tiene el riesgo de lo que hizo Kilcher al compartir el código para enviar miles de mensajes falsos con discurso de odio. Por ello la pregunta: ¿el desarrollo de IA debe ser cerrado para impedir que esto vuelva a ocurrir? ¿Sólo unos cuantos deben poder desarrollar herramientas de Inteligencia Artificial?
En este sentido, la ética de la Inteligencia Artificial parece surgir como un campo obligado en estos momentos en que se desarrolla la tecnología.
Por eso tantas advertencias sobre los riesgos de permitir que se expanda la IA, pero es imposible parar el avance tecnológico, según consta en la historia de la humanidad. Lo importante es adaptarnos a ello con los riesgos que puede llevar, pero con grandes avances para el resto del mundo
Otra reflexión es responder a la pregunta: ¿cómo la tecnología puede detener las noticias falsas? Si existe tecnología de Inteligencia Artificial para generar este problema, debe haber una posibilidad de detenerlo. No existe una formula para lograr un avance que responda esta pregunta, tampoco podemos crear un grupo anti-IA o los policías de IA en este campo, pero sí es posible establecer lineamientos generales que impidan el desarrollo de estas tecnologías.
Aún veremos más sorpresas en las noticias falsas y ultra-falsas porque estamos en los albores de la Inteligencia Artificial. Sin embargo, ese reto nos obliga a pensar en las soluciones y evitar estos posibles abusos de la tecnología. El futuro nos dará la respuesta.
_______________________
El autor de la columna “Tecnogob”, Rodrigo Sandoval Almazán, es Profesor de Tiempo Completo SNI Nivel 2 de la Universidad Autónoma del Estado de México. Lo puede contactar en tecnogob@pm.me y en la cuenta de Twitter @horus72.