La inteligencia artificial (IA) sigue generando cambios en el mundo. El 30 de octubre logró reunir a los líderes de los siete países más ricos del mundo (Grupo de los 7) en Hiroshima, para discutir sobre el futuro de la IA. Lanzaron una declaración conocida como “Proceso de IA”, algunas ideas para establecer principios rectores internacionales; análisis de riesgos y cooperación internacional.
Tan sólo un par de días más tarde, en Gran Bretaña, se reunieron personajes de 28 países (Estados Unidos, Brasil, China, Francia, Alemania, Japón, Arabia Saudí, Singapur, Emiratos Árabes Unidos y Reino Unido, entre otros) para discutir sobre el futuro de la IA, en lo que se planteó una “IA de frontera”, que son modelos generales de esta tecnología para impulsar su desarrollo y que superan las capacidades de los sistemas más avanzados actualmente.
Se lograron tres avances más que, a mi criterio, vale la pena destacar y comentar aquí.
El primero de ellos es una declaración internacional, donde se expone “el potencial de daños graves, incluso catastróficos (…), derivados de las capacidades más significativas de estos modelos de IA”. Esto representa por primera vez el reconocimiento por parte de los gobiernos del enorme potencial y riesgo que representa la IA para el mundo.
El segundo avance fué demostrar que estos riesgos “se abordan mejor mediante la cooperación internacional” y para ello proponen tres estrategias: (1) una comprensión científica basada en pruebas de estos riesgos (lo cual es fundamental para no difundir rumores) (2) colaboración internacional entre países y (3) construir políticas basadas en riesgos para garantizar la seguridad de IA. Estos son logros sin precedentes, sobre todo considerando los intereses y expectativas de Occidente y Oriente por dominar este nuevo mercado.
El tercer avance es la creación de un Instituto de Seguridad para IA, que se establecerá en Gran Bretaña, y cuyos objetivos serán tanto realizar las evaluaciones de los sistemas de IA como impulsar investigación sobre seguridad de esta tecnología y facilitar el intercambio de información
Sin lugar a dudas esta cumbre de seguridad tuvo grandes avances ante un panorama que se preveía difícil para ponerse de acuerdo entre las superpotencias de la IA. No obstante, es insuficiente.
Si bien hay avances en un tema fundamental –la seguridad– se dejaron fuera varios temas clave como: el uso intensivo de energía y su impacto en el medio ambiente. Tampoco se avanzó en los sesgos algorítmicos y de desinformación que ocasionan estas tecnologías, ni los problemas de seguridad para niñas y mujeres al crearse contenidos pornográficos falsos (deepfake) sin su consentimiento y el uso de la IA en las elecciones para generar desinformación y control político.
Sin duda alguna, la seguridad de IA es crucial en estos momentos de cambio y es notable el esfuerzo internacional realizado en esa dirección, pero aún no sabemos hasta dónde llegue el avance (y riesgo) de la IA. Estos pueden ser apenas pasitos de bebé en un tema gigante que no alcanzamos a dimensionar. Sólo el tiempo nos dará la respuesta.
_________________________
El autor de la columna “Tecnogob”, Rodrigo Sandoval Almazán, es Profesor de Tiempo Completo SNI Nivel 2 de la Universidad Autónoma del Estado de México. Lo puede contactar en tecnogob@pm.me y en la cuenta de Threads @horus72.