No cabe duda que la IA ha avanzado a pasos agigantados, cambiando el rumbo de los más diversos sectores productivos tales como la salud, educación, industria, recursos humanos, entre otros, con desarrollos sorprendentes a nivel mundial. Sin embargo, también ha mostrado su lado más vulnerable reflejado en los delitos financieros, la usurpación de identidad, o aspectos vinculados a la propiedad intelectual, hechos que han motivado la importancia de legislar sobre los alcances de esta tecnologÃa. Es por ello que en diciembre de 2023, la Unión Europea (UE) marcó un hito histórico al consensuar la primera Ley de Inteligencia Artificial (IA), conocida como “IA Actâ€, la cual se estima entre en vigencia recién a fines de 2026.
Pero una vez implementada esta Ley u otras que podrÃan ser promulgadas próximamente en otros paÃses, surge la pregunta sobre si los gobiernos lograrán controlar y regular lo que, precisamente, busca esta misma en cuanto a la prevención de los efectos asociados a la IA.
En opinión de Federico dos Reis, CEO de INFORM Latam, es fundamental cambiar la manera de legislar. “Las burocracias gubernamentales no están preparadas hoy para hacerle frente al acelerado desarrollo de la IA. Los gobiernos deberÃan legislar con mayor premura frente a la velocidad a la que estábamos acostumbrados hace 10 años. La idea es poder adelantarnos a los posibles peligros que conlleva el mal uso de esta tecnologÃa, permitiendo la aprobación de leyes cortas mucho más rápidas que lo que actualmente demoran en ser aprobadas. En este sentido, las instituciones gubernamentales deben tomar un rol preventivo y no reactivo frente a los avances de esta herramienta y el uso ético de la mismaâ€, sostiene el ejecutivo.
IA generativa
En el marco de la conformación de esta Ley de Inteligencia Artificial (IA) de la UE, uno de los aspectos ampliamente discutidos fue la importancia de los sistemas de inteligencia artificial generativo, en los que se basan modelos como ChatGPT, implementándose reglas especÃficas para garantizar la transparencia y la gestión de riesgos.Â
En esta lÃnea, los usuarios, por ejemplo, tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografÃa fueron creados por IA. Asimismo, obligaciones más estrictas para los modelos de “alto impactoâ€, como evaluaciones de riesgos y garantÃas de ciberseguridad, entre otros factores.

DesafÃos de gobernanza de la IAÂ
Para las Naciones Unidas, la IA también conlleva efectos negativos, como la desinformación y la información falsa, el afianzamiento del sesgo y la discriminación, la vigilancia y la invasión de la privacidad, el fraude y otras violaciones de los derechos humanos, lo que podrÃa desestabilizar, incluso, las democracias.Â
Por ello, uno de los desafÃos es poner en marcha un consenso sobre la regulación que guÃe el desarrollo y la implementación de la IA en relación con los “Objetivos Globales†establecidos por el organismo internacional.
Y si bien hay paÃses como China y Estados Unidos que ya están regulando el uso de la IA, para dos Reis esta tecnologÃa “no conoce fronterasâ€. “El desafÃo es que ya tenemos que empezar a alinearnos no a nivel regional, sino global, ya que es una temática que impacta a la humanidad como un todo, por lo que es primordial ser ágiles y tener directrices claras en el uso y alcance de la IA. Se necesita promover un enfoque transparente y responsable de esta revolucionaria herramienta tecnológica, donde la última decisión siempre la tienen las personas, pudiendo en cualquier momento obviar una sugerencia o propuesta realizada por el sistemaâ€, finalizó el lÃder de INFORM Latam.
