Contenido Exclusivo

Ley de IA en la Unión Europea llama a legislar con urgencia en LATAM

No cabe duda que la IA ha avanzado a pasos agigantados, cambiando el rumbo de los más diversos sectores productivos tales como la salud, educación, industria, recursos humanos, entre otros, con desarrollos sorprendentes a nivel mundial. Sin embargo, también ha mostrado su lado más vulnerable reflejado en los delitos financieros, la usurpación de identidad, o aspectos vinculados a la propiedad intelectual, hechos que han motivado la importancia de legislar sobre los alcances de esta tecnología. Es por ello que en diciembre de 2023, la Unión Europea (UE) marcó un hito histórico al consensuar la primera Ley de Inteligencia Artificial (IA), conocida como “IA Act”, la cual se estima entre en vigencia recién a fines de 2026.

Pero una vez implementada esta Ley u otras que podrían ser promulgadas próximamente en otros países, surge la pregunta sobre si los gobiernos lograrán controlar y regular lo que, precisamente, busca esta misma en cuanto a la prevención de los efectos asociados a la IA.

En opinión de Federico dos Reis, CEO de INFORM Latam, es fundamental cambiar la manera de legislar. “Las burocracias gubernamentales no están preparadas hoy para hacerle frente al acelerado desarrollo de la IA. Los gobiernos deberían legislar con mayor premura frente a la velocidad a la que estábamos acostumbrados hace 10 años. La idea es poder adelantarnos a los posibles peligros que conlleva el mal uso de esta tecnología, permitiendo la aprobación de leyes cortas mucho más rápidas que lo que actualmente demoran en ser aprobadas. En este sentido, las instituciones gubernamentales deben tomar un rol preventivo y no reactivo frente a los avances de esta herramienta y el uso ético de la misma”, sostiene el ejecutivo.

IA generativa

En el marco de la conformación de esta Ley de Inteligencia Artificial (IA) de la UE, uno de los aspectos ampliamente discutidos fue la importancia de los sistemas de inteligencia artificial generativo, en los que se basan modelos como ChatGPT, implementándose reglas específicas para garantizar la transparencia y la gestión de riesgos. 

En esta línea, los usuarios, por ejemplo, tendrán que cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía fueron creados por IA. Asimismo, obligaciones más estrictas para los modelos de “alto impacto”, como evaluaciones de riesgos y garantías de ciberseguridad, entre otros factores.

Ley de IA

Desafíos de gobernanza de la IA 

Para las Naciones Unidas, la IA también conlleva efectos negativos, como la desinformación y la información falsa, el afianzamiento del sesgo y la discriminación, la vigilancia y la invasión de la privacidad, el fraude y otras violaciones de los derechos humanos, lo que podría desestabilizar, incluso, las democracias. 

Por ello, uno de los desafíos es poner en marcha un consenso sobre la regulación que guíe el desarrollo y la implementación de la IA en relación con los “Objetivos Globales” establecidos por el organismo internacional.

Y si bien hay países como China y Estados Unidos que ya están regulando el uso de la IA, para dos Reis esta tecnología “no conoce fronteras”. “El desafío es que ya tenemos que empezar a alinearnos no a nivel regional, sino global, ya que es una temática que impacta a la humanidad como un todo, por lo que es primordial ser ágiles y tener directrices claras en el uso y alcance de la IA. Se necesita promover un enfoque transparente y responsable de esta revolucionaria herramienta tecnológica, donde la última decisión siempre la tienen las personas, pudiendo en cualquier momento obviar una sugerencia o propuesta realizada por el sistema”, finalizó el líder de INFORM Latam.

Lo Más Reciente

Tenable descubre nuevas técnicas de ataque en software de código abierto

El equipo de investigación de seguridad en la nube...

Shopperbot: robot mexicano que ayuda a tomar mejores decisiones de compra

Como parte de las soluciones para impulsar la hiperpersonalización...

Los ‘Scam-Yourself Attacks’ aumentan 614% en el tercer trimestre del año: informe

Los 'Scam-Yourself Attacks' o "ataques de estafa”, en los...

Newsletter

Recibe lo último en noticias e información exclusiva.

Karina Rodríguez Peña
Karina Rodríguez Peñahttps://iworld.com.mx/author/karina-rodriguez/
Periodista de Tecnología con más de 13 años de experiencia. Anteriormente se desempeñó como reportero en PCWorld México, editora en Computerworld México y Content Manager en CIO Ediworld.

Tenable descubre nuevas técnicas de ataque en software de código abierto

El equipo de investigación de seguridad en la nube de Tenable descubrió nuevas técnicas de ataque en los Lenguajes Específicos de Dominio (DSLs, por...

“Mejorar la visibilidad en el ecosistema tecnológico, interno y de cara al cliente” : José Armando López Flores, CISO de Crediclub

“Queremos ser esa institución financiera que cubra con las expectativas de los clientes a través de garantizarles que su patrimonio estará seguro”. Con el objetivo...

Shopperbot: robot mexicano que ayuda a tomar mejores decisiones de compra

Como parte de las soluciones para impulsar la hiperpersonalización en la atención al cliente por medio de la tecnología, PepsiCo México desarrolló a Shopperbot....