Tras el desarrollo y avance de tecnologías como la GenAI, salta a la mesa el tema entorno a la regulación de la Inteligencia Artificial (IA), el mundo ya está dando un paso importante al proponer la Ley de IA, un futuro marco legislativo global diseñado para normar los sistemas de IA.
Algunas propuestas, se basan principalmente en leyes vigentes de los países, como el Reglamento General de Protección de Datos (GDPR) y la Ley de Servicios Digitales, que exigen que se tomen las medidas necesarias para evitar que los Modelos de Lenguaje de Gran Tamaño (LLM) que están detrás de la GenAI originen contenido que infrinja estas leyes.
Estas propuestas de ley reconocen que los denominados modelos de base, como el GPT-4 de OpenAI que utiliza ChatGPT, requieren una atención especial porque son capaces de ejecutar una gran variedad de tareas generales, por lo que cualquier error o sesgo en los modelos pueden afectar potencialmente a un gran número de aplicaciones construidas sobre ellos. En consecuencia, los proveedores de sistemas GenAI estarán sujetos a requisitos de transparencia adicionales, entre los que se encuentran:
- Revelar qué contenido se ha generado con IA. Los proveedores deben informar a los usuarios si el contenido que les proporcionan está generado a través de IA. Una comunicación clara es crucial, sobre todo, cuando se interactúa con personas.
- Diseño responsable. Los proveedores tienen la responsabilidad de implementar medidas de protección durante el diseño y la prueba de sus modelos, para impedir la generación de contenidos ilegales o nocivos. Lo anterior, también incluye el respeto a los derechos fundamentales y a la libertad de expresión.
- Transparencia de los datos. Los proveedores deben publicar resúmenes de los datos que utilizan para entrenar sus modelos y que pueden estar protegidos por las leyes de propiedad intelectual.
Es importante aclarar que, estos requisitos, no clasifican los modelos fundacionales como sistemas de IA de alto riesgo, sino que pretenden alinear la IA generativa con los objetivos más generales de la Ley de IA: la protección de los derechos fundamentales, la salud, la seguridad, el medioambiente, la democracia y el Estado de Derecho.
También, es necesario señalar que estas propuestas de ley están aún en proceso de evaluación y se espera su aprobación a principios de 2024. Por ejemplo, la regulación de la IA generativa por medio de la Ley de IA supone un avance decisivo hacia el uso responsable de esta tecnología y, aunque constituye un precedente prometedor, aún queda mucho trabajo por hacer.
Asimismo, elaborar una normatividad clara y adaptable, que contemple la naturaleza versátil de esta tecnología es fundamental. Esta conversación se extiende más allá de las fronteras, ya que el todo el planeta se enfrenta al complejo reto que supone regular la IA generativa y, al mismo tiempo, fomentar la innovación y salvaguardar los intereses de la sociedad.
Otros enfoques para regular la IA generativa
La redacción de nuevas leyes suele ser un proceso lento, pues muchos legisladores pueden tener dificultades para comprender todo el potencial de la IA generativa y seguir el ritmo de su avance. Por esa razón, se han propuesto otros enfoques para abordar los retos éticos, legales y sociales que plantea esta tecnología.
A continuación, se enlistan algunas de las principales estrategias y propuestas:
- Las empresas tecnológicas y los desarrolladores de IA están trabajando en la elaboración de directrices voluntarias y buenas prácticas que rijan el desarrollo y la implantación de la IA generativa No obstante, aunque la autorregulación de la industria puede ser rápida y flexible, existen dudas sobre su eficacia y su posible parcialidad.
- Existen organizaciones e instituciones que promueven marcos éticos para el uso de la IA. Por ejemplo, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE, por sus siglas en inglés), ha desarrollado una Iniciativa Global sobre Ética de los Sistemas Autónomos e Inteligentes, que incluye directrices para una IA ética.
- También, se llevan a cabo evaluaciones del impacto de la IA, que pretenden estudiar las posibles consecuencias sociales, económicas y éticas del desarrollo de sistemas de IA generativa, con lo que se ayuda a los actores políticos responsables a tomar decisiones fundamentadas.
- Hay normativas que se centran en una sólida gobernanza de los datos, para garantizar que la información utilizada en el entrenamiento de la IA sea representativa, diversa y de origen ético. Las leyes de protección de datos más estrictas, como el GDPR en Europa, ya tienen injerencia en este ámbito.
- Algunas iniciativas abogan por la participación ciudadana en el proceso de toma de decisiones sobre la regulación de la IA generativa. Las consultas y aportaciones públicas pueden ayudar a garantizar que los sistemas de IA se ajusten a los valores y necesidades de la sociedad.
- Organizaciones internacionales como las Naciones Unidas, a través de su Consejo Asesor de Alto Nivel sobre IA, están explorando distintas vías para crear normas y acuerdos globales en torno al uso, la ética y la regulación de la GenAI.
- Los comités independientes de ética de la IA u organismos de supervisión, ayudan a controlar y aplicar mejor la normativa sobre inteligencia artificial, garantizando que los sistemas IA generativa se ajusten a los principios éticos y la legalidad.
- Se han propuesto mecanismos obligatorios de información sobre el alcance de la IA, según los cuales, las organizaciones deben presentar informes periódicos respecto al impacto social de sus sistemas de IA generativa dicha información, puede utilizarse para la rendición de cuentas y la regulación.
Conforme la IA generativa influye en cada vez más aspectos de nuestras vidas, es necesario encontrar el equilibrio adecuado entre innovación y control. Lo anterior, es una tarea dinámica y en continua evolución que definirá el futuro de la IA para las generaciones venideras.
Con información de NTT DATA