Según el informe publicado por DeepMind a inicios de abril de 2025 titulado “Taking a responsible path to AGI”, son dos las grandes preocupaciones en torno a la inteligencia artificial general. La primera, el uso indebido de la tecnología por actores malintencionados. En segundo, la desalineación entre los objetivos de la inteligencia artificial y los principios éticos de los usuarios.
Encontrar un punto medio es más complicado de lo que parece debido a la velocidad en la que surgen nuevas herramientas de IA. Emilio Carrillo, quien pertenece al despacho de abogados Pérez Correa González, opinó desde una perceptiva legal: “para prevenir que estas poderosas máquinas se conviertan en armas, es imprescindible imponerles controles de acceso estrictos, de modo que sólo organizaciones verificadas operen las versiones más avanzadas”.
Si bien la regulación puede fungir como un eje central para las empresas, es importante considerar elementos adicionales que estructuren un sistema integral de IA adaptado e idóneo al sistema mexicano, tales como la transparencia, el monitoreo y la mejora continua.
En el plano internacional, según Weidenslaufer (2023), los proyectos más avanzados en legislación de IA son China, EE.UU. y la Unión Europea. Sus leyes y reformas de IA están basadas en características propias de cada cultura y modelo económico y político del país. Por ejemplo, en 2023 China aprobó para su cumplimiento obligatorio la Regulación de Síntesis Profunda o en inglés Deep Synthesis Regulation que además de su obligatoriedad impulsa una transparencia algorítmica.
Por otro lado, Estados Unidos implementó en el mismo año un Marco de gestión de riesgos de la IA o en inglés AI Risk Management Framework (NIST) bajo un enfoque de autorregulación y colaboración público-privada. Aún así, el Congreso de ese país ya está trabajando en una legislación con mayores filtros para la implementación de algoritmos seguros, la privacidad de los usuarios y la transparencia en el funcionamiento del modelo.
Para México, Emilio Carrillo consideró que “como ciudadanos, legisladores y líderes de opinión, no podemos quedarnos de brazos cruzados. Debemos exigir transparencia a los desarrolladores, apoyar políticas públicas que regulen el uso de la IA y promover iniciativas educativas sobre ética y seguridad”.
Si bien en el país ya existen bases, iniciativas y marcos legales, aún no se ha promulgado una ley nacional específica que regule de manera integral el uso de la IA y proteja las dos preocupaciones centrales del documento de DeepMindy, por ende, en México seguimos siendo propensos a la propagación de desinformación a escala industrial, ataques cibernéticos automáticos o, peor aún, el desarrollo de comportamientos ajenos a nuestros valores comunes.
Cada día surgen nuevos avances y capacidades en IA, basta con imaginar a médicos virtuales con la capacidad de diagnosticar enfermedades raras en segundos o tutores digitales que adapten su enseñanza al ritmo de cada estudiante, guías de comunicación para entrevistas de trabajo virtuales, e incluso un modelo climático preciso para combatir el calentamiento global. La correcta dirección de la tecnología depende de una regulación flexible y de la democratización en el acceso a tecnologías de vanguardia.