Una investigación de IBM reveló que el 14% de las empresa en México ya utiliza Inteligencia Artificial (IA), y el 40% aumentaron su adopción durante el 2022. Además, hay proyecciones que indican que la industria de la IA podría generar $31,200 MDD a nivel global para el año 2025, con un enfoque particular en aplicaciones empresariales. ¿Cómo garantizar un futuro ético y equitativo para la IA?
Existe una gran oportunidad en el desarrollo de tecnologías de IA y aprendizaje automático para fomentar y promover el bienestar individual y colectivo de la humanidad. No obstante a que la IA presenta el potencial de beneficiar a todas las personas, también cuenta con crecientes riesgos debido a la mayor adopción y dependencia, de manera consciente e inconsciente, de sistemas impulsados por ella. Así que para alcanzar ese potencial y minimizar y mitigar los riesgos, es importante que el desarrollo y despliegue de la IA se guíen por principios responsables.
La IA ofrece un vasto potencial para el desarrollo tecnológico en México, pero también plantea desafíos significativos.
Con el objetivo de guiar el desarrollo responsable de sistemas de IA en el mercado mexicano, EPAM nos presenta siete principios fundamentales que marcarán la pauta para un futuro tecnológico ético y equitativo para la IA:
- 1. Diseño Centrado en el Humano: Priorizar el bienestar humano en el diseño de sistemas de IA, asegurando que las necesidades y valores de las personas estén en el centro de cada solución. La evaluación constante garantizará la durabilidad de este principio en todo el ciclo de vida del producto.
- 2. Conciencia: Cada profesional involucrado en tecnologías de IA en México debe comprender plenamente el contexto y el impacto de sus acciones. La conciencia sobre los detalles del sistema, el problema que aborda y las consecuencias de las recomendaciones de IA es clave para un desarrollo ético.
- 3. Comprensión de Datos, Privacidad y Seguridad: Es fundamental que todas las personas que hacen uso de las tecnologías de inteligencia artificial tengan un profundo conocimiento de los datos con los que están trabajando, incluida su genealogía y procedencia, y la forma en que se utilizan. Las elecciones de diseño e implementación del sistema deben alinearse con las prácticas regulatorias y legales pertinentes. Se debe adoptar un enfoque de IA ético y proactivo hacia la protección de datos para evaluar constantemente posibles vulnerabilidades, riesgos y sesgos relacionados tanto con la operación del sistema como con la minimización de brechas de datos o el acceso no autorizado a información sensible. Respetar la privacidad de los individuos y los derechos de protección de datos debe ser un principio rector de las actividades de diseño y desarrollo del sistema.
- 4 Equidad y No Discriminación: Los sistemas de IA se deben diseñar y desplegar para evitar la discriminación y el sesgo, promoviendo la equidad y la igualdad. Integrar perspectivas diversas para asegurar que los sistemas sean justos y no perpetúen desigualdades existentes.
- 5. Responsabilidad Social y Ambiental: Es crucial considerar el impacto social y ambiental de los sistemas de inteligencia artificial y esforzarse por minimizar cualquier impacto negativo. Analizar el impacto del sistema, tomar medidas para mitigar cualquier impacto negativo y considerar el beneficio que el sistema proporciona en proporción con los costos y riesgos de su operación. Una opción es que un equipo independiente evalúe estos impactos.
- 6. Repetitividad y Pruebas: Los sistemas de inteligencia artificial deben ser diseñados, probados e implementados de manera que garantice que su rendimiento y comportamiento puedan ser replicados y verificados. Esto incluye evaluar y comprender la variabilidad en el comportamiento inherente a algunos sistemas y el rendimiento real de los sistemas algorítmicos, considerando la variabilidad humana. Se debe implementar un estándar de pruebas antes de la producción que incluya pruebas para todos los principios aquí delineados. Las pruebas también deben llevarse a cabo durante el desarrollo, y se debe establecer un plan para el monitoreo y evaluación continuos. El diseño y la implementación deben mejorarse con el tiempo para maximizar el impacto positivo en los usuarios y monitorear constantemente cualquier impacto negativo o cambios en el rendimiento esperado y observado.
- 7. Responsabilidad: Cada persona que trabaje en tecnologías de inteligencia artificial debe reconocer una responsabilidad compartida por el impacto de sus sistemas en individuos y en la sociedad. Se debe designar una persona o un grupo de personas responsables de cada componente del sistema para el desarrollo y la comunicación de riesgos y decisiones basadas en intenciones. El equipo de desarrollo debe mantener estándares de auditoría y una cadena de responsabilidad. Es crucial diseñar y desarrollar un plan de monitoreo y mitigación para cualquier daño originado por la tecnología de inteligencia artificial.
La IA responsable va más allá de cumplir con regulaciones; nos pone a todos nosotros en el corazón del proceso de diseño del sistema.
Aquí, los objetivos, resultados, comportamientos y rendimiento están intrínsecamente vinculados al bienestar humano. Este enfoque reflexivo, intencional y sistemático significa que cada decisión de diseño tiene como prioridad su beneficio y su seguridad. En este contexto, la inteligencia artificial deja de ser oportunista para convertirse en una herramienta dedicada a mejorar su calidad de vida e impulsar el progreso de manera ética y equitativa.