Contenido Exclusivo

¡Convocatoria Abierta! “Los Mejores 20 CISO de México 2025”

¡Celebrando la Excelencia en Ciberseguridad y Seguridad de la...

La IA que no asusta

Del hype de los agentes a la “IA aburrida”...

7 Principios éticos que formarán la base de la Inteligencia Artificial Responsable

Una investigación de IBM reveló que el 14% de las empresa en México ya utiliza Inteligencia Artificial (IA), y el 40% aumentaron su adopción durante el 2022. Además, hay proyecciones que indican que la industria de la IA podría generar $31,200 MDD a nivel global para el año 2025, con un enfoque particular en aplicaciones empresariales. ¿Cómo garantizar un futuro ético y equitativo para la IA?

Existe una gran oportunidad en el desarrollo de tecnologías de IA y aprendizaje automático para fomentar y promover el bienestar individual y colectivo de la humanidad. No obstante a que la IA presenta el potencial de beneficiar a todas las personas, también cuenta con crecientes riesgos debido a la mayor adopción y dependencia, de manera consciente e inconsciente, de sistemas impulsados por ella. Así que para alcanzar ese potencial y minimizar y mitigar los riesgos, es importante que el desarrollo y despliegue de la IA se guíen por principios responsables.

La IA ofrece un vasto potencial para el desarrollo tecnológico en México, pero también plantea desafíos significativos.

Con el objetivo de guiar el desarrollo responsable de sistemas de IA en el mercado mexicano, EPAM nos presenta siete principios fundamentales que marcarán la pauta para un futuro tecnológico ético y equitativo para la IA:

  • 1. Diseño Centrado en el Humano: Priorizar el bienestar humano en el diseño de sistemas de IA, asegurando que las necesidades y valores de las personas estén en el centro de cada solución. La evaluación constante garantizará la durabilidad de este principio en todo el ciclo de vida del producto.
  • 2. Conciencia: Cada profesional involucrado en tecnologías de IA en México debe comprender plenamente el contexto y el impacto de sus acciones. La conciencia sobre los detalles del sistema, el problema que aborda y las consecuencias de las recomendaciones de IA es clave para un desarrollo ético.
  • 3. Comprensión de Datos, Privacidad y Seguridad: Es fundamental que todas las personas que hacen uso de las tecnologías de inteligencia artificial tengan un profundo conocimiento de los datos con los que están trabajando, incluida su genealogía y procedencia, y la forma en que se utilizan. Las elecciones de diseño e implementación del sistema deben alinearse con las prácticas regulatorias y legales pertinentes. Se debe adoptar un enfoque de IA ético y proactivo hacia la protección de datos para evaluar constantemente posibles vulnerabilidades, riesgos y sesgos relacionados tanto con la operación del sistema como con la minimización de brechas de datos o el acceso no autorizado a información sensible. Respetar la privacidad de los individuos y los derechos de protección de datos debe ser un principio rector de las actividades de diseño y desarrollo del sistema.
  • IA ético4  Equidad y No Discriminación: Los sistemas de IA se deben diseñar y desplegar para evitar la discriminación y el sesgo, promoviendo la equidad y la igualdad. Integrar perspectivas diversas para asegurar que los sistemas sean justos y no perpetúen desigualdades existentes.
  • 5. Responsabilidad Social y Ambiental: Es crucial considerar el impacto social y ambiental de los sistemas de inteligencia artificial y esforzarse por minimizar cualquier impacto negativo. Analizar el impacto del sistema, tomar medidas para mitigar cualquier impacto negativo y considerar el beneficio que el sistema proporciona en proporción con los costos y riesgos de su operación. Una opción es que un equipo independiente evalúe estos impactos.
  • 6. Repetitividad y Pruebas: Los sistemas de inteligencia artificial deben ser diseñados, probados e implementados de manera que garantice que su rendimiento y comportamiento puedan ser replicados y verificados. Esto incluye evaluar y comprender la variabilidad en el comportamiento inherente a algunos sistemas y el rendimiento real de los sistemas algorítmicos, considerando la variabilidad humana. Se debe implementar un estándar de pruebas antes de la producción que incluya pruebas para todos los principios aquí delineados. Las pruebas también deben llevarse a cabo durante el desarrollo, y se debe establecer un plan para el monitoreo y evaluación continuos. El diseño y la implementación deben mejorarse con el tiempo para maximizar el impacto positivo en los usuarios y monitorear constantemente cualquier impacto negativo o cambios en el rendimiento esperado y observado.
  • 7. Responsabilidad: Cada persona que trabaje en tecnologías de inteligencia artificial debe reconocer una responsabilidad compartida por el impacto de sus sistemas en individuos y en la sociedad. Se debe designar una persona o un grupo de personas responsables de cada componente del sistema para el desarrollo y la comunicación de riesgos y decisiones basadas en intenciones. El equipo de desarrollo debe mantener estándares de auditoría y una cadena de responsabilidad. Es crucial diseñar y desarrollar un plan de monitoreo y mitigación para cualquier daño originado por la tecnología de inteligencia artificial.

La IA responsable va más allá de cumplir con regulaciones; nos pone a todos nosotros en el corazón del proceso de diseño del sistema.

Aquí, los objetivos, resultados, comportamientos y rendimiento están intrínsecamente vinculados al bienestar humano. Este enfoque reflexivo, intencional y sistemático significa que cada decisión de diseño tiene como prioridad su beneficio y su seguridad. En este contexto, la inteligencia artificial deja de ser oportunista para convertirse en una herramienta dedicada a mejorar su calidad de vida e impulsar el progreso de manera ética y equitativa.

Lo Más Reciente

Intel y Edgenet lanzan la primera red mexicana de centros de datos IA-Ready

Intel y Edgenet Data Technologies arrancan operaciones de la...

La IA crece en inversión, pero su impacto se frena por falta de talento capacitado

La inteligencia artificial (IA) ya no es una promesa...

Vertiv nombró a Mike Giresi como CIO Global

Vertiv nombró a  Mike Giresi como Director de Información...

Aceptar el ataque: una nueva conciencia en la estrategia de ciberseguridad empresarial

El cibercrimen en América Latina y el Caribe sigue...

Newsletter

Recibe lo último en noticias e información exclusiva.

Karina Rodríguez Peña
Karina Rodríguez Peñahttps://iworld.com.mx/author/karina-rodriguez/
Periodista de Tecnología con más de 13 años de experiencia. Anteriormente se desempeñó como reportero en PCWorld México, editora en Computerworld México y Content Manager en CIO Ediworld.

Intel y Edgenet lanzan la primera red mexicana de centros de datos IA-Ready

Intel y Edgenet Data Technologies arrancan operaciones de la red más extensa de datos Edgenet IA-Ready - la primera empresa 100% mexicana. Intel se...

La IA crece en inversión, pero su impacto se frena por falta de talento capacitado

La inteligencia artificial (IA) ya no es una promesa a futuro, sino una apuesta concreta para el crecimiento empresarial. Sin embargo, el ritmo acelerado...

Vertiv nombró a Mike Giresi como CIO Global

Vertiv nombró a  Mike Giresi como Director de Información (CIO) global, quien se encargará de liderar las iniciativas de la empresa en adopción de...