En México, las empresas siguen avanzando en la adopción de la inteligencia artificial. Este año se perfila como uno de los años cruciales para este propósito. Tan solo el año pasado, según la encuesta EY AI Pulse 2024, entre 75% y 84% de los encuestados afirmó obtener un retorno positivo de inversión al implementar estas soluciones. Y para 2025, se proyecta que el mercado de la IA alcanzará en el país un valor de 450 millones de dólares, de acuerdo con cifras reveladas por Lenovo en su CIO Playbook 2025.
México se posiciona, entonces, en un mercado latinoamericano que, según IDC, superará los 3.500 millones de dólares en 2025, impulsado principalmente por soluciones de automatización, analítica avanzada y chatbots.
Aunque este avance representa grandes oportunidades para la eficiencia, la competitividad y la innovación empresarial, también plantea desafíos urgentes en materia de ética, privacidad, inclusión y gobernanza de datos.
Cada vez más organizaciones empiezan a cuestionarse no solo el potencial de la IA para optimizar procesos, sino también los posibles impactos sociales de su mal uso. Sin principios de desarrollo responsables, la IA puede derivar en sesgos, discriminación y efectos negativos a largo plazo para la confianza pública y la reputación corporativa.
Ante esta realidad, EPAM Systems, especialista en ingeniería de software y transformación digital, destacan la necesidad de aplicar marcos de responsabilidad sólidos para evitar riesgos sistémicos en la adopción de estas tecnologías.
Siete principios para un desarrollo responsable
Para garantizar que la inteligencia artificial contribuya genuinamente al bienestar de las personas y la sociedad, EPAM Systems propone siete principios orientadores que pueden servir de guía a cualquier organización:
- Diseño centrado en el ser humano: Priorizar las necesidades, valores y resultados deseables para las personas antes que otros objetivos.
- Conciencia contextual: Impulsar la comprensión de cada decisión, sus alcances y consecuencias en los sistemas impulsados por IA.
- Protección de datos y privacidad: Respetar la procedencia, seguridad y confidencialidad de los datos, aplicando de forma proactiva medidas de protección y evaluación de vulnerabilidades.
- Equidad y no discriminación: Prevenir sesgos y desigualdades integrando perspectivas diversas y equipos multidisciplinarios durante todo el ciclo de vida de los sistemas.
- Responsabilidad social y ambiental: Analizar impactos a nivel de sostenibilidad, tanto social como ecológica, para maximizar beneficios y reducir daños colaterales.
- Repetibilidad y pruebas constantes: Establecer procedimientos de verificación continua para validar el rendimiento y comportamiento de los algoritmos antes y después de su lanzamiento.
- Rendición de cuentas: Asignar responsabilidades claras dentro de los equipos de desarrollo y operación, con auditorías periódicas que garanticen la identificación y mitigación de posibles daños.
Estos lineamientos buscan que el desarrollo de la IA no sea únicamente una cuestión de cumplimiento normativo, sino un compromiso genuino con el bienestar humano y el progreso equitativo.
Un reto urgente para la región
La realidad latinoamericana hace aún más necesario reforzar estos principios. Según la OCDE, más del 60% de las empresas en economías emergentes carecen de políticas claras de ética tecnológica y no cuentan con personal capacitado para auditar sus sistemas de IA. Esto abre la puerta a prácticas riesgosas que podrían perjudicar a comunidades vulnerables o profundizar desigualdades existentes.
Los expertos coinciden en que la inteligencia artificial responsable implica una colaboración activa entre empresas, autoridades regulatorias y la sociedad civil. En ese sentido, experiencias compartidas por compañías globales como EPAM pueden ser referencia para fortalecer capacidades locales y regionales, evitando caer en un uso oportunista de la IA que priorice únicamente ganancias a corto plazo.
La expansión de modelos generativos y aplicaciones automatizadas en todos los sectores productivos es inminente y México tiene la oportunidad de impulsar un marco ético robusto que coloque al ser humano en el centro del diseño tecnológico. Construir esta visión permitirá generar confianza, minimizar riesgos y garantizar que la IA sea realmente una palanca de desarrollo sostenible en los próximos años.