Contenido Exclusivo

¡Ya está aquí la Revista Digital “Los Mejores 20 CISO de México 2025”!

CIO Ediworld lo invita a sumergirse en el contenido de la...

¡Descarga la Revista Digital “Los Mejores 100 CIO de México 2025”!

Descarga la revista digital CIO Ediworld Edición Especial "Los...

Publican código de ética para desarrollar IA en forma responsable

Como un llamamiento para que la comunidad tecnológica internacional asuma su responsabilidad en el desarrollo ético de la Inteligencia Artificial (IA), la compañía Sage publicó el Código Ético: Desarrollo de la Inteligencia Artificial para empresas basado en cinco principios básicos.

En este documento se exponen recomendaciones a tener en cuenta en la Industria 4.0 (también llamada cuarta revolución industrial).

El código de conducta fue desarrollado por Sage durante la construcción del propio programa de aprendizaje automático de IA de la compañía, diseñado específicamente para reducir los procesos de administración financiera de los empresarios de cualquier envergadura, desde start ups hasta grandes empresas.

“Desarrollar chatbots y programas de Inteligencia Artificial que ayuden a nuestros clientes es la parte sencilla de nuestro trabajo, lo difícil es gestionar todas las dudas que esta disrupción tecnológica genera, pues son muy amplias y diversas. Por este motivo, desarrollamos nuestra IA dentro de un conjunto de guías que funcionan como principios básicos y contribuyen a garantizar que nuestros productos son seguros y éticos”, afirmó Kriti Sharma, Vicepresidenta de Bots e Inteligencia Artificial de Sage.

Los cinco principios básicos son:

  1. La Inteligencia Artificial debe reflejar la diversidad de los usuarios a los que sirve.

Tanto la industria como la comunidad tecnológica deben desarrollar mecanismos eficaces para filtrar los sesgos y el sentimiento negativo de los datos recogidos por la Inteligencia Artificial. Esto servirá para garantizar que la IA no perpetúa estereotipos erróneos.

  1. La Inteligencia Artificial debe rendir cuentas, igual que lo hacen los usuarios.

Los usuarios construyen una relación de confianza con la IA tras varias interacciones significativas. Después de adquirir confianza, llega la responsabilidad y la IA tiene que responsabilizarse de sus acciones y decisiones, igual que lo hacen los seres humanos. Si no aceptamos este tipo de comportamientos de otros profesionales, ¿por qué deberíamos hacer una excepción con la tecnología?

  1. Recompensa a la Inteligencia Artificial por sus progresos.

Cualquier sistema de IA que base su aprendizaje en malos ejemplos podría llegar a ser socialmente inapropiado. En la actualidad, que los sistemas de IA amplíen su campo de escucha y de recogida de datos es la solución para que progresen en su aprendizaje.

Uno de los retos es el desarrollo de un mecanismo de recompensa. Las medidas de aprendizaje y refuerzo deben construirse no sólo basándose en lo que la IA o los robots hacen para lograr un resultado, sino en cómo se alinean con los valores humanos para lograr ese resultado concreto.

  1. La Inteligencia Artificial debe garantizar la igualdad de condiciones.

Las tecnologías sociales, como los asistentes de voz o los robots, ofrecen soluciones de rápido acceso, especialmente indicadas para personas discapacitadas por problemas de visión, dislexia o movilidad reducida. La comunidad tecnológica empresarial necesita acelerar el desarrollo de nuevas tecnologías para garantizar la igualdad de condiciones y ampliar el número de talentos disponibles.

  1. La Inteligencia Artificial sustituirá puestos de trabajo, pero también creará nuevos empleos.

Aparecerán nuevas oportunidades creadas por la robotización de tareas y es importante que los seres humanos estén preparados para ello. Hay que tener en cuenta que, si la IA y la empresa trabajan juntos, conseguirán que la plantilla se centre en lo verdaderamente importante: construir relaciones y cuidar de los clientes.

“Es muy importante que las compañías adopten las mejoras tecnológicas que tienen a su alcance, sobretodo, cuando se trata de algo tan significativo como la Inteligencia Artificial que puede ser determinante para pequeñas y medianas empresas”, afirmó Luis Pardo, Consejero Delegado de Sage.

Lo Más Reciente

¿Por qué los endpoints son el nuevo epicentro del riesgo?

El panorama de la ciberseguridad en México atraviesa una...

Yucatech Festival 2026 rompe paradigmas de la IA y ciberseguridad

Yucatech Festival 2026 exploró temas estratégicos como la inteligencia...

Yucatech Festival 2026: IA ¿aliada o enemiga?

Mérida, Yucatán. En tan solo tres años los ciberataques...

Tecnología y cumplimiento normativo: el nuevo campo de batalla para las empresas en México

En México, el cumplimiento normativo se ha convertido en...

Newsletter

Recibe lo último en noticias e información exclusiva.

José Luis Becerra Pozas
José Luis Becerra Pozashttps://iworld.com.mx
Es Editor de CIO Ediworld México. Contáctalo en jbecerra@ediworld.com.mx o en el twitter @CIOMexico.

¿Por qué los endpoints son el nuevo epicentro del riesgo?

El panorama de la ciberseguridad en México atraviesa una fase crítica donde la transformación digital ha redefinido los puntos de riesgo, desplazando el foco...

Yucatech Festival 2026 rompe paradigmas de la IA y ciberseguridad

Yucatech Festival 2026 exploró temas estratégicos como la inteligencia artificial y ciberseguridad donde destacados divulgadores de YouTube y expertos reconocidos internacionales se encargaron de...

Yucatech Festival 2026: IA ¿aliada o enemiga?

Mérida, Yucatán. En tan solo tres años los ciberataques se han quintuplicado por la inteligencia artificial, mientras que el costo  global que las empresas...