Contenido Exclusivo

Ética para la Inteligencia Artificial, bajo el control de los seres humanos

Las máquinas no son capaces de determinar qué es “bueno” o “malo”. Por el contrario, esa responsabilidad siempre debe mantenerse en los seres humanos que las usan, crean y programan, a fin de que sus acciones automatizadas para cumplir con alguna o varias tareas, siempre se ejecuten bajo un marco ético regulatorio.

Precisamente, este es uno de los temas que ha creado un gran debate en torno a la robótica: con el avance de la tecnología, ¿llegará el punto en que estos artefactos tengan la capacidad de determinar su propio marco ético?

Pero, ¿qué son los robots desde esta perspectiva? Se los considera “computadoras con la capacidad de percibir, analizar y actuar”, además de que tienen una “corporización” física en el mundo real y cierto nivel de autonomía. Es decir, algo muy cercano a lo que hemos leído o visto en los relatos o cintas de ciencia ficción que los ilustran como máquinas inteligentes.

Al servicio de la humanidad

La discusión sobre qué puede ser ético para estos aparatos lleva 80 años. Las tres leyes de la robótica de Isaac Asimov (uno de los autores de ciencia ficción y divulgación científica más destacados) son bien conocidas por los aficionados a los relatos futuristas. Mediante sus postulados –redactados en 1942– se iniciaron los esfuerzos por establecer la convivencia entre las máquinas y los seres humanos:

  • Un robot no dañará a una persona; o, por inacción, no permitirá que sufra daño.
  • Un robot obedecerá las órdenes que le sean dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la primera ley.
  • Un robot protegerá su propia existencia siempre que dicha protección no entre en conflicto con la primera o la segunda ley.

A ocho décadas de estos enunciados, los primeros indicios de intentos de regulación comienzan a hacer su aparición. El año pasado, el Ministerio de Ciencia y Tecnología de China publicó un código ético que pretende regular los modelos de Inteligencia Artificial (IA) existentes o en desarrollo. De esta forma, la nación asiática dio un paso adelante en línea con su estrategia de liderar esta tecnología. Por su parte, Europa tenía un prototipo de reglamento cuyo objetivo era establecer lineamientos para el desarrollo de una Inteligencia Artificial confiable.

La guía del país oriental prioriza el “pleno poder de decisión” de los humanos respecto a las máquinas, muy en línea con las leyes de la robótica de Asimov.

De acuerdo con el periódico The South China Morning Post, el documento elaborado por el gobierno chino “Especificaciones Éticas para Inteligencias Artificiales de Nueva Generación” propone “asegurarse que la IA siempre esté bajo el control de los seres humanos” y que éstos tengan “pleno poder de decisión” sobre ésta.

El postulado describe seis principios básicos para los sistemas de IA, incluida la garantía de que sean “controlables y confiables”. A su vez, los otros puntos abarcan el uso de recursos digitales para:

  • Mejorar el bienestar humano.
  • Promover la equidad, la transparencia y la justicia.
  • Proteger la privacidad y la seguridad.
  • Aumentar la educación ética.

Otro punto para destacar es que los usuarios tendrán todo el derecho de aceptar o rechazar el servicio de una IA, al mismo tiempo que podrán detener las interacciones con este tipo de sistemas cuando lo deseen.

Cambios obvios

En lo inmediato, esta disposición responde a la necesidad de establecer un marco regulatorio para los algoritmos de recomendación de contenido de Internet, basados plenamente en IA, con los cuales es posible segmentar la publicidad que aparece en buscadores y mails.

Como empresa que impulsa la transformación digital y la innovación, entendemos que esta reglamentación es parte de la evolución hacia un desarrollo y comercialización más responsable de la tecnología en todo el mundo.

Por supuesto, mientras nuevas o mejores soluciones digitales aparezcan, será necesario tener regulaciones más precisas en torno a cómo las compañías utilizan modelos como el de la IA o la automatización en general.

Así, mientras estos temas se debaten, las empresas de todos los sectores deberán preocuparse por entender cuáles son las reglas que especifican el uso de este tipo de tecnología y cómo impactan en la relación con sus clientes y en la sociedad en general.

Como suele ocurrir con la mayoría de las tendencias, seguramente pronto América Latina comenzará a revisar y regular la ética de la IA. Con el tiempo lo descubriremos. 

Rodrigo Ramele, ingeniero en Innovación y Tecnologías Emergentes de Baufest.

Lo Más Reciente

La digitalización ofrece mejoras en la gestión de casos en el sector público

Los factores macroeconómicos globales y locales que cambian rápidamente,...

Cómo impulsar el crecimiento de las empresas en la era de la IA

La inteligencia artificial está revolucionando los negocios. Sin embargo,...

Realizan el segundo Foro de Talento en Data Centers

La Asociación Mexicana de Data Centers, MEXDC, realizó el...

Newsletter

Recibe lo último en noticias e información exclusiva.

La digitalización ofrece mejoras en la gestión de casos en el sector público

Los factores macroeconómicos globales y locales que cambian rápidamente, siguen ejerciendo una presión cada vez mayor sobre el sector público de México. El gobierno...

Cómo impulsar el crecimiento de las empresas en la era de la IA

La inteligencia artificial está revolucionando los negocios. Sin embargo, muy pocos empresarios están adaptando sus empresas a este contexto, para lograr un crecimiento. Para...

Chivas Rayadas del Guadalajara consigue gestionar sus activos de TI de manera más eficiente

El Club Deportivo Guadalajara es uno de los más importantes en México. Con más de 500 colaboradores, requería herramientas para auditar su parque informático,...