Contenido Exclusivo

Inteligencia Artificial, ¿un recurso para combatir la discriminación?

La “equidad” es un concepto complicado de abordar en el mundo de los negocios, pero frente a eso, la Inteligencia Artificial (IA) constituye un recurso que podría usarse para niveles de bondad sin precedentes a medida que las empresas buscan liberarse de la discriminación.

Pero retrocedamos un poco: siempre que se miran los datos, rápidamente se descubre que las decisiones humanas son intrínsecamente injustas. Eso no quiere decir correcto o incorrecto, porque a menudo es subjetivo, aunque literalmente injusto. Esto se debe a que el mundo en el que vivimos está desequilibrado; y los datos que reflejan ese mundo se vuelven sesgados en su naturaleza. ¿Deberían los ricos pagar impuestos más altos? Muchos dirían que “sí”, que es justo. ¿Le cobrarías más a ese mismo rico por un trozo de pan? La idea de un gasto proporcional a los ingresos ya se vuelve inconsistente, y tal vez eso sea injusto en sí mismo.

Ahora aplique esa noción a la IA: un sistema en el que los datos se introducen en una máquina para que ese algoritmo derive las decisiones resultantes para que los humanos actúen con mayor precisión de la que podrían lograr ellos mismos.

Si los datos que se alimentan están contaminados por sesgos históricos, eso es lo que se utilizará para tomar decisiones futuras. Ese ciclo no sólo continuará, sino que se exacerbará hasta un grado sin precedentes.

Tomemos los patrones de contratación, por ejemplo. El género y la raza son los parámetros clásicos que la mayoría de las empresas buscan equilibrar y hacer “justos”. Pero los datos y sesgos históricos desvían el objetivo previsto de la IA, por lo que se debe tomar una decisión humana sobre qué información introducir en el algoritmo.

Sin orientación hacia la equidad, el Aprendizaje Automático (Machine Learning o ML) aún puede descubrir a los mejores candidatos, pero no hay garantía de que se adhiera a una cuota o aborde la discriminación si sólo se basa en pruebas discriminatorias para tomar sus decisiones.

Algunos ejemplos en donde la IA se dejó a sus propios dispositivos enfatizan la batalla ética de la que hablamos:

  • Se ha descubierto que la tecnología de reconocimiento facial funciona mucho mejor para los blancos que para otras razas (y los hombres mejor que las mujeres) porque se probó y se entrenó principalmente en estadounidenses blancos. En China, con los productos locales, sucede lo contrario: los rostros europeos son más difíciles de identificar.
  • En el lado de género, Amazon fue desafiada por sus procesos de selección, que se encontraron más basados ​​en los hombres como consecuencia de confiar en data histórica (con decisiones injustas).

Estos resultados fueron inicialmente sorprendentes, pero al menos se identificó el problema. La comunidad de IA tomó esto como una oportunidad para desarrollar mejores algoritmos que puedan aprender decisiones justas a partir de datos injustos. Muchas empresas ahora se preocupan por utilizar datos de formación más equilibrados. Es un paso en la dirección correcta, aunque todavía queda trabajo por hacer.

¿Quién decide qué es justo?

Las empresas necesitan armar la IA con los datos correctos. Necesita el conjunto de instrucciones más éticas, que elimine los prejuicios humanos y las deficiencias históricas, de modo que se pueda lograr el equilibrio en un grado óptimo.

La buena noticia es que los algoritmos y las “instrucciones” son relativamente fáciles de adaptar. La tecnología está ahí, lista y esperando para eliminar la discriminación.

Pero… ¿quién decide lo que es justo?

No sólo debe establecer qué es “correcto”, sino que luego debe cuantificarlo de una manera que pueda ser calculada por los tipos de sistemas que creamos.

¿Debería haber el mismo número de profesores de TI hombres que de mujeres, incluso si hay cinco veces el número de hombres que estudian TI? ¿Puede retroceder más y deducir que a las mujeres no se les dio tanta oportunidad o estímulo para buscar TI y decidir que en realidad es justo abordar ese equilibrio más adelante?

Por el contrario, la medicina en Alemania está compuesta por dos tercios de mujeres. Pero la electroingeniería se divide en un 72% y 28% en la otra dirección. Entonces, ¿es justo aprovechar las oportunidades de 50 a 50 cuando se trata de contratar, o la instrucción de IA debería reflejar esa diferencia potencialmente social?

Cuando se trata de la empresa, la equidad social es una red de complejidad, y primero debe establecer lo que evalúa como ético para lograr esos objetivos.

Un “arma afilada” para empuñar

Cuando se hayan elaborado las pautas éticas, la IA se convertirá en un revolucionario cambio de juego. Es la razón por la que dos países europeos llevaron el tema a la mesa (en la primera conferencia franco-alemana de Inteligencia Artificial, AIXIA).

Es importante tomar la decisión sobre lo que es justo y luego introducirlo en una máquina que funcionará con precisión contra esas definiciones de justicia. Podría ser un gran nivelador para algunas de las discriminaciones más flagrantes observadas en áreas de recursos humanos, brechas salariales, etc.

Por supuesto, si una noción contenciosa o incluso injusta se carga en ML, ese status quo discriminatorio o poco ético se agravaría. Pero cuando se usa para bien, tenemos un “arma afilada” en nuestras manos, hecha de datos y algoritmos que pueden deshacer los desequilibrios culturales, históricos y sociales en las industrias de una manera mucho más acelerada de lo que podríamos hacer cumplir sin esta tecnología.

La razón de su potencial es simple: elimina los mismos prejuicios e influencias humanas que crearon tales desigualdades en primer lugar.

La IA trabaja con datos. Y mientras los datos que se prestan a estos algoritmos se afilen con buenas intenciones, entonces tenemos un “arma” muy poderosa que esgrimir en la lucha contra la discriminación. Los recientes incidentes discriminatorios y las protestas mundiales en su contra muestran cuán necesaria es tal “arma”.

Michael Feindt, consultor estratégico de Blue Yonder.

Lo Más Reciente

La digitalización ofrece mejoras en la gestión de casos en el sector público

Los factores macroeconómicos globales y locales que cambian rápidamente,...

Cómo impulsar el crecimiento de las empresas en la era de la IA

La inteligencia artificial está revolucionando los negocios. Sin embargo,...

Realizan el segundo Foro de Talento en Data Centers

La Asociación Mexicana de Data Centers, MEXDC, realizó el...

Newsletter

Recibe lo último en noticias e información exclusiva.

La digitalización ofrece mejoras en la gestión de casos en el sector público

Los factores macroeconómicos globales y locales que cambian rápidamente, siguen ejerciendo una presión cada vez mayor sobre el sector público de México. El gobierno...

Cómo impulsar el crecimiento de las empresas en la era de la IA

La inteligencia artificial está revolucionando los negocios. Sin embargo, muy pocos empresarios están adaptando sus empresas a este contexto, para lograr un crecimiento. Para...

Chivas Rayadas del Guadalajara consigue gestionar sus activos de TI de manera más eficiente

El Club Deportivo Guadalajara es uno de los más importantes en México. Con más de 500 colaboradores, requería herramientas para auditar su parque informático,...