La Inteligencia Artificial responsable consiste en cuatro principios que aseguran que la IA sea segura, confiable e imparcial, además de robusta, explicable, ética y auditable. En esta entrega detallamos los primeros dos principios.
En la actualidad, la tecnologÃa de Inteligencia Artificial (IA) se encuentra detrás de las decisiones que afectan profundamente a todas las personas. Aunque esto representa grandes oportunidades, también aumenta los riesgos.
Esta situación ha dado lugar a un mayor enfoque en la práctica de la IA responsable, que implica cumplir una serie de principios y normas de desarrollo de modelos de IA corporativos para operativizar implementaciones de IA que produzcan resultados de negocio de alto impacto dentro de fronteras éticas y legales importantes. Se trata de la IA explicable, la IA ética, la IA robusta y la IA auditable. Para explicar a profundidad cada uno de estos principios, en este artÃculo nos enfocaremos en los primeros dos de ellos, y la semana entrante los dos siguientes.
Principio 1: IA explicable
Las redes neuronales y otros métodos de machine learning pueden hallar relaciones no lineales complejas en los datos, lo que conduce a una gran capacidad predictiva –que es uno de los componentes de la IA–. Pero, aunque las ecuaciones matemáticas de los algoritmos de machine learning de “caja negra” suelen ser sencillas, a menudo es difÃcil derivar una interpretación humanamente comprensible de las soluciones que generan. La capacidad explicativa del modelo debe ser el objetivo principal en las implementaciones de la IA responsable.
La capacidad explicativa del modelo se enfoca en ofrecer una interpretación humanamente comprensible de las caracterÃsticas latentes que los modelos de machine learning aprenden, asà como en el momento de la puntuación, cuando los clientes se ven afectados por el machine learning dentro del sistema de toma de decisiones de la IA en general.
Una IA explicable debe facilitar que los humanos respondan a preguntas importantes, tales como:
• ¿El modelo se desarrolló de forma adecuada?
• ¿Una relación podrÃa atribuir imparcialidad?
• ¿Cuáles son los riesgos de utilizar el modelo de IA?
• ¿Cuándo o en qué circunstancias se degrada el modelo de IA?
La última pregunta ilustra el concepto de la IA humilde, donde los cientÃficos de datos determinan la aptitud del desempeño de un modelo en situaciones diversas, o en circunstancias en las que no funcionará, como cuando hay baja densidad en los datos históricos de entrenamiento.
Necesitamos entender mejor los modelos de IA porque, cuando utilizamos las puntuaciones que un modelo produce, asumimos que éstas son igualmente válidas para todos los clientes y todos los escenarios de puntuación, y éste no siempre es el caso. Esta situación puede llevar fácilmente a que se tomen decisiones importantes basadas en una cobertura de información imperfecta en los modelos de IA. La capacidad explicativa es fundamental.
Especialmente en los entornos cambiantes, las caracterÃsticas latentes deben revisarse continuamente para detectar posibles sesgos. En FICO, hemos desarrollado una técnica de machine learning llamada caracterÃsticas latentes interpretables para ayudar a superar este desafÃo, ya que aumenta la transparencia y la responsabilidad. Utilizar la IA de manera responsable es saber cuándo un modelo no es eficaz o incluso podrÃa ser perjudicial.
Principio 2: IA ética
El machine learning identifica relaciones entre los datos para ajustarse a una función objetivo especÃfica (o meta). Con frecuencia, formará proxies para las entradas evitadas, y estos pueden mostrar sesgos. Desde el punto de vista de un cientÃfico de datos, la IA ética se logra al tomar precauciones para exponer lo que el modelo subyacente de machine learning ha aprendido como caracterÃsticas latentes, y evaluar si éstas pudieran atribuir sesgos.
Un proceso de desarrollo riguroso, en conjunto con la visibilidad de las caracterÃsticas latentes, ayuda a garantizar que los modelos analÃticos funcionen de manera ética. Las caracterÃsticas latentes deben revisarse continuamente para identificar sesgos en los entornos cambiantes.
Los modelos de IA ética deben evaluarse y los sesgos deben eliminarse. Las arquitecturas de machine learning interpretables permiten extraer las relaciones no lineales que suelen estar ocultas en el funcionamiento interno de la mayorÃa de los modelos de machine learning. La participación humana en el proceso garantiza que se supervise el funcionamiento de estas caracterÃsticas latentes, que se conduzcan pruebas especÃficas de sesgos en las caracterÃsticas latentes entre diferentes grupos y que se implementen metodologÃas para prohibir los sesgos atribuidos detectados y el reajuste de los modelos de machine learning. Es fundamental recordar constantemente que los datos en los que se entrenó el modelo de IA por lo general están implÃcitamente llenos de sesgos sociales.
Consideremos estas preguntas importantes:
• ¿Cómo logra su compañÃa una IA ética?
• ¿Qué tecnologÃas de IA tienen permitido utilizar en su organización y cómo se probarán para asegurar que sean adecuadas para el mercado?
• ¿Actualmente supervisan cada modelo de IA? De ser asÃ, ¿qué es lo que supervisan?
• ¿Cuáles son los umbrales predefinidos para indicar que un determinado modelo de IA debe dejar de usarse?
• ¿Su organización es consistentemente ética con su IA?
• ¿Su compañÃa ha colocado algunos modelos bajo el paraguas de la IA responsable (debido a que están regulados y, por lo tanto, son de alto riesgo), mientras que otros simplemente no se desarrollan con base en el estándar de IA responsable? ¿Cómo se establecen esas lÃneas divisorias?
• ¿Hay ocasiones en que es aceptable no ser responsable en el desarrollo de la IA? De ser asÃ, ¿cuándo?
Al desarrollar modelos de IA ética, el sesgo y la discriminación se evalúan y eliminan, y deben reevaluarse continuamente una vez que el modelo esté en operación. Un proceso de desarrollo riguroso, aunado a la visibilidad de las caracterÃsticas latentes, ayuda a garantizar que los modelos analÃticos funcionen de manera ética. Las caracterÃsticas latentes deben revisarse continuamente para identificar cambios en el sesgo. Continuaré exponiendo los otros dos principios en una próxima entrega.
___________________
El autor de este artÃculo, Scott Zoldi, es Director de AnalÃtica (CAO) de FICO.
