La Inteligencia Artificial responsable consiste en cuatro principios que aseguran que la IA sea segura, confiable e imparcial, además de robusta, explicable, ética y auditable. En esta entrega detallamos los primeros dos principios.
En la actualidad, la tecnología de Inteligencia Artificial (IA) se encuentra detrás de las decisiones que afectan profundamente a todas las personas. Aunque esto representa grandes oportunidades, también aumenta los riesgos.
Esta situación ha dado lugar a un mayor enfoque en la práctica de la IA responsable, que implica cumplir una serie de principios y normas de desarrollo de modelos de IA corporativos para operativizar implementaciones de IA que produzcan resultados de negocio de alto impacto dentro de fronteras éticas y legales importantes. Se trata de la IA explicable, la IA ética, la IA robusta y la IA auditable. Para explicar a profundidad cada uno de estos principios, en este artículo nos enfocaremos en los primeros dos de ellos, y la semana entrante los dos siguientes.
Principio 1: IA explicable
Las redes neuronales y otros métodos de machine learning pueden hallar relaciones no lineales complejas en los datos, lo que conduce a una gran capacidad predictiva –que es uno de los componentes de la IA–. Pero, aunque las ecuaciones matemáticas de los algoritmos de machine learning de “caja negra” suelen ser sencillas, a menudo es difícil derivar una interpretación humanamente comprensible de las soluciones que generan. La capacidad explicativa del modelo debe ser el objetivo principal en las implementaciones de la IA responsable.
La capacidad explicativa del modelo se enfoca en ofrecer una interpretación humanamente comprensible de las características latentes que los modelos de machine learning aprenden, así como en el momento de la puntuación, cuando los clientes se ven afectados por el machine learning dentro del sistema de toma de decisiones de la IA en general.
Una IA explicable debe facilitar que los humanos respondan a preguntas importantes, tales como:
• ¿El modelo se desarrolló de forma adecuada?
• ¿Una relación podría atribuir imparcialidad?
• ¿Cuáles son los riesgos de utilizar el modelo de IA?
• ¿Cuándo o en qué circunstancias se degrada el modelo de IA?
La última pregunta ilustra el concepto de la IA humilde, donde los científicos de datos determinan la aptitud del desempeño de un modelo en situaciones diversas, o en circunstancias en las que no funcionará, como cuando hay baja densidad en los datos históricos de entrenamiento.
Necesitamos entender mejor los modelos de IA porque, cuando utilizamos las puntuaciones que un modelo produce, asumimos que éstas son igualmente válidas para todos los clientes y todos los escenarios de puntuación, y éste no siempre es el caso. Esta situación puede llevar fácilmente a que se tomen decisiones importantes basadas en una cobertura de información imperfecta en los modelos de IA. La capacidad explicativa es fundamental.
Especialmente en los entornos cambiantes, las características latentes deben revisarse continuamente para detectar posibles sesgos. En FICO, hemos desarrollado una técnica de machine learning llamada características latentes interpretables para ayudar a superar este desafío, ya que aumenta la transparencia y la responsabilidad. Utilizar la IA de manera responsable es saber cuándo un modelo no es eficaz o incluso podría ser perjudicial.
Principio 2: IA ética
El machine learning identifica relaciones entre los datos para ajustarse a una función objetivo específica (o meta). Con frecuencia, formará proxies para las entradas evitadas, y estos pueden mostrar sesgos. Desde el punto de vista de un científico de datos, la IA ética se logra al tomar precauciones para exponer lo que el modelo subyacente de machine learning ha aprendido como características latentes, y evaluar si éstas pudieran atribuir sesgos.
Un proceso de desarrollo riguroso, en conjunto con la visibilidad de las características latentes, ayuda a garantizar que los modelos analíticos funcionen de manera ética. Las características latentes deben revisarse continuamente para identificar sesgos en los entornos cambiantes.
Los modelos de IA ética deben evaluarse y los sesgos deben eliminarse. Las arquitecturas de machine learning interpretables permiten extraer las relaciones no lineales que suelen estar ocultas en el funcionamiento interno de la mayoría de los modelos de machine learning. La participación humana en el proceso garantiza que se supervise el funcionamiento de estas características latentes, que se conduzcan pruebas específicas de sesgos en las características latentes entre diferentes grupos y que se implementen metodologías para prohibir los sesgos atribuidos detectados y el reajuste de los modelos de machine learning. Es fundamental recordar constantemente que los datos en los que se entrenó el modelo de IA por lo general están implícitamente llenos de sesgos sociales.
Consideremos estas preguntas importantes:
• ¿Cómo logra su compañía una IA ética?
• ¿Qué tecnologías de IA tienen permitido utilizar en su organización y cómo se probarán para asegurar que sean adecuadas para el mercado?
• ¿Actualmente supervisan cada modelo de IA? De ser así, ¿qué es lo que supervisan?
• ¿Cuáles son los umbrales predefinidos para indicar que un determinado modelo de IA debe dejar de usarse?
• ¿Su organización es consistentemente ética con su IA?
• ¿Su compañía ha colocado algunos modelos bajo el paraguas de la IA responsable (debido a que están regulados y, por lo tanto, son de alto riesgo), mientras que otros simplemente no se desarrollan con base en el estándar de IA responsable? ¿Cómo se establecen esas líneas divisorias?
• ¿Hay ocasiones en que es aceptable no ser responsable en el desarrollo de la IA? De ser así, ¿cuándo?
Al desarrollar modelos de IA ética, el sesgo y la discriminación se evalúan y eliminan, y deben reevaluarse continuamente una vez que el modelo esté en operación. Un proceso de desarrollo riguroso, aunado a la visibilidad de las características latentes, ayuda a garantizar que los modelos analíticos funcionen de manera ética. Las características latentes deben revisarse continuamente para identificar cambios en el sesgo. Continuaré exponiendo los otros dos principios en una próxima entrega.
___________________
El autor de este artículo, Scott Zoldi, es Director de Analítica (CAO) de FICO.