Con los nuevos avances en Inteligencia Artificial (IA) se está produciendo un aumento en torno a preocupaciones éticas como, por ejemplo, el sesgo algorítmico o la equidad y transparencia de los resultados.
Las preocupaciones alrededor del uso ético de la IA son especialmente importantes en el sector financiero dada la sensibilidad de la información que recopilan las entidades. No cabe duda de que la evolución hacia una integración ética de la IA en el mundo de las finanzas es un gran desafío para la industria, tanto desde un punto de vista técnico como desde el punto de vista de las inversiones necesarias para ello, por lo que es vital entender la importancia de la ética en el sector financiero y convertirlo en un asunto prioritario.
Teniendo esto en cuenta, ¿por dónde deberían empezar las entidades financieras a la hora de abordar los problemas del uso ético de la IA?
El primer paso es reconocer y tener en cuenta cuestiones como el sesgo, la fiabilidad de los algoritmos, la preocupación por la equidad de los resultados y la falta de transparencia al diseñar e implementar una estrategia utilizando el análisis de datos y la IA.
En este sentido, la estrategia debe crearse dentro un marco que incorpore acciones tácticas, relacionadas con los sistemas y algoritmos de la IA, la administración, la sociedad y organización.
Algoritmos y sistemas de Inteligencia Artificial
El rápido desarrollo de esta tecnología en los últimos años, ha hecho que la capacidad de la IA para transformar procesos y generar nuevos modelos de negocios, servicios y experiencias, crezca de forma exponencial. Las instituciones financieras que quieren mantenerse al día con respecto a las necesidades del mercado llevan años incorporando nuevas tecnologías como el aprendizaje automático, el cual les ayuda a mejorar su proceso de toma de decisiones debido a su capacidad para procesar grandes cantidades de datos.
Pero, ¿cómo puede una entidad financiera implementar unas directrices éticas compatibles con cada paso de este elaborado proceso? Hemos identificado cuatro factores clave que ayudan a las empresas en el desafío de la implantación ética de la IA:
- Transparencia: La explicabilidad es particularmente importante para desarrollar e implementar modelos éticos, ya que permiten entender cómo los algoritmos han alcanzado un resultado determinado. La trazabilidad es otro factor clave, porque exige que todos los datos que se recogen y procesan estén documentados. Esto es fundamental para reducir las preocupaciones éticas, ya que permite rastrear hasta el origen la información que pueda tener un impacto en la exclusión financiera de grupos específicos.
- Equidad: Cualquier tecnología de Inteligencia Artificial debe garantizar que los procesos de toma de decisiones no estén influenciados por ningún tipo de sesgo. Para reducir el riesgo, cualquier sistema de IA ético debe tener en cuenta varios aspectos, como el hecho de que los datos son representativos y se pueden generalizar, o que el diseño no incluirá variables, rasgos o estructuras que no posean la justificación adecuada.
- Seguridad: cuando se implementan tecnologías de Inteligencia artificial, deben contar con modelos internos de seguridad que protejan a las entidades de ciberataques. Establecer protocolos de seguridad adecuados es de suma importancia para mantener la integridad del sistema en circunstancias desfavorables.
- Privacidad: La protección de datos personales suele ser el núcleo de cualquier problemática de carácter ético relacionada con la IA. Se puede abordar desde diferentes puntos de vista (técnico, de investigación, regulatorio), pero el denominador común es la obligación de preservar la protección y la seguridad de los datos personales.
Gobierno de la IA
El objetivo del gobierno de la IA es integrar el marco ético que guía los principios y los valores para su gestión dentro de las organizaciones. La supervisión humana es clave a la hora de aportar valor y confianza en el sistema de IA. En un modelo ideal, conocido como Interacción entre el Hombre y la Máquina (Human Machine Interaction) o IA Aumentada, la toma de decisiones se realiza mediante la combinación de la perspectiva humana y recomendaciones automatizadas. En este sentido, es posible establecer una clasificación acorde al grado de intervención humana.
La organización
Los consumidores, así como los trabajadores, son cada vez más conscientes del nivel de compromiso de las empresas en materia de principios éticos. Por tanto, la dirección está obligada a realizar una labor de concienciación dentro de la organización sobre la importancia de la integración ética de la IA, así como priorizar la creación de soluciones que anticipen los problemas derivados de las prácticas poco éticas. Es necesario crear una estructura que apoye estos valores y los integre dentro de la cultura de la empresa.
La sociedad
La IA ética debe servir a los intereses de la comunidad y generar beneficios tangibles a largo plazo. Desde que la pandemia de la COVID desató el pánico a nivel mundial, nos enfrentamos a un nuevo escenario en el que la realidad de millones de personas ha cambiado de forma radical.
Las instituciones financieras deben adaptarse a nuevas formas de evaluar riesgos, personalizando sus pilares en la toma de decisiones acorde a los nuevos contextos sociales y las necesidades crediticias. Ahora, las organizaciones tienen la responsabilidad de llevar a cabo los principios éticos de la IA, utilizando esta nueva tecnología para el beneficio general de la sociedad.
____________________
El autor de este artículo, Marc Garay, es Global Head of Treasury & Capital Markets en everis.