Puede que no sea necesariamente consciente de ello, pero la Inteligencia Artificial (IA) está trabajando en segundo plano en muchas tareas rutinarias que realizamos todos los días.
El poder de la IA es recopilar y procesar información cuando estamos comprando algo en Amazon, transmitiendo una serie de televisión o planeando unas vacaciones. En un entorno empresarial, puede ayudar a comprender mejor las necesidades de los clientes o automatizar la producción en una fábrica.
Y la razón por la que la IA está tan involucrada en todas estas experiencias es porque es esencialmente un optimizador que puede aprovecharse para mejorar cualquier proceso, en cualquier lugar, haciendo que las experiencias sean más relevantes. Sin embargo, el papel de la IA (y los datos que recopila y procesa) no es transparente para la mayoría de los consumidores.
Y eso ha llevado a llamadas para asegurarnos de que el uso de IA sea ético y responsable. La Unión Europea (UE) está estableciendo un marco regulatorio como parte de ese impulso. En TCS, también hemos comenzado a trabajar en un marco para la IA ética.
Evitando la inercia
Las directrices de la UE hablan sobre el futuro del trabajo, la equidad, la seguridad, la inclusión social y lo que se denomina “transparencia algorítmica”.
Sin embargo, aunque la regulación es sin duda importante, debemos asegurarnos de que la inercia no se establezca.
La gente tiende a pensar que la IA es peligrosa, simplemente porque es nueva. Las empresas también pueden ser bastante conservadoras, especialmente cuando escuchan las discusiones entre la industria y los políticos sobre el gobierno de IA.
Todo esto significa que podríamos estar en peligro de ser demasiado cautelosos y podríamos terminar obstaculizando su potencial.
Debemos asegurarnos de que el panorama político acelere activamente el avance de la IA en lugar de simplemente mantenerse al día.
El combustible de los datos
Los datos son un área donde ya se ha hecho evidente que se necesitan pautas claras para garantizar que se adopte un enfoque ético. Y el Reglamento General de Protección de Datos (GDPR) ha tenido un buen comienzo a este respecto.
Pero, por supuesto, la inteligencia artificial es tan buena como la calidad de los datos disponibles.
En pocas palabras, la IA trabaja en tres etapas distintas: recopila datos, optimiza y aprende, y en última instancia realiza acciones comerciales. Analiza y comprende grandes conjuntos de datos para encontrar los patrones que llevarán a la optimización.
Muchas empresas tienen datos más que suficientes, pero están ocultos en silos. Cuando estos silos se abran a la inteligencia artificial, las empresas serán mucho más efectivas que cuando basan sus procesos de toma de decisiones en suposiciones.
En todos y cada uno de los proyectos de IA, los datos deben recopilarse como combustible para la fase de optimización y aprendizaje. Aquí es donde las cuestiones éticas y las implicaciones legales entran en juego.
La recopilación de datos, su clasificación y verificación deben ser seguras y confiables. Y las políticas para garantizar la calidad, la seguridad y los datos imparciales son, por lo tanto, de importancia crítica.
Dentro de este ciclo de optimización, aprendizaje y re-optimización, debe haber un conjunto de parámetros o reglas para definir cuáles son los resultados deseados. Al mismo tiempo, la IA debe poder proceder con un grado aceptable de precisión para que sea efectiva.
El futuro del trabajo
También hay una dimensión ética cuando se trata de preparar a la fuerza laboral para hacer frente a la próxima ola de cambio.
La industria de servicios financieros es una de las áreas donde estamos viendo la aceptación más significativa de la IA. En Londres, por ejemplo, las máquinas han reemplazado a los humanos cuando se trata de negociar acuerdos y operaciones especulativas.
El cerebro humano sólo tiene una capacidad limitada, pero la IA puede detectar un posible fraude, por ejemplo, al examinar muchas diferencias en múltiples dimensiones.
Dichos cambios conducen a temores justificables sobre mayores pérdidas de empleos y despidos. Pero, de la misma manera que otras tecnologías en el pasado han permitido el crecimiento, la introducción de la IA representa un cambio hacia trabajos más significativos, y creará nuevas ocupaciones que no existían en el pasado.
La IA carece de inteligencia emocional y empatía, ambas entre las habilidades únicamente humanas que son insustituibles. Pero con el fin de optimizar el potencial de la inteligencia artificial para mejorar la rentabilidad, tenemos el deber de capacitar y volver a capacitar a nuestra fuerza laboral.
Cuatro categorías clave de habilidades que necesitamos mejorar: habilidades cognitivas transversales, que incluyen resolución de problemas y comprensión del lenguaje y los números; habilidades creativas; habilidades sociales y situacionales, como el trabajo en equipo y la independencia; y habilidades de precisión, como la destreza manual, que no deben pasarse por alto.
Por lo tanto, un enfoque ético significa garantizar que las personas reciban una nueva capacitación y que se las vuelva a capacitar adecuadamente.
En resumen, necesitamos regulación, pero también necesitamos más incentivos y educación. Y, si queremos evitar la inercia, también debemos asumir cierto grado de riesgo.
Por Göran Karlsson, futurista, socio ejecutivo y desarrollador de negocios en TCS