La realidad en materia de IA (Inteligencia Artificial) ya comienza a superar la ficción más inquietante basada en la tecnología, como la que se muestra en series tan populares como Black Mirror o Years and Years. La IA ya es capaz de reconocer datos invisibles, es decir, los que están fuera de distribución o son datos sustancialmente diferentes de los datos vistos durante el entrenamiento de IA (ODD), que se desvían de los datos de entrenamiento originales, de manera que replica en gran medida el funcionamiento del cerebro humano.
El importante hito en lo que a mejoras en la precisión de los modelos de IA se refiere se ha conseguido gracias a la iniciativa conjunta de la multinacional tecnológica japonesa Fujitsu Limited y el Centro para cerebros, mentes y máquinas (CBMM) con sede en el Instituto de Tecnología de Massachusetts (MIT), de Boston.
Según acaban de hacer público a través de la publicación de un reciente artículo presentado el pasado 8 de diciembre de 2021 en la prestigiosa Conferencia sobre Sistemas de Procesamiento de Información Neuronal (NeurIPS 2021), este importante avance tecnológico tendrá grandes aplicaciones futuras, como el desarrollo de IA para monitorear el tráfico, ya que puede responder mejor a los cambios en diversas condiciones de observación, o el desarrollo de una IA de diagnóstico por imágenes médicas que puede reconocer correctamente diferentes tipos de lesiones.
La clave está en cómo se realiza el entrenamiento de la DNN (la Red Neuronal Profunda o DNN es un tipo de aprendizaje automático que imita la forma en la que el cerebro aprende, de manera que aprende de la misma forma en que lo hace el cerebro humano, a través de la práctica y de cometer errores). La novedad que ofrece esta tecnología es que hasta el momento se asumía que se debía entrenar el DNN como un solo módulo sin dividirlo, pero los investigadores de Fujitsu y CBMM han logrado una mayor precisión de reconocimiento al dividir el DNN en módulos separados basados en colores, formas y otros atributos de los objetos, lo que ha supuesto un enfoque único inspirado en las características cognitivas de la estructura del cerebro humano.
El modelo de IA más preciso
Un modelo de IA que utiliza este proceso fue calificado como el más preciso en una evaluación que mide la precisión del reconocimiento de imágenes en comparación con el punto de referencia “CLEVR-CoGenT” (un punto de referencia desarrollado por la Universidad de Stanford para medir la capacidad de una IA para reconocer nuevas combinaciones de objetos y atributos), como se muestra en el documento presentado por el grupo en NeurIPS.
Este modelo de IA responde a los resultados de la investigación realizada que se ha centrado en que el cerebro humano pueda capturar y clasificar con precisión la información visual incluso si existen diferencias en las formas y colores de los objetos que percibimos. El nuevo método calcula un índice único basado en la forma en que las neuronas perciben un objeto y en cómo el DNN clasifica las imágenes de entrada. Es decir, que ya no bastará con entrenar al DNN para conseguir la mayor precisión de una IA. Su división en módulos por bloques de información (formas, colores, etc ) proporcionará una precisión del reconocimiento exponencialmente mayor a la lograda hasta el momento.
Con este importante avance y con la promesa de futuro tanto por parte de Fujitsu como de la CBMM, que esperan refinar aún más los hallazgos para desarrollar una IA capaz de emitir juicios flexibles similares a los humanos con el objetivo de aplicarlos en diversas áreas como la fabricación y la atención médica, da la impresión de que cada vez queda menos para que la IA, aunque desarrollada por los humanos, consiga aprender “demasiado” por ella misma y llegue a pensar con mayor clarividencia que mucho ejemplares de nuestra especie.
-Marian Álvarez Macías, IDG.es