Expertos del Carnegie Mellon School apuntan a una mayor personalización del lenguaje como clave para hacer más realista la Inteligencia Artificial
Onomatopeyas como “mmm” o “ohhh” pueden parecer una parte insignificante de las conversaciones entre seres humanos, pero en realidad son fundamentales a la hora de mejorar la comunicación entre los humanos y la Inteligencia Artificial (IA). Esto es lo que argumenta Alan Black, profesor del Language Technologies Institute del Carnegie Mellon School de Computer Science, especializado en síntesis del lenguaje y en cómo hacer el lenguaje en la IA suene más real.
Según explicó el propio Black, tanto Siri como Cortana incorporan aspectos de su trabajo aunque en su mayor parte, estas tecnologías aún se reducen a patrones muy básicos: los humanos hablan y las máquinas procesan el discurso y las respuestas. “No interactúan como los seres humanos”, explicó Black. “Es una forma poco natural de interacción”. La clave para hacer estas conversaciones más reales está en las pausas, los rellenos, las risas o incluso la habilidad del interlocutor de anticiparse y completar las frases del otro… aspectos que ayudan a construir una relación de confianza.
“Reírse es parte de la comunicación”, indicó Black, “las máquinas no lo hacen, si lo hicieran, sería increíblemente espeluznante, aunque en realidad sería lo que deberían hacer”. Por eso, Black y sus estudiantes están trabajando en esas áreas. “Son necesarias esas vacilaciones y eso es algo que nuestros sintentizadores de lenguaje están lejos de poder conseguir”, aseguró el experto. “Si un sistema no es capaz de decir un “ajá”, seguirá sonando como un robot”. Las tecnología que utilizan voces sintéticas utilizan conversaciones grabadas por humanos “en una habitación, leyendo frases”, y es precisamente por eso por lo que “suenan aburridas”.
Hacia la personalización
Junto con sus estudiantes, Black está experimentando con voces grabadas en un diálogo, incluso esas que cuando sólo has capturado y utilizado una parte, está claro han intervenido dos interlocutores. La idea es modelar e incorporar las variaciones de las respuestas humanas en lugar de utilizar siempre la misma respuesta. “De lo contrario, a las personas no les parecerá real”. En última instancia, una buena Inteligencia Artificial también deberá tener sus propios puntos de vista sobre ciertos temas, como por ejemplo, a qué candidato deberíamos apoyar o no en una carrera política, sin decir nada ofensivo. “En un nivel superior, el problema estaría en la personalización”, aseguró. “Puede parecer espeluznante pero también apropiado y es importante para ganarse la confianza. Hay que construir elementos que se acerquen a lo que los humanos esperan y hacer que sea fácil mantener esa conversación”.
De cara al futuro, otro de los problemas será cómo hacer que la gente enseñe a sus dispositivos a hacer cosas nuevas. Ahora existe tecnologías como Siri y Cortana que ofrecen una interacción básica pero el próximo desafío, según Black, será que las personas acudan en primer lugar a la Inteligencia Artificial en busca de respuestas.
A algunos usuarios les da vergüenza hablar con sus teléfonos pero se sienten bien hablando, por ejemplo, con Amazon Echo porque lo único que tienen que hacer es hablar alto en sus propias casas. “Para la gente es diferente”, explicó el profesor del Language Technologies Institute de la Carnegie Mellon School de Computer Science, “está en la habitación contigo”.
-IDG.es