El desarrollador de inteligencia artificial (IA) Jagadish K. Mahendran y su equipo del Instituto para la Inteligencia Artificial de la Universidad de Georgia diseñaron una mochila con tecnología de inteligencia artificial, activada por voz, que puede ayudar a las personas que viven con alguna discapacidad visual a navegar y percibir el mundo que los rodea.
La mochila ayuda a detectar los desafíos comunes como letreros de tráfico, obstáculos suspendidos, cruces peatonales, objetos en movimiento y elevaciones cambiantes, todo mientras se ejecuta en un dispositivo interactivo de bajo consumo de energía.
“El año pasado, cuando me reuní con un amigo que vive con una discapacidad visual, me impresionó enormemente la ironía de que mientras yo enseño a robots a ver, hay mucha gente que no puede ver y necesita ayuda. Esto me motivó a construir el sistema de asistencia visual con el kit de inteligencia artificial con profundidad (OAK-D) de OpenCV, impulsado por Intel”, dijo Jagadish K. Mahendran.
De acuerdo con la Organización Mundial de la Salud, a nivel mundial 285 millones de personas viven con discapacidad visual. Por el momento, los sistemas de asistencia visual para navegación son bastante limitados y oscilan de aplicaciones de smartphones asistidas por voz, basadas en el Sistema de Posicionamiento Global (GPS), a soluciones de bastones inteligentes activados por cámara. Estos sistemas carecen de la percepción de profundidad necesaria para facilitar la navegación independiente.
¿Cómo funciona esta mochila? El sistema está alojado dentro de una pequeña mochila que contiene una unidad de cómputo central, parecida a una computadora portátil. En un chaleco se encuentra oculta una cámara, y en una cangurera contiene una batería tamaño bolsillo, capaz de proporcionar aproximadamente ocho horas de uso. Se puede añadir una cámara de inteligencia artificial espacial Luxonis OAK-D al chaleco o la cangurera, y después conectarla a la unidad de cómputo de la mochila. Tres pequeños agujeros en el chaleco sirven como ventanas de visualización para la OAK-D, que está colocada en el interior del chaleco.
La unidad OAK-D es un dispositivo de inteligencia artificial versátil que se ejecuta en la VPU Intel Movidius y el kit de herramientas Intel Distribution of OpenVINO para inferencia de inteligencia artificial de edge en chip. Tiene la capacidad de ejecutar redes neuronales avanzadas mientras proporciona funciones de visión por computador acelerada y un mapa de profundidad en tiempo real desde su par estereofónico, así como información de color desde una sola cámara 4k.
Un auricular habilitado por Bluetooth permite que el usuario interactúe con el sistema a través de consultas y comandos de voz, y el sistema responde con información verbal. A medida que el usuario se desplaza en su entorno, el sistema transmite audiblemente información sobre los obstáculos comunes, que incluyen letreros, ramas de árboles y peatones. También advierte sobre cruces peatonales, banquetas, escaleras y vías de acceso próximos.