Imagine la posibilidad de controlar las computadoras y otras máquinas físicas con sus ondas cerebrales. Este es el futuro de la interacción hombre-máquina, de acuerdo con los investigadores y empresarios que estuvieron presentes en el escenario principal del VMworld de San Francisco.
La primera muestra fue SixthSense, una “interfaz gestual” creada por Pranav Mistry, del MIT Media Lab´s Fluid Interfaces Group, consiste en un vestido con un pequeño proyector, un espejo y una cámara alrededor del cuello (o en un casco), y unos marcadores de colores en los dedos. El prototipo permite al usuario proyectar una computadora sobre una pared para revisar el correo electrónico y navegar por la red de forma similar a cómo funciona un iPad, excepto que los gestos pueden hacerse en el aire sin tocar una pantalla.
En una demostración en video en el VMworld se pudo ver cómo se utiliza esta tecnología para tomar fotos con sus manos, un teclado de marcación telefónica en la palma de la mano, aumentar el tamaño de los periódicos, jugar a un juego de carreras en un pedazo de papel u obtener las actualizaciones digitales de un vuelo proyectado sobre un billete de avión. Hasta se puede “copiar y pegar” un texto de un libro de papel colocándolo en la pantalla del ordenador personal, que pasa a estar en cualquier lugar que se desee.
Mistry dijo que los dispositivos actuales son demasiado restrictivos, y que la gente debería ser capaz de interactuar con la información que normalmente está encerrada dentro de los ordenadores a través de gestos humanos de la vida cotidiana.
Por otro lado, Tan Le, co-fundador y presidente de Emotiv Systems, mostró una tecnología con una interfaz “computadora-cerebro” que proporciona al usuario un kit manos libres que permite el control de sistemas electrónicos mediante ondas cerebrales. Aunque está la venta a un precio de 300 dólares, según señalaron, sólo es la parte más superficial de lo que es posible con esta tecnología hoy en día.
Para hacer la prueba, tomaron como conejillo de indias a Stephen Herrod, CTO de VMware, que con el auricular de Emotiv, que permite a los usuarios manipular objetos en una pantalla con solo pensar, fue capaz de “levantar” un cuadro virtual después de una breve sesión de entrenamiento en el que la computadora supervisa sus ondas cerebrales para determinar qué hace cuando está en reposo y cuando se está pensando en la manipulación de un objeto.