Si hay una ciencia que brilló la semana pasada durante la celebración del Google I/O 2017 –evento para desarrolladores realizado por la compañía–, esa es la inteligencia artificial. De hecho, todavía está fresco el lanzamiento de Google Lens, la plataforma que aprovecha esta tecnología para identificar objetos a través de las cámaras de los smartphones.
Durante las demostraciones se pudo ver cómo Google Lens era capaz no sólo de identificar una flor, sino también su especie y cómo podía acceder a una red inalámbrica con anotar los códigos de barras del router. Finalmente, también mostró habilidades para reconocer negocios y establecimientos valiéndose de Google Maps.
El veredicto de la opinión pública es claro: se trata de una herramienta brillante y divertida. Sin embargo, parece que la empresa no supo transmitir las claves de Lens toda vez que ha sido asumido como un nuevo juguete para los teléfonos inteligentes más que un instrumento de productividad.
Lo cierto es que gracias a las técnicas de machine learning que está implementando esta nueva plataforma ahora es posible crear múltiples sensores diferentes utilizando un solo software real: la cámara.
Ésta funciona como una suerte de supersensor de uso general con sensores virtuales basados en software y alimentados con inteligencia artificial.
Hace ya unos años se hizo popular la expresión un “mundo de billones de sensores” en los círculos TI. Los expertos imaginaban un futuro con miles de millones de dispositivos diminutos con antenas y baterías. Nada más lejos de la realidad, sobre todo con la llegada de machine learning y de aplicaciones como esta. Pues en lugar de diferentes sensores con un solo propósito instalados en todas nuestras cosas, tendremos supersensores de propósito general cuyos datos serán utilizados para otros virtuales.
Aprovechando estas posibilidades, investigadores de la Universidad Carnegie Mellon (CMU) han desarrollado un sensor (financiado en su mayor parte por Google) por el que cualquier pequeño dispositivo puede funcionar como un sensor general capaz de conectar y desplegar cualquier aplicación de detección de sonido, vibración, luz, actividad electromagnética y temperatura. Por el momento no incluye cámara, aunque podría tenerla en un futuro.
Según un video difundido por la propia universidad, el sensor ya ha sido probado en distintos ecosistemas como fábricas, oficinas, hogares o cuartos de baño.
Por ejemplo, en esta última localización mantuvo un registro durante cierto tiempo de cuántos rollos de papel se utilizaron basándose en el sonido producido por el dispensador. Con esta misma técnica se podrían controlar otras variables, como el gasto de agua.
En este sentido, la revolución no sería la capacidad de supervisión, sino la capacidad de instalar un sensor por el que pasen todas las detecciones futuras sin involucrar más dispositivos. Esto nos lleva a escenarios donde sería posible comprar un hardware barato que se conectara, por ejemplo, a una pared y pudiera controlar a la vez el equipo, la seguridad, el inventario y el personal de una empresa. Google ya dio el primer paso.
-Mike Elgan, Computerworld