Autor: Jordi Moretón
Google Glass nos proporciona una buena excusa para echar un primer vistazo a lo que se cuece en cuanto a Wearable computing, es decir, aquellos dispositivos que llevamos encima como si fuesen un complemento de ropa (o incorporada a ella): Relojes inteligentes, ropa inteligente, gafas inteligentes, pulseras inteligentes, etc. El Wearable computing es un tema extremadamente interesante puesto que es una clara tendencia de futuro a la que muchos desarrolladores de productos y servicios (de gamificación, gestión del conocimiento u otros) deberán tener en cuenta para sus diseños.
Como podéis ver en la imagen, el concepto de Wearable Computing no es tan nuevo. Steve Mann, del MIT, ha sido uno de sus padres y ya desde los años 80 diseña prototipos funcionales de gafas de realidad aumentada.
Aunque de momento sólo se han distribuido prototipos de Glass (“Explorer Edition”) a desarrolladores y entusiastas a un precio de 1500$, hasta 2014 no llegará al mercado de consumo la versión de usuario, y su precio se estima en unos 300$.
Google Glass es un HMD (head-mounted-display), es decir, un dispositivo que se adosa a la cabeza y genera imágenes directamente en la retina de los ojos. Otros HMD reproducen la imagen en una pantalla cercana a los ojos, como los clásicos cascos de realidad virtual. En ambos casos, estas permiten que percibamos las imágenes como mucho mayores de lo que realmente son, usualmente englobando gran parte del campo de visión. Por obvio que parezca, hay que destacar una de las grandes ventajas de acceder a la información mediante un dispositivo de este tipo: el acceso a la información es hands-free (libera las manos, podemos seguir tomando el café y sujetando el periódico) y eye-free (libera la vista, es decir, podemos seguir mirando el exterior y a la vez leer o visualizar la información).
Google Glass basa la mayoría de sus funciones principalmente en aplicaciones que utilizan realidad aumentada y reconocimiento de voz como forma de interacción con el usuario. Para ayudar al reconocimiento de voz Glass también tiene un touchpad en un lateral que permite una interacción del tipo gestual para utilizar algunas de las funciones de las aplicaciones.
Entre otras características más cuotidianas (acelerómetros, giroscópios, magnetómetros, sensores de luz, cámara, etc.), destacamos las siguientes:
- Bone conduction, o sonido propagado por el esqueleto: Glass transmite el sonido al oído interno a través de un transductor que convierte la señal eléctrica en vibraciones que se propagan por el cráneo (específicamente en la zona llamada apófisis mastoides). El beneficio claro es que no nos aísla del mundo exterior y nos permite seguir escuchando lo que sucede a nuestro alrededor.
- Virtual Retinal Display, o monitor virtual para la proyección de imagen: esta tecnología permite proyectar haces de luz modulados directamente en la retina del usuario para así formar la imagen, que aparece flotando y permanentemente enfocada. Entre sus beneficios se destaca la calidad de la imagen, la ausencia de parpadeo, el amplio campo de visión, el bajo consumo energético y el hecho de que permite seguir mirando al exterior, comparado con un monitor permanentemente encendido delante de los ojos.
- Estándares WPAN (wireless personal área network), WBAN (wireless body area network), WSN (wireless sensor network): se trata de desarrollos de estándares de redes de interconexión de periféricos distribuidos alrededor del usuario, desde la mesa de trabajo, pasando por el bolsillo, y terminando en el cuerpo (dentro!). Dado que Google Glass no es totalmente autónoma y depende del Smartphone que llevamos encima, estos dos periféricos establecen una red WPAN utilizando la tecnología Bluetooth o Wifi.
- Eye tracking, es decir, seguimiento de los ojos: estas tecnologías permiten identificar dónde se ha fijado la mirada. Esta técnica se usa generalmente en análisis de usabilidad, psicología, etc. Google ha patentado recientemente un sistema no intrusivo de eye tracking y detección de dilatación de pupilas que presuntamente está relacionado con Google Glass. El objetivo potencialmente es saber cuándo y cómo el usuario está mirando publicidad (aquella que se proyecta en su retina o incluso aquella que está en carteles físicos por la calle) y, mediante los cambios en las pupilas, determinar la reacción emocional que ha producido dicha publicidad. Y cobrar al anunciante por ello obviamente.
Como veis, son conceptos que traen innovación al espacio de las aplicaciones y los dispositivos que llevamos encima en el día a día y permiten hacer volar la imaginación para desarrollar nuevos proyectos.