Dado que Google Glass puede medir -por documentos de patentes- la mirada (movimiento de los ojos) y el interés (tamaño de la pupila), ¿qué desafíos y oportunidades se abren?

Solo algunas oportunidades:
1. Mejor detección de línea de visión (LOS) (ser capaz de apuntar a los objetos simplemente mirándolos)
2. Detección de fatiga mientras conduce
3. Comandos de gesto del alumno

Los seguidores de los alumnos se utilizan en los sistemas modernos de aviación militar desde hace algún tiempo. Permiten una precisión adicional en la detección de dónde exactamente está mirando el piloto, en comparación con sistemas más antiguos que solo pueden detectar hacia dónde apunta la cabeza del piloto. La aplicación de tales tecnologías a Google Glass debería ser factible desde una perspectiva técnica.
Entonces, una persona que use tal dispositivo podría mirar algo y Glass sabría exactamente las coordenadas (o vector de rotación) de ese objeto sin que la persona tenga que mover su cabeza exactamente en la dirección del objeto.
Posibles aplicaciones:

  • Tomando una imagen ampliada de la cara de una persona específica simplemente mirándolo (aislando a la persona de su entorno)
  • Tomando una foto de video de un ave voladora (la copa actual solo puede capturar al ave con un zoom gran angular)
  • Obteniendo información sobre ese edificio específico que estoy viendo (filtrando las otras cosas que generalmente están en la dirección que estoy viendo)
  • Comandos de gestor de alumnos: operan varios dispositivos (teléfonos inteligentes u otros) simplemente parpadeando o mirando hacia la izquierda / derecha (pueden ser útiles para personas con discapacidad pero no solo)

En cuanto al tamaño de la pupila y / o la detección de parpadeo, esto podría usarse para detectar la fatiga mientras se conduce y emitir una alerta / sonido en caso de que el conductor se esté quedando dormido.

Los desafios:
La versión actual de Glass ofrece detección de vector de rotación, pero la precisión y la estabilización no son lo suficientemente precisas para la ubicación exacta de las indicaciones gráficas (o viceversa – detección precisa de la ubicación del objeto) en el mundo real. Se espera que esto mejore a medida que la calidad de los sensores aumenta con el tiempo. Además, la pantalla de cristal no está centrada en el campo de visión del ojo, lo que hace que sea un poco aplicable para aplicaciones de realidad aumentada.

La detección de la orientación y el parpadeo de la pupila requiere una cámara adicional apuntando al ojo y al software / algoritmos de reconocimiento de imágenes. Esto no es trivial pero definitivamente factible.

Se puede considerar como una nueva interfaz para interactuar con todas las aplicaciones. Ya no tienes que tener una conversación incómoda con tu vaso, sino que simplemente usas tu ojo para realizar tareas. El primer caso de uso simple ya ha sido presentado y patentado por Google. Google ha obtenido una patente que podría permitir a los usuarios de Google Glass desbloquear la pantalla mediante el seguimiento ocular: http://mashable.com/2013/06/04/g