Apple prepara la revolución: los iPhone podrían controlarse pronto con la vista

No sucederá con el próximo iPhone, cuya presentación se espera para el final del verano, pero los de Cupertino ya preparan la que podría ser la próxima gran revolución de uno de sus buques insignias, que cumple sus primeros 10 años de vida. Los iPhone que conforman la flota móvil corporativa de no pocas compañías pronto podrían ser controlados simplemente con la vista.

Al menos, a eso apunta la última adquisición que ha hecho el gigante tecnológico. Se trata de la empresa alemana SensoMotoric Instruments, especializada en el desarrollo tanto de software como de hardware relacionado con la realidad virtual, la realidad aumentada y, sobre todo, el eye tracking (una tecnología que permite el seguimiento ocular).

Aunque no han trascendido los detalles de la compra, lo cierto es que Apple parece estar realmente interesada en dar el salto al mundo de la realidad aumentada de la mano tanto del iPhone como del iPad, tal y como quedó claro en la última WWDC. En dicha conferencia para desarrolladores, los de Cupertino presentaron ARKit, su API para la creación de aplicaciones basadas en esta tecnología que permite mezclar la realidad con mundos virtuales.

De hecho, la propia compañía ya habría desarrollado unas gafas inteligentes que, conectadas de forma inalámbrica con el iPhone, permitirían estar al tanto de algunas notificaciones sin tener que sacar el dispositivo del bolsillo. Además, se podrían llevar a cabo determinadas acciones desde las propias gafas. Todo ello, gracias a la realidad aumentada.

Sin embargo, de los múltiples usos que tiene la realidad aumentada y los muy distintos campos en los que ha investigado SensoMotoric Instruments (desde el reconocimiento de enfermedades o trastornos mentales hasta la mejora del rendimiento visual de deportistas), en lo que más podría estar interesada Apple es en el uso del eye tracking como método de control de los iPhone del futuro.

Si bien la tecnología que permite seguir la mirada de un usuario sobre una pantalla no es precisamente nueva (sin ir más lejos, SensoMotoric Instruments nació en 1991) y el eye tracking se usa desde hace años en materia de usabilidad (por ejemplo, para conocer cuál es el diseño ideal de una página web) lo cierto es que las posibilidades que ofrece a día de hoy son mucho mayores.

Por ejemplo, SensoMotoric Instruments ya ha desarrollado una tecnología que posibilita el seguimiento ocular en las Oculus Rift con la intención no solo de analizar hacia dónde va la mirada de los usuarios, sino también de permitir que una persona pueda controlar con los ojos los distintos menús de cualquier juego a través de las gafas de realidad virtual propiedad de Facebook.

Así, cabe pensar que el futuro de los iPhone pasa por el control de todo lo que sucede en su pantalla simplemente con la mirada. En un principio, este supuesto escenario permitiría acelerar ciertos procesos en cualquier compañía que contara con una flota móvil formada por iPhone controlados por la vista gracias al trabajo de eye tracking de SensoMotoric Instruments.

Por ahora, el gran reto pasa por desarrollar el software necesario sin tener que recurrir a un hardware aparatoso. De hecho, Apple tiene ante sí la posibilidad de hacer que los propietarios controlen sus iPhone con la mirada sin necesidad de gafas especiales ni nada por el estilo: solo recurriendo a la cámara del propio móvil.

De hecho, aprovechando que la calidad de la cámara frontal de los iPhone es cada vez mejor, un grupo de investigadores de distintas universidades del mundo (entre ellas, el prestigioso MIT) han desarrollado un algoritmo capaz de detectar hacia dónde va la mirada de los usuarios recurriendo simplemente a la cámara con la que habitualmente se hacen los selfis.

A través de una aplicación disponible para iPhone llamada GazeCapture, los investigadores recogieron datos sobre cómo miraban la pantalla de sus teléfonos más de 1.000 usuarios. De esta forma, los investigadores pudieron enseñar a un software llamado iTracker a identificar a través de la cámara frontal del iPhone hacia dónde dirigían la mirada los usuarios en cada momento teniendo en cuenta la posición de su cabeza o la dirección hacia la que se dirigen sus ojos.

“Como hay pocas personas con dispositivos externos [necesarios hasta ahora para el eye tracking], no hay grandes incentivos para desarrollar aplicaciones para ello y, como no existen estas aplicaciones, no hay un motivo por el cual la gente compre dispositivos”, expone Aditya Khosla, uno de los responsables del trabajo científico. “Pensamos que debemos romper ese círculo y tratar de hacer un seguimiento del ojo que funcione en un dispositivo móvil, usando solo su cámara frontal”, sentencia.

Y es así, efectivamente, como se abre la posibilidad de que los iPhone del futuro respondan a las miradas de sus propietarios. Quizás mirando a un punto concreto se podrá hacer zoom en la pantalla, mientras que parpadeando puede que se haga scroll o llevando la vista hasta la esquina superior derecha se cierre la aplicación o el navegador en cuestión. En realidad, hay todo un mundo de posibilidades al lograr que la vista interactúe con la cámara del móvil para dominar la pantalla.

El móvil leerá tus deseos

Sin embargo, este puede ser solo el principio. De hecho, el eye tracking combinado con la tecnología del iPhone daría pie a que los teléfonos de Apple dieran el salto a la conocida como computación afectiva: los propios algoritmos no solo serían capaces de identificar hacia dónde miramos, sino que irían más allá para interpretar qué sentimos o deseamos en base a nuestros gestos faciales.

Y todo ello para ofrecernos resultados de búsquedas en base a nuestros deseos, sin que tengamos que abrir la boca. Un software podría identificar nuestros gestos desde la cámara frontal del móvil, el algoritmo analizar qué necesitamos y el asistente virtual de turno proveernos de ello en busca de nuestra felicidad.

De hecho, por mucho que suene a ciencia ficción, lo cierto es que ya hay proyectos basados en el reconocimiento facial que tratan de identificar emociones en los usuarios. Es el caso de Affectiva, una startup nacida del MIT que extrae emociones en base al reconocimiento gestual para realizar estudios de mercado con los que compañías y medios pueden orientar sus campañas.

De una forma u otra, lo cierto es que parece que pronto la comunicación con los iPhone podría cambiar, revolucionando así el uso de los teléfonos corporativos tal y como se entiende hasta la fecha. Nada de tocar la pantalla: mirar los píxeles exactos con los que queremos interactuar será clave para que la cámara del teléfono interprete qué queremos (o incluso qué sentimos).

El equipo de NTS.

Imagen de Gonzalo Baeza.

Show your support

Clapping shows how much you appreciated NTS Solutions’s story.