diciembre 03, 2011
Senseye, controla tu smartphone con la mirada
Entrada realizada a las
7:44 a.m.
Hace unos años era toda una novedad que los smartphones incluyesen comandos por voz, algo que era bastante cómodo si, por ejemplo, conectábamos nuestro teléfono a un dispositivo manos libres mientras conducíamos y, aunque no siempre funcionaban bien, era una herramienta útil. Con la llegada del iPhone 4S y su asistente Siri, Apple dio un gran salto en el control de dispositivos móviles sin utilizar las manos, sin embargo, parece que una empresa danesa quiere ir aún más lejos y ha situado el futuro del control de los dispositivos móviles en un plano muy distinto. Para Senseye, que es como se llama la empresa y el producto, el futuro no está en los comandos de voz sino en el manejo de nuestro móvil mirando el terminal y moviendo nuestros ojos.
El equipo que ha desarrollado Senseye decidió aprovechar la cámara frontal existente en muchos dispositivos móviles y utilizarla para capturar el movimiento de los ojos del usuario y, así, controlar algunos aspectos del teléfono, como el envío de mensajes o jugar a juegos, entre otros aspectos, sin tener que estar utilizando las manos para realizar estas tareas.
¿Y cómo se puede manejar un teléfono con la mirada? ¿Qué pasa con las aplicaciones? Precisamente, en las aplicaciones, está el modelo de negocio que han ideado los desarrolladores de Senseye (una idea de negocio que, además, les ha reportado un premio a las mejores ideas que han terminado desarrollándose en forma de un producto con vías a comercializarse). La idea es desarrollar un interfaz que permita a las aplicaciones de terceros ser manejadas de la misma manera, con la mirada, traduciendo los gestos y enviando la entrada adecuada a la aplicación; con tal fin, Senseye pretender licenciar el producto y, así, poder integrarlo en un sistema operativo cualquiera para que otros desarrolladores puedan utilizar su interfaz (y Senseye percibir ingresos por el uso).
Senseye está basado en un trabajo previo de estos desarrolladores, un producto en software libre llamado ITU Gaze Tracker, desarrollado en la Universidad de Copenague, cuyo objetivo era, precisamente, realizar el seguimiento del movimiento de los ojos y que ha servido como base para esta idea de negocio que pretende explorar nuevos interfaces de interacción hombre-máquina.
Aunque el producto aún se encuentra en una fase muy temprana, los desarrolladores han realizado pruebas sobre terminales Android, en los que han sido capaces de controlar un juego con un 90% de éxito en la captura de los movimientos y su traducción a movimientos de los controles o en el teclado. De hecho, mientras trabajan en la integración de Senseye en un terminal en modo ingeniería de un importante fabricante del mercado, esta start-up también está desarrollando un sistema similar con conectividad USB para que pueda integrarse en smartphones y tabletas sin necesidad de una integración a nivel de sistema operativo.
Una manera bastante original de controlar un smartphone.
Suscribirse a:
Comentarios de la entrada (Atom)
No hay comentarios.:
Publicar un comentario