Google pone fecha de caducidad al ratón y al teclado
Tan sutil como sentir el vuelo de una mariposa, así funcionan los sensores del Project Soli, la apuesta de Google por la comunicación gestual con las máquinas. Creado en el seno del departamento Google ATAP, promete buscar la fórmula para que los dispositivos que usamos habitualmente reconozcan nuestras órdenes con solo mover las manos.
Soli quiere transformar el modo en el que nos comunicamos con las máquinas. Nada de teclados, nada de ratones y ni siquiera nada de tocar pantallas interactivas, solo gestos. Y, ¿cómo puede funcionar esto? Pues con un nuevo sistema de interacción basado en el radares. Sí, en los radares, como los de tráfico o los que detectan aviones. En realidad no es nada del otro mundo, de nuevo las ondas electromagnéticas son las que toman parte en la conexión midiendo la distancia, la dirección, la altitud e incluso la distancia de nuestras manos con respecto al dispositivo que queremos utilizar.
Si te das cuenta, lo más interesante de este proyecto es que podríamos interactuar con aparatos muy pequeños sin tocarlos y en los que normalmente no es posible acertar con nuestros enormes dedos a la hora de darles una orden concreta. Por lo que el incipiente sector de los weareables es un gran potencial donde enfocar la estrategia del Proyecto Soli.
De esta manera, es posible que en el futuro no necesitemos utilizar el smartphone para comunicarnos con los wearables, tal y como estamos haciendo ahora en los comienzos de la ‘tecnología vestible’, ya que la comunicación con el dispositivo podría ser directa y no con el móvil como puente de unión e interface.
Soli puede emitir y detectar señales muy precisas, detectando unos 10.000 registros por segundo, con lo cual no hay gesto de tus dedos que se le escape. Además es tan pequeño que cabe en un diminuto chip.
Como es costumbre de Google, está pensado ofrecer el proyecto a la comunidad de desarrolladores a través de futuras APIs. Algo que saben por experiencia que se trata de la mejor vía para encontrar nuevas e interesantes funcionalidades a esta singular iniciativa.
El Project Soli se basa en otros anteriores bien conocidos, como el dispositivo Kinect, compañero de batalla de la consola de videojuegos Xbox 360 de Microsoft o el Leap Motion, también una de las primeras iniciativas en cuanto a conexión gestual hombre-máquina.
Si la comunicación gestual ha sido capaz de reducir la brecha con las personas sordas o incluso ha contribuido a investigar la comunicación con primates, ¿qué no podrá hacer con la tecnología actual como apoyo? Iremos viendo, pero parece que es posible que dentro de poco podamos hablar con las máquinas con solo mover un dedo.
Fuente
Soli quiere transformar el modo en el que nos comunicamos con las máquinas. Nada de teclados, nada de ratones y ni siquiera nada de tocar pantallas interactivas, solo gestos. Y, ¿cómo puede funcionar esto? Pues con un nuevo sistema de interacción basado en el radares. Sí, en los radares, como los de tráfico o los que detectan aviones. En realidad no es nada del otro mundo, de nuevo las ondas electromagnéticas son las que toman parte en la conexión midiendo la distancia, la dirección, la altitud e incluso la distancia de nuestras manos con respecto al dispositivo que queremos utilizar.
Si te das cuenta, lo más interesante de este proyecto es que podríamos interactuar con aparatos muy pequeños sin tocarlos y en los que normalmente no es posible acertar con nuestros enormes dedos a la hora de darles una orden concreta. Por lo que el incipiente sector de los weareables es un gran potencial donde enfocar la estrategia del Proyecto Soli.
De esta manera, es posible que en el futuro no necesitemos utilizar el smartphone para comunicarnos con los wearables, tal y como estamos haciendo ahora en los comienzos de la ‘tecnología vestible’, ya que la comunicación con el dispositivo podría ser directa y no con el móvil como puente de unión e interface.
Soli puede emitir y detectar señales muy precisas, detectando unos 10.000 registros por segundo, con lo cual no hay gesto de tus dedos que se le escape. Además es tan pequeño que cabe en un diminuto chip.
Como es costumbre de Google, está pensado ofrecer el proyecto a la comunidad de desarrolladores a través de futuras APIs. Algo que saben por experiencia que se trata de la mejor vía para encontrar nuevas e interesantes funcionalidades a esta singular iniciativa.
El Project Soli se basa en otros anteriores bien conocidos, como el dispositivo Kinect, compañero de batalla de la consola de videojuegos Xbox 360 de Microsoft o el Leap Motion, también una de las primeras iniciativas en cuanto a conexión gestual hombre-máquina.
Si la comunicación gestual ha sido capaz de reducir la brecha con las personas sordas o incluso ha contribuido a investigar la comunicación con primates, ¿qué no podrá hacer con la tecnología actual como apoyo? Iremos viendo, pero parece que es posible que dentro de poco podamos hablar con las máquinas con solo mover un dedo.
Fuente
Comentarios del Post