Aunque los wearables aún no hayan explotado en el mercado, Google sigue empeñada en hacerlos cada vez más completos. Para ello su equipo ATAP (la división de proyectos y tecnologías avanzadas) ha aprovechado el marco de la Google I/O 2015, en la que hoy siguen celebrándose sesiones interesantes, para presentar Project Soli, un sistema que se encarga de desterrar el control físico de los dispositivos en favor del manejo por gestos.

Para ello, Project Soli hace uso de un radar capaz de capturar los movimientos de nuestras manos, que serán traducidos en acciones tras reconocer, con una gran precisión, el propio movimiento en sí, su velocidad y la distancia -parámetro este último que se puede programar. Ivan Poupyrev, fundador del programa e integrante de ATAP, indica que la idea es crear así un vocabulario de gestos con la mano, que servirán para interactuar por ejemplo con nuestro smartwatch (de la misma forma que ahora lo hacemos de hecho con algunos teléfonos móviles que ofrecen soporte similar).  


El chip Soli trabaja dentro del espectro a 60 GHz y es capaz de registrar hasta 10.000 imágenes por segundo. El modelo final contará con todo lo necesario (incluidas las antenas) para su directa implementación en el wearable de turno y podrá ser producido a escala.

¿Cuándo llegará a nuestras vidas? Esa es la gran pregunta. El equipo de trabajo de Project Soli aún se encuentra terminándolo y su información no será liberada para los desarrolladores hasta final de año. Eso significa que aún podríamos tardar un poco hasta que podamos verlo en los smartwatches de moda -o cualquier otro dispositivo, ya que las posibilidades se antojan infinitas. Mientras tanto al menos no te pierdas el prometedor vídeo que tienes a continuación.


Publicar un comentario

Con la tecnología de Blogger.