El Proyecto Soli de Google, presentado oficialmente el año pasado en Google I/O 2015, incluye un sensor y tecnología de radar basada en gestos de las manos. Si bien por ahora esto se encuentra en un estado experimental, en la conferencia para desarrolladores Google I/O 2016, el grupo Advanced Technology and Products de Google (ATAP) por primera vez demostró esta tecnología integrada en dos prototipos de productos para consumidores.
Uno de los productos fue un smartwatch de LG con Android Wear, el cual pueden ver como funciona con esta tecnología en el siguiente GIF animado publicado en Twitter por el grupo ATAP.
Miniature radar. Touchless interactions. Prototyped in a watch. #io16 #ProjectSoli pic.twitter.com/xD2q7Qwjwk
— Google ATAP (@GoogleATAP) May 20, 2016
La segunda demostración la hicieron a través de un altavoz Harman JBL. Con este producto Google demostró que esta tecnología reconoce gestos no solo hechos muy cerca del producto, también a una distancia de varios metros (aproximadamente hasta 15 metros).
Project Soli’s radar tech in a speaker pic.twitter.com/xdDYTb8dyJ
— Karissa Bell (@karissabe) May 20, 2016
Las demostraciones a través de estos prototipos muestran una tecnología que por ser experimental trabaja muy bien.
Todavía falta para que podamos comprar un producto con esta tecnología, pero los adelantos que han dado mejorando algoritmos y el chip necesarios para que esta tecnología funcione, son alentadores. Además Google dijo que en otoño próximo (hemisferio norte) anunciarán cuando estará listo el primer kit para desarrolladores (SDK) lo que también es otro indicio más de que estamos más cerca de ver esta tecnología en la calle.