Un sensor podría, en un futuro, leer gestos y operar dispositivos sin necesidad de tocarlos.

Visualización del radar Soli identificando el movimiento de una mano con ondas de radiofrecuencia

Como salido del universo cinematográfico de Marvel, el Proyecto Soli esboza una promesa por una tecnología de interacción sutil, donde los gestos de su mano podrían ajustar el volumen de su equipo, establecer la hora en su reloj inteligente o – por qué no- ajustar las luces o la temperatura, todo ello sin tocar nada, al mejor estilo de Ironman.  

Una reciente decisión del regulador de telecomunicaciones en EE. UU. habilitó a Google para continuar con el desarrollo de una innovadora tecnología, que permitiría detectar gestos manuales y controlar dispositivos sin necesidad de un contacto físico directo. 

Esta semana, la Comisión Federal de Comunicaciones (FCC) anunció que Google podrá operar en la banda de frecuencia de 57 a 64 GHz para continuar con un desarrollo que «servirá al interés público», el anuncio se refiere al Proyecto Soli, que fue presentado públicamente en 2015.

Google recibe luz verde para seguir con Project Soli

‘Smartphones’: lista la generación 5G

Los principales reparos al proyecto de modernización TIC

Construyen el primer estacionamiento para autos voladores en EE. UU.

No se ve afectado por las condiciones de luz y funciona a través de la mayoría de los materiales. Solo imagine las posibilidades

En un video de su presentación,  Ivan Popurev, líder del Proyecto Soli en Google, explicaba que el sensor es capaz de capturar movimientos en un espacio tridimensional utilizando frecuencias del espectro para detectar movimientos manuales. Se sabe que hasta el momento, el sistema tiene la capacidad de generar experiencias de movimientos submilimétricos con gran precisión, como el presionar un botón invisible entre el pulgar y el índice o el girar un dial virtual al frotar un dedo contra el dedo índice.

Este desarrollo plantea amplias posibilidades de interacción, que podrían simplificar la relación de los usuarios con múltiples dispositivos inteligentes, como sistemas de IoT o ‘wearables’.

Imagine, como lo muestra el video de presentación del proyecto, lograr definir la hora de su reloj solo con un movimiento de los dedos sobre la muñeca. Incluso, yendo ya al terreno de las posibilidades, se podría cambiar la música o contestar una llamada mientras conduce sin necesidad de quitar las manos del volante, o hasta tocar un piano sin hacer mucho más que deslizar sus dedos en el aire.

via GIPHY

El desarrollo también plantea oportunidades para beneficiar a personas con movilidad reducida o dificultades en el habla al simplificar las formas de interactuar con dispositivos inteligentes. 

Como lo dice el mismo proyecto, «Soli no tiene partes móviles, cabe en un chip y consume poca energía. No se ve afectado por las condiciones de luz y funciona a través de la mayoría de los materiales. Solo imagine las posibilidades…»

¿Cómo lo hacen?

 Soli es un sensor que usa un radar para capturar el movimiento de una mano humana. Más técnicamente, es un sistema que emite ondas electromagnéticas en niveles amplios de forma tal que los objetos dentro del rango de la onda dispersan la energía y reflejan una parte de ella hacia una antena del radar.

A la señal que es reflejada se le suma la energía, el tiempo que toma el movimiento y el cambio en la frecuencia, todo lo cual brinda información sobre el objeto y su comportamiento. De esta manera el radar entiende cosas como el tamaño, el material o la forma del objeto, la orientación de la mano, la distancia y la velocidad en la que ocurre el movimiento. También entiende si una mano es más grande que la otra y se mueve de forma diferente. 

Foto del hardware del sensor Soli, que usa un radar integrado que opera en la banda ISM de 60 GHz

Después del mapeo del objeto, Soli es capaz de rastrear y reconoce los gestos de la mano, incluyendo movimientos finos de los dedos. Para lograrlo, Google creó «un nuevo paradigma de detección de radar con hardware, software y algoritmos personalizados».

El proyecto, además, está trabajando en la creación de un «lenguaje de interacción de gestos universal» que le permita a los usuarios, sin importar el tipo de dispositivo, controlar funcionalidades con el mismo conjunto de gestos.

via GIPHY

REDACCIÓN TECNÓSFERA
En Twitter: @TecnosferaET

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Check Also

Día clave para esclarecer el futuro de Neymar

Mercado de fichajes El futbolista brasileño se incorpora hoy al PSG y mantendrá una reunió…