Los asistentes de voz están muy presentes en el control de los edificios inteligentes. Aunque sean sistemas compatibles con múltiples dispositivos, no significa que sean accesibles a todas las personas, ya que aquellas que son mudas no pueden utilizar estos asistentes virtuales. Sin embargo, este panorama podría cambiar si sale adelante el Proyecto Soli de Google.
El objetivo principal de esta iniciativa es conseguir la interacción con los aparatos IoT de los edificios inteligentes a través de diversos gestos universales con la mano. Con este sistema se conseguiría introducir la accesibilidad en diferentes espacios.
Gracias a su compacto tamaño, este sensor puede incorporarse en cualquier aparato IoT doméstico, e incluso, en móviles, automóviles o portátiles, entre otros. Las ventajas que ofrece, como la ausencia de partes móviles, su bajo consumo de energía, su funcionamiento continuo independientemente de las condiciones de iluminación, y el amplio rango de materiales desde los que puede transmitir la señal, hacen que el Proyecto Soli propicie un sistema muy versátil para poder aumentar su implementación en el día a día.
Para accionar cualquier dispositivo inteligente con la mano, el equipo de desarrolladores ha creado un sensor, al que han llamado Soli, que posee unas dimensiones de 8 mm x 10 mm de tamaño. Funciona con la emisión de ondas electromagnéticas con un gran espectro de la señal, y posee un rendimiento sin la necesidad de consumir un gran ancho de banda ni una alta resolución espacial. Es más, ese rango espacial que usa es un poco superior al que ofrecen las interacciones gestuales de la mano.
Los creadores del proyecto se vieron en la necesidad de generar un nuevo radar, compuesto de tres elementos: un hardware, un software y diferentes algoritmos personalizados. La interacción de todos ellos permite generar las órdenes para la ejecución de las acciones a través de la detección, comprensión y transformación de los gestos.
Funcionamiento del sensor Soli
Para obtener un reconocimiento de los movimientos de la mano, era importante la creación de una base de datos denominada tubería de reconocimientos de gestos generalizada. Esta tubería proporciona una referencia de las acciones para que el sistema pueda interpretar la actividad monitorizada. Los desarrolladores tuvieron en cuenta que no todas las personas realizan los gestos de la misma manera, sino que existen ligeras variaciones. Por esta razón, tuvieron que integrar en la tubería funciones y aprendizajes básicos para que el sistema vaya aprendiendo de cada uno de los movimientos de los diferentes usuarios.
El sensor comienza a recopilar información cuando detecta que se está produciendo una interacción y sigue los movimientos de la mano, al tiempo que calcula la probabilidad de gestos que pueden producirse para obtener una mayor eficiencia en las acciones. El sensor tiene la capacidad de identificar los gestos a una velocidad de 100 a 10.000 cuadros por segundo. Los datos se procesan para configurar una interpretación de la acción que el usuario está ordenando.
Sus creadores han abierto su sistema, a través de un desarrollo del software (SDK), para que otros profesionales puedan acceder y generar nuevas aplicaciones o funcionalidades a la tubería de reconocimientos de gestos de Google y aumentar las posibilidades de interacción.
Gestos admitidos y reconocidos
El equipo de desarrolladores ha tenido muy en cuenta los gestos cotidianos que lleva a cabo una persona a la hora de controlar un dispositivo analógico. Para captar el movimiento exacto, el sensor dispone de dos arquitecturas de modulación: la primera es un radar de onda continua de frecuencia modulada (FMCW) y el segundo, se trata de un radar de espectro de propagación de secuencia directa (DSSS). El trabajo que realizan ambos chips, junto con varias antenas de formación de haz que permiten el seguimiento, consiguen captar los movimientos a través de imágenes 3D. De esta forma, se obtiene mucha más precisión en la transmisión e interpretación de los datos que se envía a la tubería de reconocimiento de gestos.
Así se consigue que con simples movimientos recreados por el dedo índice y pulgar puedan controlarse desde equipos de música, hasta la iluminación o la climatización, entre otros. Es posible accionar un sistema de audio realizando la acción de presionar un botón, se puede regular el volumen de la música rozando el dedo índice con el pulgar o deslizarse para conseguir la intensidad lumínica de una estancia.
Frecuencia de operación
El Proyecto Soli se paralizó durante una temporada a consecuencia del uso del ancho de banda. Al usar ondas, se requiere de unas frecuencias específicas, y se debía esperar a la resolución de la Comisión Federal de Comunicaciones de los Estados Unidos.
Finalmente, el 31 de diciembre de 2018 este organismo se pronunció y dio su visto bueno al proyecto, proporcionando al equipo de Soli un rango de frecuencia para trabajar. Se trata de las frecuencias comprendidas entre 57-64 GHz. Actualmente, los desarrolladores han optado por trabajar con la frecuencia de 60 GHz, que hasta el momento les está dando buenos resultados. Asimismo, la Comisión ha matizado que la potencia de la señal tendrá una salida máxima de +13 dBm EIRP, una potencia conducida de hasta +10 dBm y una densidad espectral de potencia de +13 dBm / MHz.
Pero el citado organismo también ha hecho mención sobre las limitaciones de uso del sensor. Tendrá autorización para las aplicaciones como sensores pasivos en el Servicio de Exploración de la Tierra de Satélites (EESS) y el Servicio de Radio de Astronomía (RAS). Además, incluyen los dispositivos que incorporan operaciones Wi-Fi de 60 GHZ (WiGig), así como otras de 60 GHz de dispositivos de corto alcance de punto a punto.
En cuanto a las restricciones, no es de extrañar que haya sido el uso aéreo de 60 GHz, ya que en ese mismo espectro se utilizan dispositivos que trabajan en la misma frecuencia y podrían provocar interferencias importantes, a excepción de si estuvieran en un circuito cerrado.