Un grupo de investigadores de la Universidad de Jaén, junto con las universidades de Ingeniería y Tecnología de Lima–UTEC (Perú), Essex (Reino Unido) y Nantong (China), ha desarrollado un sistema capaz de leer las señales cerebrales para que las personas afectadas por un ictus puedan interaccionar con una vivienda inteligente. Los investigadores trabajan con lo que se conoce como interfaces cerebro-computadora: dispositivos que analizan la actividad del cerebro y detectan estados mentales del usuario en tiempo real.
Para ello, se ha desarrollado un modelo que combina el electroencefalograma no invasivo, a través de la captación de las ondas cerebrales con un casco con electrodos que se coloca en la cabeza, sin necesidad de ningún tipo de cirugía, que cuenta con arquitecturas de inteligencia artificial para el procesamiento de la señal.
El casco con electrodos registra las ondas cerebrales de muy escasa amplitud, que pasan por un amplificador para digitalizarlas, y son procesadas por el ordenador, transformando esos pensamientos en órdenes operativas, como seleccionar una letra en un teclado virtual o encender un interruptor. Todo este proceso se desarrolla ejecutando mentalmente una acción, como imaginar seleccionar las letras de una palabra que luego se ejecuta.
Este sistema tiene una efectividad en la decodificación que roza en algunos casos el 100% en un entorno natural, es decir, fuera de un contexto controlado, como un laboratorio de neurociencia. Asimismo, el modelo se probó en seis sujetos sanos y en tres que habían sufrido un accidente cerebrovascular.
Aprendizaje profundo y lógica difusa
A pesar de ser una tecnología no invasiva para el usuario, este sistema tiene muchas interferencias o ruido en la señal al aplicarse directamente en el cuero cabelludo, además del sonido no deseado del ambiente, al estar en un entorno natural y no en un laboratorio. Para reducir estas fuentes de ruido y aumentar la precisión del modelo, los investigadores incorporaron dos arquitecturas basadas en inteligencia artificial: el aprendizaje profundo y la lógica difusa.
El primero imita las características estructurales del sistema nervioso humano, donde existen áreas del cerebro especializadas en tareas como el lenguaje o el reconocimiento facial. En este caso, la máquina permite aprender mediante redes neuronales especializadas en la detección de ciertas características ocultas de los datos.
Sin embargo, estas redes neuronales son muy sensibles al ruido, tanto de las interferencias del propio casco aplicado al cuero cabelludo como del ambiente. Por ello, los investigadores añadieron aprendizaje difuso, que ayuda a la red neuronal a aprender de estos patrones, pero omitiendo el ruido.
Esta nueva arquitectura actúa como una especie de parche, para que la red neuronal sea más robusta frente al ruido ambiental. La combinación de estas técnicas aumenta hasta el 98,6% la fiabilidad del sistema para decodificar este tipo de estímulos cerebrales.
La siguiente fase del estudio se centrará en usar interfaces más simples, donde el usuario no tenga que pensar en pulsar un botón o una letra, sino que el interfaz actúe directamente con los pensamientos imaginarios, sin ninguna tableta o código dado, sólo decodificando lo que el usuario imagina.