Investigadores del Instituto de Tecnología de Georgia, en Estados Unidos, y de otros centros académicos internacionales, han desarrollado un dispositivo que permite gestionar accesorios y prótesis únicamente con los pensamientos. De esta manera, el usuario puede imaginar una acción y controlar de forma inalámbrica una silla de ruedas o un brazo robótico, por ejemplo.
El equipo integra electrodos de microagujas imperceptibles con circuitos inalámbricos, garantizando una actividad no invasiva y mucho menos incómoda para el usuario que otros sistemas similares, que requieren cables o cascos. El nuevo dispositivo podría ser muy útil para mejorar la calidad de vida de las personas discapacitadas.
Para concretar los resultados buscados, los especialistas unieron la electrónica inalámbrica aplicada al cuero cabelludo con la realidad virtual, diseñando una interfaz cerebro-ordenador que puede leer los pensamientos del usuario y transformarlos en acciones físicas específicas.
Pensamientos y acciones
La innovación se ha hecho realidad a partir de la profundización en el concepto de interfaz cerebro-ordenador, pero unido a la electroencefalografía (EEG) y otras técnicas similares. El propósito es detectar la intención de movimiento de cada usuario analizando las señales cerebrales producidas en las áreas corticales, por ejemplo a través de la electroencefalografía.
La actividad cortical es básica para desarrollar cualquier acción: al pensar en hacer algo, las áreas sensoriales y motoras de la corteza cerebral se activan de inmediato. Incluso se ha comprobado que antes de tomar la decisión de llevar adelante una acción ya es posible registrar actividad en la corteza cerebral.
Hasta el momento, los sistemas destinados a «traducir» esas señales y convertirlas en acciones se enfrentan con varios problemas. Por ejemplo, se deben emplear geles para preservar el contacto con la piel, una condición que entorpece la tarea y quita comodidad.
Al mismo tiempo, se registran «ruidos» en las señales captadas, producidos por el desgaste de los materiales o por acciones tan comunes como parpadear. Dichas interferencias atentan contra la precisión de los datos cerebrales que deben analizarse y, en última instancia, desembocan en errores en los dispositivos.
Tema relacionado: Robots sensibles como auxiliares de salud.
Un avance que mejora la calidad de vida
De acuerdo a las conclusiones del estudio que sirve de base para esta innovación, publicado en la revista Advanced Science, la nueva tecnología logra superar varias de esas dificultades gracias al enfoque inalámbrico que se ha elegido. Según una nota de prensa, la eliminación de cables y otros accesorios físicos incrementa la efectividad en la «traducción» de las señales cerebrales y aumenta el confort durante el uso del equipo.
Además, el dispositivo utiliza un algoritmo de aprendizaje automático y un sistema de realidad virtual para potenciar aún más la decodificación de las señales cerebrales que permite convertir los pensamientos en acciones. Hasta el momento, el nuevo sistema se probó con éxito en distintos voluntarios sin discapacidades: ahora, los científicos buscarán adaptarlo a la realidad de las personas discapacitadas.
Los expertos destacaron también la importancia de la introducción de la realidad virtual: los usuarios lograron un control preciso de los ejercicios virtuales utilizando únicamente sus pensamientos o imágenes motoras. Al mismo tiempo, las señales visuales mejoran el proceso al momento de recopilar información.
En un futuro cercano, los investigadores creen que al optimizar la colocación de electrodos y mejorar la integración del electroencefalograma basado en estímulos, el nuevo sistema estará listo para convertirse en un inmejorable aliado para las personas con diferentes discapacidades, que podrán así mejorar notablemente su calidad de vida.
Referencia
Wireless Soft Scalp Electronics and Virtual Reality System for Motor Imagery-Based Brain–Machine Interfaces. Musa Mahmood, Shinjae Kwon, Hojoong Kim, Yun-Soung Kim, Panote Siriaraya, Jeongmoon Choi, Boris Otkhmezuri, Kyowon Kang, Ki Jun Yu, Young C. Jang, Chee Siang Ang and Woon-Hong Yeo. Advanced Science (2021).DOI:https://doi.org/10.1002/advs.202101129