Ser capaz de decodificar las ondas cerebrales podría ayudar a los pacientes que han perdido la capacidad de hablar a comunicarse nuevamente y, en última instancia, podría proporcionar formas novedosas para que los humanos interactúen con las computadoras. Ahora, los investigadores de Meta han demostrado que pueden saber qué palabras está escuchando alguien usando grabaciones de escáneres cerebrales no invasivos.
Nuestra capacidad para sondear la actividad del cerebro humano ha mejorado significativamente en las últimas décadas a medida que los científicos han desarrollado una variedad de tecnologías de interfaz cerebro-computadora (BCI) que pueden proporcionar una ventana a nuestros pensamientos e intenciones.
Los resultados más impresionantes provienen de dispositivos de grabación invasivos, que implantan electrodos directamente en la materia gris del cerebro , combinados con IA que puede aprender a interpretar señales cerebrales. En los últimos años, esto ha hecho posible decodificar oraciones completas de la actividad neuronal de alguien con un 97 por ciento de precisión y traducir intentos de movimientos de escritura a mano directamente en texto a velocidades comparables a los mensajes de texto.
Pero tener que implantar electrodos en el cerebro de alguien tiene desventajas obvias. Estos procedimientos riesgosos solo son médicamente justificables para pacientes que requieren un registro cerebral para ayudar a resolver otros problemas médicos, como la epilepsia. Y las sondas neuronales se degradan con el tiempo, lo que plantea la posibilidad de tener que reemplazarlas regularmente.
Es por eso que los investigadores de la división de investigación de IA de Meta decidieron investigar si podrían lograr objetivos similares sin requerir una cirugía cerebral peligrosa . En un artículo publicado en el servidor de preimpresión arXiv , el equipo informó que han desarrollado un sistema de inteligencia artificial que puede predecir qué palabras está escuchando alguien en función de la actividad cerebral registrada mediante interfaces cerebro-computadora no invasivas .
” Obviamente, es extremadamente invasivo colocar un electrodo dentro del cerebro de alguien”, dijo a TIME Jean Remi King, científica investigadora del Laboratorio de Investigación de Inteligencia Artificial de Facebook (FAIR) . “ Así que queríamos intentar usar registros no invasivos de la actividad cerebral. Y el objetivo era construir un sistema de inteligencia artificial que pueda decodificar las respuestas cerebrales a las historias habladas”.
Los investigadores se basaron en cuatro conjuntos de datos de actividad cerebral preexistentes recopilados de 169 personas mientras escuchaban grabaciones de personas hablando. Cada voluntario fue registrado mediante magnetoencefalografía (MEG) o electroencefalografía (EEG), que utilizan diferentes tipos de sensores para captar la actividad eléctrica del cerebro desde el exterior del cráneo.
Su enfoque implicaba dividir el cerebro y los datos de audio en fragmentos de tres segundos de duración y alimentarlos a una red neuronal que luego buscaba patrones que pudieran conectar los dos. Después de entrenar a la IA con muchas horas de estos datos, la probaron con datos nunca antes vistos.
El sistema se desempeñó mejor en uno de los conjuntos de datos MEG, donde logró una precisión del 72,5 % entre los 10 primeros. Eso significa que cuando clasificó las 10 palabras con la mayor probabilidad de estar vinculadas al segmento de ondas cerebrales, la palabra correcta estuvo allí el 72,5 por ciento de las veces.
Puede que no suene muy bien, pero es importante recordar que se estaba seleccionando de un vocabulario potencial de 793 palabras . El sistema obtuvo una puntuación del 67,2 por ciento en el otro conjunto de datos MEG, pero le fue menos bien en los conjuntos de datos EEG, obteniendo precisiones entre los 10 primeros de solo 31,4 y 19,1.
Claramente, esto todavía está muy lejos de ser un sistema práctico, pero representa un progreso significativo en un problema difícil. Los BCI no invasivos tienen una relación señal-ruido mucho peor, por lo que descifrar la actividad neuronal de esta manera es un desafío, pero si tiene éxito, podría resultar en una tecnología de aplicación mucho más amplia.
Sin embargo, no todos están convencidos de que sea un problema solucionable. Thomas Knopfel, del Imperial College London, le dijo a New Scientist que tratar de sondear los pensamientos usando estos enfoques no invasivos era como ” tratar de transmitir una película HD a través de módems telefónicos analógicos antiguos”, y cuestionó si tales enfoques alguna vez alcanzarán niveles prácticos de precisión.
Compañías como Neuralink de Elon Musk también están apostando a que eventualmente superaremos nuestra aprensión en torno a los enfoques invasivos a medida que la tecnología mejore, abriendo la puerta a que la gente común obtenga implantes cerebrales.
Pero la investigación del equipo de Meta se encuentra en etapas muy tempranas y hay mucho margen para mejoras. Y las oportunidades comerciales para cualquiera que pueda descifrar el escaneo cerebral no invasivo probablemente proporcionarán mucha motivación para intentarlo.
Crédito de la imagen: Dung Tran de Pixabay
Gent, E. (2022, 12 septiembre). Meta Built an AI That Can Guess the Words You’re Hearing by Decoding Your Brainwaves. Singularity Hub. Recuperado 28 de septiembre de 2022, de https://singularityhub.com/2022/09/13/meta-built-an-ai-that-can-guess-the-words-youre-hearing-by-decoding-your-brainwaves/