El cerebro humano sigue siendo el órgano más misterioso de nuestro cuerpo. Desde la memoria y la conciencia hasta las enfermedades mentales y los trastornos neurológicos, quedan volúmenes de investigación y estudio por hacer antes de que comprendamos las complejidades de nuestras propias mentes. Pero hasta cierto punto, los investigadores han logrado aprovechar nuestros pensamientos y sentimientos, ya sea captando aproximadamente el contenido de nuestros sueños , observando el impacto de la psilocibina en las redes cerebrales interrumpidas por la depresión o siendo capaces de predecir qué tipo de rostros encontraremos. atractivo _
Un estudio publicado a principios de este año describió una hazaña similar de decodificación de la actividad cerebral. Ian Daly , un investigador de la Universidad de Sussex en Inglaterra, usó escáneres cerebrales para predecir qué pieza musical estaba escuchando la gente con un 72 por ciento de precisión. Daly describió su trabajo, que utilizó dos formas diferentes de “decodificadores neuronales”, en un artículo en Nature .
Mientras los participantes en su estudio escuchaban música, Daly registró su actividad cerebral mediante electroencefalografía (EEG), que utiliza una red de electrodos y cables para captar las señales eléctricas de las neuronas que se disparan en el cerebro, y resonancia magnética funcional (fMRI ) . , que muestra los cambios en la oxigenación y el flujo de la sangre que se producen en respuesta a la actividad neuronal.
EEG y fMRI tienen fuerzas opuestas: el primero puede registrar la actividad cerebral durante períodos cortos de tiempo, pero solo desde la superficie del cerebro, ya que los electrodos se colocan en el cuero cabelludo. Este último puede capturar la actividad más profunda en el cerebro, pero solo durante períodos de tiempo más largos. Usar ambos le dio a Daly lo mejor de ambos mundos.
Supervisó las regiones del cerebro que tenían una alta actividad durante las pruebas con música frente a las pruebas sin música, identificando la corteza auditiva izquierda y derecha, el cerebelo y el hipocampo como las regiones críticas para escuchar música y tener una respuesta emocional a ella, aunque él señaló que había mucha variación entre los diferentes participantes en términos de la actividad en cada región. Esto tiene sentido, ya que una persona puede tener una respuesta emocional a una determinada pieza musical mientras que otra encuentra aburrida la misma pieza.
Usando EEG y fMRI, Daly registró la actividad cerebral de 18 personas mientras escuchaban 36 canciones diferentes. Introdujo los datos de actividad cerebral en una red neuronal profunda bidireccional a largo plazo a corto plazo (biLSTM), creando un modelo que podía reconstruir la música escuchada por los participantes usando su EEG.
Un biLSTM es un tipo de red neuronal recurrente que se usa comúnmente para aplicaciones de procesamiento de lenguaje natural. Agrega una capa adicional a una red de memoria regular a largo-corto plazo, y esa capa adicional invierte su flujo de información y permite que la secuencia de entrada fluya hacia atrás. Por lo tanto, la entrada de la red fluye tanto hacia adelante como hacia atrás (de ahí la pieza “bidireccional”), y es capaz de utilizar información de ambos lados. Esto lo convierte en una buena herramienta para modelar las dependencias entre palabras y frases o, en este caso, entre notas musicales y secuencias.
Daly usó los datos de la red biLSTM para reconstruir aproximadamente las canciones en función de la actividad EEG de las personas, y pudo averiguar qué pieza de música habían estado escuchando con un 72 por ciento de precisión.
Luego registró datos de 20 nuevos participantes solo usando EEG, y su conjunto de datos inicial proporcionó información sobre las fuentes de estas señales. Según esos datos, su precisión para identificar canciones se redujo al 59 por ciento.
Sin embargo, Daly cree que su método se puede utilizar para ayudar a desarrollar interfaces cerebro-computadora (BCI) para ayudar a las personas que han sufrido un derrame cerebral o que padecen otras afecciones neurológicas que pueden causar parálisis, como la ELA . Las BCI que pueden traducir la actividad cerebral en palabras permitirían a estas personas comunicarse con sus seres queridos y proveedores de atención de una manera que de otro modo sería imposible. Si bien ya existen soluciones en forma de implantes cerebrales , si la tecnología como la de Daly pudiera lograr resultados similares, sería mucho menos invasivo para los pacientes.
“La música es una forma de comunicación emocional y también es una señal acústica compleja que comparte muchas similitudes temporales, espectrales y gramaticales con el habla humana”, escribió Daly en el artículo . “Por lo tanto, un modelo de decodificación neuronal que sea capaz de reconstruir la música escuchada a partir de la actividad cerebral puede constituir un paso razonable hacia otras formas de modelos de decodificación neuronal que tienen aplicaciones para ayudar a la comunicación”.
Crédito de la imagen: Alina Grubnyak en Unsplash
Ramirez, V. B. (2023c, abril 6). This Researcher Knew What Song People Were Listening to Based on Their Brain Activity. Singularity Hub. https://singularityhub.com/2023/04/06/this-researcher-knew-what-song-people-were-listening-to-based-on-their-brain-activity/