Rosalind Picard, directora del Affective Computer Group del Media Lab en el MIT, recordaba en un reportaje que le dedicó la revista Wired que, en 1995, cuando se decidió a compartir su primer estudio sobre las emociones y las máquinas, un compañero se presentó en la puerta de su despacho agitando los folios en los que estaba escrito su artículo calificándola de loca. La cosa no fue mucho mejor cuando intentó publicarlo en revistas: uno de sus colegas llegó a afirmar que su texto podía ser apropiado para una revista de avión, pero jamás para una publicación científica. Eran los peajes que tenía que pagar una mujer adelantada a su tiempo en un mundo dominado por hombres que la miraban con la desconfianza de quien se cree superior pero -en la intimidad- se sabe superado. Hoy la computación afectiva es un campo de investigación muy activo y amplio que requiere de la participación de profesionales de distintas ramas de la ciencia (neurólogos, matemáticos, ingenieros…) y que tiene su propia publicación por la cantidad de estudios que genera. Picard tenía razón cuando aseguraba que “los ordenadores hacen que la gente se sienta como si fueran bobos, cuando en realidad las estúpidas son las máquinas”. Entender esto -aparentemente sencillo- no ha sido fácil, porque los humanos nos relacionamos con el mundo que nos rodea a través de las emociones. Y cuando estas quedan fuera de la ecuación, nos vemos perdidos. Por ello hablamos con los ordenadores, nos enfadamos con ellos, los golpeamos o acariciamos; pasamos tanto tiempo frente a sus pantallas que terminamos por desarrollar relaciones afectivas con las máquinas. Así que a nadie puede extrañarle que el siguiente paso -ese que está a las puertas y que a algunos asusta- sea conseguir que los ordenadores sepan interpretar nuestras emociones y reaccionar ante ellas de la manera adecuada.
La computación afectiva es el campo de investigación en el que se desenvuelve el español Javier Hernández, miembro del equipo de Roslind Picard en el MIT. Su trabajo está destinado a conseguir que las máquinas aprendan a medir los patrones biométricos de las personas que los utilizan de una manera fiable, reconozcan las emociones, y finalmente adapten el entorno para que esas emociones puedan ser gestionadas más eficazmente. Las aplicaciones prácticas de estos avances permitirán, por ejemplo, que los coches puedan saber si el conductor está estresado y actuar en consecuencia.
Las implicaciones de la computación afectiva impregnarán toda la tecnología en los próximos años y crearán un nuevo paradigma en nuestra relación con las máquinas. “En el futuro, asegura Javier Hernández, habrá aplicaciones con las que cuando vayas, por ejemplo, al cine, dependiendo de tu estado de ánimo o como reaccionas a una escena particular, cambie la historia y se adapte a tus preferencias para crear una experiencia más interactiva y personalizada”. Así que podremos seguir enfadándonos con los ordenadores… pero ellos se darán cuenta.
Enero 2017
Fuente: Vodafone