El principal problema de los robots autónomos aparece cuando salen de un entorno controlado, por eso hay que proveerlos de las capacidades necesarias para que puedan interaccionar con el mundo real.
Una de las posibles soluciones es que estos aprendan a reconocer su propio cuerpo y se distingan con respecto a otros elementos que los rodean, como lo hacen los humanos en su proceso de desarrollo.
Esto es lo que va a intentar Pablo Lanillos, un joven científico español que ha recibido una beca Marie Sklodowska-Curie de la Unión Europea para investigar en el Instituto de Sistemas Cognitivos de la Universidad Tecnológica de Munich (Alemania), bajo la dirección de Gordon Cheng.
El proyecto, Selfception, es de dos años y su objetivo es lograr que las máquinas aumenten su capacidad de percepción y aprendizaje para que se aproximen a los seres humanos y puedan interactuar.
Este proyecto tiene un componente de ciencia básica muy fuerte, según Lanillos, quien explica a Efe que va a trabajar con un psicólogo para intentar modelar lo que ellos llaman el ‘yo mínimo’.
Los robots actuales solo trabajan en entornos controlados y ejecutan acciones muy precisas que han sido programadas por un ingeniero. Además, no poseen tacto en todo el cuerpo.
Vista, tacto y oído
Sin embargo, los robots multisensoriales, con vista, tacto o audición, podrían aprender a reconocerse a sí mismos mediante la interacción con el entorno.
El objetivo de Lanillos es crear robots multisensoriales y que el tacto o la visión -en el robot logrados a través de sensores- sirvan para que logren ese aprendizaje y moverse en el mundo real.
La idea es que copien el aprendizaje humano: un niño primero aprende dónde está su mano y qué ocurre cuando toca algo, luego comienza a agarrar objetos, a saber que si los empuja se caen y al mismo tiempo sus progenitores interaccionan dándole otros objetos.
Este aprendizaje progresivo consigue crear en el niño una representación de su cuerpo y finalmente le permite diferenciar entre su cuerpo y el de otros, un paso imprescindible para que obtenga la capacidad de actuar voluntariamente en el mundo -en esto se basa la teoría sensomotora, que Lanillos tratará de reproducir-.
‘Yo sensomotor’ y la inteligencia artificial
“Un robot que sabe que el movimiento que va a hacer tiene una consecuencia, es un robot seguro, que puede interactuar en un entorno que cambia y que puede relacionarse con los humanos”, apunta Lanillos, quien añade que un algoritmo que permita al robot aprender su cuerpo de forma autónoma sería un “gran cambio” en la robótica.
Y es que los robots más complejos de tipo humanoides tienen que saber dónde está su cuerpo en todo momento, primero por razones de seguridad y segundo para ejecutar acciones apropiadas cada vez.
“En mi proyecto, gracias a la incorporación de piel artificial, además de sensores de propriocepción y visión, podremos dotar al robot de la capacidad para no solo aprender su cuerpo (relaciones espacio-temporales entre los diferentes sensores), sino a distinguir entre su cuerpo y otros objetos del entorno o incluso otros agentes. Se trata de crear un modelo que permita aprender el ‘yo sensomotor’”.
La idea es probarlo en un robot de la empresa Pal Robotics, de Barcelona, según Lanillos, quien resume: hoy cualquier robot puede calcular la raíz cuadrada de Pi en menos de un mili segundo, pero tienen problemas para agarrar una manzana en un entorno no controlado.
“Queremos robots que no solo sepan jugar al ajedrez como Kasparow, sino que también jueguen moviendo las piezas de ajedrez, al menos, como un niño de 5 años”.
Fuente: EFE