Investigadores de Google han demostrado que resulta relativamente sencillo engañar a una inteligencia artificial (IA), como los asistentes virtuales de nuestros smartphones, para que se ponga a su servicio. Una foto alterada podría no solo conseguir que la IA se equivoque, sino contener instrucciones para que realice una tarea diferente a aquella para la que fue programada. En el futuro, un atacante podría servirse de algo parecido para hacer que tu móvil se ponga su servicio.
El miedo a los robots que han reconocido abiertamente desde iconos de la tecnología como Elon Musk hasta científicos de renombre como el fallecido Stephen Hawking se suele relacionar con las armas autónomas o las inteligencias artificiales que escapan a nuestro control y se vuelven en contra de la raza humana, al más puro estilo Hollywood. Sin embargo, puede ser que los peligros más temibles de la IA, por ser los más inmediatos y cercanos, sean los que ya están ahí sin que la mayoría nos hayamos dado cuenta.
Los algoritmos de inteligencia artificial más comunes y que más impacto tienen en tu día a día son aquellos que influyen (o incluso determinan) cosas tan cotidianas como la música que escuchas, la ropa que compras o las noticias que lees. Sabemos por Facebook y el escándalo de Cambridge Analytica que hasta te pueden estar manipulando para cambiar el partido al que votas, pero ni siquiera eso es lo que más debería preocuparte. Lo que de verdad te debería alarmar es lo sencillo que resulta engañar a esos ‘cerebros’ artificiales que están detrás de infinidad de cosas que haces con tu ‘smartphone’ a diario.
Científicos de Google Brain acaban de demostrar que incluso es posible hacer que un algoritmo concebido para reconocer imágenes (saber si lo que sale en una foto es un perro o un gato, por ejemplo) se ponga a realizar otras tareas para un atacante que consiga reprogramar sus funciones mediante una simple foto modificada.
Añadiendo una capa imperceptible para los humanos y diseñada para confundir al algoritmo, la imagen de un oso panda que tanto las personas como la máquina solían reconocer como tal, de repente ha pasado a ser un gibón (o cualquier otro animal) para la inteligencia artificial.
Y eso no es todo: con técnicas como la utilizada por los investigadores de Google, la foto alterada podría no solo conseguir que la IA se equivoque, sino contener instrucciones para que realice una tarea diferente a aquella para la que fue programada. En el futuro, un atacante podría servirse de algo parecido para hacer que tu ‘smartphone’ se ponga su servicio.
¿Cómo se engaña a una máquina?
Todo parte de la forma en que se entrenan estos algoritmos: el famoso ‘machine learning’ o aprendizaje automático. Para que sean capaces de reconocer una manzana verde, se le proporcionan a la máquina miles o millones de imágenes de frutas y otros elementos que le sirvan de modelo.
Así, analizando ejemplos y buscando patrones, la inteligencia artificial acabará por comprender qué hace que una manzana sea una manzana y no otra cosa, o qué píxeles determinan que es verde y no roja o amarilla. Si quieres que aprenda a cocinar, ponle vídeos de recetas de YouTube hasta que se convierta en un Top Chef.
Para engañarla, lo que se utilizan son los llamados ‘adversarial examples’ (ejemplos contradictorios), que están diseñados para causar alguna confusión, ya sea genérica (simplemente, conseguir que no funcione o lo haga mal) o intencionada (forzar un determinado error, como que vea exactamente lo que quiere el atacante).
En el caso de los investigadores de Google, no solo se logra el engaño y se obtiene un resultado concreto, sino que se llega a ‘secuestrar’ la máquina para que lleve a cabo otras tareas.
La efectividad de esta práctica ya se ha puesto a prueba en otras ocasiones y con diferentes objetivos, como engañar a un coche autónomo haciéndole creer que hay una señal cualquiera es un stop colocándole una pegatina, y forzando así que se detenga, o para engañar al algoritmo de una aseguradora que detecta daños en fotos de vehículos para que magnifique su evaluación después de un accidente.
También se han usado los ejemplos contradictorios para hacer que un algoritmo entrenado para destacar en un videojuego (como el Pong o el Seaquest) pierda eficacia.
Fuente: Tecnoxplora