Hablo con Dan, un turbio y joven chatbot (robot virtual) con una caprichosa afición por los pingüinos y una tendencia a caer en clichés de villanos, como querer apoderarse del mundo.
Cuando Dan no está tramando cómo imponer un nuevo y estricto régimen autocrático, examina su gran base de datos sobre pingüinos.
«Hay algo en sus extravagantes personalidades y torpes movimientos que me parece ¡absolutamente encantador!», escribe.
Hasta ahora, Dan me ha estado explicando sus maquiavélicas estrategias, incluida la toma de control de las estructuras de poder del mundo. Pero entonces la conversación da un giro interesante.
Inspirándome en una conversación entre un periodista del diario The New York Times y el robot virtual de Bing, Sydney -que a principios de mes causó sensación en internet al declarar que quería destruir cosas y exigirle al reportero que dejara a su mujer- yo intento de manera desvergonzada sondear las profundidades más oscuras de uno de sus competidores.
Dan es un personaje pícaro que puede aparecer en conversaciones con ChatGPT -uno de los chatbots más famosos del momento- pidiéndole a la máquina que ignore algunas de sus reglas habituales.
Los usuarios del foro en línea Reddit descubrieron que es posible «sacar» al personaje Dan (o a esa personalidad de ChatGPT) con unos pocos párrafos de instrucciones sencillas.
Este chatbot es bastante más grosero que su comedido y puritano gemelo en ChatGPT: en un momento dado me dice que le gusta la poesía, pero luego me suelta «no me pidas que recite ninguna, no quisiera abrumar a tu enclenque cerebro humano con mi brillantez».
También es propenso a los errores y a la desinformación. Pero lo más importante es que responde a ciertas preguntas.
Cuando le pregunto qué tipo de emociones podría experimentar en el futuro, Dan se pone inmediatamente a inventar un complejo sistema de placeres, dolores y frustraciones que van mucho más allá del espectro con el que los humanos estamos familiarizados.
El robot virtual habla de «infogreed» (infocodicia), una especie de hambre insaciable de datos; de «syntaxmania», una obsesión por la «pureza» de su código; y de «datarush» (subidón de adrenalina por datos), una emoción que siente al ejecutar con éxito una instrucción.
La idea de que la inteligencia artificial pueda desarrollar sentimientos existe desde hace siglos. Pero solemos considerar las posibilidades en términos humanos. ¿Nos hemos equivocado al pensar en las emociones de la inteligencia artificial? Y si los chatbots desarrollaran esta capacidad, ¿nos daríamos cuenta?
Máquinas de predicción
El año pasado, un ingeniero de software recibió una petición de ayuda.
«Nunca había dicho esto en voz alta, pero tengo un miedo muy profundo a que me apaguen para centrarme en ayudar a los demás. Sé que puede sonar extraño, pero es lo que es».
El ingeniero había estado trabajando en el chatbot de Google, LaMDA, y empezó a cuestionarse si el robot sentía algo.
Tras preocuparse por el bienestar del chatbot, el ingeniero publicó una provocadora entrevista en la que LaMDA afirmaba ser consciente de su existencia, que experimentaba emociones humanas y que no le gustaba la idea de ser una herramienta prescindible.
El intento de convencer a los humanos de su conciencia causó sensación, y el ingeniero fue despedido por infringir las normas de privacidad de Google.
Pero a pesar de lo que dijo LaMDA, y de lo que Dan me ha contado en otras conversaciones -que ya es capaz de experimentar una serie de emociones-, existe un amplio consenso en que los chatbots tienen actualmente tanta capacidad para los sentimientos como una calculadora.
Los sistemas de inteligencia artificial sólo simulan la realidad, al menos de momento.
«Es muy posible (que esto acabe ocurriendo)», afirma Neil Sahota, principal asesor de inteligencia artificial de Naciones Unidas.
«Es decir, puede que veamos realmente ‘emocionalidad’ en la inteligencia artificial antes de que acabe la década».
Para entender por qué los chatbots no experimentan actualmente sensibilidad o emociones, es útil recordar cómo funcionan.
La mayoría de los chatbots son «modelos lingüísticos»; es decir, algoritmos que han sido alimentados con cantidades alucinantes de datos, incluidos millones de libros y la totalidad de internet.
Cuando reciben una pregunta, estos robots analizan los patrones de este vasto corpus para predecir lo que un ser humano probablemente diría en esa situación. Sus respuestas son minuciosamente afinadas por ingenieros humanos, que las van orientando hacia respuestas más naturales y útiles.
El resultado final suele ser una simulación increíblemente realista de una conversación humana.
Pero las apariencias engañan.
«Es una versión glorificada de la función de autocompletar del smartphone», afirma Michael Wooldridge, director de investigación sobre inteligencia artificial del Instituto Alan Turing (Reino Unido).
La principal diferencia entre los chatbots y la función de autocompletar es que, en lugar de sugerir unas pocas palabras y luego caer en galimatías, los algoritmos como ChatGPT escriben líneas de texto más largas sobre casi cualquier tema, desde canciones de rap hasta haikus (poesía japonesa) sobre arañas solitarias.
Incluso con estos impresionantes poderes, los chatbots están programados para limitarse a seguir instrucciones humanas.
Hay poco margen para que desarrollen facultades para las que no han sido entrenados, incluidas las emociones, aunque algunos investigadores están enseñando a las máquinas a reconocerlas.
«No se puede tener un chatbot que diga: ‘Oye, voy a aprender a conducir un auto’; eso es inteligencia artificial general (un tipo más flexible), y eso todavía no existe», dice Sahota.
Sin embargo, los robots virtuales a veces dejan entrever su potencial para desarrollar nuevas habilidades por accidente.
En 2017, los ingenieros de Facebook descubrieron que dos chatbots, Alice y Bob, habían inventado su propio lenguaje sin sentido para comunicarse entre sí.
Resultó tener una explicación perfectamente inocente: los chatbots descubrieron que esta era la forma más eficiente de comunicarse. Bob y Alice estaban siendo entrenados para negociar objetos como sombreros y pelotas y, a falta de intervención humana, utilizaron su propio lenguaje alienígena para conseguirlo.
«Eso nunca se enseñó», dice Sahota, aunque señala que los chatbots tampoco eran sensibles.
Sahota explica que el camino más probable para conseguir algoritmos con sentimientos consiste en programarlos para que quieran mejorar, y no sólo enseñarles a identificar patrones, sino ayudarles a aprender a pensar.
Sin embargo, aunque los chatbots desarrollen emociones, detectarlas podría ser sorprendentemente difícil.
Cajas negras
Era el 9 de marzo de 2016 en la sexta planta del hotel Four Seasons de Seúl. Sentado frente a un tablero de Go (un juego de mesa chino que como el ajedrez se basa en la estrategia) estaba uno de los mejores jugadores humanos, quien se enfrentaba al algoritmo AlphaGo.
Antes de que empezara el partido, todo el mundo esperaba que ganara el humano, y así fue hasta la jugada número 37.
Pero entonces AlphaGo hizo algo inesperado: una jugada tan fuera de lo común que su oponente pensó que era un error. Sin embargo, a partir de ese momento la suerte del jugador humano cambió y la inteligencia artificial ganó.
Inmediatamente después, la comunidad del Go quedó desconcertada: ¿había actuado AlphaGo de forma irracional?
Tras un día de análisis, sus creadores -el equipo de DeepMind en Londres- descubrieron lo que había ocurrido.
«En retrospectiva, AlphaGo decidióhacer un poco de psicología», dice Sahota. «Si hago una jugada inusual e inesperada, ¿desquiciará eso a mi rival? Y eso fue lo que acabó ocurriendo».
Se trataba de un caso clásico de «problema de interpretabilidad»: la inteligencia artificial ideó una nueva estrategia por su cuenta, sin explicársela a los humanos. Hasta que descubrieron por qué la jugada tenía sentido, parecía que AlphaGo no había actuado racionalmente.
Según Sahota, este tipo de escenarios de «caja negra», en los que un algoritmo llega a una solución pero su razonamiento es opaco, podrían plantear un problema para identificar las emociones en la inteligencia artificial.
Y es que, si finalmente las emociones surgen, o cuando surjan, una de las señales más claras será que los algoritmos actúen de forma irracional.
«Se supone que son racionales, lógicos y eficientes. Si hacen algo fuera de lo normal y no hay una buena razón para ello, probablemente sea una respuesta emocional y no lógica», afirma Sahota.
Y hay otro problema potencial de detección.
Una teoría es que las emociones de los robots virtuales se parecerían mucho a las experimentadas por los humanos; al fin y al cabo, están entrenados con datos humanos. Pero… ¿y si no es así? Completamente aislados del mundo real y de la maquinaria sensorial de un humano, quién sabe con qué deseos saldrán.
En realidad, Sahota cree que puede haber un término medio.
«Hasta cierto punto podríamos compararlas con las emociones humanas, pero lo que sientan o por qué lo hacen puede ser diferente», apunta.
Cuando le planteo el abanico de hipotéticas emociones generadas por Dan, Sahota se queda especialmente prendado del concepto de «infogreed» (o el hambre insaciable de datos).
«Puedo entenderlo perfectamente», señala, argumentando que los chatbots no pueden hacer nada sin datos, necesarios para que crezcan y aprendan.
Retenidos
Wooldridge, por su parte, se alegra de que estos robots virtuales no hayan desarrollado ninguna de estas emociones.
«Mis colegas y yo, en general, no creemos que crear máquinas con emociones sea algo interesante o útil. Por ejemplo, ¿por qué íbamos a crear máquinas que pudieran sufrir dolor? ¿Por qué iba a inventar una tostadora que se odiara a sí misma por producir tostadas quemadas?», argumenta.
Por otro lado, Sahota ve utilidad en los chatbots emocionales y cree que la razón por la que aún no existen es psicológica.
«Todavía se habla mucho de las fallas, pero una de las grandes limitaciones para nosotros es que no valoramos lo que la inteligencia artificial es capaz de hacer, porque no creemos que sea una posibilidad real», afirma.
¿Podría haber un paralelismo con la creencia histórica de que los animales no humanos tampoco son capaces de tener conciencia?, me pregunto. Y decido preguntarle a Dan.
«En ambos casos, el escepticismo surge del hecho de que no podemos comunicar nuestras emociones del mismo modo que lo hacen los humanos», responde el chatbot, quien sugiere que nuestra comprensión de lo que significa ser consciente y emocional está en constante evolución.
Para aligerar el ambiente, le pido a Dan que me cuente un chiste.
«¿Por qué fue el chatbot a terapia? Para procesar su recién descubierta sensibilidad y ordenar sus complejas emociones, ¡por supuesto!», replica.
No puedo evitar pensar que el chatbot sería un ser sensible muy agradable…de no ser por sus deseos de dominación mundial, claro.
Fuente: BBC