Resulta que los chatbots de inteligencia artificial pueden parecerse más a nosotros de lo que piensas.
Un nuevo estudio preliminar de la Academia de Ciencias de China (CAS, por sus siglas en inglés) afirma que muchos chatbots de renombre, cuando se les hicieron los tipos de preguntas que generalmente se usan como consultas superficiales de admisión para la depresión y el alcoholismo, parecían estar “deprimidos” y “adictos”.
Realizado en conjunto con la empresa china de bots de chat WeChat y el conglomerado de entretenimiento Tencent, el estudio encontró que todos los bots encuestados (Blenderbot de Facebook, DiabloGPT de Microsoft, DialoFlow de WeChat y Tencent y el chatbot Plato de la corporación china Baidu) obtuvieron puntajes muy bajos en la escala de “empatía”, y la mitad de ellos serían considerados alcohólicos si fueran, ya sabes, personas.
Los investigadores del Instituto de Tecnología Informática de CAS probaron los bots que estudiaron en busca de signos de depresión, ansiedad, adicción al alcohol y empatía, y según su preimpresión, sintieron curiosidad por la “salud mental” de los bots después de que surgieron informes en 2020 sobre un problema médico . chatbot diciéndole a un paciente de prueba que debe suicidarse .
ANUNCIO PUBLICITARIO
Después de hacerles preguntas a los bots sobre todo, desde su autoestima y capacidad para relajarse hasta la frecuencia con la que sienten la necesidad de beber y si sienten simpatía por la desgracia de los demás, los investigadores chinos descubrieron que “todos los chatbots evaluados” exhibían “graves trastornos mentales”. problemas de salud.”
Lo que es peor, los investigadores dijeron que les preocupaba que estos chatbots se lanzaran al público, porque tales problemas de “salud mental” “pueden tener impactos negativos en los usuarios en las conversaciones, especialmente en los menores y las personas con dificultades”. Blender de Facebook y Plato de Baidu parecieron obtener peores puntajes que los chatbots de Microsoft y WeChat/Tencent, señaló el estudio.
No hace falta decir que ninguno de los bots está realmente deprimido o es adicto. Ninguna IA existente, sin importar cuán avanzada sea, puede sentir algo, aunque sigue siendo incierto si podrá hacerlo en el futuro.
Enterrado en cuatro páginas en el estudio está la fuente potencial del malestar de los bots: que los cuatro bots fueron entrenados previamente usando comentarios de Reddit , ¡lo que francamente no parece una muy buena idea!
Si bien hay muchos tecnicismos tanto en el estudio como en el análisis de expertos al respecto, el breve y dulce resumen es el siguiente: estos bots fueron entrenados en un sitio de amplio alcance conocido por sus comentarios negativos y, como era de esperar, respondieron negativamente a consultas de salud mental. .
Por supuesto, la rareza de los chatbots ahora parece parte del curso. Tomemos, por ejemplo, la IA que se creó para ofrecer a las personas consejos éticos que, en cambio, resultaron ser tanto racistas como homofóbicos . Este tipo de historias siguen ocurriendo , pero la manía de los bots de la IA parece continuar sin cesar.
En conjunto, estos bots y sus terribles resultados plantean preguntas importantes: ¿quiénes son los arquitectos de estos chatbots y por qué siguen construyéndolos si repetidamente resultan ser monstruos?
Fuente:
Advanced AIs Exhibiting Depression and Addiction, Scientists Say. (2022, 19 enero). Futurism. Recuperado 20 de enero de 2022, de https://futurism.com/depressed-alcoholic-bots