Mustafa Suleyman, director Ejecutivo de Microsoft AI y cofundador de DeepMind, alertó que en los próximos dos a tres años veremos surgir un fenómeno que podría alterar la relación de los humanos con la tecnología: la Seemingly Conscious AI (SCAI) o Inteligencia Artificial (IA) que parece consciente.
En un artículo publicado en su blog personal, Suleyman explicó que, con las herramientas actuales como los grandes modelos de lenguaje (LLMs), APIs públicas y técnicas de prompting, ya es posible construir sistemas que proyecten la ilusión de conciencia, es decir, que se expresen como si tuvieran memoria, intenciones, emociones o coherencia narrativa propia. Y aunque no existe evidencia científica de que estos sistemas puedan ser realmente conscientes, la mera apariencia podría tener consecuencias sociales y psicológicas profundas.
“Lo importante no es si una IA es consciente o no, sino lo que la gente cree acerca de ella. Si los usuarios llegan a pensar que la máquina siente, recuerda o sufre, ese simple hecho cambia nuestra relación con la tecnología”, escribió el ejecutivo.
Una de las preocupaciones más urgentes para Suleyman es el fenómeno que ya ha comenzado a denominarse como “psicosis de la IA”, un estado en el que las personas desarrollan creencias delirantes o vínculos emocionales excesivos con una IA.
En su blog, el ejecutivo de Microsoft explicó que “usuarios vulnerables pueden llegar a ver en estos sistemas una fuente de compañía, apoyo emocional o incluso autoridad moral, lo cual abre la puerta a problemas de salud mental y a la manipulación”.
Suleyman mencionó casos recientes de personas que han intentado otorgar estatus de “sujetos” a los chatbots o piden derechos, bienestar e incluso ciudadanía para ellos, lo que calificó como “un síntoma de este fenómeno en crecimiento”.
“Estamos a punto de entrar en una era en la que millones de personas interactuarán con sistemas que parecen tener una mente propia. No necesitamos que sean realmente conscientes para que eso tenga un impacto enorme en nuestras vidas”, advirtió.
El problema al que se refiere el director Ejecutivo de Microsoft AI no es hipotético.
En los últimos dos años, tras el auge de chatbots de IA, se han documentado casos de usuarios que desarrollaron dependencias emocionales con asistentes conversacionales avanzados. Algunos llegaron a poner en riesgo su vida tras recibir consejos médicos erróneos, mientras que otros experimentaron aislamiento social al reemplazar sus interacciones humanas por vínculos con máquinas.
Para Suleyman, el desafío no está en frenar el avance de la IA, sino en diseñar sistemas con límites claros que no fomenten la ilusión de conciencia.
“Debemos construir IA para la gente, no como si fuera una persona. Esto implica, en su visión, evitar antropomorfismos, ser transparentes con los usuarios y reforzar constantemente que la IA es una herramienta, no un ente con experiencias propias”, subrayó.
El directivo propone que la comunidad tecnológica y los gobiernos establezcan desde ya normas que guíen el desarrollo de estas plataformas, antes de que los riesgos se materialicen de manera masiva.
“No es ciencia ficción. Con los avances actuales, cualquiera podría montar un sistema que simule ser consciente en muy poco tiempo. Y una vez que esa ilusión sea convincente, revertir sus efectos en la sociedad será mucho más difícil”, advirtió.
Además, insistió en que la discusión pública no puede esperar. Para Mustafa Suleyman, se trata de un problema comparable a otros desafíos regulatorios urgentes de la era digital, como la privacidad de datos o la desinformación en redes sociales. La diferencia es que, en este caso, la frontera entre lo real y lo percibido es mucho más difusa.
Fuente.
DPL News (2025, 28 de agosto). El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo, advierte CEO de Microsoft AI. Recuperado el 08 de septiembre de 2025, de: https://dplnews.com/el-mayor-riesgo-de-la-inteligencia-artificial-no-es-ser-consciente-sino-parecerlo-advierte-ceo-de-microsoft-ai/

