De Continuar Creciendo La Economía del Apego Provocaría un Desastre Social

admin Avatar

by OtechUAEH

Desde que los Babilonios, entre el año 2100 y el año 200 A.C. resolvieron numerosas ecuaciones algebraicas que invocaban algoritmos, para resolver problemas específicos (Jerry, 2022), hasta la pregunta de Alan Turin, ¿las máquinas pueden pensar? A través de la llamada prueba de Turing, que le llamó juego de imitación, según su artículo titulado Maquinaria Computacional e Inteligencia, publicado en 1950 (Fuentes, 2010); Pasando por la conferencia celebrada en 1956 en Dartmouth EEUU, organizada por Marvin Minsky, John McCarthy y Claude Shanon (christopher, 1983), sentándose las bases, de lo que hoy se conoce como Inteligencia Artificial (IA), en aquel tiempo, no se pensó que existiría una adicción a esa tecnología, con efectos dañinos para los humanos, lo que si prevalece desde entonces, es que la IA imita al ser humano.  

Con la presentación del ChatGPT 3.5 que hiciera OpenAI en noviembre del 2022, se pasó de las Redes Sociales (RSS), que son un espacio de socialización entre humanos, al paradigma de la IA generativa conversacional, con el ChatGPT; desde la perspectiva económica, transitamos de la economía de la atención, a la economía del Apego.

La economía de la atención, operó bajo un modelo de negocio, basado en las generación de ingresos, captando y reteniendo, más usuarios y más  tiempo de pantalla, con todo tipo de mensajes, incluso falsos y de odio, la estrategia es propiciar viralidad, fluyendo la información a velocidades de la imaginación. 

La economía del apego (Jean & Esposito, Mark, 2025) se genera con la IA Conversacional o sea los modelos MLL de lenguaje como los GPT,  los cuales  fundamentan su valor de cambio, en la relación humano-máquina, propiciando en una desa-socialización, sustituyendo la participación activa, del humano, en su ecosistema social real, generándoles adicción y dependencia hacia los diversos modelo conversacionales como ChatGPT, DeepSeek, Claude, Grok, Gemini Llama, o cualquier otro de este tipo pre-entrenado. 

Los riesgos son por demás evidentes, por los apegos emocionales artificiales, porque ya no solo se busca información, sino consultas a la IA conversacional, dándoles el valor de confidentes o incluso terapeutas, cuando las máquinas sólo son asistentes, por lo que no se les debe conceder características antropomórficas, no son humanos, no tienen conciencia, solo información que la presentan como narrativas.

El tiempo de contacto usuario-máquina, entre más frecuente y más tiempo se realiza la interacción, genera en los usuarios, ya sean hombres o mujeres, pero sobre todo jóvenes y niños, un vínculo emocional, a niveles de intimidad, relación que difícilmente, los usuarios comparten con familiares, incluso con amigos, de quienes se van desprendiendo, alejándose paulatinamente. 

Los usuarios tienen la sensación de estar interactuando con otra persona, que parece comprenderlas, por lo que este fenómeno del apego tecnológico, a los diversos modelos de ChatGPT o IA conversacional, genera dos efectos convergentes, por un lado un compromiso de intensificar la interacción humano-máquina y por otro un vacío emocional y distanciamiento de la sociedad real, pero los datos que la IA capta en este proceso del apego, se aplican a la ampliación de la base de datos de entrenamiento, es como si la máquina, succiona la información del cerebro de los usuarios, haciéndolos más dependientes de las máquinas. 

Esto marca una tendencia de la población usuaria, que es considerar a la IA de los modelos GPT que tienen conciencia; al respecto el cofundador de Deep Mind de Microsoft IA, Mustafá Suleyman, alertó sobre el fenómeno  Seemingly y Cionciencious AI (SCAI), o sea considerar que la IA parece consciente, el mismo experto manifestó, que no existe evidencia científica, de que las tecnologías IA agenerativa conversacionales ChatGPT, DeepSeek, Grok, Gemini, Claude y Otras, sean realmente conscientes (Duran, 2025).

Aunque si proyectan la ilusión de la conciencia, lo más grave, es que los usuarios si las crean conscientes, otorgándoles capacidades antropomórficas  (forma, apariencia, o emociones humanas) como los robots humanoides, tienen forma humana, pero no son humanos, tampoco los chats Pre-entrenados lo son, aunque se expresen con lenguaje humano.

El valor de mercado de los modelos LLM conversacionales, llegará en 2030 a 36 mmdd (Della, 2025), pero los impactos negativos en la sociedad, por la adicción tecnológica-digital, no se tiene valorado. 

 

De Continuar Creciendo La Economía del Apego Provocaría un Desastre Social

 

Bibliografía

christopher. (diciembre de 1983). WordPress . Obtenido de darhmouthconference.wordpress : https://darthmouthconference.wordpress.com/organizadores-de-la-conferencia/john-mc-carty/

Della, V. N. (15 de abril de 2025). Innovación Digital 360. Recuperado el septiembre de 2025, de innovacióndigital360.com: https://www.innovaciondigital360.com/i-a/modelo-de-lenguaje-grande-el-futuro-entre-el-crecimiento-ilimitado-y-los-obstaculos/#:~:text=Amazon%20Web%20Services.-,LLM%3A%20datos%20y%20cifras%20del%20mercado,millones%20de%20d%C3%B3lares%20en%202030.

Duran, S. (28 de agosto de 2025). dpl news. Recuperado el septiembre de 2025, de dplnews.com: https://dplnews.com/el-mayor-riesgo-de-la-inteligencia-artificial-no-es-ser-consciente-sino-parecerlo-advierte-ceo-de-microsoft-ai/

Fuentes, B. C. (2010). Maquinaria Computacional e Inteligencia (Alan Turing 1950). https://xamanek.izt.uam.mx/map/cursos/Turing-Pensar.pdf. Santiago, Chile.

Jean, A., & Esposito, Mark. (15 de agosto de 2025). LSE Blogs. Recuperado el septiembre de 2025, de blogs.lse.ac.uk: https://blogs.lse.ac.uk/businessreview/2025/08/15/humans-emotionally-dependent-on-ai-welcome-to-the-attachment-economy/

Jerry, J. (2022). EBSCO. Recuperado el septiembre de 2025, de ebsco.com: https://www.ebsco.com/research-starters/mathematics/babylonian-mathematics