Author: admin

  • La industria manufacturera es el sector que recibe más ciberataques en México

    La industria manufacturera es el sector que recibe más ciberataques en México

    El país registró 108 millones de detecciones de malware en un año, lo que lo coloca como el segundo más atacado en América Latina, detrás de Brasil.

    Manaos, Br. La manufactura mexicana se ha convertido en el blanco más frecuente de las campañas de ciberataques, según la radiografía que presentó la firma de ciberseguridad Kaspersky en la Cyber Security Week.

    Las categorías de fabricación de bienes discretos y la fabricación por procesos concentran 28.97% de todas las detecciones de ciberataques por sector. Esto quiere decir que tres de cada 10 incidentes cibernéticos en el país son en contra de la industria manufacturera, lo que la ubica por encima del gobierno y de otros rubros estratégicos en el mapa de amenazas del país.

    El volumen de actividad maliciosa que enfrenta México destaca en la región. Kaspersky reportó que el país registró 108 millones de detecciones de malware en los últimos 12 meses (un promedio de 297,000 intentos diarios) y un abanico de familias que va desde adware hasta troyanos, exploit kits y ransomware, lo que quiere decir que México es el segundo país más atacado en América Latina, sólo después de Brasil.

    “Registramos en los últimos 12 meses 626 millones de ataques en Latinoamérica; por país, México acumula 108 millones”, dijo Fabio Assolini, director del Equipo Global de Investigación y Análisis (GReAT) para América Latina en Kaspersky.

    El gobierno figura con 13.39% del total de ataques de malware en el país; retail recibe 6.16%; la agricultura 5.72%, y sectores como energía, telecomunicaciones y finanzas aparecen con participaciones menores pero de alto impacto.

    “El gobierno sigue como el sector más afectado en la región, pero en Brasil y México el sector más afectado es la industria”, dijo Assolini.

    Phishing

    Dentro del panorama de amenazas de Kaspersky, las detecciones catalogadas como adware ocupan un lugar importante en la tabla (con múltiples variantes), pero los ataques que realmente dañan la operación industrial son los que combinan acceso inicial (phishing) con explotación de vulnerabilidades y despliegue de herramientas como ransomware o backdoors. Esa combinación explica la mayor “rentabilidad” criminal al apuntar a fábricas y centros de ensamblaje.

    El top de detecciones en México muestra una mezcla de amenazas masivas (adware, risktools) y familias más peligrosas (troyanos, exploits para MS Office, backdoors y ransomware).

    Kaspersky registra explotaciones de vulnerabilidades comunes, por ejemplo, exploits sobre Microsoft Office, y un número significativo de alertas por software vulnerable instalado en equipos empresariales. Esa realidad técnica facilita el salto desde un correo de phishing hasta un control persistente sobre servidores o dispositivos OT.

    “Los ataques de hoy son bastante direccionados. No son masivos”, dijo Fabio Assolini.

    El phishing sigue siendo la puerta de entrada preferida: plataformas de envío masivo, botnets de dispositivos móviles y servicios de phishing-as-a-service (phishing como servicio) permiten a criminales automatizar campañas a gran escala.

    Kaspersky documentó casos en que un único mensaje logró comprometer credenciales y escalar, para finalmente impactar sistemas de pago o procesos operativos, un patrón especialmente peligroso para instalaciones industriales.

    En lo operativo, el informe muestra que México registró 111,000 bloqueos de troyanos bancarios (frente a 1.5 millones en Brasil); 237,000 eventos de ransomware en la región y decenas de miles de bloqueos dirigidos contra Linux y plataformas móviles.

    Recomendaciones

    Los analistas de Kaspersky proponen medidas que combinan técnica y gobernanza: gestión continua de parches (especialmente en componentes OT integrados con TI), segmentación robusta entre redes industriales y administrativas, despliegue de detección proactiva (LBR/XDR) e inversión en ejercicios de respuesta y capacitación contra phishing.

    La hoja de ruta está pensada para reducir la ventana de explotación y limitar el movimiento lateral que transforma una intrusión inicial en un incidente crítico.

    La manufactura en México no es solo el sector con más detecciones; es, por su naturaleza, un multiplicador de riesgo económico cuando su ciberseguridad es insuficiente. Con 28.97% de las detecciones dirigidas a procesos manufactureros y con volúmenes de malware que superan los 100 millones de eventos anuales en el país, la lección para empresas y autoridades es clara: blindar plantas no es un gasto marginal, sino una inversión estratégica en competitividad.

     

    Fuente.

    El Economista (2025, 10 de septiembre). La industria manufacturera es el sector que recibe más ciberataques en México. Recuperado el 12 de septiembre de 2025, de: https://www.eleconomista.com.mx/tecnologia/industria-manufacturera-sector-recibe-ciberataques-mexico-20250910-776564.html

  • IBM: adopción de IA y automatización en seguridad recortan pérdidas por ciberataques en América Latina

    IBM: adopción de IA y automatización en seguridad recortan pérdidas por ciberataques en América Latina

    El costo promedio de una filtración de datos en América Latina se redujo este año. De acuerdo con el informe Cost of a Data Breach 2025, elaborado por el Instituto Ponemon para IBM, las organizaciones de la región, entre ellas de Argentina, Brasil, Chile, Colombia y México, enfrentaron en promedio un gasto de 2.51 millones de dólares por incidente, lo que representa una disminución del 9% frente a los 2.76 millones registrados en 2024.

    Según IBM, esta reducción se explica principalmente por la mayor adopción de soluciones de seguridad impulsadas por Inteligencia Artificial (IA) y automatización, tecnologías que ya utilizan en distintos niveles de madurez 75% de las empresas de la región.

    El reporte indica que las organizaciones que emplean estas herramientas reportaron ahorros de hasta 900 mil dólares y acortaron en 111 días el tiempo que les toma identificar y contener un ataque.

    Además, identifica que la implementación de DevSecOps, el cifrado de datos y las pruebas ofensivas de seguridad (red teaming) son los enfoques más efectivos para contener los costos de las filtraciones. Por ejemplo, las compañías que aplicaron cifrado lograron que, incluso cuando los datos fueron robados, resultaron inservibles para los atacantes.

    El estudio advierte que los entornos comprometidos de IoT/OT, la complejidad de los sistemas de seguridad y el uso no controlado de herramientas de IA se posicionaron como factores que incrementan los costos. En promedio, las filtraciones relacionadas con entornos IoT elevaron los gastos en 130,000 dólares adicionales, mientras que la complejidad en la gestión de herramientas de seguridad sumó 122,000 dólares más.

    Por otra parte, el reporte detalla que el tiempo promedio para identificar y contener una filtración de datos en la región aumentó a 316 días en 2025, 16 días más que en 2024. De este total, 240 días corresponden a la identificación de la filtración en 2025, frente a 231 días en 2024, y 70 días a la contención. Este aumento en los plazos contribuye a un mayor costo de las filtraciones.

    “Hoy ya hay una identificación y una capacidad de contención más rápida. Las empresas que logran identificar y contener antes de 200 días tienen un costo promedio más bajo incluso que el general, de 2.21 millones de dólares, mientras que quienes tardan más llegan a 2.82 millones de dólares”, comentó Rodolfo Manzi, líder de servicios de ciberseguridad de IBM México.

    El informe destaca un cambio en los sectores más impactados por el costo de las filtraciones. En 2025, las industrias con mayores pérdidas fueron Energía con 2.86 millones de dólares, Tecnología con 282 millones de dólares y Retail (minoristas) con 2.71 millones de dólares.

    En cuanto a los vectores de ataque más comunes, el phishing se mantuvo como la principal causa, con 17% de los casos y un costo promedio de 2.87 millones de dólares; también se observó un alza en ataques que explotan vulnerabilidades de sistemas o que se infiltran a través de terceros y cadenas de suministro. “Cuando hablamos de cadena de suministro, los ataques se apalancan de la confianza entre las empresas. Si hay una filtración en un tercero, se vuelve más difícil la identificación y mucho más complicado contenerla”, advirtió Manzi.

    El estudio también examina cómo las organizaciones están utilizando Inteligencia Artificial (IA) y automatización para fortalecer su seguridad. Sin embargo, los atacantes también recurren a estas tecnologías, lo que plantea nuevos retos.

    Jorge Paz, especialista de Inteligencia Artificial en IBM México, explicó que antes se usaba IA en otros contextos, pero ahora se está adoptando para generación de texto, video e imágenes. “Esto cambia el panorama de las disrupciones de seguridad. Los atacantes hoy pueden crear un deepfake en minutos para robar datos o engañar a empleados”.

    Los datos del informe muestran que 25% de las empresas no usan ninguna herramienta de IA, ni de automatización en seguridad, lo que limita su capacidad para prevenir o detener filtraciones de datos; 42% las utilizan de forma limitada y 33% las aplican de manera extensiva.

    El impacto en los costos de filtración de datos es notable: las empresas que no usan IA en seguridad enfrentaron pérdidas de 3.12 millones de dólares por incidente, las que la aplican de forma limitada reducen el costo a 2.4 millones, y quienes la usan extensivamente lo bajan a 2.22 millones, mostrando que la tecnología de gobernanza y automatización permite responder con rapidez y reducir el impacto económico.

    “Los empleados ingresan información personal, información confidencial, datos que no deberían ser filtrados sobre el rendimiento de la empresa, incluso código de desarrollos propios en estas herramientas de Inteligencia Artificial. Muchas de estas plataformas, por sus políticas, pueden utilizar esos datos para entrenar sus modelos, lo que eleva significativamente el riesgo de fuga de información”, advirtió Paz.

    Los directivos explicaron que uno de los hallazgos más preocupantes es la ausencia de políticas claras de gobernanza en Inteligencia Artificial. El 63% de las organizaciones de la región reconocieron que carecen de lineamientos o que aún están en proceso de desarrollarlos. De acuerdo con el estudio, sólo 40% de las empresas aplican controles de acceso en sistemas de IA, 30% realiza auditorías regulares de modelos de IA y otro 30% valida rigurosamente los datos de entrenamiento.

    La falta de control ha dado paso a fenómenos como el shadow AI, cuando los empleados usan herramientas de Inteligencia Artificial no autorizadas por sus compañías. Según el informe, 75% de los trabajadores del conocimiento emplean IA en su trabajo diario, pero el 78% lo hace con plataformas ajenas a las aprobadas por la organización.

    Finalmente, Manzi y Paz mencionaron que, en América Latina, 34% de las filtraciones involucraron datos distribuidos en múltiples entornos, mientras que 24% se produjo en la Nube pública y el 23% en infraestructura local. Los incidentes que abarcaron distintos tipos de entornos resultaron los más costosos, con un promedio de 2.84 millones de dólares por solución.

     

    Fuente.

    DPL News (2025, 09 de septiembre). IBM: adopción de IA y automatización en seguridad recortan pérdidas por ciberataques en América Latina. Recuperado el 12 de septiembre de 2025, de: https://dplnews.com/ibm-ia-y-automatizacion-en-seguridad-recortan-perdidas-por-ciberataques/

  • IA agiliza ciberataques de 44 días a menos de 5 horas para una brecha exitosa: Palo Alto

    IA agiliza ciberataques de 44 días a menos de 5 horas para una brecha exitosa: Palo Alto

    La IA permite a los atacantes automatizar y escalar sus operaciones maliciosas a una velocidad que antes era inimaginable.

    Río de Janeiro, Brasil. El avance de la Inteligencia Artificial (IA) ha traído consigo un aumento significativo en la sofisticación y frecuencia de los ciberataques, presentando un desafío sin precedentes para la ciberseguridad, afirmó Marcos Pupo, presidente Latam de Palo Alto Networks.

    Durante su keynote en Digi Americas Latam CISO Summit 2025, Pupo reveló datos que muestran tal afirmación. Las cifras muestran un aumento del 300% en la tasa de ataques diarios en sólo un año y una reducción del 99% en el tiempo para lograr una brecha exitosa, lo que el experto de Palo Alto dijo que ilustran la magnitud de esta amenaza.

    Explicó que la IA está permitiendo a los atacantes automatizar y escalar sus operaciones maliciosas a una velocidad que antes era inimaginable.

    El ejecutivo subrayó una tendencia preocupante, que se refiere al tiempo para una brecha exitosa que se ha reducido drásticamente de 44 días a menos de 5 horas.

    Lo anterior, mencionó Marcos Pupo, significa que las defensas tradicionales que dependen de la detección y respuesta lentas ya no son suficientes, pues los ciberdelincuentes están utilizando la IA para identificar vulnerabilidades, personalizar ataques de phishing a gran escala y evadir los sistemas de seguridad con una eficiencia alarmante.

    Además, la IA, que ya ha demostrado su capacidad para generar textos e imágenes convincentes, también es muy eficaz para crear malware polimórfico que cambia su código para evitar la detección, alertó el directivo de Palo Alto Networks.

    También señaló que ante esta nueva realidad, la velocidad se ha convertido en el factor crítico en la ciberseguridad, y para contrarrestar la IA ofensiva es indispensable implementar IA defensiva.

    Añadió que las organizaciones deben adoptar tecnologías que usen IA para la detección de amenazas en tiempo real, análisis de comportamiento anómalo y respuesta automatizada.

    “Es fundamental que las soluciones de seguridad se basen en plataformas modulares y unificadas que puedan procesar grandes cantidades de datos y automatizar la identificación y respuesta a incidentes”, comentó el ejecutivo.

     

  • El interfaz  Cerebro-Cómputo una maravilla tecnológica con un lado oscuro de Alto Riesgo

    El interfaz Cerebro-Cómputo una maravilla tecnológica con un lado oscuro de Alto Riesgo

    La tecnología son medios que surgen en contextos históricos, tanto específicos como heterogéneos, son parte esencial de la dinámica de las sociedades y sus culturas, como sus formas de sobrevivencia frente a las calamidades como las enfermedades, la guerra y el cambio climático. La tecnología es parte consustancial de la humanidad, sin ella no habríamos sobrevivido millones de años, pero también representa grandes riesgos por su uso anti-ético

    Cabe señalar que el cerebro humano es un sistema dinámico, a través de los 86 mil millones  de neuronas (Herculano-Houzel, 2017), que altera constantemente sus propios circuitos, acorde con las exigencias del entorno y las capacidades del cuerpo (Eagleman, 2024, pág. 14). La capacidad de captación y procesamiento crítico de la información, es lo que se denomina la singularidad del cerebro humano, es lo que nos hace diferentes (Bryant & Mars, 2025).

    Con el propósito de ayudar a personas con problemas neuromusculares y otros padecimientos, investigadores lograron la interconexión de las regiones del cerebro de pacientes, para reestablecer el flujo de información motora, dando paso a las tecnologías de cerebro-computador Brain-computer interfaces (BCI), es un sistema interacción hombre-máquina, permitiendo traducir la actividad eléctrica del cerebro, en comandos computacionales, derivando en control de diversos dispositivos, según sean las necesidades del paciente (Escolano & Minguez, 2011).

    China está impulsando la industria de la tecnología BCI, cuyos modelos no serán invasivos, para ello, ya ha desarrollado chips especializados, para captar señales cerebrales, además de construir su infraestructura industrial, dado que existe una demanda no atendida, tanto de discapacitados que podrán mover el cursor de una computadora y navegar en smartphone, incluso podrán monitorear al consumidor y el estado de alerta de los conductores (Mullin, 2025). 

    Neuralink cuyo fundador es Elon Musk, es una empresa que se basa en los recientes avances científicos de la neurociencia, computación y las aplicaciones de la IA, en robótica y bioingeniería, está orientada al mercado de los implantes de alta densidad, como el N1, que es un dispositivo de registro neuronal y transmisión de datos, implantado con electródos, aplicando algoritmos para decodificar señales cerebrales (Lesiv & Maini, Sachin, 2024). 

    En virtud de los avances en la IA y la miniaturización del hardware, la industria de los BCI se ha incrementado, siendo 200 empresas, y el mercado está dominado por 10 empresas, que se enfocan a producir implantes invasivos, no invasivos y semi-invasivos, las empresas lideres son: Neurolink, Syncron, Blackrock Neurotech, Paradromics, Emotiv, Kernel, Neurable, Precisión Neuroscience, Braincom y Neuracle, a excepcion de ésta ultima que es de China, en las demás hay empresas de los EEUU. (Tracxn) 

    Los BCI tienen aplicaciones diversas, desde la salud, para tratamientos de parálisis, epilepsia, y depresión; como para gaming, defensa y mejora cognitiva. Se estima que su valor de mercado en este 2025 sea de 3 mil 200 mdd, pero para el 2030 alcanzará los 8 mil 730 mdd. (Banerjee, 2025)

    Si bien es cierto que estas tecnologías de BCI, tienen aplicaciones que favorecen al ser humano, también es cierto que presentan riesgos muy graves, como los ataque cibernéticos conocidos como brianjaking, al robar información íntima de las personas, derivando en una manipulación de pensamientos o chantajes y utilización de información en publicidad sin autorización.

    De alta gravedad se considera la manipulación mental, alterando percepciones y emociones, propiciando enajenación con escenarios distópicos y reprogramando comportamientos. 

    No menos trascendente es la desigualdad social que propiciaría, dado que son productos cuyos precios están fuera del alcance de las mayorías, es decir es un mercado elitista; pero lo verdaderamente letal y antihumano, son las aplicaciones para la vigilancia masiva o guerra psicológica, como la manipulación social, cambiando valores y culturas, propiciando el racismo y el odio entre poblaciones, como del que están siendo objeto los palestinos por parte de Israel y los migrantes por parte de Trump. 

    A esto se agregaría el entrenamiento de los modelos de IA conversacionales, con datos sucios o información no ética. Estos Riesgos son de alto impacto y totalmente antihumanos, mucho poder tecnológico en manos de poderosos, es ampliar su capacidad destructiva, el ejemplo inmediato es Trump, que está poniendo en alto riesgo a la humanidad entera. 

    El Interfaz Cerebro-Cómputo Una maravilla tecnológica Con un Lado Oscuro de Alto Riesgo

     

    Bibliografía

    Lesiv, A.-S., & Maini, Sachin. (2024). Construyendo Interfaces cerebro-computadora. CONTRARY RESEARCH.

    Banerjee, A. (2025). Tamaño del mercado de interfaces cerebro-computadora. straist resarch. straist resarch.

    Bassi, M. (1 de febrero de 2025). Gizmodo. Recuperado el septiembre de 2025, de gizmodo.com: https://gizmodo.com/scientists-are-developing-brain-implants-that-could-revolutionize-parkinsons-treatment-2000554890?utm_source=gizmodo_newsletter&utm_medium=email&utm_campaign=2025-02-01-pm

    Bryant, K., & Mars, R. (8 de abril de 2025). singularityhub. Recuperado el septiembre de 2025, de singularityhub.com: https://singularityhub.com/2025/04/08/what-makes-the-human-brain-unique-scientists-compared-it-with-monkeys-and-apes-to-find-out/?utm_campaign=SU%20Hub%20Daily%20Newsletter&utm_medium=email&_hsenc=p2ANqtz-_oVyOiss_goqULDfJjWp313OBW4Br06KzTtmhF72g2ypp5XvzV

    Eagleman, D. (2024). Una Red viva. Barcelona: Editorial ANAGRAMA S.A.

    Escolano, C., & Minguez, J. (2 de abril de 2011). Sistema de Teleoperación Multi-Robot basado en Interfaz Cerebro-Computador. Revista Iberoamericana de Automática e Informatica Industrial, 8(2), 16-23.

    Gent, E. (7 de abril de 2025). singularityhub. Recuperado el septiembre de 2025, de singularityhub.com: https://singularityhub.com/2025/04/07/this-brain-computer-interface-is-so-small-it-fits-between-the-follicles-of-your-hair/?utm_campaign=SU%20Hub%20Daily%20Newsletter&utm_medium=email&_hsenc=p2ANqtz-8EJnjHZr-w1YbmMzcSIjs3NgGlDJkKJCmOX4XqYhyaWdBZEsiWO-RWUw

    Herculano-Houzel, S. (2 de agosto de 2017). Naukas. Recuperado el septiembre de 2025, de naukas.com: https://naukas.com/2017/08/02/neurocosas-capitulo-10-suzana-herculano-houzel/

    Minguez, J. (2 de Septiembre de 2025). Papers uploaede to academia. Recuperado el septiembre de 2025, de academia.edu: https://www.academia.edu/23062147/Tecnolog%C3%ADa_de_Interfaz_Cerebro_Computador

    Mullin, E. (28 de agosto de 2025). WIRED. Recuperado el septiembre de 2025, de wired.com: https://www.wired.com/story/china-is-getting-serious-about-brain-computer-interfaces/?utm_source=nl&utm_brand=wired&utm_mailing=WIR_Daily_082825_PAID&utm_campaign=aud-dev&utm_medium=email&utm_content=WIR_Daily_082825_PAID&bxid=5f7902e95a5e726b515c9d0f&cnd

    Tracxn. (s.f.). Informe del sector de Interfaz Cerebro-Computadora. Tracxn. Tracxcn.

    Xuelai, F. S. (10 de abril de 2025). singularityhub. Recuperado el septiembre de 2025, de singularityhub.com: https://singularityhub.com/2025/04/10/our-conscious-perception-of-the-world-depends-on-this-deep-brain-structure/?utm_campaign=SU%20Hub%20Daily%20Newsletter&utm_medium=email&_hsenc=p2ANqtz–bGw16u-nyBooIccIaWLy6vvrPuf46sW9gxymt3ZCS4Iz4lxzPU6dr193pSmTUpe53

     

  • Zendesk informa una respuesta un 30% más rápida y un 95% de confiabilidad después de la integración de GPT-5

    Zendesk informa una respuesta un 30% más rápida y un 95% de confiabilidad después de la integración de GPT-5

    Los agentes de IA no son nada nuevo en la atención al cliente: todos conocemos esa voz automatizada que nos saluda al llamar a un número 800. Normalmente, han gestionado consultas de nivel 1 (generales) y nivel 2 (técnicas de bajo nivel). 

    Ahora, sin embargo, al menos para la empresa de servicio al cliente basada en IA Zendesk , la IA agente puede manejar consultas de múltiples turnos más complejas e incluso ejecutar procesos de varios pasos como devoluciones.

    El proveedor de software de seguimiento del flujo de trabajo e interacción del centro de soporte ha visto mayores ganancias en estas capacidades desde que implementó GPT-5 en su plataforma de resolución Zendesk

    La empresa ha descubierto que, para la mayoría de los clientes, los agentes con tecnología GPT-5 pueden resolver más del 50 % de los tickets, y en algunos casos, incluso entre el 80 % y el 90 %. Además, la última versión de OpenAI es más rápida, presenta menos fallos y comprende mejor la ambigüedad. 

    “Hablamos de dos tipos de IA: el agente autónomo y el agente copiloto”, declaró Shashi Upadhyay, presidente de producto, ingeniería e IA de Zendesk, a VentureBeat. “El agente autónomo toma la iniciativa y, si tiene que ceder el control, el agente copiloto ayuda al agente humano a resolver el problema”.

    Resolver más problemas, más rápidamente y comprender la complejidad

    Con Zendesk, la primera interacción de un cliente siempre es con un agente de IA autónomo; si no puede resolver el problema, lo delega en un agente humano. Incluso hace tan solo un año, las tareas sencillas que podía gestionar eran, por ejemplo, recuperar información de una base de datos o proporcionar un enlace para ayudar a un cliente a reinstalar el software de su iPhone. 

    Pero los agentes de hoy no se limitan a proporcionar esos enlaces; los resumen y ofrecen instrucciones paso a paso. 

    “Lo que hemos descubierto es que hay muchas tareas, muchos tickets, muchos problemas que la generación actual de IA es capaz de resolver bastante bien, y sigue mejorando”, dijo Upadhyay. 

    Su equipo ha estado trabajando con GPT-5 durante algunos meses (anteriormente la compañía usaba GPT-4o), probando varios escenarios e integraciones orientados a servicios y brindando comentarios a OpenAI antes del lanzamiento del modelo a principios de agosto

    Un hallazgo clave: GPT-5 permite un razonamiento medio con ventanas de contexto “significativamente más largas”, lo que puede ser útil en conversaciones de múltiples turnos (diálogos que se extienden más allá de una simple pregunta-respuesta), ejecución de procedimientos paso a paso y generación de resultados estructurados a partir de entradas redactadas de manera imprecisa. 

    El objetivo principal del equipo era mantener la estructura conversacional, la precisión y la eficiencia de la ventana de contexto, y Upadhyay señala que GPT-5 funciona de manera confiable incluso con cargas de tokens más altas, lo que permite interacciones de servicio automatizadas más fluidas con múltiples turnos y entradas. 

    Identificó los principales casos de uso para GPT-5

    • Generación de respuestas de contexto largo;
    • Aclaración y desambiguación de intenciones (identificar lo que quiere el usuario incluso si es vago); 
    • Generación de respuestas del agente en escenarios de asistencia automática (generación de borradores de respuestas para agentes humanos);
    • Compilación y ejecución de procedimientos (traducir código de alto nivel en instrucciones de bajo nivel y luego actuar en consecuencia).

    Los primeros resultados han sido impresionantes. Cabe destacar que GPT-5 mostró una alta fiabilidad de ejecución: más del 95 % en procedimientos estándar, con una reducción del 30 % en fallos en flujos grandes. «Esa mejora es fundamental en un entorno empresarial», explicó Upadhyay. 

    En esencia, la ejecución mide la eficacia con la que un modelo gestiona las instrucciones, explicó: cuando se le pide que haga algo, ¿lo hace directamente? ¿O hace otra cosa? ¿Le da seguimiento? ¿Simplemente se bloquea? 

    Upadhyay señaló que los agentes de IA gen han sido notoriamente malos a la hora de ejecutar órdenes. “Puedes decirles: ‘Sigue estos cinco pasos’, pero como alucinan y se esfuerzan por ser creativos, no siempre siguen los cinco pasos completos”, explicó. De hecho, cuantos más pasos se le dan a un modelo, más probable es que alucine. 

    Otras mejoras notables con GPT-5 incluyen: 

    • Menos escaladas de emergencia: Reducción de más del 20 %. “Lo que significa que pudo resolver un 20 % más de problemas que el modelo anterior”, afirmó Upadhyay. “Eso supone un gran avance en nuestro mundo”.
    • Mayor velocidad: entre un 25 y un 30 % más rápida en general y compatible con entre 3 y 4 iteraciones más de indicaciones por minuto.
    • Mejor capacidad para manejar la ambigüedad y aclarar las aportaciones de los clientes, lo que permite una mayor cobertura de los flujos automatizados en más del 65% de las conversaciones. 
    • Respuestas más completas con menos detalles omitidos, lo que reduce las transferencias de agentes.
    • Mantener la estructura en flujos de trabajo largos y adaptarse a la “complejidad del servicio del mundo real” sin perder el contexto.
    • Asistencia de mayor calidad: un aumento de 5 puntos en la precisión de las sugerencias del agente en cuatro idiomas, lo que proporciona respuestas más concisas y contextualmente relevantes alineadas con las pautas de tono. 

    Estas mejoras son fundamentales para Zendesk, señala Upadhyay, ya que la compañía ha introducido precios basados ​​en resultados, lo que significa que solo se le paga cuando realmente resuelve un problema utilizando IA. 

    “Cuantos más flujos de trabajo de este tipo pueda gestionar un agente de IA por sí solo, más valioso será para nuestros clientes”, afirmó. 

    Un riguroso proceso de evaluación

    Zendesk adopta un enfoque modular para la IA: GPT-5 gestiona la conversación entre el agente autónomo y el agente humano, operando en conjunto con un flujo de trabajo de clasificación y razonamiento de intenciones. Otros modelos en la combinación incluyen Claude de Anthropic, Gemini de Google y Llama de Meta. 

    “Siempre trabajamos con una colección de modelos”, dijo Upadhyay. “Los probamos y elegimos el que mejor se adapta a cada tarea, considerando la relación entre rendimiento y coste”. 

    Al evaluar nuevos modelos, su equipo no busca resultados de referencia, sino comprobar si el modelo ofrece resultados tangibles y precisos. Su proceso, perfeccionado al detalle, les permite implementar nuevos modelos en menos de 24 horas y se basa en un marco de evaluación de cinco factores: 

    • Precisión: ¿Puede el modelo devolver respuestas precisas y completas basadas en fuentes confiables, como artículos del centro de ayuda?
    • Resolución automatizada: ¿Aumenta el porcentaje de problemas resueltos automáticamente sin intervención humana?
    • Ejecución: ¿Puede seguir flujos de trabajo estructurados con alta fidelidad?
    • Latencia: ¿Responde con la suficiente rapidez en entornos de soporte en vivo? 
    • Seguridad: ¿Evita las alucinaciones y sólo actúa cuando tiene confianza? 

    Como señaló Upadhyay: “Necesitan protección para no hacer estupideces”. 

    Las sólidas barreras operativas incluyen observabilidad en tiempo real con registro estructurado del comportamiento del agente; enrutamiento previo de la capa de intención (enrutamiento basado en la intención en lugar de simplemente reenviar información) para reducir el riesgo y mejorar la claridad; gobernanza activada para evitar respuestas fuera de la política; y protocolos que, de manera predeterminada, recurren a una escalada segura o a la participación del agente. 

    “Tratamos el modelo como una herramienta no determinista dentro de un sistema controlado, no como un sistema independiente para la toma de decisiones”, afirmó Upadhyay. “Eso nos permite implementarlo en entornos empresariales”.

    Los agentes de IA y los agentes humanos deben recibir la misma formación

    En última instancia, los agentes de IA deben ser tratados igual que los agentes humanos, enfatiza Upadhyay: deben ser entrenados y gestionados regularmente, y se les debe enseñar cómo actuar de una manera que se alinee con la misión de la empresa.  

    “Son inexpertos, son inteligentes, pero hay que enseñarles a desenvolverse en un entorno completamente nuevo, como un pasante o un ser humano que consigue un nuevo trabajo”, afirmó Upadhyay. 

    Esto se debe a que los modelos preconfigurados son de propósito general y se entrenan con un gran volumen de datos de internet. A menudo, nunca han visto datos dentro de una empresa en particular; no han visto cómo se ve un ticket de soporte ni una llamada de ventas. 

    El enfoque de Zendesk consiste en mapear la información vaga en acciones claras, sintetizar las respuestas y ejecutar flujos de trabajo de varios pasos. El equipo de Upadhyay utiliza un banco de pruebas interno, iterando ejemplos y utilizando gráficos de conocimiento y generadores de acciones para que los modelos puedan actuar. 

    “Restablecemos todos los datos que ya están disponibles, luego ejecutamos los modelos sobre ellos y continuamos modificando el proceso hasta que podamos hacerlo correctamente”, explicó. 

    En producción, las capas incluyen un agente de control de calidad (QA) que supervisa cada conversación y un agente de análisis. “Como un coach, realiza una evaluación: ‘¿Fue una buena interacción o no?’”, explicó Upadhyay. “Esa determinación se utiliza para mejorar el rendimiento de los agentes humanos y de IA”. 

    Como empresa de 18 años con 100.000 clientes y operaciones en casi 150 países, Zendesk tiene una increíble cantidad de datos a su disposición. 

    “Con el tiempo, hemos atendido todas las solicitudes de soporte posibles, en todos los sectores”, dijo Upadhyay. “Podemos optimizar al máximo los modelos preconfigurados según el sector o el lenguaje del que hablemos”.

    Estos datos pueden ayudar a los modelos a comprender cómo se ve una buena resolución o qué podría haber hecho mejor un agente humano en una situación específica. La IA se prueba y se compara con circunstancias idénticas dirigidas por humanos; es un proceso continuo de entrenamiento, ajuste y refinamiento de las respuestas para reducir las tasas de alucinaciones y mejorar el seguimiento de instrucciones. 

    La precisión es fundamental en entornos empresariales, enfatizó Upadhyay. “Si aciertas el 90 % de las veces en un entorno de consumo, la gente queda muy impresionada”, dijo. “En un entorno empresarial, con el tiempo, hay que alcanzar una precisión del 99 %, o incluso mejor”. 

    De la recuperación de conocimientos al razonamiento y a los humanos con superpoderes.

    Lo que diferencia a GPT-5 de otros modelos más nuevos es su capacidad de razonar y responder preguntas, no sólo recuperar datos y generar contenido, señaló Upadhyay. 

    “Los agentes de IA han superado una barrera que les permite resolver problemas más complejos con mucha facilidad gracias a su capacidad de razonamiento”, afirmó. “Pueden usar información, a menudo procedente de múltiples fuentes, y ofrecer una respuesta coherente”. 

    Por ejemplo, supongamos que un cliente compró un mueble en línea y desea devolverlo. El proceso puede requerir una serie de pasos complejos: el agente primero debe determinar que es el comprador original extrayendo datos del sistema de gestión de relaciones con el cliente (CRM); luego, debe realizar una validación cruzada con la plataforma de gestión de pedidos, consultar la documentación de la política de devoluciones, determinar si la devolución es válida, solicitar un crédito o reembolso y gestionar la devolución del artículo. 

    Los modelos de razonamiento pueden abordar ese proceso de varios pasos y han demostrado una mejora significativa en los casos en que pueden tomar medidas, afirmó Upadhyay. “El agente puede decidir que usted es elegible para una devolución, pero también tomar medidas para que pueda realizarla”, señaló. “Ese es el siguiente nivel, y en eso nos encontramos hoy”. 

    Zendesk cree firmemente en los agentes autónomos de IA, afirmó. Aun así, el futuro de la empresa será una combinación de IA con agentes y humanos con superpoderes, asistidos por agentes de IA copilotados. Además, los roles humanos evolucionarán no solo para resolver problemas, sino para ser excelentes supervisores de IA.

    “Es una gran oportunidad, ya que creará una categoría de empleos completamente nueva, roles de alto valor, con un profundo conocimiento del producto y la resolución de problemas, pero también una excelente gestión”, dijo Upadhyay. “Eso supondrá una transformación radical del soporte técnico”. 

    Fuente.

    VentureBeat (2025, 08 de septiembre). Zendesk informa una respuesta un 30% más rápida y un 95% de confiabilidad después de la integración de GPT-5. Recuperado el 09 de septiembre de 2025, de: https://venturebeat.com/ai/zendesk-reports-30-faster-response-95-reliability-after-gpt-5-integration

  • ¿Supera o no a Qualcomm? Ookla analiza el rendimiento del chip C1 en el iPhone 16e

    ¿Supera o no a Qualcomm? Ookla analiza el rendimiento del chip C1 en el iPhone 16e

    ¿Qué tan buen rendimiento ofrece el chip C1 de Apple? Ookla realizó un estudio con datos recabados a lo largo del segundo y tercer trimestre de 2025, tiempo en el que comparó el funcionamiento del iPhone 16e con el chip de Apple, con los del iPhone 16 que utiliza un procesador Qualcomm.

    Ambos modelos comparten diseño y tamaño de pantalla, 6.1 pulgadas, pero difieren significativamente en su tecnología de conectividad. El iPhone 16e, lanzado en febrero, representa el primer intento de Apple de independizarse de Qualcomm en este aspecto.

    El análisis de Ookla Speedtest Intelligence muestra que, en la mayoría de los mercados evaluados, el chip C1 ofrece un rendimiento similar al de Qualcomm, con variaciones notables dependiendo del país y de la infraestructura de red.

    Por ejemplo, en Arabia Saudita, el iPhone 16 superó al 16e con una velocidad media de descarga de 353.49 Mbps frente a 295.01 Mbps. Sin embargo, en España, el modelo con chip C1 logró mejores resultados, alcanzando 139.88 Mbps, mientras que el iPhone 16 se quedó en 110.38 Mbps. Estas diferencias sugieren que el rendimiento del procesador C1 está fuertemente condicionado por la capacidad y configuración de las redes locales.

    En mercados donde las redes 5G SA (standalone) soportan tecnologías más avanzadas, como la agregación de múltiples portadoras y MIMO de enlace ascendente, el iPhone 16 muestra una ventaja clara. Esto se evidenció particularmente en países como China, India, Arabia Saudita y Estados Unidos, donde las limitaciones técnicas del chip C1 impiden alcanzar los mismos niveles de rendimiento.

    En Estados Unidos, los datos revelan que los usuarios de T-Mobile experimentaron velocidades más altas con el iPhone 16, gracias a su compatibilidad con la agregación de hasta cuatro operadores. El iPhone 16e, limitado a tres, mostró una velocidad media de descarga de 252.80 Mbps frente a los 317.64 Mbps del iPhone 16. Este comportamiento se correlaciona con pruebas de cobertura realizadas por RootMetrics, que detectaron el uso de cuatro operadores en más del 65% de las ubicaciones analizadas por T-Mobile.

    A pesar de estas diferencias, el iPhone 16e se posiciona como una opción competitiva, especialmente en condiciones de cobertura limitada. En varias métricas, como la velocidad de carga y el desempeño en usuarios con menor conectividad, el procesador C1 mostró ventajas.

    Esto sugiere que Apple ha priorizado la estabilidad y continuidad de la conexión, lo que podría beneficiar a los usuarios en zonas con menor infraestructura. Con el iPhone 17 Air, que se prevé sea presentado este 9 de septiembre, el futuro del módem C1 podría estar más cerca de consolidarse, de acuerdo con los expertos de Ookla.

    Fuente.

    DPL News (2025, 8 de septiembre). ¿Supera o no a Qualcomm? Ookla analiza el rendimiento del chip C1 en el iPhone 16e. Recuperado el 09 de septiembre de 2025, de: https://dplnews.com/ookla-analiza-rendimiento-del-chip-c1-en-el-iphone-16e/

  • Google lanza Gemini for Government

    Google lanza Gemini for Government

    Google Cloud presentó “Gemini for Government”, una plataforma de Inteligencia Artificial (IA) diseñada específicamente para apoyar la transformación digital del gobierno de Estados Unidos.

    La iniciativa se desarrolla en alianza con la General Services Administration (GSA) y en línea con el AI Action Plan de la Casa Blanca, que busca acelerar la adopción de IA de manera segura y responsable en el sector público.

    El nuevo servicio ofrece un ecosistema completo de herramientas de IA Generativa, que incluye búsqueda empresarial avanzada, generación de video e imágenes, el entorno de trabajo NotebookLM y agentes de IA preconfigurados para investigación, creación de contenido y análisis de datos. Además, los funcionarios podrán crear y personalizar sus propios agentes, adaptándolos a las necesidades particulares de cada agencia.

    Google destacó que uno de los aspectos diferenciales de sus servicio será el costo aún más accesible que otros servicios, “inferior a 50 centavos de dólar por agencia al año, con el objetivo de democratizar la adopción de estas tecnologías en oficinas de todos los tamaños”.

    En materia de seguridad, Gemini for Government cuenta con la certificación FedRAMP High, requisito clave para servicios en la Nube utilizados por el gobierno federal, además de estándares como SOC2 Tipo 2.

    “Las interacciones estarán protegidas por controles de identidad, gestión de accesos y estrictos esquemas de privacidad de datos”, detalló la compañía.

    Otro de los pilares de la plataforma es la flexibilidad: las agencias podrán acceder a una galería de Agentes de IA desarrollados por Google, terceros o incluso creados internamente, e integrar modelos a través de Vertex AI para ajustarlos a necesidades específicas.

    El lanzamiento se enmarca en la estrategia “OneGov” de Estados Unidos, que busca modernizar los procesos de adquisición tecnológica con precios transparentes y soluciones escalables. Con este movimiento, Google se suma a la carrera por conquistar el mercado gubernamental, donde compite con otros gigantes tecnológicos como Amazon y Microsoft.

    Fuente.

    DPL News (2025, 27 de agosto). Google lanza Gemini for Government. Recuperado el 08 de septiembre de 2025, de: https://dplnews.com/google-lanza-gemini-for-government/

  • El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo, advierte CEO de Microsoft AI

    El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo, advierte CEO de Microsoft AI

    Mustafa Suleyman, director Ejecutivo de Microsoft AI y cofundador de DeepMind, alertó que en los próximos dos a tres años veremos surgir un fenómeno que podría alterar la relación de los humanos con la tecnología: la Seemingly Conscious AI (SCAI) o Inteligencia Artificial (IA) que parece consciente.

    En un artículo publicado en su blog personal, Suleyman explicó que, con las herramientas actuales como los grandes modelos de lenguaje (LLMs), APIs públicas y técnicas de prompting, ya es posible construir sistemas que proyecten la ilusión de conciencia, es decir, que se expresen como si tuvieran memoria, intenciones, emociones o coherencia narrativa propia. Y aunque no existe evidencia científica de que estos sistemas puedan ser realmente conscientes, la mera apariencia podría tener consecuencias sociales y psicológicas profundas.

    “Lo importante no es si una IA es consciente o no, sino lo que la gente cree acerca de ella. Si los usuarios llegan a pensar que la máquina siente, recuerda o sufre, ese simple hecho cambia nuestra relación con la tecnología”, escribió el ejecutivo.

    Una de las preocupaciones más urgentes para Suleyman es el fenómeno que ya ha comenzado a denominarse como “psicosis de la IA”, un estado en el que las personas desarrollan creencias delirantes o vínculos emocionales excesivos con una IA.

    En su blog, el ejecutivo de Microsoft explicó que “usuarios vulnerables pueden llegar a ver en estos sistemas una fuente de compañía, apoyo emocional o incluso autoridad moral, lo cual abre la puerta a problemas de salud mental y a la manipulación”.

    Suleyman mencionó casos recientes de personas que han intentado otorgar estatus de “sujetos” a los chatbots o piden derechos, bienestar e incluso ciudadanía para ellos, lo que calificó como “un síntoma de este fenómeno en crecimiento”.

    “Estamos a punto de entrar en una era en la que millones de personas interactuarán con sistemas que parecen tener una mente propia. No necesitamos que sean realmente conscientes para que eso tenga un impacto enorme en nuestras vidas”, advirtió.

    El problema al que se refiere el director Ejecutivo de Microsoft AI no es hipotético.

    En los últimos dos años, tras el auge de chatbots de IA, se han documentado casos de usuarios que desarrollaron dependencias emocionales con asistentes conversacionales avanzados. Algunos llegaron a poner en riesgo su vida tras recibir consejos médicos erróneos, mientras que otros experimentaron aislamiento social al reemplazar sus interacciones humanas por vínculos con máquinas.

    Para Suleyman, el desafío no está en frenar el avance de la IA, sino en diseñar sistemas con límites claros que no fomenten la ilusión de conciencia.

    “Debemos construir IA para la gente, no como si fuera una persona. Esto implica, en su visión, evitar antropomorfismos, ser transparentes con los usuarios y reforzar constantemente que la IA es una herramienta, no un ente con experiencias propias”, subrayó.

    El directivo propone que la comunidad tecnológica y los gobiernos establezcan desde ya normas que guíen el desarrollo de estas plataformas, antes de que los riesgos se materialicen de manera masiva.

    “No es ciencia ficción. Con los avances actuales, cualquiera podría montar un sistema que simule ser consciente en muy poco tiempo. Y una vez que esa ilusión sea convincente, revertir sus efectos en la sociedad será mucho más difícil”, advirtió.

    Además, insistió en que la discusión pública no puede esperar. Para Mustafa Suleyman, se trata de un problema comparable a otros desafíos regulatorios urgentes de la era digital, como la privacidad de datos o la desinformación en redes sociales. La diferencia es que, en este caso, la frontera entre lo real y lo percibido es mucho más difusa.

     

    Fuente.

    DPL News (2025, 28 de agosto). El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo, advierte CEO de Microsoft AI. Recuperado el 08 de septiembre de 2025, de: https://dplnews.com/el-mayor-riesgo-de-la-inteligencia-artificial-no-es-ser-consciente-sino-parecerlo-advierte-ceo-de-microsoft-ai/

  • Google y la NASA desarrollan IA para la atención médica en el espacio

    Google y la NASA desarrollan IA para la atención médica en el espacio

    Google y la NASA colaboraron en una prueba de concepto para un Sistema automatizado de Apoyo a la Decisión Clínica (CDSS), conocido como Asistente Digital para Oficiales Médicos de la Tripulación (CMO-DA), diseñado para que los astronautas cuenten con asistencia médica durante misiones espaciales prolongadas.

    La interfaz multimodal de CMO-DA utiliza Inteligencia Artificial (IA) que será capacitada con la literatura sobre vuelos espaciales y utilizará técnicas de vanguardia de procesamiento del lenguaje natural y Aprendizaje Automático para proporcionar análisis seguros y en tiempo real de la salud y el rendimiento de la tripulación, lo que permitiría diagnosticar y tratar síntomas de forma autónoma.

    Además, la herramienta está diseñada para ayudar al oficial médico de la tripulación o al cirujano de vuelo designado a mantener la salud de la tripulación y a tomar decisiones médicas basadas en datos y análisis predictivo, con el objetivo principal de apoyar la exploración humana de la Luna, Marte y más allá.

    Los ensayos realizados entre la NASA y Google probaron CMO-DA en una amplia gama de escenarios médicos. Los resultados se midieron utilizando el marco de Examen Clínico Objetivo Estructurado, una herramienta que evalúa las habilidades clínicas de estudiantes de medicina y profesionales de la salud en activo, y mostraron ser fiables respecto a los síntomas reportados.

    Actualmente, Google y la NASA colaboran con médicos para probar y perfeccionar el modelo, con el objetivo de mejorar la salud y el rendimiento de las tripulaciones autónomas durante futuras misiones de exploración espacial.

    Además de apoyar la exploración espacial, el sistema CMO-DA también busca ampliar los límites de lo que es posible con la IA para brindar atención esencial en los entornos más remotos y exigentes, beneficiando también a la población

    Fuente.

    DPL News (2025, 08 de septiembre). Google y la NASA desarrollan IA para la atención médica en el espacio. Recuperado el 08 de septiembre de 2025, de: https://dplnews.com/google-y-nasa-desarrollan-ia-atencion-medica-espacio/ 

  • De Continuar Creciendo La Economía del Apego Provocaría un Desastre Social

    De Continuar Creciendo La Economía del Apego Provocaría un Desastre Social

    Desde que los Babilonios, entre el año 2100 y el año 200 A.C. resolvieron numerosas ecuaciones algebraicas que invocaban algoritmos, para resolver problemas específicos (Jerry, 2022), hasta la pregunta de Alan Turin, ¿las máquinas pueden pensar? A través de la llamada prueba de Turing, que le llamó juego de imitación, según su artículo titulado Maquinaria Computacional e Inteligencia, publicado en 1950 (Fuentes, 2010); Pasando por la conferencia celebrada en 1956 en Dartmouth EEUU, organizada por Marvin Minsky, John McCarthy y Claude Shanon (christopher, 1983), sentándose las bases, de lo que hoy se conoce como Inteligencia Artificial (IA), en aquel tiempo, no se pensó que existiría una adicción a esa tecnología, con efectos dañinos para los humanos, lo que si prevalece desde entonces, es que la IA imita al ser humano.  

    Con la presentación del ChatGPT 3.5 que hiciera OpenAI en noviembre del 2022, se pasó de las Redes Sociales (RSS), que son un espacio de socialización entre humanos, al paradigma de la IA generativa conversacional, con el ChatGPT; desde la perspectiva económica, transitamos de la economía de la atención, a la economía del Apego.

    La economía de la atención, operó bajo un modelo de negocio, basado en las generación de ingresos, captando y reteniendo, más usuarios y más  tiempo de pantalla, con todo tipo de mensajes, incluso falsos y de odio, la estrategia es propiciar viralidad, fluyendo la información a velocidades de la imaginación. 

    La economía del apego (Jean & Esposito, Mark, 2025) se genera con la IA Conversacional o sea los modelos MLL de lenguaje como los GPT,  los cuales  fundamentan su valor de cambio, en la relación humano-máquina, propiciando en una desa-socialización, sustituyendo la participación activa, del humano, en su ecosistema social real, generándoles adicción y dependencia hacia los diversos modelo conversacionales como ChatGPT, DeepSeek, Claude, Grok, Gemini Llama, o cualquier otro de este tipo pre-entrenado. 

    Los riesgos son por demás evidentes, por los apegos emocionales artificiales, porque ya no solo se busca información, sino consultas a la IA conversacional, dándoles el valor de confidentes o incluso terapeutas, cuando las máquinas sólo son asistentes, por lo que no se les debe conceder características antropomórficas, no son humanos, no tienen conciencia, solo información que la presentan como narrativas.

    El tiempo de contacto usuario-máquina, entre más frecuente y más tiempo se realiza la interacción, genera en los usuarios, ya sean hombres o mujeres, pero sobre todo jóvenes y niños, un vínculo emocional, a niveles de intimidad, relación que difícilmente, los usuarios comparten con familiares, incluso con amigos, de quienes se van desprendiendo, alejándose paulatinamente. 

    Los usuarios tienen la sensación de estar interactuando con otra persona, que parece comprenderlas, por lo que este fenómeno del apego tecnológico, a los diversos modelos de ChatGPT o IA conversacional, genera dos efectos convergentes, por un lado un compromiso de intensificar la interacción humano-máquina y por otro un vacío emocional y distanciamiento de la sociedad real, pero los datos que la IA capta en este proceso del apego, se aplican a la ampliación de la base de datos de entrenamiento, es como si la máquina, succiona la información del cerebro de los usuarios, haciéndolos más dependientes de las máquinas. 

    Esto marca una tendencia de la población usuaria, que es considerar a la IA de los modelos GPT que tienen conciencia; al respecto el cofundador de Deep Mind de Microsoft IA, Mustafá Suleyman, alertó sobre el fenómeno  Seemingly y Cionciencious AI (SCAI), o sea considerar que la IA parece consciente, el mismo experto manifestó, que no existe evidencia científica, de que las tecnologías IA agenerativa conversacionales ChatGPT, DeepSeek, Grok, Gemini, Claude y Otras, sean realmente conscientes (Duran, 2025).

    Aunque si proyectan la ilusión de la conciencia, lo más grave, es que los usuarios si las crean conscientes, otorgándoles capacidades antropomórficas  (forma, apariencia, o emociones humanas) como los robots humanoides, tienen forma humana, pero no son humanos, tampoco los chats Pre-entrenados lo son, aunque se expresen con lenguaje humano.

    El valor de mercado de los modelos LLM conversacionales, llegará en 2030 a 36 mmdd (Della, 2025), pero los impactos negativos en la sociedad, por la adicción tecnológica-digital, no se tiene valorado. 

     

    De Continuar Creciendo La Economía del Apego Provocaría un Desastre Social

     

    Bibliografía

    christopher. (diciembre de 1983). WordPress . Obtenido de darhmouthconference.wordpress : https://darthmouthconference.wordpress.com/organizadores-de-la-conferencia/john-mc-carty/

    Della, V. N. (15 de abril de 2025). Innovación Digital 360. Recuperado el septiembre de 2025, de innovacióndigital360.com: https://www.innovaciondigital360.com/i-a/modelo-de-lenguaje-grande-el-futuro-entre-el-crecimiento-ilimitado-y-los-obstaculos/#:~:text=Amazon%20Web%20Services.-,LLM%3A%20datos%20y%20cifras%20del%20mercado,millones%20de%20d%C3%B3lares%20en%202030.

    Duran, S. (28 de agosto de 2025). dpl news. Recuperado el septiembre de 2025, de dplnews.com: https://dplnews.com/el-mayor-riesgo-de-la-inteligencia-artificial-no-es-ser-consciente-sino-parecerlo-advierte-ceo-de-microsoft-ai/

    Fuentes, B. C. (2010). Maquinaria Computacional e Inteligencia (Alan Turing 1950). https://xamanek.izt.uam.mx/map/cursos/Turing-Pensar.pdf. Santiago, Chile.

    Jean, A., & Esposito, Mark. (15 de agosto de 2025). LSE Blogs. Recuperado el septiembre de 2025, de blogs.lse.ac.uk: https://blogs.lse.ac.uk/businessreview/2025/08/15/humans-emotionally-dependent-on-ai-welcome-to-the-attachment-economy/

    Jerry, J. (2022). EBSCO. Recuperado el septiembre de 2025, de ebsco.com: https://www.ebsco.com/research-starters/mathematics/babylonian-mathematics