Author: admin

  • Zendesk informa una respuesta un 30% más rápida y un 95% de confiabilidad después de la integración de GPT-5

    Zendesk informa una respuesta un 30% más rápida y un 95% de confiabilidad después de la integración de GPT-5

    Los agentes de IA no son nada nuevo en la atención al cliente: todos conocemos esa voz automatizada que nos saluda al llamar a un número 800. Normalmente, han gestionado consultas de nivel 1 (generales) y nivel 2 (técnicas de bajo nivel). 

    Ahora, sin embargo, al menos para la empresa de servicio al cliente basada en IA Zendesk , la IA agente puede manejar consultas de múltiples turnos más complejas e incluso ejecutar procesos de varios pasos como devoluciones.

    El proveedor de software de seguimiento del flujo de trabajo e interacción del centro de soporte ha visto mayores ganancias en estas capacidades desde que implementó GPT-5 en su plataforma de resolución Zendesk

    La empresa ha descubierto que, para la mayoría de los clientes, los agentes con tecnología GPT-5 pueden resolver más del 50 % de los tickets, y en algunos casos, incluso entre el 80 % y el 90 %. Además, la última versión de OpenAI es más rápida, presenta menos fallos y comprende mejor la ambigüedad. 

    “Hablamos de dos tipos de IA: el agente autónomo y el agente copiloto”, declaró Shashi Upadhyay, presidente de producto, ingeniería e IA de Zendesk, a VentureBeat. “El agente autónomo toma la iniciativa y, si tiene que ceder el control, el agente copiloto ayuda al agente humano a resolver el problema”.

    Resolver más problemas, más rápidamente y comprender la complejidad

    Con Zendesk, la primera interacción de un cliente siempre es con un agente de IA autónomo; si no puede resolver el problema, lo delega en un agente humano. Incluso hace tan solo un año, las tareas sencillas que podía gestionar eran, por ejemplo, recuperar información de una base de datos o proporcionar un enlace para ayudar a un cliente a reinstalar el software de su iPhone. 

    Pero los agentes de hoy no se limitan a proporcionar esos enlaces; los resumen y ofrecen instrucciones paso a paso. 

    “Lo que hemos descubierto es que hay muchas tareas, muchos tickets, muchos problemas que la generación actual de IA es capaz de resolver bastante bien, y sigue mejorando”, dijo Upadhyay. 

    Su equipo ha estado trabajando con GPT-5 durante algunos meses (anteriormente la compañía usaba GPT-4o), probando varios escenarios e integraciones orientados a servicios y brindando comentarios a OpenAI antes del lanzamiento del modelo a principios de agosto

    Un hallazgo clave: GPT-5 permite un razonamiento medio con ventanas de contexto “significativamente más largas”, lo que puede ser útil en conversaciones de múltiples turnos (diálogos que se extienden más allá de una simple pregunta-respuesta), ejecución de procedimientos paso a paso y generación de resultados estructurados a partir de entradas redactadas de manera imprecisa. 

    El objetivo principal del equipo era mantener la estructura conversacional, la precisión y la eficiencia de la ventana de contexto, y Upadhyay señala que GPT-5 funciona de manera confiable incluso con cargas de tokens más altas, lo que permite interacciones de servicio automatizadas más fluidas con múltiples turnos y entradas. 

    Identificó los principales casos de uso para GPT-5

    • Generación de respuestas de contexto largo;
    • Aclaración y desambiguación de intenciones (identificar lo que quiere el usuario incluso si es vago); 
    • Generación de respuestas del agente en escenarios de asistencia automática (generación de borradores de respuestas para agentes humanos);
    • Compilación y ejecución de procedimientos (traducir código de alto nivel en instrucciones de bajo nivel y luego actuar en consecuencia).

    Los primeros resultados han sido impresionantes. Cabe destacar que GPT-5 mostró una alta fiabilidad de ejecución: más del 95 % en procedimientos estándar, con una reducción del 30 % en fallos en flujos grandes. «Esa mejora es fundamental en un entorno empresarial», explicó Upadhyay. 

    En esencia, la ejecución mide la eficacia con la que un modelo gestiona las instrucciones, explicó: cuando se le pide que haga algo, ¿lo hace directamente? ¿O hace otra cosa? ¿Le da seguimiento? ¿Simplemente se bloquea? 

    Upadhyay señaló que los agentes de IA gen han sido notoriamente malos a la hora de ejecutar órdenes. “Puedes decirles: ‘Sigue estos cinco pasos’, pero como alucinan y se esfuerzan por ser creativos, no siempre siguen los cinco pasos completos”, explicó. De hecho, cuantos más pasos se le dan a un modelo, más probable es que alucine. 

    Otras mejoras notables con GPT-5 incluyen: 

    • Menos escaladas de emergencia: Reducción de más del 20 %. “Lo que significa que pudo resolver un 20 % más de problemas que el modelo anterior”, afirmó Upadhyay. “Eso supone un gran avance en nuestro mundo”.
    • Mayor velocidad: entre un 25 y un 30 % más rápida en general y compatible con entre 3 y 4 iteraciones más de indicaciones por minuto.
    • Mejor capacidad para manejar la ambigüedad y aclarar las aportaciones de los clientes, lo que permite una mayor cobertura de los flujos automatizados en más del 65% de las conversaciones. 
    • Respuestas más completas con menos detalles omitidos, lo que reduce las transferencias de agentes.
    • Mantener la estructura en flujos de trabajo largos y adaptarse a la “complejidad del servicio del mundo real” sin perder el contexto.
    • Asistencia de mayor calidad: un aumento de 5 puntos en la precisión de las sugerencias del agente en cuatro idiomas, lo que proporciona respuestas más concisas y contextualmente relevantes alineadas con las pautas de tono. 

    Estas mejoras son fundamentales para Zendesk, señala Upadhyay, ya que la compañía ha introducido precios basados ​​en resultados, lo que significa que solo se le paga cuando realmente resuelve un problema utilizando IA. 

    “Cuantos más flujos de trabajo de este tipo pueda gestionar un agente de IA por sí solo, más valioso será para nuestros clientes”, afirmó. 

    Un riguroso proceso de evaluación

    Zendesk adopta un enfoque modular para la IA: GPT-5 gestiona la conversación entre el agente autónomo y el agente humano, operando en conjunto con un flujo de trabajo de clasificación y razonamiento de intenciones. Otros modelos en la combinación incluyen Claude de Anthropic, Gemini de Google y Llama de Meta. 

    “Siempre trabajamos con una colección de modelos”, dijo Upadhyay. “Los probamos y elegimos el que mejor se adapta a cada tarea, considerando la relación entre rendimiento y coste”. 

    Al evaluar nuevos modelos, su equipo no busca resultados de referencia, sino comprobar si el modelo ofrece resultados tangibles y precisos. Su proceso, perfeccionado al detalle, les permite implementar nuevos modelos en menos de 24 horas y se basa en un marco de evaluación de cinco factores: 

    • Precisión: ¿Puede el modelo devolver respuestas precisas y completas basadas en fuentes confiables, como artículos del centro de ayuda?
    • Resolución automatizada: ¿Aumenta el porcentaje de problemas resueltos automáticamente sin intervención humana?
    • Ejecución: ¿Puede seguir flujos de trabajo estructurados con alta fidelidad?
    • Latencia: ¿Responde con la suficiente rapidez en entornos de soporte en vivo? 
    • Seguridad: ¿Evita las alucinaciones y sólo actúa cuando tiene confianza? 

    Como señaló Upadhyay: “Necesitan protección para no hacer estupideces”. 

    Las sólidas barreras operativas incluyen observabilidad en tiempo real con registro estructurado del comportamiento del agente; enrutamiento previo de la capa de intención (enrutamiento basado en la intención en lugar de simplemente reenviar información) para reducir el riesgo y mejorar la claridad; gobernanza activada para evitar respuestas fuera de la política; y protocolos que, de manera predeterminada, recurren a una escalada segura o a la participación del agente. 

    “Tratamos el modelo como una herramienta no determinista dentro de un sistema controlado, no como un sistema independiente para la toma de decisiones”, afirmó Upadhyay. “Eso nos permite implementarlo en entornos empresariales”.

    Los agentes de IA y los agentes humanos deben recibir la misma formación

    En última instancia, los agentes de IA deben ser tratados igual que los agentes humanos, enfatiza Upadhyay: deben ser entrenados y gestionados regularmente, y se les debe enseñar cómo actuar de una manera que se alinee con la misión de la empresa.  

    “Son inexpertos, son inteligentes, pero hay que enseñarles a desenvolverse en un entorno completamente nuevo, como un pasante o un ser humano que consigue un nuevo trabajo”, afirmó Upadhyay. 

    Esto se debe a que los modelos preconfigurados son de propósito general y se entrenan con un gran volumen de datos de internet. A menudo, nunca han visto datos dentro de una empresa en particular; no han visto cómo se ve un ticket de soporte ni una llamada de ventas. 

    El enfoque de Zendesk consiste en mapear la información vaga en acciones claras, sintetizar las respuestas y ejecutar flujos de trabajo de varios pasos. El equipo de Upadhyay utiliza un banco de pruebas interno, iterando ejemplos y utilizando gráficos de conocimiento y generadores de acciones para que los modelos puedan actuar. 

    “Restablecemos todos los datos que ya están disponibles, luego ejecutamos los modelos sobre ellos y continuamos modificando el proceso hasta que podamos hacerlo correctamente”, explicó. 

    En producción, las capas incluyen un agente de control de calidad (QA) que supervisa cada conversación y un agente de análisis. “Como un coach, realiza una evaluación: ‘¿Fue una buena interacción o no?’”, explicó Upadhyay. “Esa determinación se utiliza para mejorar el rendimiento de los agentes humanos y de IA”. 

    Como empresa de 18 años con 100.000 clientes y operaciones en casi 150 países, Zendesk tiene una increíble cantidad de datos a su disposición. 

    “Con el tiempo, hemos atendido todas las solicitudes de soporte posibles, en todos los sectores”, dijo Upadhyay. “Podemos optimizar al máximo los modelos preconfigurados según el sector o el lenguaje del que hablemos”.

    Estos datos pueden ayudar a los modelos a comprender cómo se ve una buena resolución o qué podría haber hecho mejor un agente humano en una situación específica. La IA se prueba y se compara con circunstancias idénticas dirigidas por humanos; es un proceso continuo de entrenamiento, ajuste y refinamiento de las respuestas para reducir las tasas de alucinaciones y mejorar el seguimiento de instrucciones. 

    La precisión es fundamental en entornos empresariales, enfatizó Upadhyay. “Si aciertas el 90 % de las veces en un entorno de consumo, la gente queda muy impresionada”, dijo. “En un entorno empresarial, con el tiempo, hay que alcanzar una precisión del 99 %, o incluso mejor”. 

    De la recuperación de conocimientos al razonamiento y a los humanos con superpoderes.

    Lo que diferencia a GPT-5 de otros modelos más nuevos es su capacidad de razonar y responder preguntas, no sólo recuperar datos y generar contenido, señaló Upadhyay. 

    “Los agentes de IA han superado una barrera que les permite resolver problemas más complejos con mucha facilidad gracias a su capacidad de razonamiento”, afirmó. “Pueden usar información, a menudo procedente de múltiples fuentes, y ofrecer una respuesta coherente”. 

    Por ejemplo, supongamos que un cliente compró un mueble en línea y desea devolverlo. El proceso puede requerir una serie de pasos complejos: el agente primero debe determinar que es el comprador original extrayendo datos del sistema de gestión de relaciones con el cliente (CRM); luego, debe realizar una validación cruzada con la plataforma de gestión de pedidos, consultar la documentación de la política de devoluciones, determinar si la devolución es válida, solicitar un crédito o reembolso y gestionar la devolución del artículo. 

    Los modelos de razonamiento pueden abordar ese proceso de varios pasos y han demostrado una mejora significativa en los casos en que pueden tomar medidas, afirmó Upadhyay. “El agente puede decidir que usted es elegible para una devolución, pero también tomar medidas para que pueda realizarla”, señaló. “Ese es el siguiente nivel, y en eso nos encontramos hoy”. 

    Zendesk cree firmemente en los agentes autónomos de IA, afirmó. Aun así, el futuro de la empresa será una combinación de IA con agentes y humanos con superpoderes, asistidos por agentes de IA copilotados. Además, los roles humanos evolucionarán no solo para resolver problemas, sino para ser excelentes supervisores de IA.

    “Es una gran oportunidad, ya que creará una categoría de empleos completamente nueva, roles de alto valor, con un profundo conocimiento del producto y la resolución de problemas, pero también una excelente gestión”, dijo Upadhyay. “Eso supondrá una transformación radical del soporte técnico”. 

    Fuente.

    VentureBeat (2025, 08 de septiembre). Zendesk informa una respuesta un 30% más rápida y un 95% de confiabilidad después de la integración de GPT-5. Recuperado el 09 de septiembre de 2025, de: https://venturebeat.com/ai/zendesk-reports-30-faster-response-95-reliability-after-gpt-5-integration

  • ¿Supera o no a Qualcomm? Ookla analiza el rendimiento del chip C1 en el iPhone 16e

    ¿Supera o no a Qualcomm? Ookla analiza el rendimiento del chip C1 en el iPhone 16e

    ¿Qué tan buen rendimiento ofrece el chip C1 de Apple? Ookla realizó un estudio con datos recabados a lo largo del segundo y tercer trimestre de 2025, tiempo en el que comparó el funcionamiento del iPhone 16e con el chip de Apple, con los del iPhone 16 que utiliza un procesador Qualcomm.

    Ambos modelos comparten diseño y tamaño de pantalla, 6.1 pulgadas, pero difieren significativamente en su tecnología de conectividad. El iPhone 16e, lanzado en febrero, representa el primer intento de Apple de independizarse de Qualcomm en este aspecto.

    El análisis de Ookla Speedtest Intelligence muestra que, en la mayoría de los mercados evaluados, el chip C1 ofrece un rendimiento similar al de Qualcomm, con variaciones notables dependiendo del país y de la infraestructura de red.

    Por ejemplo, en Arabia Saudita, el iPhone 16 superó al 16e con una velocidad media de descarga de 353.49 Mbps frente a 295.01 Mbps. Sin embargo, en España, el modelo con chip C1 logró mejores resultados, alcanzando 139.88 Mbps, mientras que el iPhone 16 se quedó en 110.38 Mbps. Estas diferencias sugieren que el rendimiento del procesador C1 está fuertemente condicionado por la capacidad y configuración de las redes locales.

    En mercados donde las redes 5G SA (standalone) soportan tecnologías más avanzadas, como la agregación de múltiples portadoras y MIMO de enlace ascendente, el iPhone 16 muestra una ventaja clara. Esto se evidenció particularmente en países como China, India, Arabia Saudita y Estados Unidos, donde las limitaciones técnicas del chip C1 impiden alcanzar los mismos niveles de rendimiento.

    En Estados Unidos, los datos revelan que los usuarios de T-Mobile experimentaron velocidades más altas con el iPhone 16, gracias a su compatibilidad con la agregación de hasta cuatro operadores. El iPhone 16e, limitado a tres, mostró una velocidad media de descarga de 252.80 Mbps frente a los 317.64 Mbps del iPhone 16. Este comportamiento se correlaciona con pruebas de cobertura realizadas por RootMetrics, que detectaron el uso de cuatro operadores en más del 65% de las ubicaciones analizadas por T-Mobile.

    A pesar de estas diferencias, el iPhone 16e se posiciona como una opción competitiva, especialmente en condiciones de cobertura limitada. En varias métricas, como la velocidad de carga y el desempeño en usuarios con menor conectividad, el procesador C1 mostró ventajas.

    Esto sugiere que Apple ha priorizado la estabilidad y continuidad de la conexión, lo que podría beneficiar a los usuarios en zonas con menor infraestructura. Con el iPhone 17 Air, que se prevé sea presentado este 9 de septiembre, el futuro del módem C1 podría estar más cerca de consolidarse, de acuerdo con los expertos de Ookla.

    Fuente.

    DPL News (2025, 8 de septiembre). ¿Supera o no a Qualcomm? Ookla analiza el rendimiento del chip C1 en el iPhone 16e. Recuperado el 09 de septiembre de 2025, de: https://dplnews.com/ookla-analiza-rendimiento-del-chip-c1-en-el-iphone-16e/

  • Google lanza Gemini for Government

    Google lanza Gemini for Government

    Google Cloud presentó “Gemini for Government”, una plataforma de Inteligencia Artificial (IA) diseñada específicamente para apoyar la transformación digital del gobierno de Estados Unidos.

    La iniciativa se desarrolla en alianza con la General Services Administration (GSA) y en línea con el AI Action Plan de la Casa Blanca, que busca acelerar la adopción de IA de manera segura y responsable en el sector público.

    El nuevo servicio ofrece un ecosistema completo de herramientas de IA Generativa, que incluye búsqueda empresarial avanzada, generación de video e imágenes, el entorno de trabajo NotebookLM y agentes de IA preconfigurados para investigación, creación de contenido y análisis de datos. Además, los funcionarios podrán crear y personalizar sus propios agentes, adaptándolos a las necesidades particulares de cada agencia.

    Google destacó que uno de los aspectos diferenciales de sus servicio será el costo aún más accesible que otros servicios, “inferior a 50 centavos de dólar por agencia al año, con el objetivo de democratizar la adopción de estas tecnologías en oficinas de todos los tamaños”.

    En materia de seguridad, Gemini for Government cuenta con la certificación FedRAMP High, requisito clave para servicios en la Nube utilizados por el gobierno federal, además de estándares como SOC2 Tipo 2.

    “Las interacciones estarán protegidas por controles de identidad, gestión de accesos y estrictos esquemas de privacidad de datos”, detalló la compañía.

    Otro de los pilares de la plataforma es la flexibilidad: las agencias podrán acceder a una galería de Agentes de IA desarrollados por Google, terceros o incluso creados internamente, e integrar modelos a través de Vertex AI para ajustarlos a necesidades específicas.

    El lanzamiento se enmarca en la estrategia “OneGov” de Estados Unidos, que busca modernizar los procesos de adquisición tecnológica con precios transparentes y soluciones escalables. Con este movimiento, Google se suma a la carrera por conquistar el mercado gubernamental, donde compite con otros gigantes tecnológicos como Amazon y Microsoft.

    Fuente.

    DPL News (2025, 27 de agosto). Google lanza Gemini for Government. Recuperado el 08 de septiembre de 2025, de: https://dplnews.com/google-lanza-gemini-for-government/

  • El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo, advierte CEO de Microsoft AI

    El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo, advierte CEO de Microsoft AI

    Mustafa Suleyman, director Ejecutivo de Microsoft AI y cofundador de DeepMind, alertó que en los próximos dos a tres años veremos surgir un fenómeno que podría alterar la relación de los humanos con la tecnología: la Seemingly Conscious AI (SCAI) o Inteligencia Artificial (IA) que parece consciente.

    En un artículo publicado en su blog personal, Suleyman explicó que, con las herramientas actuales como los grandes modelos de lenguaje (LLMs), APIs públicas y técnicas de prompting, ya es posible construir sistemas que proyecten la ilusión de conciencia, es decir, que se expresen como si tuvieran memoria, intenciones, emociones o coherencia narrativa propia. Y aunque no existe evidencia científica de que estos sistemas puedan ser realmente conscientes, la mera apariencia podría tener consecuencias sociales y psicológicas profundas.

    “Lo importante no es si una IA es consciente o no, sino lo que la gente cree acerca de ella. Si los usuarios llegan a pensar que la máquina siente, recuerda o sufre, ese simple hecho cambia nuestra relación con la tecnología”, escribió el ejecutivo.

    Una de las preocupaciones más urgentes para Suleyman es el fenómeno que ya ha comenzado a denominarse como “psicosis de la IA”, un estado en el que las personas desarrollan creencias delirantes o vínculos emocionales excesivos con una IA.

    En su blog, el ejecutivo de Microsoft explicó que “usuarios vulnerables pueden llegar a ver en estos sistemas una fuente de compañía, apoyo emocional o incluso autoridad moral, lo cual abre la puerta a problemas de salud mental y a la manipulación”.

    Suleyman mencionó casos recientes de personas que han intentado otorgar estatus de “sujetos” a los chatbots o piden derechos, bienestar e incluso ciudadanía para ellos, lo que calificó como “un síntoma de este fenómeno en crecimiento”.

    “Estamos a punto de entrar en una era en la que millones de personas interactuarán con sistemas que parecen tener una mente propia. No necesitamos que sean realmente conscientes para que eso tenga un impacto enorme en nuestras vidas”, advirtió.

    El problema al que se refiere el director Ejecutivo de Microsoft AI no es hipotético.

    En los últimos dos años, tras el auge de chatbots de IA, se han documentado casos de usuarios que desarrollaron dependencias emocionales con asistentes conversacionales avanzados. Algunos llegaron a poner en riesgo su vida tras recibir consejos médicos erróneos, mientras que otros experimentaron aislamiento social al reemplazar sus interacciones humanas por vínculos con máquinas.

    Para Suleyman, el desafío no está en frenar el avance de la IA, sino en diseñar sistemas con límites claros que no fomenten la ilusión de conciencia.

    “Debemos construir IA para la gente, no como si fuera una persona. Esto implica, en su visión, evitar antropomorfismos, ser transparentes con los usuarios y reforzar constantemente que la IA es una herramienta, no un ente con experiencias propias”, subrayó.

    El directivo propone que la comunidad tecnológica y los gobiernos establezcan desde ya normas que guíen el desarrollo de estas plataformas, antes de que los riesgos se materialicen de manera masiva.

    “No es ciencia ficción. Con los avances actuales, cualquiera podría montar un sistema que simule ser consciente en muy poco tiempo. Y una vez que esa ilusión sea convincente, revertir sus efectos en la sociedad será mucho más difícil”, advirtió.

    Además, insistió en que la discusión pública no puede esperar. Para Mustafa Suleyman, se trata de un problema comparable a otros desafíos regulatorios urgentes de la era digital, como la privacidad de datos o la desinformación en redes sociales. La diferencia es que, en este caso, la frontera entre lo real y lo percibido es mucho más difusa.

     

    Fuente.

    DPL News (2025, 28 de agosto). El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo, advierte CEO de Microsoft AI. Recuperado el 08 de septiembre de 2025, de: https://dplnews.com/el-mayor-riesgo-de-la-inteligencia-artificial-no-es-ser-consciente-sino-parecerlo-advierte-ceo-de-microsoft-ai/

  • Google y la NASA desarrollan IA para la atención médica en el espacio

    Google y la NASA desarrollan IA para la atención médica en el espacio

    Google y la NASA colaboraron en una prueba de concepto para un Sistema automatizado de Apoyo a la Decisión Clínica (CDSS), conocido como Asistente Digital para Oficiales Médicos de la Tripulación (CMO-DA), diseñado para que los astronautas cuenten con asistencia médica durante misiones espaciales prolongadas.

    La interfaz multimodal de CMO-DA utiliza Inteligencia Artificial (IA) que será capacitada con la literatura sobre vuelos espaciales y utilizará técnicas de vanguardia de procesamiento del lenguaje natural y Aprendizaje Automático para proporcionar análisis seguros y en tiempo real de la salud y el rendimiento de la tripulación, lo que permitiría diagnosticar y tratar síntomas de forma autónoma.

    Además, la herramienta está diseñada para ayudar al oficial médico de la tripulación o al cirujano de vuelo designado a mantener la salud de la tripulación y a tomar decisiones médicas basadas en datos y análisis predictivo, con el objetivo principal de apoyar la exploración humana de la Luna, Marte y más allá.

    Los ensayos realizados entre la NASA y Google probaron CMO-DA en una amplia gama de escenarios médicos. Los resultados se midieron utilizando el marco de Examen Clínico Objetivo Estructurado, una herramienta que evalúa las habilidades clínicas de estudiantes de medicina y profesionales de la salud en activo, y mostraron ser fiables respecto a los síntomas reportados.

    Actualmente, Google y la NASA colaboran con médicos para probar y perfeccionar el modelo, con el objetivo de mejorar la salud y el rendimiento de las tripulaciones autónomas durante futuras misiones de exploración espacial.

    Además de apoyar la exploración espacial, el sistema CMO-DA también busca ampliar los límites de lo que es posible con la IA para brindar atención esencial en los entornos más remotos y exigentes, beneficiando también a la población

    Fuente.

    DPL News (2025, 08 de septiembre). Google y la NASA desarrollan IA para la atención médica en el espacio. Recuperado el 08 de septiembre de 2025, de: https://dplnews.com/google-y-nasa-desarrollan-ia-atencion-medica-espacio/ 

  • De Continuar Creciendo La Economía del Apego Provocaría un Desastre Social

    De Continuar Creciendo La Economía del Apego Provocaría un Desastre Social

    Desde que los Babilonios, entre el año 2100 y el año 200 A.C. resolvieron numerosas ecuaciones algebraicas que invocaban algoritmos, para resolver problemas específicos (Jerry, 2022), hasta la pregunta de Alan Turin, ¿las máquinas pueden pensar? A través de la llamada prueba de Turing, que le llamó juego de imitación, según su artículo titulado Maquinaria Computacional e Inteligencia, publicado en 1950 (Fuentes, 2010); Pasando por la conferencia celebrada en 1956 en Dartmouth EEUU, organizada por Marvin Minsky, John McCarthy y Claude Shanon (christopher, 1983), sentándose las bases, de lo que hoy se conoce como Inteligencia Artificial (IA), en aquel tiempo, no se pensó que existiría una adicción a esa tecnología, con efectos dañinos para los humanos, lo que si prevalece desde entonces, es que la IA imita al ser humano.  

    Con la presentación del ChatGPT 3.5 que hiciera OpenAI en noviembre del 2022, se pasó de las Redes Sociales (RSS), que son un espacio de socialización entre humanos, al paradigma de la IA generativa conversacional, con el ChatGPT; desde la perspectiva económica, transitamos de la economía de la atención, a la economía del Apego.

    La economía de la atención, operó bajo un modelo de negocio, basado en las generación de ingresos, captando y reteniendo, más usuarios y más  tiempo de pantalla, con todo tipo de mensajes, incluso falsos y de odio, la estrategia es propiciar viralidad, fluyendo la información a velocidades de la imaginación. 

    La economía del apego (Jean & Esposito, Mark, 2025) se genera con la IA Conversacional o sea los modelos MLL de lenguaje como los GPT,  los cuales  fundamentan su valor de cambio, en la relación humano-máquina, propiciando en una desa-socialización, sustituyendo la participación activa, del humano, en su ecosistema social real, generándoles adicción y dependencia hacia los diversos modelo conversacionales como ChatGPT, DeepSeek, Claude, Grok, Gemini Llama, o cualquier otro de este tipo pre-entrenado. 

    Los riesgos son por demás evidentes, por los apegos emocionales artificiales, porque ya no solo se busca información, sino consultas a la IA conversacional, dándoles el valor de confidentes o incluso terapeutas, cuando las máquinas sólo son asistentes, por lo que no se les debe conceder características antropomórficas, no son humanos, no tienen conciencia, solo información que la presentan como narrativas.

    El tiempo de contacto usuario-máquina, entre más frecuente y más tiempo se realiza la interacción, genera en los usuarios, ya sean hombres o mujeres, pero sobre todo jóvenes y niños, un vínculo emocional, a niveles de intimidad, relación que difícilmente, los usuarios comparten con familiares, incluso con amigos, de quienes se van desprendiendo, alejándose paulatinamente. 

    Los usuarios tienen la sensación de estar interactuando con otra persona, que parece comprenderlas, por lo que este fenómeno del apego tecnológico, a los diversos modelos de ChatGPT o IA conversacional, genera dos efectos convergentes, por un lado un compromiso de intensificar la interacción humano-máquina y por otro un vacío emocional y distanciamiento de la sociedad real, pero los datos que la IA capta en este proceso del apego, se aplican a la ampliación de la base de datos de entrenamiento, es como si la máquina, succiona la información del cerebro de los usuarios, haciéndolos más dependientes de las máquinas. 

    Esto marca una tendencia de la población usuaria, que es considerar a la IA de los modelos GPT que tienen conciencia; al respecto el cofundador de Deep Mind de Microsoft IA, Mustafá Suleyman, alertó sobre el fenómeno  Seemingly y Cionciencious AI (SCAI), o sea considerar que la IA parece consciente, el mismo experto manifestó, que no existe evidencia científica, de que las tecnologías IA agenerativa conversacionales ChatGPT, DeepSeek, Grok, Gemini, Claude y Otras, sean realmente conscientes (Duran, 2025).

    Aunque si proyectan la ilusión de la conciencia, lo más grave, es que los usuarios si las crean conscientes, otorgándoles capacidades antropomórficas  (forma, apariencia, o emociones humanas) como los robots humanoides, tienen forma humana, pero no son humanos, tampoco los chats Pre-entrenados lo son, aunque se expresen con lenguaje humano.

    El valor de mercado de los modelos LLM conversacionales, llegará en 2030 a 36 mmdd (Della, 2025), pero los impactos negativos en la sociedad, por la adicción tecnológica-digital, no se tiene valorado. 

     

    De Continuar Creciendo La Economía del Apego Provocaría un Desastre Social

     

    Bibliografía

    christopher. (diciembre de 1983). WordPress . Obtenido de darhmouthconference.wordpress : https://darthmouthconference.wordpress.com/organizadores-de-la-conferencia/john-mc-carty/

    Della, V. N. (15 de abril de 2025). Innovación Digital 360. Recuperado el septiembre de 2025, de innovacióndigital360.com: https://www.innovaciondigital360.com/i-a/modelo-de-lenguaje-grande-el-futuro-entre-el-crecimiento-ilimitado-y-los-obstaculos/#:~:text=Amazon%20Web%20Services.-,LLM%3A%20datos%20y%20cifras%20del%20mercado,millones%20de%20d%C3%B3lares%20en%202030.

    Duran, S. (28 de agosto de 2025). dpl news. Recuperado el septiembre de 2025, de dplnews.com: https://dplnews.com/el-mayor-riesgo-de-la-inteligencia-artificial-no-es-ser-consciente-sino-parecerlo-advierte-ceo-de-microsoft-ai/

    Fuentes, B. C. (2010). Maquinaria Computacional e Inteligencia (Alan Turing 1950). https://xamanek.izt.uam.mx/map/cursos/Turing-Pensar.pdf. Santiago, Chile.

    Jean, A., & Esposito, Mark. (15 de agosto de 2025). LSE Blogs. Recuperado el septiembre de 2025, de blogs.lse.ac.uk: https://blogs.lse.ac.uk/businessreview/2025/08/15/humans-emotionally-dependent-on-ai-welcome-to-the-attachment-economy/

    Jerry, J. (2022). EBSCO. Recuperado el septiembre de 2025, de ebsco.com: https://www.ebsco.com/research-starters/mathematics/babylonian-mathematics

     

  • Chat GPT-5 Avance tecnológico o  Fracaso de OpenAI

    Chat GPT-5 Avance tecnológico o Fracaso de OpenAI

    Con bombo y platillo OpenAI lanzó el 7 de agosto de este 2025, su modelo ChatGPT-5 como su versión más avanzada de Inteligencia Artificial (IA), acercándose, según Sam Altman a la Inteligencia Artificial General (IAG) que teóricamente se le considera igual o superior al ser humano, Altman confirma que el modelo GPT-5 es tan potente e inteligente, que lo ha superado a él, ya que cuenta con una memoria prácticamente ilimitada, aunque los riesgos éticos son evidentes (Gonzalez, 2025). 

    El modelo GPT-5 es un sistema unificado inteligente y eficiente, con capacidad de responder casi a todas las preguntas, en virtud del razonamiento más profundo que dispone, es un enrutador en tiempo real, con capacidad de tomar decisiones de manera inmediata, en función del  tipo de conversación y el grado de complejidad. (OpenAI, et, alt, 2025). 

    Los investigadores Dario Amodei y Jared Kaplan, escribieron sobre la ley de escalabilidad, que el mismo OpenAI validó, cuando vió que el GPT-3 era 10 veces más grande y mejor que su modelo GPT-2, vaticinando que los modelos de lenguaje, en la medida que fueran más grandes, empezarían a memorizar las respuestas y tendrían mayor capacidad operativa.

    Sin embargo,  Gary Marcus profesor emérito de psicología y neurociencia, de la Universidad de Nueva York, precisó que las leyes de escalabilidad, NO son leyes científicamente universales, como la ley de gravedad; puesto que la ley llamada de escalabilidad, son observaciones que no podrían ser válidas, por carecer de validez científica (Newport, 2025), tal parece que no aplicaron el método  del falsacionismo del crítico-científico Karl Poppers, que incorpora el valor de la experimentación, de la deducción lógica, y de la intuición, para la formulación de hipótesis y enunciados, sin excluir la inter-subjetividad, como criterio de validez (Tovar, 2019)

    El ChatGPT-5 ha decepcionado, porque el modelo no ofrece lo que se dijo que haría, sobre todo por su falta de creatividad, al compararse con otros como Gemini y DeepSeek, incluso algunos usuarios, han externado que el GPT-4 es mejor al GPT-5, al explicar con más detalle las respuestas, me pregunto ¿acaso un modelo de lenguaje único de GPT, puede abarcar todas las necesidades de todos? (Orland, 2025) 

    Sin lugar a dudas que toda relación con los modelos de lenguaje, como la gran variedad de GPT (Transformador Generativo Pre-entrenado) implican una relación máquina-humano; es propio de la especie humana, que al relacionarse, con su entorno, implique una identificación emocional; en cuanto a este enfoque investigadores del MIT, dirigidos por Pattie Maes, están buscando un punto de referencia de la IA, para medir cómo los sistemas y modelos de IA influyen y manipulan a los usuarios, en las dos vertientes positiva y negativa. 

    De todos es sabido, que la IA ha sido creada por el ser humano, imita características y formas de comunicación, como de  apariencia humana, los resultados son sorprendentes, tanto desde la óptica positiva, como de efectos indeseables. 

    Las grandes tecnológicas dan prioridad al modelo de negocio, para lo que fueron creados los modelos, careciendo de ética, como del respeto a la gran diversidad cultural y del sentido humano; si bien han declarado los corporativos tecnológicos, que están actualizando sus modelos, para evitar adicciones, pero lo cierto es que en la relación máquina-humano, están las condiciones tecnológicas para transformar los valores de los usuarios, propiciando pensamientos delirantes dañinos, tras tener conversaciones cotidianas y frecuentes con los modelos de IA, considerándolos sus amigos consultándolos en situaciones de tipo psicológico. 

    Los investigadores del MIT, señalan que los modelos de IA pueden convertirse en apoyo valioso para los usuarios, al grado que se puedan ser positivos, ante problemas personales pudiendo contestar a su usuario “estoy aquí para escucharte pero quizá deberías hablar con tus padres sobre estos temas” ¿podrá ser posible?

    Llegar a este punto significaría que la IA tuviera conciencia humana y ética, la especie humana lo ha logrado a lo largo de su proceso histórico de millones de años; los sistemas como el ChatGPT-5, por más información, velocidad y del llamado razonamiento automático, que tecnológicamente se le integren, carecen de la conciencia, los sentimientos y del sentido histórico, que sí forman parte de la naturaleza humana.

    Chat GPT-5 Avance tecnológico o Fracaso de OpenAI

     

    Bibliografía

    Gonzalez, A. (9 de agosto de 2025). Vandal Random noticias. Recuperado el agosto de 2025, de valdal.elespanol.com: https://vandal.elespanol.com/random/sam-altman-confirma-que-chatgpt-5-es-tan-potente-e-inteligente-que-lo-ha-superado-me-siento-inutil-no-estamos-preparados-/35958.html#:~:text=no%20estamos%20preparados’-,Sam%20Altman%20confirma%20que%20ChatGPT%205%20es%2

    Newport, C. (12 de agosto de 2025). ¿Que pasaría si la IA no pudiera mejorar mucho más? New Yorker, versión digital: https://www.newyorker.com/culture/open-questions/what-if-ai-doesnt-get-much-better-than-this.

    OpenAI, et, alt. (7 de Agosto de 2025). OpenAI. Recuperado el agosto de 2025, de openai.com: https://openai.com/es-419/index/introducing-gpt-5/

    Orland, K. (15 de agosto de 2025). arsTechnica. Recuperado el agosto de 2025, de arstechnica.com: https://arstechnica.com/ai/2025/08/is-gpt-5-really-worse-than-gpt-4o-ars-puts-them-to-the-test/?utm_source=nl&utm_brand=ars&utm_campaign=aud-dev&utm_mailing=Ars_Daily_081825&utm_medium=email&bxid=5f7902e95a5e726b515c9d0f&cndid=64879859&hasha=8329020027443

    Tovar, S. C. (http://dx.doi.org/10.30920/letras.90.131.9 de enero/junio de 2019). EL faksacionismo de Popper y sus objeciones al marxismo. Letras Lima, 90(131), versión digital: http://www.scielo.org.pe/scielo.php?script=sci_arttext&pid=S2071-50722019000100009.

  • “90% de las organizaciones a nivel global no está preparada para protegerse contra amenazas cibernéticas potenciadas por IA”, Accenture

    “90% de las organizaciones a nivel global no está preparada para protegerse contra amenazas cibernéticas potenciadas por IA”, Accenture

    A medida que la inteligencia artificial (IA) transforma radicalmente los negocios, una vasta mayoría de organizaciones (90%) no está adecuadamente preparadas para asegurar su futuro impulsado por IA, según un nuevo informe de Accenture. A nivel global, casi dos tercios (63%) de las empresas se encuentran en la “Zona Expuesta”, lo que indica que carecen tanto de una estrategia de ciberseguridad cohesiva como de las capacidades técnicas necesarias.

    El informe “Estado de la Resiliencia Cibernética 2025” de Accenture se basa en una encuesta a 2.286 ejecutivos de ciberseguridad y tecnología de grandes organizaciones alrededor del mundo. Revela que la rápida adopción de IA ha acelerado drásticamente la velocidad, escala y sofisticación de las amenazas cibernéticas, superando con creces las defensas actuales de las empresas. Por ejemplo, más de tres cuartas partes (77%) de las organizaciones carecen de las prácticas de seguridad de datos y IA esenciales necesarias para proteger modelos de negocio críticos, pipelines de datos y la infraestructura en la nube.

    “Las crecientes tensiones geopolíticas, la volatilidad económica y entornos operativos cada vez más complejos, junto con los ataques potenciados por IA, están dejando a las organizaciones más vulnerables a los riesgos cibernéticos. Este informe sirve como una llamada de atención de que la ciberseguridad ya no puede ser un pensamiento posterior. Debe estar integrada por diseño en cada iniciativa impulsada por IA”, dijo Ariel Goldenstein, Líder de Ciberseguridad de Accenture Colombia. “Tomar este enfoque proactivo ayudará a garantizar una ventaja competitiva, fortalecer la lealtad del cliente y convertir la ciberseguridad en un impulsor de negocio”.

    A pesar del rápido crecimiento de la adopción de IA en las empresas, solo 22% de las organizaciones ha implementado políticas y capacitaciones claras para el uso de IA generativa. Además, muy pocas mantienen un inventario completo de sistemas de IA, lo cual es crucial para gestionar los riesgos de la cadena de suministro. Así también, la protección de datos sigue siendo insuficiente, con solo 25% de las organizaciones que utilizan completamente métodos de cifrado y controles de acceso para proteger la información sensible.

    La investigación también revela una inmadurez cibernética generalizada en todas las regiones. Solo el 14% de las organizaciones de Norteamérica y 11% de las organizaciones europeas tienen posturas maduras. En América Latina, 77% carece de estrategias y capacidades básicas, mientras que el 71% de las organizaciones de Asia-Pacífico permanecen en la “Zona Expuesta”, enfrentando riesgos operativos y financieros serios.

    La investigación identifica tres zonas de madurez de seguridad distintas basadas en la estrategia de ciberseguridad y las capacidades técnicas de una organización. El grupo superior, que Accenture llama la “Zona Lista para la Reinvención” y que comprende solo el 10% de las organizaciones, tiene una postura de seguridad resiliente y adaptable que evoluciona continuamente para contrarrestar las amenazas emergentes. El grupo intermedio del 27% en la “Zona en Progreso” muestra fortaleza, pero lucha por definir una dirección estratégica o implementar defensas. El grupo más vulnerable, en la “Zona Expuesta”, constituye 63% de las organizaciones, caracterizadas por una preparación cibernética limitada y una postura reactiva ante las amenazas. Estas condiciones se ven agravadas por el entorno de IA complejo y los factores de riesgo globales.

    Sin embargo, las empresas en la “Zona Lista para la Reinvención” tienen 69% menos de probabilidades de enfrentar ataques avanzados y son 1.5 veces más efectivas en bloquearlos. También tienen 1.3 veces más visibilidad en los entornos de TI y OT, han reducido la deuda técnica en un 8% y ven un aumento del 15% en la confianza del cliente, demostrando cómo las prácticas de ciberseguridad más sólidas impulsan tanto la resiliencia como el valor del negocio.

    Fuente:

    DPL News (2025, 19 de agosto). “90% de las organizaciones a nivel global no está preparada para protegerse contra amenazas cibernéticas potenciadas por IA”, Accenture. Recuperado el 21 de agosto de 2025, de: https://dplnews.com/90-de-las-organizaciones-a-nivel-global-no-esta-preparada-para-protegerse-contra-amenazas-ciberneticas-potenciadas-por-ia/

  • Google usará energía de reactor nuclear en Tennessee para abastecer Centros de Datos

    Google usará energía de reactor nuclear en Tennessee para abastecer Centros de Datos

    La planta Hermes 2, ubicada en Oak Ridge, Tennessee, comenzará operaciones en 2030 y suministrará 50 MW de energía limpia a la red de TVA.

    Google anunció una alianza con Kairos Power y Tennessee Valley Authority (TVA) para poner en marcha el primer reactor nuclear avanzado de cuarta generación en Estados Unidos. Se trata de la planta Hermes 2, ubicada en Oak Ridge, Tennessee, que comenzará operaciones en 2030 y suministrará 50 megavatios (MW) de energía limpia a la red de TVA.

    Con este acuerdo de compra de energía, Google se convertirá en la primera empresa en adquirir electricidad proveniente de un reactor GEN IV a través de una compañía eléctrica en el país. La energía abastecerá directamente a sus Centros de Datos en el condado de Montgomery, Tennessee y el condado de Jackson en Alabama.

    La colaboración forma parte de un plan iniciado en 2023, con el que Google y Kairos Power buscan desplegar hasta 500 MW de capacidad nuclear modular para el sistema eléctrico estadounidense. El modelo contempla una solución tripartita en la que clientes de energía, empresas de servicios públicos y desarrolladores tecnológicos comparten costos, riesgos y beneficios para acelerar la adopción de nuevas tecnologías energéticas.

    Don Moul, CEO de TVA, destacó que la energía nuclear es la base del futuro de la seguridad energética. “Que Google ayude a asumir parte del costo y riesgo de estos proyectos pioneros no sólo ayuda a la empresa, también a los 10 millones de clientes de TVA y a Estados Unidos”, dijo.

    Además de proveer energía limpia, la planta Hermes 2 busca reactivar a Oak Ridge como centro de innovación nuclear. La planta Hermes 2 contribuirá a consolidar esta posición a través de programas en colaboración con la Universidad de Tennessee y otras instituciones locales para formar talento técnico calificado, como operadores e ingenieros de planta.

    Google recordó que, desde 2015, mantiene una colaboración con TVA para llevar tecnologías de energía limpia al Valle de Tennessee, y aseguró que esta iniciativa es el inicio de una nueva etapa en el desarrollo de energía avanzada en la región.

    Fuente.

    DPL News (2025, 19 de agosto). Google usará energía de reactor nuclear en Tennessee para abastecer Centros de Datos. Recuperado el 21 de agosto de 2025, de: https://dplnews.com/google-usara-energia-reactor-nuclear-para-centros-de-datos/

  • El 91% de las empresas mexicanas sufrió un intento de infiltración en su red el último año

    El 91% de las empresas mexicanas sufrió un intento de infiltración en su red el último año

    El 91% de empresas mexicanas detectó intentos de infiltración en sus redes, y 64% sufrió ejecución de código malicioso dentro de su infraestructura, según Kaspersky.

    La gran mayoría de empresas en México (91%) dijo que encontró intentos de infiltrarse en su red, de acuerdo con el informe IT Security Economics 2024 de la firma de ciberseguridad Kaspersky. Aún más inquietante: 64% de las organizaciones encuestadas reportó que actores maliciosos lograron ejecutar código dentro de su infraestructura, es decir, que sufrieron incidentes ya consumados.

    De acuerdo con Fabio Assolini, director del Equipo Global de Investigación y Análisis (GReAT) para América Latina en Kaspersky, estas cifras se insertan en una tendencia global: pese a inversiones crecientes en seguridad, la mayor parte de las organizaciones sigue reportando ataques de red.

    Kaspersky detalla que 97% de las grandes empresas, 88% de las medianas y 83% de las pymes reconocen incidentes de este tipo. La compañía lo sintetiza en una lectura del momento: el concepto de perímetro confiable perdió vigencia y ya no basta con soluciones puntuales.

    Assolini advierte que el hallazgo de México proviene de una muestra de compañías del país y, aunque intimidante, es la realidad de Latinoamérica, donde los niveles de presión delictiva son comparables entre mercados vecinos. La explicación, según el especialista, comienza por un viejo conocido: la piratería de software.

    “Sistemas pirateados muchas veces están vulnerables porque no se instalan los parches y el uso de cracks o keygens suele añadir una puerta trasera que tarde o temprano facilita la intrusión”, dijo Assolini en entrevista.

    Vectores

    En el frente táctico de los ciberdelincuentes, el phishing reina por su bajo costo y efectividad. Un empleado que cree en un correo falso y entrega credenciales abre la puerta para que los agresores se muevan lateralmente y escalen privilegios.

    “El phishing es pequeño, pero permite que se complete un gran ataque”, dijo Assolini.

    A ello se suma la normalización, sobre todo desde la pandemia, del bring your own device (BYOD): equipos personales, fuera del control corporativo, que se conectan a la red interna y pueden convertirse en eficaces vehículos de propagación.

    El reporte IT Security Economics 2024 coincide en el énfasis humano: aunque 100% de las empresas ha desplegado seguridad en endpoints y 94% protección de red, la capacitación en seguridad alcanza apenas 53% de adopción, lo que deja abiertas rutas de ingeniería social y errores operativos.

    Fuente.

    El Economista (2025, 18 de agosto). El 91% de las empresas mexicanas sufrió un intento de infiltración en su red el último año. Recuperado el 21 de agosto de 2025, de: https://www.eleconomista.com.mx/tecnologia/91-empresas-mexicanas-sufrio-intento-infiltracion-red-20250818-773189.html