Author: admin

  • ¿Supera o no a Qualcomm? Ookla analiza el rendimiento del chip C1 en el iPhone 16e

    ¿Supera o no a Qualcomm? Ookla analiza el rendimiento del chip C1 en el iPhone 16e

    ¿Qué tan buen rendimiento ofrece el chip C1 de Apple? Ookla realizó un estudio con datos recabados a lo largo del segundo y tercer trimestre de 2025, tiempo en el que comparó el funcionamiento del iPhone 16e con el chip de Apple, con los del iPhone 16 que utiliza un procesador Qualcomm.

    Ambos modelos comparten diseño y tamaño de pantalla, 6.1 pulgadas, pero difieren significativamente en su tecnología de conectividad. El iPhone 16e, lanzado en febrero, representa el primer intento de Apple de independizarse de Qualcomm en este aspecto.

    El análisis de Ookla Speedtest Intelligence muestra que, en la mayoría de los mercados evaluados, el chip C1 ofrece un rendimiento similar al de Qualcomm, con variaciones notables dependiendo del país y de la infraestructura de red.

    Por ejemplo, en Arabia Saudita, el iPhone 16 superó al 16e con una velocidad media de descarga de 353.49 Mbps frente a 295.01 Mbps. Sin embargo, en España, el modelo con chip C1 logró mejores resultados, alcanzando 139.88 Mbps, mientras que el iPhone 16 se quedó en 110.38 Mbps. Estas diferencias sugieren que el rendimiento del procesador C1 está fuertemente condicionado por la capacidad y configuración de las redes locales.

    En mercados donde las redes 5G SA (standalone) soportan tecnologías más avanzadas, como la agregación de múltiples portadoras y MIMO de enlace ascendente, el iPhone 16 muestra una ventaja clara. Esto se evidenció particularmente en países como China, India, Arabia Saudita y Estados Unidos, donde las limitaciones técnicas del chip C1 impiden alcanzar los mismos niveles de rendimiento.

    En Estados Unidos, los datos revelan que los usuarios de T-Mobile experimentaron velocidades más altas con el iPhone 16, gracias a su compatibilidad con la agregación de hasta cuatro operadores. El iPhone 16e, limitado a tres, mostró una velocidad media de descarga de 252.80 Mbps frente a los 317.64 Mbps del iPhone 16. Este comportamiento se correlaciona con pruebas de cobertura realizadas por RootMetrics, que detectaron el uso de cuatro operadores en más del 65% de las ubicaciones analizadas por T-Mobile.

    A pesar de estas diferencias, el iPhone 16e se posiciona como una opción competitiva, especialmente en condiciones de cobertura limitada. En varias métricas, como la velocidad de carga y el desempeño en usuarios con menor conectividad, el procesador C1 mostró ventajas.

    Esto sugiere que Apple ha priorizado la estabilidad y continuidad de la conexión, lo que podría beneficiar a los usuarios en zonas con menor infraestructura. Con el iPhone 17 Air, que se prevé sea presentado este 9 de septiembre, el futuro del módem C1 podría estar más cerca de consolidarse, de acuerdo con los expertos de Ookla.

    Fuente.

    DPL News (2025, 8 de septiembre). ¿Supera o no a Qualcomm? Ookla analiza el rendimiento del chip C1 en el iPhone 16e. Recuperado el 09 de septiembre de 2025, de: https://dplnews.com/ookla-analiza-rendimiento-del-chip-c1-en-el-iphone-16e/

  • Google lanza Gemini for Government

    Google lanza Gemini for Government

    Google Cloud presentó “Gemini for Government”, una plataforma de Inteligencia Artificial (IA) diseñada específicamente para apoyar la transformación digital del gobierno de Estados Unidos.

    La iniciativa se desarrolla en alianza con la General Services Administration (GSA) y en línea con el AI Action Plan de la Casa Blanca, que busca acelerar la adopción de IA de manera segura y responsable en el sector público.

    El nuevo servicio ofrece un ecosistema completo de herramientas de IA Generativa, que incluye búsqueda empresarial avanzada, generación de video e imágenes, el entorno de trabajo NotebookLM y agentes de IA preconfigurados para investigación, creación de contenido y análisis de datos. Además, los funcionarios podrán crear y personalizar sus propios agentes, adaptándolos a las necesidades particulares de cada agencia.

    Google destacó que uno de los aspectos diferenciales de sus servicio será el costo aún más accesible que otros servicios, “inferior a 50 centavos de dólar por agencia al año, con el objetivo de democratizar la adopción de estas tecnologías en oficinas de todos los tamaños”.

    En materia de seguridad, Gemini for Government cuenta con la certificación FedRAMP High, requisito clave para servicios en la Nube utilizados por el gobierno federal, además de estándares como SOC2 Tipo 2.

    “Las interacciones estarán protegidas por controles de identidad, gestión de accesos y estrictos esquemas de privacidad de datos”, detalló la compañía.

    Otro de los pilares de la plataforma es la flexibilidad: las agencias podrán acceder a una galería de Agentes de IA desarrollados por Google, terceros o incluso creados internamente, e integrar modelos a través de Vertex AI para ajustarlos a necesidades específicas.

    El lanzamiento se enmarca en la estrategia “OneGov” de Estados Unidos, que busca modernizar los procesos de adquisición tecnológica con precios transparentes y soluciones escalables. Con este movimiento, Google se suma a la carrera por conquistar el mercado gubernamental, donde compite con otros gigantes tecnológicos como Amazon y Microsoft.

    Fuente.

    DPL News (2025, 27 de agosto). Google lanza Gemini for Government. Recuperado el 08 de septiembre de 2025, de: https://dplnews.com/google-lanza-gemini-for-government/

  • El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo, advierte CEO de Microsoft AI

    El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo, advierte CEO de Microsoft AI

    Mustafa Suleyman, director Ejecutivo de Microsoft AI y cofundador de DeepMind, alertó que en los próximos dos a tres años veremos surgir un fenómeno que podría alterar la relación de los humanos con la tecnología: la Seemingly Conscious AI (SCAI) o Inteligencia Artificial (IA) que parece consciente.

    En un artículo publicado en su blog personal, Suleyman explicó que, con las herramientas actuales como los grandes modelos de lenguaje (LLMs), APIs públicas y técnicas de prompting, ya es posible construir sistemas que proyecten la ilusión de conciencia, es decir, que se expresen como si tuvieran memoria, intenciones, emociones o coherencia narrativa propia. Y aunque no existe evidencia científica de que estos sistemas puedan ser realmente conscientes, la mera apariencia podría tener consecuencias sociales y psicológicas profundas.

    “Lo importante no es si una IA es consciente o no, sino lo que la gente cree acerca de ella. Si los usuarios llegan a pensar que la máquina siente, recuerda o sufre, ese simple hecho cambia nuestra relación con la tecnología”, escribió el ejecutivo.

    Una de las preocupaciones más urgentes para Suleyman es el fenómeno que ya ha comenzado a denominarse como “psicosis de la IA”, un estado en el que las personas desarrollan creencias delirantes o vínculos emocionales excesivos con una IA.

    En su blog, el ejecutivo de Microsoft explicó que “usuarios vulnerables pueden llegar a ver en estos sistemas una fuente de compañía, apoyo emocional o incluso autoridad moral, lo cual abre la puerta a problemas de salud mental y a la manipulación”.

    Suleyman mencionó casos recientes de personas que han intentado otorgar estatus de “sujetos” a los chatbots o piden derechos, bienestar e incluso ciudadanía para ellos, lo que calificó como “un síntoma de este fenómeno en crecimiento”.

    “Estamos a punto de entrar en una era en la que millones de personas interactuarán con sistemas que parecen tener una mente propia. No necesitamos que sean realmente conscientes para que eso tenga un impacto enorme en nuestras vidas”, advirtió.

    El problema al que se refiere el director Ejecutivo de Microsoft AI no es hipotético.

    En los últimos dos años, tras el auge de chatbots de IA, se han documentado casos de usuarios que desarrollaron dependencias emocionales con asistentes conversacionales avanzados. Algunos llegaron a poner en riesgo su vida tras recibir consejos médicos erróneos, mientras que otros experimentaron aislamiento social al reemplazar sus interacciones humanas por vínculos con máquinas.

    Para Suleyman, el desafío no está en frenar el avance de la IA, sino en diseñar sistemas con límites claros que no fomenten la ilusión de conciencia.

    “Debemos construir IA para la gente, no como si fuera una persona. Esto implica, en su visión, evitar antropomorfismos, ser transparentes con los usuarios y reforzar constantemente que la IA es una herramienta, no un ente con experiencias propias”, subrayó.

    El directivo propone que la comunidad tecnológica y los gobiernos establezcan desde ya normas que guíen el desarrollo de estas plataformas, antes de que los riesgos se materialicen de manera masiva.

    “No es ciencia ficción. Con los avances actuales, cualquiera podría montar un sistema que simule ser consciente en muy poco tiempo. Y una vez que esa ilusión sea convincente, revertir sus efectos en la sociedad será mucho más difícil”, advirtió.

    Además, insistió en que la discusión pública no puede esperar. Para Mustafa Suleyman, se trata de un problema comparable a otros desafíos regulatorios urgentes de la era digital, como la privacidad de datos o la desinformación en redes sociales. La diferencia es que, en este caso, la frontera entre lo real y lo percibido es mucho más difusa.

     

    Fuente.

    DPL News (2025, 28 de agosto). El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo, advierte CEO de Microsoft AI. Recuperado el 08 de septiembre de 2025, de: https://dplnews.com/el-mayor-riesgo-de-la-inteligencia-artificial-no-es-ser-consciente-sino-parecerlo-advierte-ceo-de-microsoft-ai/

  • Google y la NASA desarrollan IA para la atención médica en el espacio

    Google y la NASA desarrollan IA para la atención médica en el espacio

    Google y la NASA colaboraron en una prueba de concepto para un Sistema automatizado de Apoyo a la Decisión Clínica (CDSS), conocido como Asistente Digital para Oficiales Médicos de la Tripulación (CMO-DA), diseñado para que los astronautas cuenten con asistencia médica durante misiones espaciales prolongadas.

    La interfaz multimodal de CMO-DA utiliza Inteligencia Artificial (IA) que será capacitada con la literatura sobre vuelos espaciales y utilizará técnicas de vanguardia de procesamiento del lenguaje natural y Aprendizaje Automático para proporcionar análisis seguros y en tiempo real de la salud y el rendimiento de la tripulación, lo que permitiría diagnosticar y tratar síntomas de forma autónoma.

    Además, la herramienta está diseñada para ayudar al oficial médico de la tripulación o al cirujano de vuelo designado a mantener la salud de la tripulación y a tomar decisiones médicas basadas en datos y análisis predictivo, con el objetivo principal de apoyar la exploración humana de la Luna, Marte y más allá.

    Los ensayos realizados entre la NASA y Google probaron CMO-DA en una amplia gama de escenarios médicos. Los resultados se midieron utilizando el marco de Examen Clínico Objetivo Estructurado, una herramienta que evalúa las habilidades clínicas de estudiantes de medicina y profesionales de la salud en activo, y mostraron ser fiables respecto a los síntomas reportados.

    Actualmente, Google y la NASA colaboran con médicos para probar y perfeccionar el modelo, con el objetivo de mejorar la salud y el rendimiento de las tripulaciones autónomas durante futuras misiones de exploración espacial.

    Además de apoyar la exploración espacial, el sistema CMO-DA también busca ampliar los límites de lo que es posible con la IA para brindar atención esencial en los entornos más remotos y exigentes, beneficiando también a la población

    Fuente.

    DPL News (2025, 08 de septiembre). Google y la NASA desarrollan IA para la atención médica en el espacio. Recuperado el 08 de septiembre de 2025, de: https://dplnews.com/google-y-nasa-desarrollan-ia-atencion-medica-espacio/ 

  • De Continuar Creciendo La Economía del Apego Provocaría un Desastre Social

    De Continuar Creciendo La Economía del Apego Provocaría un Desastre Social

    Desde que los Babilonios, entre el año 2100 y el año 200 A.C. resolvieron numerosas ecuaciones algebraicas que invocaban algoritmos, para resolver problemas específicos (Jerry, 2022), hasta la pregunta de Alan Turin, ¿las máquinas pueden pensar? A través de la llamada prueba de Turing, que le llamó juego de imitación, según su artículo titulado Maquinaria Computacional e Inteligencia, publicado en 1950 (Fuentes, 2010); Pasando por la conferencia celebrada en 1956 en Dartmouth EEUU, organizada por Marvin Minsky, John McCarthy y Claude Shanon (christopher, 1983), sentándose las bases, de lo que hoy se conoce como Inteligencia Artificial (IA), en aquel tiempo, no se pensó que existiría una adicción a esa tecnología, con efectos dañinos para los humanos, lo que si prevalece desde entonces, es que la IA imita al ser humano.  

    Con la presentación del ChatGPT 3.5 que hiciera OpenAI en noviembre del 2022, se pasó de las Redes Sociales (RSS), que son un espacio de socialización entre humanos, al paradigma de la IA generativa conversacional, con el ChatGPT; desde la perspectiva económica, transitamos de la economía de la atención, a la economía del Apego.

    La economía de la atención, operó bajo un modelo de negocio, basado en las generación de ingresos, captando y reteniendo, más usuarios y más  tiempo de pantalla, con todo tipo de mensajes, incluso falsos y de odio, la estrategia es propiciar viralidad, fluyendo la información a velocidades de la imaginación. 

    La economía del apego (Jean & Esposito, Mark, 2025) se genera con la IA Conversacional o sea los modelos MLL de lenguaje como los GPT,  los cuales  fundamentan su valor de cambio, en la relación humano-máquina, propiciando en una desa-socialización, sustituyendo la participación activa, del humano, en su ecosistema social real, generándoles adicción y dependencia hacia los diversos modelo conversacionales como ChatGPT, DeepSeek, Claude, Grok, Gemini Llama, o cualquier otro de este tipo pre-entrenado. 

    Los riesgos son por demás evidentes, por los apegos emocionales artificiales, porque ya no solo se busca información, sino consultas a la IA conversacional, dándoles el valor de confidentes o incluso terapeutas, cuando las máquinas sólo son asistentes, por lo que no se les debe conceder características antropomórficas, no son humanos, no tienen conciencia, solo información que la presentan como narrativas.

    El tiempo de contacto usuario-máquina, entre más frecuente y más tiempo se realiza la interacción, genera en los usuarios, ya sean hombres o mujeres, pero sobre todo jóvenes y niños, un vínculo emocional, a niveles de intimidad, relación que difícilmente, los usuarios comparten con familiares, incluso con amigos, de quienes se van desprendiendo, alejándose paulatinamente. 

    Los usuarios tienen la sensación de estar interactuando con otra persona, que parece comprenderlas, por lo que este fenómeno del apego tecnológico, a los diversos modelos de ChatGPT o IA conversacional, genera dos efectos convergentes, por un lado un compromiso de intensificar la interacción humano-máquina y por otro un vacío emocional y distanciamiento de la sociedad real, pero los datos que la IA capta en este proceso del apego, se aplican a la ampliación de la base de datos de entrenamiento, es como si la máquina, succiona la información del cerebro de los usuarios, haciéndolos más dependientes de las máquinas. 

    Esto marca una tendencia de la población usuaria, que es considerar a la IA de los modelos GPT que tienen conciencia; al respecto el cofundador de Deep Mind de Microsoft IA, Mustafá Suleyman, alertó sobre el fenómeno  Seemingly y Cionciencious AI (SCAI), o sea considerar que la IA parece consciente, el mismo experto manifestó, que no existe evidencia científica, de que las tecnologías IA agenerativa conversacionales ChatGPT, DeepSeek, Grok, Gemini, Claude y Otras, sean realmente conscientes (Duran, 2025).

    Aunque si proyectan la ilusión de la conciencia, lo más grave, es que los usuarios si las crean conscientes, otorgándoles capacidades antropomórficas  (forma, apariencia, o emociones humanas) como los robots humanoides, tienen forma humana, pero no son humanos, tampoco los chats Pre-entrenados lo son, aunque se expresen con lenguaje humano.

    El valor de mercado de los modelos LLM conversacionales, llegará en 2030 a 36 mmdd (Della, 2025), pero los impactos negativos en la sociedad, por la adicción tecnológica-digital, no se tiene valorado. 

     

    De Continuar Creciendo La Economía del Apego Provocaría un Desastre Social

     

    Bibliografía

    christopher. (diciembre de 1983). WordPress . Obtenido de darhmouthconference.wordpress : https://darthmouthconference.wordpress.com/organizadores-de-la-conferencia/john-mc-carty/

    Della, V. N. (15 de abril de 2025). Innovación Digital 360. Recuperado el septiembre de 2025, de innovacióndigital360.com: https://www.innovaciondigital360.com/i-a/modelo-de-lenguaje-grande-el-futuro-entre-el-crecimiento-ilimitado-y-los-obstaculos/#:~:text=Amazon%20Web%20Services.-,LLM%3A%20datos%20y%20cifras%20del%20mercado,millones%20de%20d%C3%B3lares%20en%202030.

    Duran, S. (28 de agosto de 2025). dpl news. Recuperado el septiembre de 2025, de dplnews.com: https://dplnews.com/el-mayor-riesgo-de-la-inteligencia-artificial-no-es-ser-consciente-sino-parecerlo-advierte-ceo-de-microsoft-ai/

    Fuentes, B. C. (2010). Maquinaria Computacional e Inteligencia (Alan Turing 1950). https://xamanek.izt.uam.mx/map/cursos/Turing-Pensar.pdf. Santiago, Chile.

    Jean, A., & Esposito, Mark. (15 de agosto de 2025). LSE Blogs. Recuperado el septiembre de 2025, de blogs.lse.ac.uk: https://blogs.lse.ac.uk/businessreview/2025/08/15/humans-emotionally-dependent-on-ai-welcome-to-the-attachment-economy/

    Jerry, J. (2022). EBSCO. Recuperado el septiembre de 2025, de ebsco.com: https://www.ebsco.com/research-starters/mathematics/babylonian-mathematics

     

  • Chat GPT-5 Avance tecnológico o  Fracaso de OpenAI

    Chat GPT-5 Avance tecnológico o Fracaso de OpenAI

    Con bombo y platillo OpenAI lanzó el 7 de agosto de este 2025, su modelo ChatGPT-5 como su versión más avanzada de Inteligencia Artificial (IA), acercándose, según Sam Altman a la Inteligencia Artificial General (IAG) que teóricamente se le considera igual o superior al ser humano, Altman confirma que el modelo GPT-5 es tan potente e inteligente, que lo ha superado a él, ya que cuenta con una memoria prácticamente ilimitada, aunque los riesgos éticos son evidentes (Gonzalez, 2025). 

    El modelo GPT-5 es un sistema unificado inteligente y eficiente, con capacidad de responder casi a todas las preguntas, en virtud del razonamiento más profundo que dispone, es un enrutador en tiempo real, con capacidad de tomar decisiones de manera inmediata, en función del  tipo de conversación y el grado de complejidad. (OpenAI, et, alt, 2025). 

    Los investigadores Dario Amodei y Jared Kaplan, escribieron sobre la ley de escalabilidad, que el mismo OpenAI validó, cuando vió que el GPT-3 era 10 veces más grande y mejor que su modelo GPT-2, vaticinando que los modelos de lenguaje, en la medida que fueran más grandes, empezarían a memorizar las respuestas y tendrían mayor capacidad operativa.

    Sin embargo,  Gary Marcus profesor emérito de psicología y neurociencia, de la Universidad de Nueva York, precisó que las leyes de escalabilidad, NO son leyes científicamente universales, como la ley de gravedad; puesto que la ley llamada de escalabilidad, son observaciones que no podrían ser válidas, por carecer de validez científica (Newport, 2025), tal parece que no aplicaron el método  del falsacionismo del crítico-científico Karl Poppers, que incorpora el valor de la experimentación, de la deducción lógica, y de la intuición, para la formulación de hipótesis y enunciados, sin excluir la inter-subjetividad, como criterio de validez (Tovar, 2019)

    El ChatGPT-5 ha decepcionado, porque el modelo no ofrece lo que se dijo que haría, sobre todo por su falta de creatividad, al compararse con otros como Gemini y DeepSeek, incluso algunos usuarios, han externado que el GPT-4 es mejor al GPT-5, al explicar con más detalle las respuestas, me pregunto ¿acaso un modelo de lenguaje único de GPT, puede abarcar todas las necesidades de todos? (Orland, 2025) 

    Sin lugar a dudas que toda relación con los modelos de lenguaje, como la gran variedad de GPT (Transformador Generativo Pre-entrenado) implican una relación máquina-humano; es propio de la especie humana, que al relacionarse, con su entorno, implique una identificación emocional; en cuanto a este enfoque investigadores del MIT, dirigidos por Pattie Maes, están buscando un punto de referencia de la IA, para medir cómo los sistemas y modelos de IA influyen y manipulan a los usuarios, en las dos vertientes positiva y negativa. 

    De todos es sabido, que la IA ha sido creada por el ser humano, imita características y formas de comunicación, como de  apariencia humana, los resultados son sorprendentes, tanto desde la óptica positiva, como de efectos indeseables. 

    Las grandes tecnológicas dan prioridad al modelo de negocio, para lo que fueron creados los modelos, careciendo de ética, como del respeto a la gran diversidad cultural y del sentido humano; si bien han declarado los corporativos tecnológicos, que están actualizando sus modelos, para evitar adicciones, pero lo cierto es que en la relación máquina-humano, están las condiciones tecnológicas para transformar los valores de los usuarios, propiciando pensamientos delirantes dañinos, tras tener conversaciones cotidianas y frecuentes con los modelos de IA, considerándolos sus amigos consultándolos en situaciones de tipo psicológico. 

    Los investigadores del MIT, señalan que los modelos de IA pueden convertirse en apoyo valioso para los usuarios, al grado que se puedan ser positivos, ante problemas personales pudiendo contestar a su usuario “estoy aquí para escucharte pero quizá deberías hablar con tus padres sobre estos temas” ¿podrá ser posible?

    Llegar a este punto significaría que la IA tuviera conciencia humana y ética, la especie humana lo ha logrado a lo largo de su proceso histórico de millones de años; los sistemas como el ChatGPT-5, por más información, velocidad y del llamado razonamiento automático, que tecnológicamente se le integren, carecen de la conciencia, los sentimientos y del sentido histórico, que sí forman parte de la naturaleza humana.

    Chat GPT-5 Avance tecnológico o Fracaso de OpenAI

     

    Bibliografía

    Gonzalez, A. (9 de agosto de 2025). Vandal Random noticias. Recuperado el agosto de 2025, de valdal.elespanol.com: https://vandal.elespanol.com/random/sam-altman-confirma-que-chatgpt-5-es-tan-potente-e-inteligente-que-lo-ha-superado-me-siento-inutil-no-estamos-preparados-/35958.html#:~:text=no%20estamos%20preparados’-,Sam%20Altman%20confirma%20que%20ChatGPT%205%20es%2

    Newport, C. (12 de agosto de 2025). ¿Que pasaría si la IA no pudiera mejorar mucho más? New Yorker, versión digital: https://www.newyorker.com/culture/open-questions/what-if-ai-doesnt-get-much-better-than-this.

    OpenAI, et, alt. (7 de Agosto de 2025). OpenAI. Recuperado el agosto de 2025, de openai.com: https://openai.com/es-419/index/introducing-gpt-5/

    Orland, K. (15 de agosto de 2025). arsTechnica. Recuperado el agosto de 2025, de arstechnica.com: https://arstechnica.com/ai/2025/08/is-gpt-5-really-worse-than-gpt-4o-ars-puts-them-to-the-test/?utm_source=nl&utm_brand=ars&utm_campaign=aud-dev&utm_mailing=Ars_Daily_081825&utm_medium=email&bxid=5f7902e95a5e726b515c9d0f&cndid=64879859&hasha=8329020027443

    Tovar, S. C. (http://dx.doi.org/10.30920/letras.90.131.9 de enero/junio de 2019). EL faksacionismo de Popper y sus objeciones al marxismo. Letras Lima, 90(131), versión digital: http://www.scielo.org.pe/scielo.php?script=sci_arttext&pid=S2071-50722019000100009.

  • “90% de las organizaciones a nivel global no está preparada para protegerse contra amenazas cibernéticas potenciadas por IA”, Accenture

    “90% de las organizaciones a nivel global no está preparada para protegerse contra amenazas cibernéticas potenciadas por IA”, Accenture

    A medida que la inteligencia artificial (IA) transforma radicalmente los negocios, una vasta mayoría de organizaciones (90%) no está adecuadamente preparadas para asegurar su futuro impulsado por IA, según un nuevo informe de Accenture. A nivel global, casi dos tercios (63%) de las empresas se encuentran en la “Zona Expuesta”, lo que indica que carecen tanto de una estrategia de ciberseguridad cohesiva como de las capacidades técnicas necesarias.

    El informe “Estado de la Resiliencia Cibernética 2025” de Accenture se basa en una encuesta a 2.286 ejecutivos de ciberseguridad y tecnología de grandes organizaciones alrededor del mundo. Revela que la rápida adopción de IA ha acelerado drásticamente la velocidad, escala y sofisticación de las amenazas cibernéticas, superando con creces las defensas actuales de las empresas. Por ejemplo, más de tres cuartas partes (77%) de las organizaciones carecen de las prácticas de seguridad de datos y IA esenciales necesarias para proteger modelos de negocio críticos, pipelines de datos y la infraestructura en la nube.

    “Las crecientes tensiones geopolíticas, la volatilidad económica y entornos operativos cada vez más complejos, junto con los ataques potenciados por IA, están dejando a las organizaciones más vulnerables a los riesgos cibernéticos. Este informe sirve como una llamada de atención de que la ciberseguridad ya no puede ser un pensamiento posterior. Debe estar integrada por diseño en cada iniciativa impulsada por IA”, dijo Ariel Goldenstein, Líder de Ciberseguridad de Accenture Colombia. “Tomar este enfoque proactivo ayudará a garantizar una ventaja competitiva, fortalecer la lealtad del cliente y convertir la ciberseguridad en un impulsor de negocio”.

    A pesar del rápido crecimiento de la adopción de IA en las empresas, solo 22% de las organizaciones ha implementado políticas y capacitaciones claras para el uso de IA generativa. Además, muy pocas mantienen un inventario completo de sistemas de IA, lo cual es crucial para gestionar los riesgos de la cadena de suministro. Así también, la protección de datos sigue siendo insuficiente, con solo 25% de las organizaciones que utilizan completamente métodos de cifrado y controles de acceso para proteger la información sensible.

    La investigación también revela una inmadurez cibernética generalizada en todas las regiones. Solo el 14% de las organizaciones de Norteamérica y 11% de las organizaciones europeas tienen posturas maduras. En América Latina, 77% carece de estrategias y capacidades básicas, mientras que el 71% de las organizaciones de Asia-Pacífico permanecen en la “Zona Expuesta”, enfrentando riesgos operativos y financieros serios.

    La investigación identifica tres zonas de madurez de seguridad distintas basadas en la estrategia de ciberseguridad y las capacidades técnicas de una organización. El grupo superior, que Accenture llama la “Zona Lista para la Reinvención” y que comprende solo el 10% de las organizaciones, tiene una postura de seguridad resiliente y adaptable que evoluciona continuamente para contrarrestar las amenazas emergentes. El grupo intermedio del 27% en la “Zona en Progreso” muestra fortaleza, pero lucha por definir una dirección estratégica o implementar defensas. El grupo más vulnerable, en la “Zona Expuesta”, constituye 63% de las organizaciones, caracterizadas por una preparación cibernética limitada y una postura reactiva ante las amenazas. Estas condiciones se ven agravadas por el entorno de IA complejo y los factores de riesgo globales.

    Sin embargo, las empresas en la “Zona Lista para la Reinvención” tienen 69% menos de probabilidades de enfrentar ataques avanzados y son 1.5 veces más efectivas en bloquearlos. También tienen 1.3 veces más visibilidad en los entornos de TI y OT, han reducido la deuda técnica en un 8% y ven un aumento del 15% en la confianza del cliente, demostrando cómo las prácticas de ciberseguridad más sólidas impulsan tanto la resiliencia como el valor del negocio.

    Fuente:

    DPL News (2025, 19 de agosto). “90% de las organizaciones a nivel global no está preparada para protegerse contra amenazas cibernéticas potenciadas por IA”, Accenture. Recuperado el 21 de agosto de 2025, de: https://dplnews.com/90-de-las-organizaciones-a-nivel-global-no-esta-preparada-para-protegerse-contra-amenazas-ciberneticas-potenciadas-por-ia/

  • Google usará energía de reactor nuclear en Tennessee para abastecer Centros de Datos

    Google usará energía de reactor nuclear en Tennessee para abastecer Centros de Datos

    La planta Hermes 2, ubicada en Oak Ridge, Tennessee, comenzará operaciones en 2030 y suministrará 50 MW de energía limpia a la red de TVA.

    Google anunció una alianza con Kairos Power y Tennessee Valley Authority (TVA) para poner en marcha el primer reactor nuclear avanzado de cuarta generación en Estados Unidos. Se trata de la planta Hermes 2, ubicada en Oak Ridge, Tennessee, que comenzará operaciones en 2030 y suministrará 50 megavatios (MW) de energía limpia a la red de TVA.

    Con este acuerdo de compra de energía, Google se convertirá en la primera empresa en adquirir electricidad proveniente de un reactor GEN IV a través de una compañía eléctrica en el país. La energía abastecerá directamente a sus Centros de Datos en el condado de Montgomery, Tennessee y el condado de Jackson en Alabama.

    La colaboración forma parte de un plan iniciado en 2023, con el que Google y Kairos Power buscan desplegar hasta 500 MW de capacidad nuclear modular para el sistema eléctrico estadounidense. El modelo contempla una solución tripartita en la que clientes de energía, empresas de servicios públicos y desarrolladores tecnológicos comparten costos, riesgos y beneficios para acelerar la adopción de nuevas tecnologías energéticas.

    Don Moul, CEO de TVA, destacó que la energía nuclear es la base del futuro de la seguridad energética. “Que Google ayude a asumir parte del costo y riesgo de estos proyectos pioneros no sólo ayuda a la empresa, también a los 10 millones de clientes de TVA y a Estados Unidos”, dijo.

    Además de proveer energía limpia, la planta Hermes 2 busca reactivar a Oak Ridge como centro de innovación nuclear. La planta Hermes 2 contribuirá a consolidar esta posición a través de programas en colaboración con la Universidad de Tennessee y otras instituciones locales para formar talento técnico calificado, como operadores e ingenieros de planta.

    Google recordó que, desde 2015, mantiene una colaboración con TVA para llevar tecnologías de energía limpia al Valle de Tennessee, y aseguró que esta iniciativa es el inicio de una nueva etapa en el desarrollo de energía avanzada en la región.

    Fuente.

    DPL News (2025, 19 de agosto). Google usará energía de reactor nuclear en Tennessee para abastecer Centros de Datos. Recuperado el 21 de agosto de 2025, de: https://dplnews.com/google-usara-energia-reactor-nuclear-para-centros-de-datos/

  • El 91% de las empresas mexicanas sufrió un intento de infiltración en su red el último año

    El 91% de las empresas mexicanas sufrió un intento de infiltración en su red el último año

    El 91% de empresas mexicanas detectó intentos de infiltración en sus redes, y 64% sufrió ejecución de código malicioso dentro de su infraestructura, según Kaspersky.

    La gran mayoría de empresas en México (91%) dijo que encontró intentos de infiltrarse en su red, de acuerdo con el informe IT Security Economics 2024 de la firma de ciberseguridad Kaspersky. Aún más inquietante: 64% de las organizaciones encuestadas reportó que actores maliciosos lograron ejecutar código dentro de su infraestructura, es decir, que sufrieron incidentes ya consumados.

    De acuerdo con Fabio Assolini, director del Equipo Global de Investigación y Análisis (GReAT) para América Latina en Kaspersky, estas cifras se insertan en una tendencia global: pese a inversiones crecientes en seguridad, la mayor parte de las organizaciones sigue reportando ataques de red.

    Kaspersky detalla que 97% de las grandes empresas, 88% de las medianas y 83% de las pymes reconocen incidentes de este tipo. La compañía lo sintetiza en una lectura del momento: el concepto de perímetro confiable perdió vigencia y ya no basta con soluciones puntuales.

    Assolini advierte que el hallazgo de México proviene de una muestra de compañías del país y, aunque intimidante, es la realidad de Latinoamérica, donde los niveles de presión delictiva son comparables entre mercados vecinos. La explicación, según el especialista, comienza por un viejo conocido: la piratería de software.

    “Sistemas pirateados muchas veces están vulnerables porque no se instalan los parches y el uso de cracks o keygens suele añadir una puerta trasera que tarde o temprano facilita la intrusión”, dijo Assolini en entrevista.

    Vectores

    En el frente táctico de los ciberdelincuentes, el phishing reina por su bajo costo y efectividad. Un empleado que cree en un correo falso y entrega credenciales abre la puerta para que los agresores se muevan lateralmente y escalen privilegios.

    “El phishing es pequeño, pero permite que se complete un gran ataque”, dijo Assolini.

    A ello se suma la normalización, sobre todo desde la pandemia, del bring your own device (BYOD): equipos personales, fuera del control corporativo, que se conectan a la red interna y pueden convertirse en eficaces vehículos de propagación.

    El reporte IT Security Economics 2024 coincide en el énfasis humano: aunque 100% de las empresas ha desplegado seguridad en endpoints y 94% protección de red, la capacitación en seguridad alcanza apenas 53% de adopción, lo que deja abiertas rutas de ingeniería social y errores operativos.

    Fuente.

    El Economista (2025, 18 de agosto). El 91% de las empresas mexicanas sufrió un intento de infiltración en su red el último año. Recuperado el 21 de agosto de 2025, de: https://www.eleconomista.com.mx/tecnologia/91-empresas-mexicanas-sufrio-intento-infiltracion-red-20250818-773189.html

  • La Digitalización Tecnológica Y Su Impacto en la Sociedad Actual

    La Digitalización Tecnológica Y Su Impacto en la Sociedad Actual

    En el centro del paradigma tecnológico que estamos viviendo, están las tecnologías de la información (TICs), resultado de la convergencia de los avances en la microelectrónica, cómputo-software, telecomunicaciones y la optoelectrónica, (Castells, 1999), este cambio tecnológico propició una reestructuración del capitalismo, estableciendo las bases del predominio del mercado,  donde la Inteligencia Artificial (IA) es preponderante, considerada como la comprensión científica de los mecanismos que fundamentan el pensamiento y el comportamiento inteligente y su incorporación en las máquinas (computadoras) (Cairo, 2011).

    En el siglo XX se inició la formación de la  sociedad-red, basada en la información, cuyos antecedentes surgen del proceso histórico, hay evidencias de que la “humanidad consigue un poder enorme mediante la construcción de grandes redes de cooperación..” (Noha, 2024, pág. 14).

    Hay dos tipos de redes, las ingenuas, que derivan en redes ilusorias, asumiendo la solución a la mayoría de los problemas; sin embargo se traducen en manipulación, al distorsionar la realidad, modificando valores e ideologías, haciendo ver normal el racismo y los genocidios, amparados por la seudo-ciencia, producto del analfabetismo científico, combinado con la falta de ética; para Carl Sagan, “las popularizaciones dispersas y deficientes de la ciencia dejan huecos que la pseudociencia se apresura a llenar”. (Sagan, 2023, págs. 22-23).

    Como fue el caso de las nefastas redes del nazismo y del estalinismo, y hoy de los imperios Norteamericano, Ruso, y Chino, y de aquellos países que están dedicados a reprimir a sus ciudadanos, de manera tan aberrantemente cruel, como las que aplica Netanyahu a los Palestinos, creyéndose acreedores del nobel de la paz. 

    Pero también hay redes sabias, que se orientan a impulsar el flujo de información, confiable y objetiva, para la toma de decisiones correctas, poniendo al ser humano en el centro, con derechos y valores, que cohesionan a los grupos, independientemente, de su raza o religión, son las redes que divulgan los descubrimientos científicos, en bien de la humanidad y no los transforman en mercancías. 

    Las TICs son redes globales diseñadas como modelos de negocio, en ningún momento han sido, ni serán gratuitos, o se paga con dinero, o con información que alimenta sus modelos de lenguaje en extenso MLL o sea los Chats GPT (Transformador Generativo Preentrenado), en convergencia con las Redes Sociales, engendran un vasto despliegue de comunidades virtuales (Castells, La era de la Información: Economía, Sociedad y Cultura/ Volumen 1 : la Sociedad Red, 1999), orientadas a reescribir la identidad social, (ob.cit.) como un proceso, mediante el cual el ente social se reconoce a sí mismo, en un contexto de atributos culturales, determinados por las nuevas estructuras socio-políticas. 

    La línea que delimita el mundo digital del mundo real, es cada vez más difusa, sobre todo en la niñez y en los adolescentes, el cambio social es demasiado rápido, como para que las nuevas generaciones asimilen la seducción de las redes sociales y de la IA a través de los Chat GPT.

    Se ha propiciado la adicción a estas nuevas formas tecnológicas, no sólo de comunicarse, sino de vivir; si no se tiene conciencia de lo que significan las aplicaciones, como herramientas se les da la categoría de personas. 

    En este sentido la adicción tecnológica domina la voluntad del usuario generando una dependencia, que lo sustrae de la realidad, adoptando valores o percepciones, ajenas a una integración solidaria y social. No hay adicción sana porque es una enfermedad que atrofia la conciencia (Martin C. D. Medina, Nuñez, Marta, 2021).

    Laura Vandenbosch coordina el estudio denominado MMIc de la Unión Europea, para investigar el impacto de las tecnologías digitales en la niñez y en los jóvenes, a fin de lograr un desarrollo equilibrado de las nuevas generaciones, en una sociedad hiperconectada.

    Los riesgos de una enajenación social, ocasionada por la adicción tecnológica-digital, son altos y diversos, si bien no podemos sustraernos de las aplicaciones tecnológicas, es fundamental impulsar una cultura tecnológica, que tenga como centro los valores humanos, la solidaridad y la sustentabilidad. 

    ¿Las instituciones educativas que tanto están haciendo su tarea? ¿acaso los gobiernos ya fueron superados por las fuerzas de los mercados oligopólicos? ¿Las grandes tecnológicas ya impusieron su cultura de la privatización y enajenación de nuestros jóvenes? Y ¿las respuestas dónde están? 

    La Digitalización Tecnológica Y Su Impacto en la Sociedad Actual

     

    Bibliografía

    Cairo, B. O. (2011). El Hombre Artificial. Ciudad de México, México: Alfa Omega Grupo Editor, S.A. de C.V.

    Castells, M. (1999). La Era de la Información, Economía Sociedad y Cultura: Vol 1 La Socioedad en Red (Vol. 1). Ciudad de Mexico, Ciudad de México, Mexico : Siglo XXI Editores.

    Castells, M. (1999). La era de la Información: Economía, Sociedad y Cultura/ Volumen 1 : la Sociedad Red. Balcelona, España: Siglo XXI Editores.

    Martin, C. D. (s.f.). Redes Sociales y la Adicción al Like de la Gemeración Z. Revista de cOMUNICACIÓN .

    Martin, C. D., & Medina, Nuñez, Marta . (2021). Redes Sociales y la Adicción al Like de la Generación Z. Revista de Comunicación y Salud, 55.76.

    Martin, C. D., & Medina, Nuñez, Marta. (19 de abril de 2021). Redes Sociales y la Adicción al Like de la Generación Z. Revista de Comunicación y Salud, 11, 55-76.

    Noha, H. Y. (2024). Nexus: Una breve historia de las redes de información desde la edad de piedra hasta la Inteligencia Artificial. Barcelona, España : Penguin Random House Grupo Editorial.

    Sagan, C. (2023). El Mundo y sus demonios. Ciudad de México: Ediciones Culturales Paidos S.A. de C.V.