Category: Cibersegurídad

  • Perú aprueba reglamento para promover uso seguro de la Inteligencia Artificial: así se aplicará

    Más de dos años después de que se aprobara la Ley Nº 31814 en Perú, “que promueve el uso de la Inteligencia Artificial (IA) en favor del desarrollo económico y social del país”, el gobierno finalmente aprobó y publicó su reglamento.

    Al igual que la Ley europea de IA, también adopta un enfoque basado en riesgos, aunque el reglamento peruano sólo contempla dos: el uso indebido y el uso de riesgo alto de sistemas de IA, este último donde entran aquellos que suponen “un riesgo para la vida humana, la dignidad, la libertad, la seguridad física y los demás derechos fundamentales de las personas”. El documento también exige transparencia algorítmica y protección de datos, y estipula evaluaciones de impacto para los sistemas de alto riesgo.

    De acuerdo con el texto, su objetivo es “fomentar e impulsar el desarrollo y uso de la Inteligencia Artificial”, promover el uso seguro, responsable y ético de sistemas de IA y establecer disposiciones para que su implementación se realice de manera “segura, ética, sostenible, transparente, replicable, responsable e inclusiva”.

    Respecto a su ámbito de aplicación, las disposiciones se aplicarán a entidades de la Administración Pública, empresas estatales y privadas vinculadas al Sistema Nacional de Transformación Digital, la academia y la sociedad civil.

    Avance hacia una IA más benigna

    El reglamento, que consta de seis títulos, 36 artículos y seis disposiciones complementarias finales, consta en el Decreto Supremo Nº 115-2025-PCMde la Presidencia del Consejo de Ministros (PCM) publicado este 9 de septiembre en el Diario Oficial El Peruano.

    Establece 11 principios rectores que rigen el desarrollo, implementación y uso de sistemas basados en IA:

    1. No discriminación
    2. Privacidad de los datos personales
    3. Protección de derechos fundamentales
    4. Respeto del derecho de autor y derechos conexos
    5. Seguridad, proporcionalidad y fiabilidad
    6. Sostenibilidad
    7. Supervisión humana
    8. Transparencia
    9. Rendición de cuentas
    10.  Desarrollo ético para una IA responsable
    11.  Estándares de seguridad basados en riesgos

    Autoridades competentes

    En cuanto a la gobernanza, el reglamento le otorga a la propia PCM el rol de autoridad técnico normativa responsable de dirigir, evaluar y supervisar el uso y la promoción del desarrollo de la IA a nivel nacional.

    Para ello, se apoyará en la Secretaría de Gobierno y Transformación Digital (SGTD), que impulsará las acciones a través del Centro Nacional de Innovación Digital e Inteligencia Artificial (CNIDIA), creado desde 2021 para tal propósito.

    La SGTD también monitoreará los riesgos y usos indebidos y establecerá canales para denuncias ciudadanas.

    Impulso a la formación y la innovación

    El reglamento contempla igualmente la formación de conocimientos y habilidades en IA, campañas de sensibilización y compromiso hacia la ciudadanía, la formación y retención de talento nacional, así como la atracción de talento extranjero, y la promoción de la IA para mejorar la competitividad y la innovación.

    Asimismo, establece una suerte de sandbox regulatorio para la IA, denominado “entorno de experimentación y prueba controlada para los sistemas”, que será establecido por la SGTD; el impulso al lanzamiento de proyectos innovadores de IA por parte de las pequeñas y medianas empresas (pymes) y los emprendedores, y el fomento del uso del cómputo en la Nube para la IA y a la formación de comunidades de código abierto.

    Entrada en vigor

    El decreto establece que el reglamento entrará en vigor 90 días hábiles de su publicación en el diario oficial, a excepción de las primera, segunda, tercera, cuarta y quinta disposiciones finales, que entrarán en vigor al día siguiente, es decir, este miércoles 10 de septiembre.

     

    Fuente.

    DPL News (2025, 09 de spetiembre). Perú aprueba reglamento para promover uso seguro de la Inteligencia Artificial: así se aplicará. Recuperado el 26 de septiembre de 2025, de: https://dplnews.com/peru-aprueba-reglamento-uso-seguro-inteligencia-artificial/

  • ChatGPT implementará controles de seguridad y predicción de edad para adolescentes

    ChatGPT implementará controles de seguridad y predicción de edad para adolescentes

    OpenAI reconoció que las personas hablan con la IA sobre temas cada vez más personales.

    OpenAI, empresa creadora de ChatGPT, anunció cambios en sus políticas y funciones de seguridad y privacidad enfocadas en los adolescentes, pues considera que es fundamental para la propia empresa y para la sociedad que se proteja el derecho a la privacidad en el uso de la Inteligencia Artificial (IA).

    Y es que OpenAI reconoció que las personas hablan con la IA sobre temas cada vez más personales.

    OpenAI detalló que están en desarrollo funciones de seguridad avanzadas para garantizar la privacidad de los datos de los usuarios.

    Explicó que así como ocurre con los privilegios en otras categorías, habrá ciertas excepciones. Por ejemplo, los sistemas automatizados supervisarán posibles usos indebidos graves, y los riesgos más críticos como amenazas a la vida de alguien, planes para dañar a otros o daños a escala social, como un posible incidente masivo de ciberseguridad.

    En los casos anteriores, afirmó OpenAI, podrán ser escalados para su revisión por personal de la empresa.

    En segundo lugar, la compañía quiere que los usuarios puedan usar sus herramientas como deseen, dentro de unos límites de seguridad muy amplios.

    “Hemos trabajado para aumentar las libertades de los usuarios a medida que nuestros modelos se vuelven más manejables.

    “Por ejemplo, el comportamiento predeterminado de nuestro modelo no propiciará conversaciones insinuantes, pero si un usuario adulto lo solicita, debería obtenerlo. Para un ejemplo mucho más complejo, el modelo, por defecto, no debería proporcionar instrucciones sobre cómo suicidarse, pero si un usuario adulto solicita ayuda para escribir una historia de ficción que represente un suicidio, el modelo debería ayudarle con esa solicitud”, explicó OpenAI.

    Añadió que el tercer principio se centra en la protección de los adolescentes, en donde van a priorizar la seguridad sobre la privacidad y la libertad de los adolescentes.

    “Estamos desarrollando un sistema de predicción de edad para estimar la edad según el uso que las personas hacen de ChatGPT. En caso de duda, optaremos por lo seguro y usaremos la experiencia para menores de 18 años.

    “En algunos casos o países, también podríamos solicitar una identificación; sabemos que esto compromete la privacidad de los adultos, pero creemos que es una compensación que vale la pena”, argumentó OpenAI.

    También dijo que aplicarán diferentes normas a los adolescentes que utilicen sus servicios. Por ejemplo, ChatGPT estará capacitado para no tener conversaciones sugerentes, si se le pide, ni para participar en conversaciones sobre suicidio o autolesión, incluso en un entorno de escritura creativa.

    Fuente:

    DPL News(2025, 17 de septiembre). ChatGPT implementará controles de seguridad y predicción de edad para adolescentes. Recuperado el 19 de septiembre de 2025, de: https://dplnews.com/chatgpt-implementara-controles-de-seguridad-y-prediccion-de-edad-para-adolescentes/

  • La industria manufacturera es el sector que recibe más ciberataques en México

    La industria manufacturera es el sector que recibe más ciberataques en México

    El país registró 108 millones de detecciones de malware en un año, lo que lo coloca como el segundo más atacado en América Latina, detrás de Brasil.

    Manaos, Br. La manufactura mexicana se ha convertido en el blanco más frecuente de las campañas de ciberataques, según la radiografía que presentó la firma de ciberseguridad Kaspersky en la Cyber Security Week.

    Las categorías de fabricación de bienes discretos y la fabricación por procesos concentran 28.97% de todas las detecciones de ciberataques por sector. Esto quiere decir que tres de cada 10 incidentes cibernéticos en el país son en contra de la industria manufacturera, lo que la ubica por encima del gobierno y de otros rubros estratégicos en el mapa de amenazas del país.

    El volumen de actividad maliciosa que enfrenta México destaca en la región. Kaspersky reportó que el país registró 108 millones de detecciones de malware en los últimos 12 meses (un promedio de 297,000 intentos diarios) y un abanico de familias que va desde adware hasta troyanos, exploit kits y ransomware, lo que quiere decir que México es el segundo país más atacado en América Latina, sólo después de Brasil.

    “Registramos en los últimos 12 meses 626 millones de ataques en Latinoamérica; por país, México acumula 108 millones”, dijo Fabio Assolini, director del Equipo Global de Investigación y Análisis (GReAT) para América Latina en Kaspersky.

    El gobierno figura con 13.39% del total de ataques de malware en el país; retail recibe 6.16%; la agricultura 5.72%, y sectores como energía, telecomunicaciones y finanzas aparecen con participaciones menores pero de alto impacto.

    “El gobierno sigue como el sector más afectado en la región, pero en Brasil y México el sector más afectado es la industria”, dijo Assolini.

    Phishing

    Dentro del panorama de amenazas de Kaspersky, las detecciones catalogadas como adware ocupan un lugar importante en la tabla (con múltiples variantes), pero los ataques que realmente dañan la operación industrial son los que combinan acceso inicial (phishing) con explotación de vulnerabilidades y despliegue de herramientas como ransomware o backdoors. Esa combinación explica la mayor “rentabilidad” criminal al apuntar a fábricas y centros de ensamblaje.

    El top de detecciones en México muestra una mezcla de amenazas masivas (adware, risktools) y familias más peligrosas (troyanos, exploits para MS Office, backdoors y ransomware).

    Kaspersky registra explotaciones de vulnerabilidades comunes, por ejemplo, exploits sobre Microsoft Office, y un número significativo de alertas por software vulnerable instalado en equipos empresariales. Esa realidad técnica facilita el salto desde un correo de phishing hasta un control persistente sobre servidores o dispositivos OT.

    “Los ataques de hoy son bastante direccionados. No son masivos”, dijo Fabio Assolini.

    El phishing sigue siendo la puerta de entrada preferida: plataformas de envío masivo, botnets de dispositivos móviles y servicios de phishing-as-a-service (phishing como servicio) permiten a criminales automatizar campañas a gran escala.

    Kaspersky documentó casos en que un único mensaje logró comprometer credenciales y escalar, para finalmente impactar sistemas de pago o procesos operativos, un patrón especialmente peligroso para instalaciones industriales.

    En lo operativo, el informe muestra que México registró 111,000 bloqueos de troyanos bancarios (frente a 1.5 millones en Brasil); 237,000 eventos de ransomware en la región y decenas de miles de bloqueos dirigidos contra Linux y plataformas móviles.

    Recomendaciones

    Los analistas de Kaspersky proponen medidas que combinan técnica y gobernanza: gestión continua de parches (especialmente en componentes OT integrados con TI), segmentación robusta entre redes industriales y administrativas, despliegue de detección proactiva (LBR/XDR) e inversión en ejercicios de respuesta y capacitación contra phishing.

    La hoja de ruta está pensada para reducir la ventana de explotación y limitar el movimiento lateral que transforma una intrusión inicial en un incidente crítico.

    La manufactura en México no es solo el sector con más detecciones; es, por su naturaleza, un multiplicador de riesgo económico cuando su ciberseguridad es insuficiente. Con 28.97% de las detecciones dirigidas a procesos manufactureros y con volúmenes de malware que superan los 100 millones de eventos anuales en el país, la lección para empresas y autoridades es clara: blindar plantas no es un gasto marginal, sino una inversión estratégica en competitividad.

     

    Fuente.

    El Economista (2025, 10 de septiembre). La industria manufacturera es el sector que recibe más ciberataques en México. Recuperado el 12 de septiembre de 2025, de: https://www.eleconomista.com.mx/tecnologia/industria-manufacturera-sector-recibe-ciberataques-mexico-20250910-776564.html

  • IBM: adopción de IA y automatización en seguridad recortan pérdidas por ciberataques en América Latina

    IBM: adopción de IA y automatización en seguridad recortan pérdidas por ciberataques en América Latina

    El costo promedio de una filtración de datos en América Latina se redujo este año. De acuerdo con el informe Cost of a Data Breach 2025, elaborado por el Instituto Ponemon para IBM, las organizaciones de la región, entre ellas de Argentina, Brasil, Chile, Colombia y México, enfrentaron en promedio un gasto de 2.51 millones de dólares por incidente, lo que representa una disminución del 9% frente a los 2.76 millones registrados en 2024.

    Según IBM, esta reducción se explica principalmente por la mayor adopción de soluciones de seguridad impulsadas por Inteligencia Artificial (IA) y automatización, tecnologías que ya utilizan en distintos niveles de madurez 75% de las empresas de la región.

    El reporte indica que las organizaciones que emplean estas herramientas reportaron ahorros de hasta 900 mil dólares y acortaron en 111 días el tiempo que les toma identificar y contener un ataque.

    Además, identifica que la implementación de DevSecOps, el cifrado de datos y las pruebas ofensivas de seguridad (red teaming) son los enfoques más efectivos para contener los costos de las filtraciones. Por ejemplo, las compañías que aplicaron cifrado lograron que, incluso cuando los datos fueron robados, resultaron inservibles para los atacantes.

    El estudio advierte que los entornos comprometidos de IoT/OT, la complejidad de los sistemas de seguridad y el uso no controlado de herramientas de IA se posicionaron como factores que incrementan los costos. En promedio, las filtraciones relacionadas con entornos IoT elevaron los gastos en 130,000 dólares adicionales, mientras que la complejidad en la gestión de herramientas de seguridad sumó 122,000 dólares más.

    Por otra parte, el reporte detalla que el tiempo promedio para identificar y contener una filtración de datos en la región aumentó a 316 días en 2025, 16 días más que en 2024. De este total, 240 días corresponden a la identificación de la filtración en 2025, frente a 231 días en 2024, y 70 días a la contención. Este aumento en los plazos contribuye a un mayor costo de las filtraciones.

    “Hoy ya hay una identificación y una capacidad de contención más rápida. Las empresas que logran identificar y contener antes de 200 días tienen un costo promedio más bajo incluso que el general, de 2.21 millones de dólares, mientras que quienes tardan más llegan a 2.82 millones de dólares”, comentó Rodolfo Manzi, líder de servicios de ciberseguridad de IBM México.

    El informe destaca un cambio en los sectores más impactados por el costo de las filtraciones. En 2025, las industrias con mayores pérdidas fueron Energía con 2.86 millones de dólares, Tecnología con 282 millones de dólares y Retail (minoristas) con 2.71 millones de dólares.

    En cuanto a los vectores de ataque más comunes, el phishing se mantuvo como la principal causa, con 17% de los casos y un costo promedio de 2.87 millones de dólares; también se observó un alza en ataques que explotan vulnerabilidades de sistemas o que se infiltran a través de terceros y cadenas de suministro. “Cuando hablamos de cadena de suministro, los ataques se apalancan de la confianza entre las empresas. Si hay una filtración en un tercero, se vuelve más difícil la identificación y mucho más complicado contenerla”, advirtió Manzi.

    El estudio también examina cómo las organizaciones están utilizando Inteligencia Artificial (IA) y automatización para fortalecer su seguridad. Sin embargo, los atacantes también recurren a estas tecnologías, lo que plantea nuevos retos.

    Jorge Paz, especialista de Inteligencia Artificial en IBM México, explicó que antes se usaba IA en otros contextos, pero ahora se está adoptando para generación de texto, video e imágenes. “Esto cambia el panorama de las disrupciones de seguridad. Los atacantes hoy pueden crear un deepfake en minutos para robar datos o engañar a empleados”.

    Los datos del informe muestran que 25% de las empresas no usan ninguna herramienta de IA, ni de automatización en seguridad, lo que limita su capacidad para prevenir o detener filtraciones de datos; 42% las utilizan de forma limitada y 33% las aplican de manera extensiva.

    El impacto en los costos de filtración de datos es notable: las empresas que no usan IA en seguridad enfrentaron pérdidas de 3.12 millones de dólares por incidente, las que la aplican de forma limitada reducen el costo a 2.4 millones, y quienes la usan extensivamente lo bajan a 2.22 millones, mostrando que la tecnología de gobernanza y automatización permite responder con rapidez y reducir el impacto económico.

    “Los empleados ingresan información personal, información confidencial, datos que no deberían ser filtrados sobre el rendimiento de la empresa, incluso código de desarrollos propios en estas herramientas de Inteligencia Artificial. Muchas de estas plataformas, por sus políticas, pueden utilizar esos datos para entrenar sus modelos, lo que eleva significativamente el riesgo de fuga de información”, advirtió Paz.

    Los directivos explicaron que uno de los hallazgos más preocupantes es la ausencia de políticas claras de gobernanza en Inteligencia Artificial. El 63% de las organizaciones de la región reconocieron que carecen de lineamientos o que aún están en proceso de desarrollarlos. De acuerdo con el estudio, sólo 40% de las empresas aplican controles de acceso en sistemas de IA, 30% realiza auditorías regulares de modelos de IA y otro 30% valida rigurosamente los datos de entrenamiento.

    La falta de control ha dado paso a fenómenos como el shadow AI, cuando los empleados usan herramientas de Inteligencia Artificial no autorizadas por sus compañías. Según el informe, 75% de los trabajadores del conocimiento emplean IA en su trabajo diario, pero el 78% lo hace con plataformas ajenas a las aprobadas por la organización.

    Finalmente, Manzi y Paz mencionaron que, en América Latina, 34% de las filtraciones involucraron datos distribuidos en múltiples entornos, mientras que 24% se produjo en la Nube pública y el 23% en infraestructura local. Los incidentes que abarcaron distintos tipos de entornos resultaron los más costosos, con un promedio de 2.84 millones de dólares por solución.

     

    Fuente.

    DPL News (2025, 09 de septiembre). IBM: adopción de IA y automatización en seguridad recortan pérdidas por ciberataques en América Latina. Recuperado el 12 de septiembre de 2025, de: https://dplnews.com/ibm-ia-y-automatizacion-en-seguridad-recortan-perdidas-por-ciberataques/

  • IA agiliza ciberataques de 44 días a menos de 5 horas para una brecha exitosa: Palo Alto

    IA agiliza ciberataques de 44 días a menos de 5 horas para una brecha exitosa: Palo Alto

    La IA permite a los atacantes automatizar y escalar sus operaciones maliciosas a una velocidad que antes era inimaginable.

    Río de Janeiro, Brasil. El avance de la Inteligencia Artificial (IA) ha traído consigo un aumento significativo en la sofisticación y frecuencia de los ciberataques, presentando un desafío sin precedentes para la ciberseguridad, afirmó Marcos Pupo, presidente Latam de Palo Alto Networks.

    Durante su keynote en Digi Americas Latam CISO Summit 2025, Pupo reveló datos que muestran tal afirmación. Las cifras muestran un aumento del 300% en la tasa de ataques diarios en sólo un año y una reducción del 99% en el tiempo para lograr una brecha exitosa, lo que el experto de Palo Alto dijo que ilustran la magnitud de esta amenaza.

    Explicó que la IA está permitiendo a los atacantes automatizar y escalar sus operaciones maliciosas a una velocidad que antes era inimaginable.

    El ejecutivo subrayó una tendencia preocupante, que se refiere al tiempo para una brecha exitosa que se ha reducido drásticamente de 44 días a menos de 5 horas.

    Lo anterior, mencionó Marcos Pupo, significa que las defensas tradicionales que dependen de la detección y respuesta lentas ya no son suficientes, pues los ciberdelincuentes están utilizando la IA para identificar vulnerabilidades, personalizar ataques de phishing a gran escala y evadir los sistemas de seguridad con una eficiencia alarmante.

    Además, la IA, que ya ha demostrado su capacidad para generar textos e imágenes convincentes, también es muy eficaz para crear malware polimórfico que cambia su código para evitar la detección, alertó el directivo de Palo Alto Networks.

    También señaló que ante esta nueva realidad, la velocidad se ha convertido en el factor crítico en la ciberseguridad, y para contrarrestar la IA ofensiva es indispensable implementar IA defensiva.

    Añadió que las organizaciones deben adoptar tecnologías que usen IA para la detección de amenazas en tiempo real, análisis de comportamiento anómalo y respuesta automatizada.

    “Es fundamental que las soluciones de seguridad se basen en plataformas modulares y unificadas que puedan procesar grandes cantidades de datos y automatizar la identificación y respuesta a incidentes”, comentó el ejecutivo.

     

  • El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo, advierte CEO de Microsoft AI

    El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo, advierte CEO de Microsoft AI

    Mustafa Suleyman, director Ejecutivo de Microsoft AI y cofundador de DeepMind, alertó que en los próximos dos a tres años veremos surgir un fenómeno que podría alterar la relación de los humanos con la tecnología: la Seemingly Conscious AI (SCAI) o Inteligencia Artificial (IA) que parece consciente.

    En un artículo publicado en su blog personal, Suleyman explicó que, con las herramientas actuales como los grandes modelos de lenguaje (LLMs), APIs públicas y técnicas de prompting, ya es posible construir sistemas que proyecten la ilusión de conciencia, es decir, que se expresen como si tuvieran memoria, intenciones, emociones o coherencia narrativa propia. Y aunque no existe evidencia científica de que estos sistemas puedan ser realmente conscientes, la mera apariencia podría tener consecuencias sociales y psicológicas profundas.

    “Lo importante no es si una IA es consciente o no, sino lo que la gente cree acerca de ella. Si los usuarios llegan a pensar que la máquina siente, recuerda o sufre, ese simple hecho cambia nuestra relación con la tecnología”, escribió el ejecutivo.

    Una de las preocupaciones más urgentes para Suleyman es el fenómeno que ya ha comenzado a denominarse como “psicosis de la IA”, un estado en el que las personas desarrollan creencias delirantes o vínculos emocionales excesivos con una IA.

    En su blog, el ejecutivo de Microsoft explicó que “usuarios vulnerables pueden llegar a ver en estos sistemas una fuente de compañía, apoyo emocional o incluso autoridad moral, lo cual abre la puerta a problemas de salud mental y a la manipulación”.

    Suleyman mencionó casos recientes de personas que han intentado otorgar estatus de “sujetos” a los chatbots o piden derechos, bienestar e incluso ciudadanía para ellos, lo que calificó como “un síntoma de este fenómeno en crecimiento”.

    “Estamos a punto de entrar en una era en la que millones de personas interactuarán con sistemas que parecen tener una mente propia. No necesitamos que sean realmente conscientes para que eso tenga un impacto enorme en nuestras vidas”, advirtió.

    El problema al que se refiere el director Ejecutivo de Microsoft AI no es hipotético.

    En los últimos dos años, tras el auge de chatbots de IA, se han documentado casos de usuarios que desarrollaron dependencias emocionales con asistentes conversacionales avanzados. Algunos llegaron a poner en riesgo su vida tras recibir consejos médicos erróneos, mientras que otros experimentaron aislamiento social al reemplazar sus interacciones humanas por vínculos con máquinas.

    Para Suleyman, el desafío no está en frenar el avance de la IA, sino en diseñar sistemas con límites claros que no fomenten la ilusión de conciencia.

    “Debemos construir IA para la gente, no como si fuera una persona. Esto implica, en su visión, evitar antropomorfismos, ser transparentes con los usuarios y reforzar constantemente que la IA es una herramienta, no un ente con experiencias propias”, subrayó.

    El directivo propone que la comunidad tecnológica y los gobiernos establezcan desde ya normas que guíen el desarrollo de estas plataformas, antes de que los riesgos se materialicen de manera masiva.

    “No es ciencia ficción. Con los avances actuales, cualquiera podría montar un sistema que simule ser consciente en muy poco tiempo. Y una vez que esa ilusión sea convincente, revertir sus efectos en la sociedad será mucho más difícil”, advirtió.

    Además, insistió en que la discusión pública no puede esperar. Para Mustafa Suleyman, se trata de un problema comparable a otros desafíos regulatorios urgentes de la era digital, como la privacidad de datos o la desinformación en redes sociales. La diferencia es que, en este caso, la frontera entre lo real y lo percibido es mucho más difusa.

     

    Fuente.

    DPL News (2025, 28 de agosto). El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo, advierte CEO de Microsoft AI. Recuperado el 08 de septiembre de 2025, de: https://dplnews.com/el-mayor-riesgo-de-la-inteligencia-artificial-no-es-ser-consciente-sino-parecerlo-advierte-ceo-de-microsoft-ai/

  • “90% de las organizaciones a nivel global no está preparada para protegerse contra amenazas cibernéticas potenciadas por IA”, Accenture

    “90% de las organizaciones a nivel global no está preparada para protegerse contra amenazas cibernéticas potenciadas por IA”, Accenture

    A medida que la inteligencia artificial (IA) transforma radicalmente los negocios, una vasta mayoría de organizaciones (90%) no está adecuadamente preparadas para asegurar su futuro impulsado por IA, según un nuevo informe de Accenture. A nivel global, casi dos tercios (63%) de las empresas se encuentran en la “Zona Expuesta”, lo que indica que carecen tanto de una estrategia de ciberseguridad cohesiva como de las capacidades técnicas necesarias.

    El informe “Estado de la Resiliencia Cibernética 2025” de Accenture se basa en una encuesta a 2.286 ejecutivos de ciberseguridad y tecnología de grandes organizaciones alrededor del mundo. Revela que la rápida adopción de IA ha acelerado drásticamente la velocidad, escala y sofisticación de las amenazas cibernéticas, superando con creces las defensas actuales de las empresas. Por ejemplo, más de tres cuartas partes (77%) de las organizaciones carecen de las prácticas de seguridad de datos y IA esenciales necesarias para proteger modelos de negocio críticos, pipelines de datos y la infraestructura en la nube.

    “Las crecientes tensiones geopolíticas, la volatilidad económica y entornos operativos cada vez más complejos, junto con los ataques potenciados por IA, están dejando a las organizaciones más vulnerables a los riesgos cibernéticos. Este informe sirve como una llamada de atención de que la ciberseguridad ya no puede ser un pensamiento posterior. Debe estar integrada por diseño en cada iniciativa impulsada por IA”, dijo Ariel Goldenstein, Líder de Ciberseguridad de Accenture Colombia. “Tomar este enfoque proactivo ayudará a garantizar una ventaja competitiva, fortalecer la lealtad del cliente y convertir la ciberseguridad en un impulsor de negocio”.

    A pesar del rápido crecimiento de la adopción de IA en las empresas, solo 22% de las organizaciones ha implementado políticas y capacitaciones claras para el uso de IA generativa. Además, muy pocas mantienen un inventario completo de sistemas de IA, lo cual es crucial para gestionar los riesgos de la cadena de suministro. Así también, la protección de datos sigue siendo insuficiente, con solo 25% de las organizaciones que utilizan completamente métodos de cifrado y controles de acceso para proteger la información sensible.

    La investigación también revela una inmadurez cibernética generalizada en todas las regiones. Solo el 14% de las organizaciones de Norteamérica y 11% de las organizaciones europeas tienen posturas maduras. En América Latina, 77% carece de estrategias y capacidades básicas, mientras que el 71% de las organizaciones de Asia-Pacífico permanecen en la “Zona Expuesta”, enfrentando riesgos operativos y financieros serios.

    La investigación identifica tres zonas de madurez de seguridad distintas basadas en la estrategia de ciberseguridad y las capacidades técnicas de una organización. El grupo superior, que Accenture llama la “Zona Lista para la Reinvención” y que comprende solo el 10% de las organizaciones, tiene una postura de seguridad resiliente y adaptable que evoluciona continuamente para contrarrestar las amenazas emergentes. El grupo intermedio del 27% en la “Zona en Progreso” muestra fortaleza, pero lucha por definir una dirección estratégica o implementar defensas. El grupo más vulnerable, en la “Zona Expuesta”, constituye 63% de las organizaciones, caracterizadas por una preparación cibernética limitada y una postura reactiva ante las amenazas. Estas condiciones se ven agravadas por el entorno de IA complejo y los factores de riesgo globales.

    Sin embargo, las empresas en la “Zona Lista para la Reinvención” tienen 69% menos de probabilidades de enfrentar ataques avanzados y son 1.5 veces más efectivas en bloquearlos. También tienen 1.3 veces más visibilidad en los entornos de TI y OT, han reducido la deuda técnica en un 8% y ven un aumento del 15% en la confianza del cliente, demostrando cómo las prácticas de ciberseguridad más sólidas impulsan tanto la resiliencia como el valor del negocio.

    Fuente:

    DPL News (2025, 19 de agosto). “90% de las organizaciones a nivel global no está preparada para protegerse contra amenazas cibernéticas potenciadas por IA”, Accenture. Recuperado el 21 de agosto de 2025, de: https://dplnews.com/90-de-las-organizaciones-a-nivel-global-no-esta-preparada-para-protegerse-contra-amenazas-ciberneticas-potenciadas-por-ia/

  • El 91% de las empresas mexicanas sufrió un intento de infiltración en su red el último año

    El 91% de las empresas mexicanas sufrió un intento de infiltración en su red el último año

    El 91% de empresas mexicanas detectó intentos de infiltración en sus redes, y 64% sufrió ejecución de código malicioso dentro de su infraestructura, según Kaspersky.

    La gran mayoría de empresas en México (91%) dijo que encontró intentos de infiltrarse en su red, de acuerdo con el informe IT Security Economics 2024 de la firma de ciberseguridad Kaspersky. Aún más inquietante: 64% de las organizaciones encuestadas reportó que actores maliciosos lograron ejecutar código dentro de su infraestructura, es decir, que sufrieron incidentes ya consumados.

    De acuerdo con Fabio Assolini, director del Equipo Global de Investigación y Análisis (GReAT) para América Latina en Kaspersky, estas cifras se insertan en una tendencia global: pese a inversiones crecientes en seguridad, la mayor parte de las organizaciones sigue reportando ataques de red.

    Kaspersky detalla que 97% de las grandes empresas, 88% de las medianas y 83% de las pymes reconocen incidentes de este tipo. La compañía lo sintetiza en una lectura del momento: el concepto de perímetro confiable perdió vigencia y ya no basta con soluciones puntuales.

    Assolini advierte que el hallazgo de México proviene de una muestra de compañías del país y, aunque intimidante, es la realidad de Latinoamérica, donde los niveles de presión delictiva son comparables entre mercados vecinos. La explicación, según el especialista, comienza por un viejo conocido: la piratería de software.

    “Sistemas pirateados muchas veces están vulnerables porque no se instalan los parches y el uso de cracks o keygens suele añadir una puerta trasera que tarde o temprano facilita la intrusión”, dijo Assolini en entrevista.

    Vectores

    En el frente táctico de los ciberdelincuentes, el phishing reina por su bajo costo y efectividad. Un empleado que cree en un correo falso y entrega credenciales abre la puerta para que los agresores se muevan lateralmente y escalen privilegios.

    “El phishing es pequeño, pero permite que se complete un gran ataque”, dijo Assolini.

    A ello se suma la normalización, sobre todo desde la pandemia, del bring your own device (BYOD): equipos personales, fuera del control corporativo, que se conectan a la red interna y pueden convertirse en eficaces vehículos de propagación.

    El reporte IT Security Economics 2024 coincide en el énfasis humano: aunque 100% de las empresas ha desplegado seguridad en endpoints y 94% protección de red, la capacitación en seguridad alcanza apenas 53% de adopción, lo que deja abiertas rutas de ingeniería social y errores operativos.

    Fuente.

    El Economista (2025, 18 de agosto). El 91% de las empresas mexicanas sufrió un intento de infiltración en su red el último año. Recuperado el 21 de agosto de 2025, de: https://www.eleconomista.com.mx/tecnologia/91-empresas-mexicanas-sufrio-intento-infiltracion-red-20250818-773189.html

  • Senadores proponen ley para etiquetar contenido generado por IA

    Senadores proponen ley para etiquetar contenido generado por IA

    Iniciativa busca proteger a la ciudadanía de deepfakes y noticias falsas, exigiendo un sello visible y rastreable en todo contenido artificial con las palabras “CREADO POR IA” o “GENERADO POR IA”, para prevenir fraudes y delitos basados en IA, proteger la integridad de procesos judiciales, fomentar un ecosistema tecnológico ético y transparente.

    La moción, patrocinada por los Senadores Bianchi, Castro González, Castro Prieto, Kusanovic y Walker, busca regular la obligación de establecer un sello claro y rastreable del contenido generado con inteligencia artificial.

    Los autores de la moción exponen que, si bien la inteligencia artificial generativa ofrece oportunidades importantes para la innovación en sectores cómo la educación, la salud y las comunicaciones, su mal uso puede tener consecuencias devastadoras. Entre los usos maliciosos identificados se incluyen la creación de videos falsos con contenido sexual sin consentimiento (deepfakes), la clonación de voces para cometer estafas, la generación de pruebas falsas en procesos judiciales, y la difusión de noticias falsas con fines políticos o económicos.

    En este contexto, la moción busca establecer un estándar legal claro que permita distinguir entre contenido auténtico y contenido generado artificialmente, protegiendo así a la ciudadanía frente a la manipulación digital. Se establece la obligación de incluir un sello visible con las palabras “CREADO POR IA” o “GENERADO POR IA”, acompañado de metadatos o marcas de agua digitales que permitan rastrear su origen. Este sello deberá ubicarse en un lugar perceptible del contenido, sin afectar la visualización sustancial del mismo.

    Asimismo, la iniciativa contempla una serie de excepciones justificadas, tales como contenido artístico, de ficción o paródico, siempre que su naturaleza artificial sea evidente. También se exceptúan contenidos utilizados en investigación científica o desarrollo tecnológico, así como aquellos destinados a uso interno, privado y no difundido públicamente. La Agencia de Protección de Datos Personales podrá establecer, mediante norma general, otras excepciones debidamente justificadas.

    Respecto a las sanciones, se indica que el incumplimiento de la obligación de etiquetado será considerado una infracción grave. La eliminación o alteración maliciosa del sello o de los metadatos será igualmente sancionada. Estas infracciones estarán sujetas a lo dispuesto en la Ley N° 21.459, sin perjuicio de las responsabilidades civiles o penales adicionales que puedan derivarse del uso fraudulento de contenido generado por IA.

    Entre los objetivos específicos del proyecto, se busca fortalecer la veracidad informativa en el entorno digital; establecer mecanismos de prevención frente a delitos y fraudes basados en IA; reforzar la integridad de los procesos judiciales evitando la introducción de pruebas manipuladas; y fomentar un ecosistema tecnológico seguro, transparente y éticamente responsable.

    La moción se inspira en legislaciones comparadas, especialmente en la Ley de Inteligencia Artificial de la Unión Europea, que ha introducido requisitos explícitos de transparencia para los sistemas de IA generativa. También se consideran recientes normativas emitidas por la República Popular China, que enfatizan la trazabilidad del contenido generado con IA. En ambos casos, se establece la responsabilidad de etiquetado en quienes desarrollan o difunden esta tecnología, buscando evitar fraudes y proteger a los ciudadanos.

    El proyecto de ley actualmente se encuentra en su primer trámite constitucional en la Comisión de Desafíos del Futuro, Ciencia, Tecnología e Innovación del Senado y, posteriormente, pasará a la Comisión de Transportes y Telecomunicaciones de esa Corporación.

    Fuente:

    Diario Constitucional (2025, 29 de julio). Senadores proponen ley para etiquetar contenido generado por IA. Recuperado el 12 de agosto de 2025, de: https://www.diarioconstitucional.cl/2025/07/29/senadores-proponen-ley-para-etiquetar-contenido-generado-por-ia/

  • Petro propone crear un tratado internacional para regular la Inteligencia Artificial

    Petro propone crear un tratado internacional para regular la Inteligencia Artificial

    En el marco de la Cuarta Conferencia sobre Financiación al Desarrollo, de la Organización de Naciones Unidas (ONU) que se lleva a cabo en Sevilla, España, el presidente de Colombia, Gustavo Petro habló sobre dos de los problemas más importantes que enfrenta la sociedad moderna: el cambio climático y la Inteligencia Artificial (IA).

    A través de una metáfora sobre por qué la Nube no debería llamarse nube sino sangre, Petro cuestionó “¿quiénes son los dueños de la información?”, e hizo un llamado para crear un tratado internacional y multilateral para regular el mercado de la Inteligencia Artificial.

    “La IA no es más que el acumulado digitalizado del pensamiento humano en la historia. En vez de decirle nube, deberíamos decirle sangre, porque no está en el cielo, sino que va por debajo de la tierra a través de cañerías, por debajo del mar, en la red mundial de fibra óptica.

    “El problema está en de quién es la sangre, si de 5 megamillonarios que se han apropiado a través de redes de la información, de los bits que hoy constituyen el pensamiento humano colectivo o de la humanidad como un bien común, y que por tanto exige un tratado internacional multilateral para regular el mercado de la Inteligencia Artificial y no permitir que los propietarios de la sangre de la información controlen a la humanidad, sino que la humanidad pueda controlar la Inteligencia Artificial”, aseguró Petro.

    Según el mandatario, en el primer caso (donde 5 megamillonarios controlan la información) puede morir la humanidad, en el segundo (si la humanidad controla la IA) “también puede morir la humanidad porque no logra diferenciar la vida real de la digital y se acaba la esencia humana de nuestra especie”, aseguró Petro citando a Stephen Hawking.

    No es la primera vez que Petro se refiere a la IA como una herramienta con el potencial de destruir la humanidad.

    En septiembre de 2024, durante el Foro del Sector Privado de la Cumbre del Futuro de la ONU, aseguró que “la IA puede confundir a cualquier ser humano, dentro de poco tiempo, entre la realidad y la no realidad.

    Cambio climático

    Respecto al cambio climático como el primer problema que enfrenta la humanidad, el presidente Gustavo Petro se refirió a los encuentros que han realizado en el mundo para avanzar en propuestas y soluciones para mitigar el impacto.

    “Hemos hecho innumerables COP (Conferencias de las Partes). Ya vamos para 30, ojalá sea la definitiva en Brasil. En Cali, Colombia, realizamos la de la biodiversidad número 16. 30 reuniones de jefes de Estado mundiales para tratar de construir, y voy a poner esa palabra subrayada, un plan para mitigar el cambio climático y salvar la vida en el planeta”, enfatizó.

    Sin embargo, aseguró que no se ha hecho seguimiento de esos planes y, por el contrario, algunas entidades que pueden tomar decisiones al respecto no asisten a los encuentros. Se refirió puntualmente a Kristalina Georgieva, gerente del Fondo Monetario Internacional (FMI), y a Estados Unidos.

    Fuente.

    DPL News(2025, 03 de julio). Petro propone crear un tratado internacional para regular la Inteligencia Artificial. Recuperado el 10 de julio de 2025, de: https://dplnews.com/petro-propone-crear-un-tratado-internacional-para-regular-la-inteligencia-artificial/