Author: admin

  • ChatGPT está probando una nueva y misteriosa función llamada “estudiar juntos”

    ChatGPT está probando una nueva y misteriosa función llamada “estudiar juntos”

    Esta herramienta, que aún no está disponible para todos los usuarios, actúa como un tutor personalizado, guiando paso a paso a los usuarios en distintas materias.

    Como parte de una actualización experimental, OpenAI puso a disposición la función llamada “Estudiar Juntos” (Study with Me) en ChatGPT, con la que el chatbot funciona no sólo como un asistente conversacional, sino como un compañero de estudio diseñado para acompañar el aprendizaje de estudiantes de todos los niveles.

    Al hacer clic en “Estudiar Juntos”, ChatGPT introduce al usuario a un modo de estudio personalizado e interactivo. Los usuarios pueden escribir: “Ayúdame a estudiar álgebra” o “Enséñame historia de América Latina”, y el sistema automáticamente construye una ruta de aprendizaje que puede incluir explicaciones, ejemplos, pruebas cortas, retroalimentación inmediata y ejercicios prácticos.

    “Esta herramienta, además de ofrecer información estática o resúmenes rápidos, funciona como un tutor adaptativo. Primero, evalúa el conocimiento del usuario sobre un tema determinado. A partir de allí, ajusta el nivel de dificultad, sugiere recursos complementarios y acompaña paso a paso el proceso de estudio. La experiencia se asemeja a tener un profesor particular disponible 24/7, capaz de explicar conceptos complejos con claridad, reforzar áreas débiles y hasta generar simulacros de exámenes”, explicó ChatGPT sobre esta herramienta.

    De acuerdo con los reportes de algunos usuarios, la función “Estudiar Juntos” aparece en el menú de herramientas de ChatGPT junto con la generación de imágenes, la escritura de código o la creación de presentaciones.

    Algunas filtraciones sugieren que, en el futuro, podría permitir estudiar de forma sincrónica con otros usuarios, en salas virtuales, simulando grupos de estudio. Aunque esta opción todavía no está habilitada.

    “Estudiar Juntos” aún no está disponible para todos los usuarios. Por el momento, sólo es utilizada por un grupo reducido de usuarios que utilizan versiones avanzadas del modelo GPT-4 (específicamente, una versión denominada GPT-4 mini high), lo que indica que la función se encuentra en una etapa inicial de prueba.

    Hasta ahora, OpenAI no ha confirmado si “Estudiar Juntos” será parte de su versión gratuita, si estará limitada a usuarios del plan Plus o si será una funcionalidad dirigida al sector educativo, posiblemente bajo el plan ChatGPT Edu anunciado recientemente.

    Fuente.

    DPL News (2025, 09 de julio). ChatGPT está probando una nueva y misteriosa función llamada “estudiar juntos”. Recuperado el 09 de julio de 2025, de: https://dplnews.com/chatgpt-esta-probando-una-nueva-y-misteriosa-funcion-llamada-estudiar-juntos/

  • Autorregulación y corregulación, alternativas para adoptar IA en México y América Latina

    Autorregulación y corregulación, alternativas para adoptar IA en México y América Latina

    Ciudad de México. Mientras se desarrolla una regulación específica sobre la Inteligencia Artificial (IA) en México, han emergido modelos de autorregulación y corregulación que allanan el camino hacia su implementación responsable en las organizaciones, coincidieron NYCE y BP Gurus, durante la presentación del estudio Perspectivas sobre el estado de la Inteligencia Artificial en Latinoamérica: Oportunidades, Riesgos y el Papel de la ISO/IEC 42001.

    Ante los dos modelos extremos regulatorios que imperan en la actualidad, el europeo restrictivo y el más abierto estadounidense, “lo mejor es un modelo de corregulación en donde la ley establece básicamente los abusos”, expuso Pablo Corona, director global de Ventas de NYCE.

    3 requisitos para una regulación de la IA

    Para Corona, es necesario adoptar una “visión de riesgos”; este es uno de los tres elementos clave de la regulación sobre IA. El presidente de la Asociación de Internet MX explica este enfoque con una analogía de una gradación del transporte que incluye a la bicicleta, la motocicleta, el automóvil, el autobús, el avión y un submarino nuclear.

    “Habría que entender que hay inteligencias artificiales de tamaño bicicleta, de tamaño moto, de tamaño auto, de tamaño autobús, de tamaño avión o de tamaño bomba nuclear y entonces entender cómo ponerle restricciones a los niveles de riesgo que tiene cada una de ellas”, respondió consultado por DPL News sobre cuál sería el mejor modelo que América Latina podría adoptar.

    “La segunda clave es que hay un modelo de transparencia, explicabilidad y condiciones para que pudieran revocarse los datos con los que se entrenó una Inteligencia Artificial, y la tercera tiene que ver con la autorregulación”, complementó Corona, quien concluyó que, por lo tanto, los usos deberían estar autorregulados por la industria y ser explicables, modificables y auditables con transparencia.

    El riesgo de ampliar la brecha

    La adopción de la IA se produce en un contexto de desigualdad estructural, limitación de capacidades institucionales y agendas regulatorias incipientes.

    Según la Unión Internacional de Telecomunicaciones (UIT), 35% de la población rural en América Latina aún no tiene acceso regular a Internet. “Comenzamos con una brecha digital. La Inteligencia Artificial, desde esta perspectiva, nos está trayendo riesgos y desigualdad”, advirtió Ariana Bucio, directora de Operaciones (COO) de BP Gurus, durante la presentación.

    “El reto más grande que tenemos como región es cerrar esta brecha, incorporar a poblaciones que no son consideradas, mujeres en la Inteligencia Artificial y promover las carreras de ciencia y tecnología, para que podamos formar talentos necesarios, porque sí tenemos en nuestra región datos, tenemos talento, pero no tenemos infraestructura”, agregó.

    Adopción de IA en las organizaciones

    Bucio explicó que para implementar la IA, primero es necesario establecer un objetivo y definir una problemática a resolver. “Sin un objetivo y sin una estrategia, la Inteligencia Artificial no va a funcionar. Entonces, todas las organizaciones deben comenzar con un liderazgo consciente”, aseveró.

    También compartió que, en la actualidad, según el Banco Interamericano de Desarrollo (BID), 15% de las empresas en Latinoamérica ya han implementado pilotos de IA, “pero no significa que estén alineados al gobierno de la Inteligencia Artificial”. Por ello, tanto NYCE como BP Gurus promueven la creación de un nuevo rol: director de Inteligencia Artificial o Chief Artificial Intelligence Officer en inglés, que será multidisciplinario y, por lo tanto, se alimentará de diferentes perfiles.

    Norma, punto intermedio

    Para Pablo Corona, la norma ISO/IEC 42001, que establece los lineamientos para una gobernanza en el uso y aplicación de la Inteligencia Artificial en una organización, es el punto intermedio. Según el estudio de NYCE, “puede ser un puente entre la autorregulación tecnológica y la futura legislación regional sobre IA”.

    El informe subraya la necesidad de “construir una arquitectura regulatoria gradual, flexible y orientada a resultados” y, en ese sentido, las normas internacionales ofrecen “un marco robusto, ético y aplicable que permite institucionalizar principios fundamentales de transparencia, rendición de cuentas y gestión de riesgos en el uso de la IA”.

    Corona detalló que la certificación está dirigida a tres perfiles: desarrolladores de IA, prestadores de servicios y usuarios.Corona resaltó que, de acuerdo con el AI Readiness Index 2023 de Oxford Insights,  México ocupa el lugar 63 de 118 países en desarrollo de IA.

    También advirtió que el problema con la Inteligencia Artificial es que es la primera herramienta generada por los seres humanos que se volvió sujeto, por lo que no existe marco jurídico, legal, social, regulatorio para controlarla y, por lo tanto, quien lo haga tendrá una ventaja social.

    Fuente.

    DPL News (2025, 02 de julio). Autorregulación y corregulación, alternativas para adoptar IA en México y América Latina. Recuperado el 08 de julio de 2025, de: https://dplnews.com/autorregulacion-corregulacion-adoptar-ia-mexico-latam/

  • Blanco de ciberataques, empresas de servicios financieros digitales

    Blanco de ciberataques, empresas de servicios financieros digitales

    En los meses recientes, el Banco de México (BdeM) detectó un aumento en ciberataques dirigidos a empresas de tecnología que ofrecen servicios a instituciones financieras y que tienen como objetivo robar información y accesos de los clientes para cometer fraudes.

    Lo anterior fue dado a conocer por el banco central en el reporte de estabilidad financiera a junio de este año, en el que señala que los riesgos asociados a la inteligencia artificial (IA) se mantienen bajos, pero no deben pasarse por alto por la acelerada adopción de esta herramienta.

    El BdeM señala que a la fecha en la que fue publicado el reporte –11 de junio– no se han identificado afectaciones directas a instituciones financieras mexicanas ni a sus clientes, derivadas de este tipo de ataques.

    Incidentes de 2024

    El reporte al banco central de los incidentes cibernéticos ocurridos en 2024 en el sistema financiero mexicano señala que hubo un total de cuatro, de los cuales tres fueron dirigidos a intermediarios bancarios y uno a una sociedad financiera popular (Sofipo).

    Dichos incidentes tuvieron afectación económica para las instituciones financieras de 483 millones de pesos, pero no generaron pérdidas a los clientes.

    Uso de la IA

    Según el BdeM, el sector financiero mundial ahora sigue de cerca la evolución y relevancia de los riesgos cibernéticos asociados con el creciente uso de la IA y la digitalización de las finanzas.

    En un entorno en el que empresas e individuos han experimentado el uso amplio y cotidiano de herramientas de IA, en el corto plazo (dos años) las preocupaciones sobre los posibles resultados adversos de este tipo de tecnologías se encuentran aún en un nivel bajo, destaca.

    No obstante, puntualizó, los riesgos asociados a estas tecnologías no deben desestimarse como resultado del ritmo acelerado de su adopción, sus posibles usos y su creciente omnipresencia.

    Al igual que otros bancos centrales, el Banco de México ha incorporado en su gestión de riesgos institucionales aquellos derivados del uso de IA y continuará con el seguimiento, iniciado en 2024, de la evolución y adopción de esta tecnología en el sistema financiero, agregó.

    Según el banco central, entre los principales desafíos de la llegada de la IA se encuentran gestionar la seguridad de la información que es accesible o es generada por la misma para mantener sus niveles de confidencialidad, integridad y disponibilidad existentes.

    “También se deben incorporar las nuevas tecnologías en el ecosistema informático establecido, de forma que se mitigue el riesgo operativo que dicha integración pudiera implicar.

    El uso de estas herramientas sin la capacitación y controles adecuados puede conducir a conclusiones poco precisas, erróneas, inexplicables o inconsistentes, lo cual representa un reto tanto para la rendición de cuentas como para la toma de decisiones, con la posibilidad de generar riesgo reputacional, agregó.

    Se identifica un aumento en los ataques informáticos a empresas de tecnología que ofrecen productos y servicios a las instituciones financieras. Los ataques tienen el objetivo de sustraer información de acceso de sus clientes, misma que puede utilizarse para cometer fraudes, destaca.

    Fuente.

    La Jornada (2025, 15 de junio). Blanco de ciberataques, empresas de servicios financieros digitales. Recuperado el 02 de julio de 2025, de: https://www.jornada.com.mx/noticia/2025/06/15/economia/blanco-de-ciberataques-empresas-de-servicios-financieros-digitales

  • México sufrió 35,200 millones de ciberataques en el primer trimestre de 2025

    México sufrió 35,200 millones de ciberataques en el primer trimestre de 2025

    La fragmentación de herramientas y la baja madurez en ciberseguridad de muchas empresas mexicanas hacen urgente integrar la protección digital como parte del núcleo estratégico de negocio.

    México registró más de 35,200 millones de ciberataques en los primeros tres meses de 2025, una cifra que lo coloca como el segundo país con mayor volumen de actividad cibercriminal en América Latina, sólo detrás de Brasil, de acuerdo con el último informe del Panorama Global de Amenazas 2025 elaborado por FortiGuard Labs, el laboratorio de inteligencia contra amenazas de la firma de ciberseguridad Fortinet.

    Esta cifra, que representa un aumento sostenido respecto a años anteriores, en 2024 se reportaron 324,000 millones de eventos maliciosos en territorio mexicano, ilustra la creciente sofisticación de las amenazas digitales que enfrentan tanto empresas como instituciones gubernamentales y usuarios particulares.

    Inteligencia artificial

    Fortinet ha detectado que las organizaciones criminales están utilizando inteligencia artificial (IA) para ejecutar ataques más dirigidos, difíciles de detectar y con mayor capacidad de evasión de los sistemas de defensa tradicionales. Paradójicamente, la misma IA se convierte también en herramienta esencial para las empresas que buscan protegerse.

    “El uso de IA generativa permite a los centros de operaciones de seguridad (SOC) y de red (NOC) anticiparse a posibles amenazas y responder más rápido que sus contrapartes humanas”, explicó Sebastián Russo, director de Ingeniería para Fortinet México.

    El desafío, sin embargo, es multidimensional: los atacantes perfeccionan técnicas como el phishing, mientras que las empresas luchan con la falta de personal especializado. La brecha de talento en ciberseguridad se estima en 4.8 millones de profesionales a nivel global, de los cuales 1.3 millones corresponden a América Latina y el Caribe.

    Muchas herramientas y errores humanos

    Uno de los problemas más apremiantes que enfrentan las organizaciones mexicanas es la fragmentación de herramientas de ciberseguridad. La mayoría emplea soluciones de múltiples proveedores que no están integradas, lo que dificulta correlacionar eventos y contextualizar amenazas en tiempo real.

    Esta desconexión interna impide detectar a tiempo ataques sofisticados como los de tipo ransomware, malware persistente o vulneraciones a servicios en la nube.

    A esto se suma el factor humano: según Fortinet, **el error humano sigue siendo una de las principales puertas de entrada** a las redes corporativas. El phishing —correos falsos que buscan robar credenciales o instalar malware— se ha vuelto cada vez más elaborado.

    Estrategia de negocio

    Más allá de los departamentos de TI, Fortinet insiste en que la ciberseguridad debe formar parte del núcleo estratégico de las empresas. La protección de datos, la validación de accesos y la seguridad en la nube no pueden depender únicamente de la tecnología, sino también de políticas claras, estructuras robustas y decisiones desde los niveles más altos de dirección.

    “Hoy las organizaciones no saben con certeza dónde empieza y termina su infraestructura. La nube se ha convertido en una extensión difusa de sus redes”, se expuso durante una sesión técnica de Fortinet.

    La creciente digitalización de la economía mexicana, sumada a la baja madurez en ciberseguridad de muchas empresas, especialmente las pequeñas y medianas, convierte al país en un blanco recurrente para actores maliciosos.

    Los sectores más vulnerables, según Fortinet, incluyen salud, educación, manufactura y servicios financieros, aunque ninguna industria está exenta.

    La tendencia de ataques masivos y automatizados, combinada con la ingeniería social y técnicas avanzadas de evasión, apunta a que la segunda mitad de 2025 podría superar incluso las cifras récord del primer semestre.

    Fuente:

    El Economista (2025, 28 de junio). México sufrió 35,200 millones de ciberataques en el primer trimestre de 2025. Recuperado el 02 de julio de 2025, de: https://www.eleconomista.com.mx/tecnologia/mexico-sufrio-35-200-millones-ciberataques-primer-trimestre-20250628-765729.html

  • Google presenta Gemini CLI como un Agente gratuito para tareas de código

    Google presenta Gemini CLI como un Agente gratuito para tareas de código

    Google anunció la disponibilidad bajo vista previa privada de Gemini CLI, su nueva herramienta para programadores con capacidades de Agente que se integra directamente en las terminales de los desarrolladores, lo que permitirá ejecutar múltiples tareas de código con Inteligencia Artificial (IA).

    Gemini CLI, un Agente de IA de código abierto, permitirá a los desarrolladores integrar directamente las capacidades de Gemini en sus terminales de programación. Sin embargo, Google asegura que el Agente aún podrá realizar tareas más allá de la codificación, desde la generación de contenidos y la resolución de problemas hasta la investigación en profundidad y la gestión de tareas.

    Gemini CLI también se integrará con el asistente de codificación de IA de la compañía,Gemini Code Assist, para que todos los desarrolladores (con planes gratuitos, estándar y Enterprise Code Assist) obtengan una codificación impulsada por la IA tanto en VS Code como en Gemini CLI.

    Actualmente en vista previa, con acceso gratuito, Gemini CLI permite realizar diversas tareas en el flujo de trabajo de la programación, desde la comprensión de código y la manipulación de archivos hasta la ejecución de comandos y la solución dinámica de problemas. Asimismo, ofrece una actualización fundamental de la experiencia de línea de comandos, lo que permite escribir código, depurar problemas y agilizar el flujo de trabajo con lenguaje natural.

    Además, cuenta con algunas herramientas integradas que permiten, por ejemplo, contextualizar los mensajes con la búsqueda de Google para obtener información de páginas web y proporcionar contexto externo en tiempo real al modelo; compatibilidad integrada con el protocolo de contexto de modelo (MCP) o las extensiones incluidas; y automatización de tareas e integrarlas con los flujos de trabajo existentes invocando Gemini CLI de forma no interactiva dentro de scripts.

    Gemini CLI incluye acceso gratuito a Gemini 2.5 Pro, que ahora logra una ventana de contexto de 1 millón de tokens. Asimismo, ofrece realizar hasta 60 solicitudes de modelo por minuto y 1,000 solicitudes por día, sin costo.

    Fuente.

    DPL News (2025, 25 de junio). Google presenta Gemini CLI como un Agente gratuito para tareas de código. Recuperado el 01 de julio de 2025, de:  https://dplnews.com/google-gemini-cli-agente-gratuito-tareas-de-codigo/

  • Congreso estadounidense prohibirá a oficinas del gobierno adquirir IA hecha en China

    Congreso estadounidense prohibirá a oficinas del gobierno adquirir IA hecha en China

    El Comité Selecto de la Cámara de Representantes sobre China presentó la “Ley de IA no Adversaria”, la cual buscaría frenar el crecimiento de la Inteligencia Artificial (IA) de China en los sistemas del gobierno estadounidense. La ley fue presentada en el marco de la audiencia “Autoritarios y algoritmos: por qué la Inteligencia Artificial estadounidense debe liderar”.

    La ley está siendo impulsada por los representantes John Moolenaar y Raja Krishnamoorthi, que ya ha recibido el apoyo en el Senado por parte de Rick Scott y Gary Peters. Según el Comité, la ley prohibiría a las agencias ejecutivas estadounidenses adquirir o utilizar Inteligencia Artificial desarrollada por empresas vinculadas a adversarios extranjeros como el Partido Comunista Chino (PCC).

    “Estamos en una nueva Guerra Fría, y la Inteligencia Artificial es la tecnología estratégica central. El PCC no innova, sino que roba, escala y subvierte. Desde el robo de propiedad intelectual y el contrabando de chips hasta la integración de la IA en plataformas militares y de vigilancia, el Partido Comunista Chino se apresura a convertir esta tecnología en un arma. Debemos trazar una línea clara: los sistemas gubernamentales estadounidenses no pueden ser alimentados por herramientas construidas para servir a intereses autoritarios”, dijo Moolenaar.

    Por su parte, el senador Scott afirmó que al existir “clara evidencia de que China puede tener acceso a los datos de usuarios estadounidenses en sistemas de IA, es absolutamente una locura que nuestras propias agencias federales utilicen estas plataformas peligrosas y sometan a nuestro gobierno al control de Beijing”.

    Entre las principales facultades de la ley, se establece que creará una lista pública de sistemas de IA desarrollados por adversarios extranjeros, mantenida y actualizada por el Consejo Federal de Seguridad en las Adquisiciones.

    También se prohíbe que las agencias ejecutivas adquieran o utilicen IA desarrollada por adversarios, excepto en casos limitados como la investigación, la lucha antiterrorista o las necesidades de misión crítica.

    Por otro lado, establece un proceso de exclusión de la lista para las empresas que puedan demostrar que están libres del control o la influencia de adversarios extranjeros.

    La reglamentación adicional incluye actualizaciones cada 180 días de la lista de IA adversaria, y dirigir a las agencias a utilizar las autoridades existentes para excluir los productos de IA considerados de los sistemas federales.

    “No podemos permitir que regímenes hostiles incrusten su código en nuestros sistemas más sensibles. Esta legislación bipartidista creará un claro cortafuegos entre la IA de adversarios extranjeros y el gobierno de Estados Unidos, protegiendo nuestras instituciones y al pueblo estadounidense”, señaló Krishnamoorthi.

    La ley forma parte de los esfuerzos de Estados Unidos por frenar el avance chino en el sector tecnológico, para lo cual ya ha impuesto otras restricciones como acceso a tecnología clave para compañías chinas, así como sanciones para compañías estadounidenses que hagan negocios con empresas de China. En ese sentido, el Comité advirtió que continuará trabajando en nuevas leyes durante el verano “para hacer frente a la explotación de la innovación estadounidense por parte del PCCh”.

    Fuente.

    DPL News (2025, 27 de junio). Congreso estadounidense prohibirá a oficinas del gobierno adquirir IA hecha en China. Recuperado el 01 de julio de 2025, de: https://dplnews.com/congreso-estadounidense-prohibira-a-oficinas-del-gobierno-adquirir-ia-hecha-en-china/

  • La Importancia de la Web  En el paradigma Digital 1ª Parte

    La Importancia de la Web En el paradigma Digital 1ª Parte

    El Internet (International-net) es una red internacional, resultado de un proceso de I+D, principalmente del MIT. En 1958 el Presidente Eisenhower impulsó la creación de la Agencia de Proyectos de Investigación Avanzada (ARPA) cuyo propósito era lograr mantener la superioridad tecnológica y militar de los EEUU, al ver que los rusos habían enviado al espacio, en 1957, su satélite sputnik (Winchel, 2025). El ARPA se transformó en ARPANET en 1967, al crear una red de ordenadores, adoptando el protocolo TCP/IP, dando inicio al Internet en 1982.

     

    En 1991 Tim Berners-Lee y el Consejo Europeo para la Investigación Nuclear (CERN) crearon el concepto de World Wide Web (WWW) una red de sitios identificables, vía el protocolo HyperTextTransfer (http) dando al internet una mayor amplitud de operación (Fernandez, 2025).

    La convergencia del desarrollo del Internet y de la tecnología World Wide Web, dieron pauta a la tecnología que vendría a transformar a la sociedad global, al crear el paradigma de la digitalización, de toda actividad humana, el desarrollo tecnológico ha venido escalando vertiginosamente, desde la web1.0, la web2.0 y la web3.0. 

    La web1.0, es una web estática, de solo lectura, centrada en la entrega de contenido, su principal tecnología que usa es el HTML (Lenguaje de Marcas de Hipertexto) consiste en los enlaces que conectan páginas web entre sí; y el http (Protocolo de transferencia de hipertexto) están diseñados para la transferencia de datos entre los dispositivos conectados a la red, era unidireccional, pero tenía portales como yahoo. Su operación abarcó desde inicios de los 90s hasta inicios del presente siglo. (Merodio, 2024). 

    Por su parte la web2.0, considerada como la red social, se transformó en un espacio digital interactivo, que ha venido ampliándose por todo el orbe, superando fronteras geográficas y de tiempo, incluso emocionales.

    Porque ha redimensionado los valores sociales, si bien no ha sustituido por completo la cercanía física, si ha acercado las distancias y los tiempos, impactando la dimensión cultural, dado que la interacción entre personas de distintos países, han generado un intercambio tanto de información como de valores culturales, incluyendo información de situaciones complejas y crueles como las guerras actuales.

    Lo que marcó ese escalamiento, fue a partir del estallamiento de la burbuja puntocom, dado que representó el punto de inflexión de la web, el concepto de web2.0 surgió del intercambio entre Dale Dougherty y MediaLive International, con más de 9.5 millones de citas en google; lo que Netscape fue para la web1.0, Google, que nació en 1998, es para la web 2.0, no solo fue una redimensión del Marketing, sino un espacio digital para la interacción social (O Reilly, 2005)

    La web 2.0 vino a dar una nueva caraterización a la forma de construir y usar las paginas web, haciendo de la interactividad, nuevos espacios de actuacion social, para la humanidad, en un nivel de alto impacto, al facilitar la colaboración y el contenido generado por el usuario, aunque hay que decirlo, la perversión surge como los hongos, el mercado de drogas y la apertura a los menajes de odio, como de las fake news, la violación a la privacidad, como la discriminación, han venido eclipsar los valores y los derechos humanos. 

    También las tecnologías con las que opera la web2.0 son más y diferentes, por ejemplo AJAX (asynchronous JavaScript and XML), es la tecnología fundamental, ya que permite que una aplicación web, se comunique con un servidor en segundo plano, sin necesidad de recargarla (Saavedra, 2023); también están las tecnología APLs-Interfases de programación y de aplicaciones, RSS-Really Simple Syndicación, para la estructuración de datos; CMS-Sistema de gestión de datos, WordPress, Jomla, y otras; además de lenguajes como PHP, y el desarrollo de plataformas como WordPress, Facebook hoy meta, Youtube, Ruby que impulsó el desarrollo de starups como twitter y GitHub, Python y Perl. También formatos de datos como JSON (JavaScript Object Notation). 

    La web2.0 vino a sentar las bases para una nueva ruta del paradigma tecnológico que estamos viviendo, pero los grandes ausentes en este escalamiento de la web es la  sustentabilidad y la ética, fortaleciéndose en cambio la cultura de la privatización y del mercado. 

    La Importancia de la Web En el paradigma Digital 1ª Parte

    Bibliografía

    Fernandez, N. (25 de junio de 2025). Retro Informatica / Facultad de Informatioca de Barcelona/ Univerisad Politecnica de Catalunya. Recuperado el junio de 2025, de fib.upc.edu: https://www.fib.upc.edu/retro-informatica/credits.html

    Merodio, J. (18 de enero de 2024). WIXBlog. Recuperado el junio de 2025, de es.wix.com: https://es.wix.com/blog/evolucion-de-la-web

    O Reilly, T. (30 de septiembre de 2005). O REILLY. Recuperado el junio de 2025, de oreilly.com: https://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html

    Saavedra, J. A. (junio de 1 de 2023). EBAC/ Escuela Britanica de artes creativas y tecnología. Recuperado el junio de 2025, de ebac.mx: https://ebac.mx/blog/que-es-ajax

    Winchel, E. (15 de junio de 2025). DARPA. Recuperado el junio de 2025, de darpa.mil: https://www.darpa.mil/about

     

  • Groq acaba de hacer que Hugging Face sea mucho más rápido, y llegará para AWS y Google

    Groq acaba de hacer que Hugging Face sea mucho más rápido, y llegará para AWS y Google

    Groq , la startup de inferencia de inteligencia artificial, está realizando una apuesta agresiva para desafiar a los proveedores de nube establecidos como Amazon Web Services y Google con dos anuncios importantes que podrían cambiar la forma en que los desarrolladores acceden a los modelos de IA de alto rendimiento.

    La compañía anunció el lunes que ahora es compatible con el modelo de lenguaje Qwen3 32B de Alibaba con su ventana de contexto completa de 131 000 tokens, una capacidad técnica que, según afirma, ningún otro proveedor de inferencia rápida puede igualar. Simultáneamente, Groq se convirtió en proveedor oficial de inferencia en la plataforma de Hugging Face , lo que potencialmente expone su tecnología a millones de desarrolladores de todo el mundo.

    Esta medida es el intento más audaz de Groq hasta el momento de ganar participación en el mercado de inferencia de IA en rápida expansión, donde empresas como AWS Bedrock , Google Vertex AI y Microsoft Azure han dominado al ofrecer un acceso conveniente a los principales modelos de lenguaje.

    “La integración de Hugging Face amplía el ecosistema de Groq, ofreciendo a los desarrolladores opciones y reduciendo aún más las barreras de entrada para adoptar la rápida y eficiente inferencia de IA de Groq”, declaró un portavoz de Groq a VentureBeat. “Groq es el único proveedor de inferencia que habilita la ventana de contexto completa de 131K, lo que permite a los desarrolladores crear aplicaciones a escala”.

    Cómo se comparan las afirmaciones de la ventana de contexto de 131k de Groq con las de sus competidores en inferencia de IA

    La afirmación de Groq sobre las ventanas de contexto (la cantidad de texto que un modelo de IA puede procesar simultáneamente) ataca una limitación fundamental que ha afectado a las aplicaciones prácticas de IA. La mayoría de los proveedores de inferencia tienen dificultades para mantener la velocidad y la rentabilidad al gestionar ventanas de contexto grandes, esenciales para tareas como analizar documentos completos o mantener conversaciones largas.

    La firma independiente de benchmarking Artificial Analysis midió la implementación de Qwen3 32B de Groq funcionando a aproximadamente 535 tokens por segundo, una velocidad que permitiría el procesamiento en tiempo real de documentos extensos o tareas de razonamiento complejas. La compañía ofrece un precio de $0.29 por millón de tokens de entrada y $0.59 por millón de tokens de salida, tarifas inferiores a las de muchos proveedores consolidados.

    “Groq ofrece una pila completamente integrada que proporciona computación de inferencia diseñada para escalar, lo que significa que podemos seguir mejorando los costos de inferencia y, al mismo tiempo, garantizar el rendimiento que los desarrolladores necesitan para crear soluciones de IA reales”, explicó el portavoz cuando se le preguntó sobre la viabilidad económica de soportar ventanas de contexto masivas.

    La ventaja técnica reside en la arquitectura personalizada de la Unidad de Procesamiento del Lenguaje (LPU) de Groq , diseñada específicamente para la inferencia de IA, en lugar de las unidades de procesamiento gráfico (GPU) de propósito general que utilizan la mayoría de los competidores. Este enfoque de hardware especializado permite a Groq gestionar operaciones que consumen mucha memoria, como grandes ventanas de contexto, con mayor eficiencia.

    Por qué la integración de Hugging Face de Groq podría liberar a millones de nuevos desarrolladores de IA

    La integración con Hugging Face representa quizás la estrategia a largo plazo más significativa. Hugging Face se ha convertido en la plataforma de facto para el desarrollo de IA de código abierto, albergando cientos de miles de modelos y prestando servicio a millones de desarrolladores mensualmente. Al convertirse en proveedor oficial de inferencia, Groq obtiene acceso a este vasto ecosistema de desarrolladores con facturación optimizada y acceso unificado.

    Los desarrolladores ahora pueden seleccionar Groq como proveedor directamente en Hugging Face Playground o en la API , y el uso se factura a sus cuentas de Hugging Face. La integración es compatible con diversos modelos populares, como la serie Llama de Meta, los modelos Gemma de Google y el recién incorporado Qwen3 32B .

    “Esta colaboración entre Hugging Face y Groq es un importante paso adelante para hacer que la inferencia de IA de alto rendimiento sea más accesible y eficiente”, según una declaración conjunta.

    La asociación podría aumentar drásticamente la base de usuarios y el volumen de transacciones de Groq, pero también plantea interrogantes sobre la capacidad de la empresa para mantener el rendimiento a escala.

    ¿Puede la infraestructura de Groq competir con AWS Bedrock y Google Vertex AI a escala?

    Cuando se le presionó sobre los planes de expansión de infraestructura para manejar el nuevo tráfico potencialmente significativo de Hugging Face , el portavoz de Groq reveló la presencia global actual de la compañía: “En la actualidad, la infraestructura global de Groq incluye ubicaciones de centros de datos en todo Estados Unidos, Canadá y Medio Oriente, que brindan servicio a más de 20 millones de tokens por segundo”.

    La compañía planea continuar su expansión internacional, aunque no se proporcionaron detalles específicos. Este esfuerzo de expansión global será crucial, ya que Groq se enfrenta a una creciente presión de competidores bien financiados con mayores recursos de infraestructura.

    El servicio Bedrock de Amazon , por ejemplo, aprovecha la enorme infraestructura global en la nube de AWS, mientras que Vertex AI de Google se beneficia de la red mundial de centros de datos del gigante de las búsquedas. El servicio Azure OpenAI de Microsoft cuenta con un respaldo de infraestructura igualmente sólido.

    Sin embargo, el portavoz de Groq expresó su confianza en el enfoque diferenciado de la empresa: «Como industria, apenas estamos empezando a ver el inicio de la demanda real de computación de inferencia. Incluso si Groq desplegara el doble de la infraestructura prevista este año, seguiría sin tener capacidad suficiente para satisfacer la demanda actual».

    Cómo los precios agresivos de inferencia de IA podrían afectar el modelo de negocio de Groq

    El mercado de inferencia de IA se ha caracterizado por precios agresivos y márgenes muy estrechos, ya que los proveedores compiten por cuota de mercado. Los precios competitivos de Groq plantean dudas sobre la rentabilidad a largo plazo, especialmente dada la alta inversión de capital que requiere el desarrollo e implementación de hardware especializado.

    “A medida que vemos que más y más nuevas soluciones de IA llegan al mercado y se adoptan, la demanda de inferencia seguirá creciendo a un ritmo exponencial”, declaró el portavoz al ser preguntado sobre el camino hacia la rentabilidad. “Nuestro objetivo final es escalar para satisfacer esa demanda, aprovechando nuestra infraestructura para reducir al máximo el coste de la computación de inferencia y propiciar la futura economía de la IA”.

    Esta estrategia —apostar a un crecimiento masivo del volumen para lograr rentabilidad a pesar de los márgenes bajos— refleja enfoques adoptados por otros proveedores de infraestructura, aunque el éxito está lejos de estar garantizado.

    Qué significa la adopción de IA empresarial para el mercado de inferencia de 154 mil millones de dólares

    Los anuncios se producen en un momento en que el mercado de inferencia de IA experimenta un crecimiento explosivo. La firma de investigación Grand View Research estima que el mercado global de chips de inferencia de IA alcanzará los 154.900 millones de dólares para 2030, impulsado por el creciente despliegue de aplicaciones de IA en diferentes sectores.

    Para los responsables de la toma de decisiones empresariales, las decisiones de Groq representan tanto una oportunidad como un riesgo. Las afirmaciones de rendimiento de la compañía, de validarse a gran escala, podrían reducir significativamente los costos de las aplicaciones con uso intensivo de IA. Sin embargo, depender de un proveedor más pequeño también presenta posibles riesgos para la cadena de suministro y la continuidad en comparación con los gigantes consolidados de la nube.

    La capacidad técnica para manejar ventanas de contexto completas podría resultar particularmente valiosa para aplicaciones empresariales que involucran análisis de documentos, investigación legal o tareas de razonamiento complejas donde mantener el contexto a lo largo de interacciones prolongadas es crucial.

    El doble anuncio de Groq representa una apuesta calculada a que el hardware especializado y los precios agresivos pueden superar las ventajas de infraestructura de los gigantes tecnológicos. El éxito de esta estrategia probablemente dependerá de la capacidad de la compañía para mantener las ventajas de rendimiento a la vez que escala globalmente, un reto que ha resultado difícil para muchas startups de infraestructura.

    Por ahora, los desarrolladores obtienen otra opción de alto rendimiento en un mercado cada vez más competitivo, mientras las empresas observan si las promesas técnicas de Groq se traducen en un servicio confiable y de calidad de producción a gran escala.

    Fuente.

    Venture Beat (2025, 16 de junio).

    Groq acaba de hacer que Hugging Face sea mucho más rápido, y llegará para AWS y Google. Recuperado el 20 de junio de 2025, de: https://venturebeat.com/ai/groq-just-made-hugging-face-way-faster-and-its-coming-for-aws-and-google/

  • La Tecnología en las Bibliotecas un proceso de alto impacto social.

    La Tecnología en las Bibliotecas un proceso de alto impacto social.

    “La Literatura debería ser tan libre como el aire que respiramos”, dijo Michael Hart, quien en 1971 desarrolló el libro electrónico, proceso que hoy se conoce como el proyecto Gutenberg (Gutenberg, 2025), fue el primer proveedor de eBooks, el proyecto Gutenberg es una biblioteca en línea de libros electrónicos, se puede decir que es uno de los primeros antecedentes de la inserción de la tecnología en las bibliotecas. 

    No existe una estadística confiable del número de bibliotecas que existen en el mundo, por ejemplo para Library Map (Map, Library, 2025) existen 3.1 millones de bibliotecas en el mundo, de las cuales 370 mil tienen acceso a internet; destaca la Biblioteca Digital Mundial de la UNESCO, que fue creada a partir de la idea de James H. Billington en 2009 (Europa Press, 2022), mediante el internet, permite el acceso a importantes materiales culturales de todos las naciones, en diversos idiomas (UNESCO, 2021). México cuenta con 15 mil 189 bibliotecas según Library Map; 

    La inserción de la tecnología en las bibliotecas, las ha transformado de ser simples repositorios de libros, a centros dinámicos de información impulsando a los asistentes o usuarios, a procesos de aprendizaje más allá de los muros de las aulas, creando para ello los llamados makerspaces, además de libros, ofrecen vía digital el acceso a bases de datos digitales, audiolibros, revistas electrónicas, plataformas (OverDrive, JSTOR) blogs, newsletters, páginas web, entre otros tantos medios de información; para ello cuentan con equipos de cómputo conexión a internet alámbrica e inalámbrica. O sea que el internet, es hoy un recurso fundamental para las bibliotecas. 

    En México opera la Red Nacional de Bibliotecas Públicas (Secretaría de Cultura, 2016), integrada por 31 redes estatales y 16 delegacionales, contempla la operación de 7 mil 413 bibliotecas, localizadas en 2 mil 282 municipios, implementando puntos de acceso en zonas rurales. 

    La tecnología está orientada a la automatización de los procesos bibliotecarios, como préstamos, catalogación y búsqueda, gestión de reservas sin intervención humana. 

    En esta nueva dimensión de las bibliotecas cabe referirnos al Manifiesto, elaborado por La Federación Internacional de Asociaciones e Instituciones Bibliotecarias IFLA-UNESCO sobre las bibliotecas públicas que fue dado a conocer el 18 de julio del 2022 (IFLA-UNESCO, 2022).

    Describe la trascendencia de la información, objetiva, en una era donde la mayoría de la información es manipulada por criterios de mercado y por intereses políticos, la información bibliotecaria favorece al pensamiento crítico-analítico, para poder alcanzar los valores humanos fundamentales, como la libertad, la prosperidad y el desarrollo de la sociedad, los cuales se construyen a partir de la capacidad de los ciudadanos bien informados, de sus derechos democráticos.

    Por lo que una de las misiones de las bibliotecas, es la de proporcionar servicios, a sus usuarios, las tecnologías digitales son fundamentales, para lograr un amplio acceso la información confiable y oportuna, para la formación académico-científica y profesional de los universitarios, pero también para los habitantes de las comunidades más apartadas. 

    En la medida que las bibliotecas cuenten con la infraestructura tecnológica suficiente, podrán cumplir con su misión social, de dar acceso a la información académico- científica a los sectores sociales más vulnerables.

    Las bibliotecas son medio para la construcción de una nueva sociedad, que contrarreste los procesos de privatización, convirtiendo todo en mercancía, incluso los derechos humanos y los valores sociales, dándoles precio de mercado, siguiendo las altas rentabilidades financieras.

    Las bibliotecas, sobre todo las públicas, son parte esencial de la vida universitaria, pero no son ajenas a su entorno, ni tampoco a las tendencias tecnológicas, ni a la dinámica de la ciencia, la tecnología, vinculadas a la economía, la cultura y la filosofía social, que han entrado en una transformación para dar ruta al cambio profundo que se prevé en los próximos años, sobre todo a mediados del presente siglo. 

    La sociedad del futuro será eminentemente tecnológica, habrá que dotarla de los valores sociales donde el centro sea el ser humano, en condiciones de conciencia de la sobrevivencia de toda forma de vida, superar la aceptación y/o indiferencia ante las injusticias y la discriminación, que obedeciendo a intereses expansionistas de mercado y de la geopolítica hegemónica, derivan en genocidios.

    La Tecnología en las Bibliotecas Un Proceso de Alto Impacto Social

    Fuente.

    Cairo, O. (2011). El Hombre Artificial. Ciudad de México, México : Alfa Omega Grupo Editor S.A. de C.V.

    Europa Press. (24 de octubre de 2022). EL DEBATE. Recuperado el junio de 2025, de eldebate.com: https://www.eldebate.com/cultura/20221024/dia-bibliotecas-cuantas-bibliotecas-hay-todo-mundo-cual-mas-grande-otras-curiosidades_68237.html

    FIB. (23 de junio de 2012). Facultad de Informatica de Barcelona. Recuperado el junio de 2025, de fib.upc.edu: https://www.fib.upc.edu/alan-turing-2012-barcelona/es.html

    Gabriel, A. (13 de diciembre de 2007). Xataca. Recuperado el junio de 2025, de xatacaciencia.com: https://www.xatakaciencia.com/psicologia/el-test-de-turing-y-el-dia-a-dia

    Gent, E. (5 de junio de 2025). Sandia, pone en marcha una supercomputadora similar a un cerebro que puede simular 180 millones de neuronas. Singularity Hub, versión digital/ https://singularityhub.com/2025/06/05/sandia-fires-up-a-brain-like-supercomputer-that-can-simulate-180-million-neurons/?utm_campaign=SU%20Hub%20Daily%20Newsletter&utm_medium=email&_hsenc=p2ANqtz-9f1SFDGe87MUMqyaHr-obvGIJtlrHG4HJtEkjwIfObY.

    Gutenberg, P. (16 de junio de 2025). Project Gutenberg. Recuperado el junio de 2025, de gutenberg.org: https://www.gutenberg.org/about/background/50years.html

    Herculano-Houzel. (8 de noviembre de 2009). El cerebro humano en cifras: un cerebro de primate ampliado linealmente. Fronteras en la neurociencia humana, 3(version digital/ doi.org/10.3389/neuro.09.031.2009), https://www.frontiersin.org/journals/human-neuroscience/articles/10.3389/neuro.09.031.2009/full.

    Hirsch, D. (5 de junio de 2025). ITU. Recuperado el junio de 2025, de itu.int: https://www.itu.int/en/mediacentre/Pages/PR-2025-06-05-greening-digital-companies-report.aspx#/es

    IFLA-UNESCO. (18 de julio de 2022). International Federation of Library Associations an Intitutions. Recuperado el junio de 2025, de ifla.org: https://www.ifla.org/public-library-manifesto/

    Ivanov, D. e. (2022). Sistemas de Inteligencia Artificial Neuromorfica. (F. i. SA, Ed.) libro digital/ https://pmc.ncbi.nlm.nih.gov/articles/PMC9516108/: NIH National Library of Medicine/ National Center Biotechnology Information.

    Map, Library. (16 de junio de 2025). Mapa de la Bibliioteca del Mundo. Recuperado el junio de 2025, de librarymap.ifla.org: https://librarymap.ifla.org/map/Metric/Number-of-libraries/LibraryType/National-Libraries,Academic-Libraries,Public-Libraries,Community-Libraries,School-Libraries,Other-Libraries/Country/Mexico/Weight/Totals-by-Country

    Ros, E. e. (enero de 2002). Ingeniería Neuromorifica, el papel del hardware reconfigurable. research.net(II Jornada sobre computacion reconfigurable y aplicaciones), versión digital: https://www.researchgate.net/publication/237354311_Ingenieria_Neuromorfica_El_papel_del_hardware_reconfigurable.

    Secretaria de Cultura. (30 de septiembre de 2016). Gobierno de México. Recuperado el junio de 2025, de www.gob.mx: https://www.gob.mx/cultura/acciones-y-programas/red-nacional-de-bibliotecas-publicas

    UIT. (5 de junio de 2025). ITU. Recuperado el junio de 2025, de itu.int: https://www.itu.int/en/mediacentre/Pages/PR-2025-06-05-greening-digital-companies-report.aspx

    UNESCO. (6 de diciembre de 2021). UNESCO Bibliioteca Digital. Recuperado el junio de 2025, de unesco.org: https://www.unesco.org/es/tags/biblioteca-digital

    Wooldridge, M. (8 de junio de 2025). The Alan Turing Institute. Recuperado el junio de 2025, de turing.ac.uk: https://www.turing.ac.uk/research/research-programmes/artificial-intelligence

  • Amazon invertirá 13 mil mdd en Australia para ampliar capacidades de IA

    Amazon invertirá 13 mil mdd en Australia para ampliar capacidades de IA

    Amazon anunció que invertirá 20 mil millones de dólares australianos (13 mil millones de dólares estadounidenses) entre 2025 y 2029 para ampliar, operar y mantener su infraestructura de Centros de Datos en Australia, que permitirá atender el fuerte crecimiento de la demanda de computación en la Nube e Inteligencia Artificial (IA) por las empresas locales.

    Según la compañía, la inversión se alinea con las perspectivas del gobierno australiano, que espera que la IA y la automatización aporten hasta 600 mil millones de dólares australianos anuales al PIB en 2030. La infraestructura desplegada por Amazon también se asegurará de cumplir con los requerimientos de residencia de datos y otras regulaciones.

    “Este es exactamente el tipo de inversión económica en nuestra nación que queremos ver, y crea oportunidades para la innovación y el crecimiento continuos. La inversión generará oportunidades económicas para los australianos, incluidos puestos de trabajo cualificados e infraestructuras capaces de soportar aplicaciones complejas de IA y supercomputación”, dijo Anthony Albanese, primer ministro de Australia.

    Amazon Web Services (AWS) ha operado en Australia desde 2012 con la apertura de la región de AWS Asia Pacífico (Sídney). En 2023, lanzó la región de AWS Asia Pacífico (Melbourne) y las primeras zonas locales de AWS del país en Perth, y en abril de 2024, AWS lanzó Amazon Bedrock, su servicio de IA Generativa.

    En julio de 2024, el gobierno australiano anunció una asociación con AWS para proporcionar una Nube de AWS “Top Secret” para ofrecer innovación en la Nube para los sectores de seguridad nacional y defensa y así mejorar las capacidades de defensa e inteligencia de la nación.

    Para apoyar el crecimiento de la infraestructura de Nube, Amazon reveló también que abrirá tres nuevos proyectos de energías renovables, incluyendo tres nuevas granjas solares en Victoria y Queensland, de donde obtendrá una capacidad combinada de más de 170 megavatios (MW). Estos se sumarán a otros ocho parques solares ya operativos, que en su conjunto generarán más de 1.4 millones de megavatios hora de energía libre de carbono al año, o lo suficiente para abastecer a unos 290 mil hogares australianos.

    Albanese declaró: “me complace unirme a Matt Garman para anunciar la inversión de AWS de 20 mil millones de dólares australianos en cinco años para seguir desarrollando y ampliando sus Centros de Datos en Sídney y Melbourne. Esta es la mayor inversión que nuestro país ha visto por parte de un proveedor de tecnología global, y es una oportunidad emocionante para que Australia construya capacidad de IA utilizando una infraestructura segura y resistente.

    Amazon invertirá 20 mil millones de dólares en Pensilvania, Estados Unidos

    Amazon anunció que planea una nueva inversión de al menos 20 mil millones de dólares en Pensilvania, Estados Unidos, para ampliar su infraestructura de Centros de Datos para IA y computación en la Nube. Esta nueva inversión tendrá un impacto de mil 250 nuevos puestos de trabajo altamente cualificados.

    Como otros proyectos de inversión de la compañía de comercio electrónico y Nube, también incluye programas de formación y educación para la comunidad local, como programas para técnicos de Centros de Datos, talleres de fusión de fibra óptica y oportunidades de concienciación y aprendizaje STEM para escuelas de primaria y secundaria.

    La inversión se enfocará en instalar nuevos campus en Salem Township y Falls Township, aunque la compañía aclara que otras localidades están compitiendo por ser elegidas.

    Estos campus de computación en la Nube e innovación en IA se unen a la actual infraestructura ya instalada por Amazon en la Mancomunidad de Pensilvania, que ahora incluye 23 centros de cumplimiento y clasificación y 20 estaciones de entrega de última milla, lo que representa inversiones por más de 26 mil millones de dólares desde 2010.

    Fuente.

    DPL News (2025, 18 de junio). Amazon invertirá 13 mil mdd en Australia para ampliar capacidades de IA. Recuperado el 18 de junio de 2025, de: https://dplnews.com/amazon-invertira-13-mil-mdd-australia-capacidades-ia/