Author: admin

  • Tres formas de aprovechar al máximo sus datos: IA escalable, aplicaciones inteligentes y un ecosistema abierto

    Tres formas de aprovechar al máximo sus datos: IA escalable, aplicaciones inteligentes y un ecosistema abierto

    Cualquier experto en tecnología que se precie afirmará que una estrategia de IA exitosa depende de datos fiables. De hecho, una encuesta reciente a líderes tecnológicos reveló que casi el 94 % ahora se centra más en los datos, impulsado por el creciente interés en la IA.

    Si bien esto no debería sorprender, la situación se complica cuando las organizaciones intentan explorar el panorama de proveedores. Con un mercado en constante evolución, es difícil determinar cuál puede aprovechar mejor los datos para la transformación estratégica, incluidas las iniciativas de IA.

    La buena noticia es que existen caminos hacia la modernización de datos que las empresas pueden seguir, independientemente de su etapa. Aquí tienes tres consejos para el éxito.

    1. Agregue valor a sus aplicaciones comerciales más importantes

    Las empresas aún tienen dificultades para unificar datos en sus aplicaciones empresariales, preservando al mismo tiempo el contexto y las relaciones: solo el 34 % de los líderes empresariales declaró tener una alta confianza en sus datos. Sin una base de datos confiable, las iniciativas de análisis e IA suelen estancarse, ya que los equipos dedican más tiempo a integrar y gestionar datos que a aprovecharlos para generar valor empresarial.

    Aquí es donde entra en juego una estructura de datos empresarial. Esta estructura reduce la latencia al proporcionar una capa de datos integrada y semánticamente rica sobre entornos de datos fragmentados. Esta arquitectura simplifica la gestión de datos y facilita el acceso a datos fiables. Al crear una única fuente de información fiable en múltiples fuentes y aplicaciones, las organizaciones pueden configurar con mayor facilidad la gobernanza de datos y el acceso a los datos de autoservicio.

    SAP ofrece esto con su SAP Business Data Cloud, una solución SaaS totalmente administrada que unifica y gobierna los datos de SAP y los datos de terceros.

    SAP Business Data Cloud simplifica los complejos entornos de datos de los clientes gracias a su enfoque de cero copias compartidas, que simplifica la armonización, federación y replicación de datos. Esto permite a las organizaciones dedicar tiempo a proyectos de datos estratégicos y transformadores, como el desarrollo de aplicaciones inteligentes o el suministro de datos de alta calidad para iniciativas de IA.

    Además, SAP Business Data Cloud se integra con SAP Business Suite y la potencia, un conjunto integrado de aplicaciones empresariales, datos e IA. Esto ayuda a los clientes a establecer una base de datos armonizada para conectar la información entre aplicaciones y procesos empresariales e impulsar las iniciativas de IA.

    2. Pasar de aplicaciones transaccionales a aplicaciones inteligentes

    Con una capa de datos armonizada, las empresas pueden empezar a usar o desarrollar sus propias aplicaciones inteligentes. Según Gartner, «si bien las aplicaciones pueden comportarse de forma inteligente, las aplicaciones inteligentes son inteligentes».

    Más allá de los enfoques prescriptivos basados ​​en reglas, las aplicaciones inteligentes son aplicaciones autoadaptables y autoaprendizajes que pueden ingerir y procesar datos de cualquier fuente. Estas aplicaciones democratizan los datos, sacándolos del ámbito de los científicos de datos y brindando acceso a ellos a todos, desde profesionales de recursos humanos hasta directores financieros.

    Pero con tantos proveedores que ofrecen estas aplicaciones, ¿cómo elegir? La inteligencia por sí sola no impulsa los resultados empresariales. Es importante seleccionar una empresa que proporcione estas aplicaciones directamente en el contexto de procesos empresariales clave, como la cadena de suministro o la gestión de compras, para que las personas utilicen esa inteligencia en su trabajo diario.

    El enfoque único de SAP para las aplicaciones inteligentes, que forman parte de su nube de datos empresariales, se basa en más de 50 años de experiencia perfeccionando sus procesos de negocio, aplicaciones e industrias. Las aplicaciones se construyen a partir de productos de datos, información fácilmente asimilable extraída de su amplia gama de soluciones y seleccionada para resolver problemas empresariales específicos. Enriquecidas con tecnologías de IA como el grafo de conocimiento (que identifica las relaciones entre los puntos de datos), las Aplicaciones Inteligentes de SAP están listas para usar con funciones de modelado, generación de informes, predicción y otras.

    Más importante aún, están integrados en el entorno de aplicaciones de SAP, incluyendo ERP, recursos humanos, compras, cadena de suministro, finanzas y otras soluciones. Un ejemplo es el nuevo paquete People Intelligence, incluido en SAP Business Data Cloud, que conecta y transforma los datos de personal y habilidades de la suite SAP SuccessFactors Human Capital Management en información sobre la fuerza laboral fácilmente accesible y recomendaciones basadas en IA.

    3. No lo hagas solo: un ecosistema abierto es la clave del éxito

    Ningún proveedor puede proporcionar todos los datos y la experiencia de la industria y el negocio. Por eso es importante seleccionar uno con un enfoque de ecosistema abierto.

    Es crucial por varias razones. Primero, para escalar la solución y que esté disponible en múltiples plataformas en la nube. Segundo, para brindar acceso a una amplia variedad de expertos en el sector. Y tercero, para construir un ecosistema de aplicaciones inteligentes enriquecido por líderes del sector especializados en conjuntos de datos específicos, como la evaluación de riesgos.

    Estas tres razones resumen la estrategia de SAP para sus socios. Por ejemplo, SAP anunció recientemente una alianza con Adobe para desarrollar una aplicación inteligente en SAP Business Data Cloud que combina datos de la cadena de suministro, financieros y de la experiencia digital de Adobe para generar información detallada para clientes conjuntos. Además, Moody’s colaborará con SAP para ayudar a clientes y socios a desarrollar aplicaciones inteligentes utilizando los conjuntos de datos de riesgo de Moody’s, integrados con los datos de cuentas por cobrar de SAP, para optimizar el flujo de caja y las predicciones de impago. 

    En el futuro, las organizaciones deberán considerar los datos y la IA como inseparables. El éxito de las iniciativas de IA se basa en datos relevantes y de buena calidad, extraídos de aplicaciones empresariales y otros entornos. Un estudio reciente de GigaOm reveló que las empresas que consideran los datos un activo estratégico experimentan una tasa de adopción de IA un 28 % mayor. Con SAP Business Data Cloud, las organizaciones obtienen la pieza clave que les permite armonizar y optimizar los datos de cualquier fuente, lo que permite proyectos de IA que impulsan los resultados empresariales de forma más eficaz.

    Fuente.

    Venture Beat (2025, 24 de junio). Tres formas de aprovechar al máximo sus datos: IA escalable, aplicaciones inteligentes y un ecosistema abierto. Recuperado el 09 de julio de 2025, de: https://venturebeat.com/ai/3-ways-to-get-the-most-from-your-data-scalable-ai-intelligent-apps-and-an-open-ecosystem/

  • La Importancia de la Web  2ª Parte La Web 3.0 y su Impacto Social

    La Importancia de la Web 2ª Parte La Web 3.0 y su Impacto Social

    La esencia de la web 3.0 es la descentralización, o sea que ya las grandes tecnológicas no sean las que extraigan del internet, toda la información, que la sociedad sube a la red, los grandes volúmenes de información, que cotidianamente generan todos los usuarios, los cuales son sus propietarios, pero los corporativos tecnológicos, se apropian de esa información, que luego procesan y aplican a sus herramientas y modelos tecnológicos, cuyo destino es el mercado, la web2.0 es la infraestructura tecnológica que facilitó, el desarrollo de ese mercado, generando grandes tasas de rentabilidad, a las trasnacionales tecnológicas, origen de su gran poder económico y político.

    Luego entonces ¿Qué es la web 3.0? de hecho es la siguiente generación de internet, a diferencia de la web2.0, es un espacio tecnológico-virtual, “… mecanismo distribuido de diseminación de material y confirmación de contenido, para identificar al propietario de dicha información, ésta no puede alterarse o borrarse” (Yu & Sun, 2023, pág. 7) eliminando a las plataformas centralizadas, por ello integra en su composición: al Blockchain, las Finanzas Descentralizadas (DEFI), los Contratos Inteligentes y los Token No Fungibles (NFT). (bitpanda, 2025)

    Blockchain (IBM, 2025) es una cadena de bloques de un libro mayor, es la expresión tecnológica de un registro contable, compartido e inmutable, para el registro de operaciones y seguimiento de activos, ya sea tangibles e intangibles, en transacciones de mercado; es una tecnología de registro distribuido, descentralizado, que en lugar de estar en una base datos en un servidor propiedad de alguna empresa tecnológica, la información forma parte de una red de computadoras o servidores, que operan sinérgicamente como nodos, para validar y registrar las transacciones entre los usuarios.

    Es descentralizada por que la información no está centralizada, dado que no hay una autoridad central, en virtud de que los participantes tienen una copia del blockchain; Es inmutable porque al registrarse una operación ya no se puede modificar; su seguridad se fundamenta en una criptografía, que solo una criptografía cuántica podría superarla.

    Es una de las tecnologías del futuro, considerando las criptomonedas y las nuevas formas de ciberseguridad (Feign, 2024).

    Las Finanzas descentralizadas (Defiberry, 2025) son productos y servicios financieros de fácil acceso, utilizando Ethereum, sin una autoridad centralizada, son procesos automatizados eficientando tiempos, son el elemento clave de la cripto-economía y del metaverso.

    Con las Finanzas descentralizadas se puede envíar dinero, a cualquier parte del mundo y acceder a monedas estables, tomar fondos con garantía, pero solicitar créditos sin garantía, utilizar Tokens comerciales y generar ahorros en criptomonedas.

    Con los Contratos Inteligentes (Gomez, 2024) nos referimos a la automatización de las relaciones contractuales sin intermediarios, dice Alfonso Gómez de BBVA; son programas informáticos que se ejecutan automáticamente en un blockchain, son codificados, inmutables y sin necesidad de intermediarios, (Smith, 2025). Se caracterizan por ser versátiles, eficientes y confiables.

    En la web3.0 no pueden faltar los Tokens No Fungibles (NFT) (Lizzi, 2022), son elementos digitales únicos y almacenados en un blockchain, certifican propiedad y autenticidad, por lo que que son una unidad de valor, basada en una criptografía, emitida por plataformas como Bitcoin y Ethereum, pero no son criptomonedas, por un lado los Token se construyen en una blockchain ya activa como Ethereum; mientras que una criptomoneda, opera su propia red de Blockchain nativa, las criptomonedas son medio de cambio y unidad de valor; pero los Token representan un activo, utilidad o derecho específico, dentro de un proyecto.

    Los Tokens son tecnología clave para desarrollar y escalar la interoperabilidad en los blockchain, ya que representan bienes intangibles que facilitan la interoperabilidad, lo que hace posible la realización de proyectos, como el metaverso donde los usuarios pueden interactuar y conectarse a diversos espacios virtuales como Otherside, Decentraland y The Sandbox, donde los usuarios pueden crear experiencias digitales y economías abiertas (ob. cit. Lizzi)

    La web3.0 es un ecosistemas de Organizaciones Autónomas Descentralizadas (DAO), que representa un punto de inflexión, para que las grandes tecnológicas, puesto que perderían el control de la información de la sociedad, un nuevo paradigma con un alto impacto social, si disminuye la desigualdad, y el centro sea el ser humano y la sustentabilidad. ¿Será Posible?

    La Importancia de la Web 2ª Parte La Web 3.0 y su Impacto Social_compressed

    Bibliografía

    Lizzi, I. (26 de agosto de 2022). Aprender. Recuperado el julio de 2025, de opensea.io: https://opensea.io/learn/nft/what-are-nfts

    bitpanda. (28 de junio de 2025). B bitpanda. Recuperado el julio de 2025, de bitpanda.com: https://www.bitpanda.com/academy/es/lecciones/que-es-la-web3/

    Defiberry, D. (10 de marzo de 2025). Ethereum. Recuperado el julio de 2025, de ethereum.org: https://ethereum.org/en/defi/

    Feign, A. (9 de abril de 2024). Coindesk. Recuperado el julio de 2025, de coindesk.com: https://www.coindesk.com/learn/what-is-blockchain-technology

    Gomez, A. (29 de agosto de 2024). BBVA. Recuperado el julio de 2025, de bbva.com: https://www.bbva.com/es/innovacion/smart-contracts-contratos-basados-blockchain/

    IBM. (15 de junio de 2025). IBM. Recuperado el julio de 2025, de ibm.com: https://www.ibm.com/mx-es/topics/blockchain

    Smith, C. (3 de marzo de 2025). Ethereum. Recuperado el julio de 2025, de ethereum.org: https://ethereum.org/en/smart-contracts/

    Yu, J., & Sun, C. (2023). Metaverso, cómo la web3.0 impulsa un nuevo mundo digital. Ciudad de México, México : LID, Editorial Mexicana en acuerdo con CITIC Press Corporation.

  • Incorporar GenAI a la base de datos cambia todo en el desarrollo de aplicaciones

    Incorporar GenAI a la base de datos cambia todo en el desarrollo de aplicaciones

    Las bases de datos documentales han sido durante mucho tiempo la columna vertebral de las aplicaciones críticas; ahora, están entrando en una nueva era de inteligencia y capacidad. Al integrar la IA generativa directamente en la capa de datos, el impacto no es solo una actualización técnica, sino un cambio estratégico y transformador para una entrega más rápida, operaciones más eficientes y un escalamiento más inteligente.

    “Cuando se puede integrar todo el peso de un gran modelo de lenguaje en la base de datos, se pueden lograr muchísimas cosas realmente asombrosas”, afirma Oren Eini, director ejecutivo y fundador de RavenDB. “Es un replanteamiento del lugar que ocupa la IA en el conjunto de software empresarial. Con la IA integrada en el motor de datos, organizaciones de todos los tamaños pueden crear fácilmente aplicaciones inteligentes. Democratizar la capacidad de aplicar la IA en todos los aspectos del sistema resultará en un cambio radical en nuestra forma de pensar sobre el desarrollo de software”.

    Convertir consultas en acciones inteligentes

    Antes, era necesario ser experto en etiquetado de datos, dedicar mucho tiempo y esfuerzo a catalogar correctamente todos los datos, crear un sistema de búsqueda completo, etc. Con la IA a nivel de datos, se puede usar ese modelo para realizar gran parte del trabajo y, además, aplicar la búsqueda vectorial.

    La IA generativa permite a los usuarios generar, enriquecer, clasificar y automatizar contenido y decisiones directamente en la base de datos mediante grandes modelos de lenguaje. Además, las capacidades de IA, presentes en la ubicación real de los datos, permiten una ejecución segura, eficiente y en tiempo real, ya sea clasificando documentos, resumiendo las interacciones de los clientes o automatizando flujos de trabajo. Permite a los equipos crear funciones directamente a partir de los datos que ya gestionan, sin necesidad de un equipo de IA dedicado.

    “Eso te da una gran potencia, que antes solo tenían disponible las empresas más grandes”, dice Eini. “Puedes tener un sistema de altísima calidad, comparable al que pueden ejecutar Google o Microsoft, pero con una fracción de su presupuesto y un proceso de implementación rápido. Con los datos existentes, puedes pasar de cero a tener un sistema inteligente de primera calidad en cuestión de días”.

    Este tipo de integración es fundamental para organizaciones que no cuentan con grandes equipos de IA ni una infraestructura MLOps dedicada. Para muchos propósitos, añadir capacidades de IA generativa (GenAI) directamente a un motor de base de datos central supone un gran avance respecto a los envoltorios de servicios o las pilas de nube propietarias, lo que reduce significativamente la complejidad.

    Es un enfoque sencillo, afirma Eini, señalando cómo RavenDB permite a los clientes integrar la IA en sus productos. Este enfoque permite a los usuarios optimizar sus datos, gracias a la compatibilidad integrada con resúmenes, clasificación y etiquetado. Los usuarios de RavenDB pueden incluso crear flujos de trabajo que enriquecen el conjunto de datos directamente desde la base de datos y utilizar los datos para generar documentos e información adicionales, superando la recuperación pasiva de datos y utilizando los datos como catalizador de la innovación.

    La diferencia de RavenDB

    “En esencia, nuestro objetivo es mercantilizar el uso de los LLM en sus sistemas, haciéndolo fácil, predecible, sostenible y asequible”, afirma Eini. “La mayoría de las demás integraciones de IA en otros sistemas simplemente permiten realizar llamadas remotas al modelo, lo cual es útil si se desea introducir datos directamente en el modelo desde la base de datos y luego devolver la respuesta al usuario. El problema con ese flujo de trabajo es que no permite aprovechar al máximo el resultado de la acción del modelo ni personalizar y optimizar el comportamiento de los LLM”, señala.

    “Por otro lado”, explica, “el enfoque de RavenDB es crear un pipeline dedicado, donde los desarrolladores pueden simplemente ingresar un mensaje que le indica al modelo qué debe hacerse, el modelo procesa la solicitud junto con los datos en la base de datos y aplica los resultados a la base de datos de forma continua”.

    RavenDB invocará el modelo para aplicar la lógica del usuario a cualquier dato nuevo a medida que se agregue, lo que significa que ya no hay que esperar mucho tiempo para obtener resultados. Inyectar “inteligencia” a la base de datos también impide utilizar el modelo si no es necesario. RavenDB puede detectar si esos datos específicos son pertinentes para la tarea definida del modelo y omitir la invocación del modelo si no lo son (eliminando así llamadas innecesarias al modelo y los costos asociados).

    La nueva función de RavenDB permite usar de forma segura cualquier LLM directamente en la base de datos, ya sea una oferta comercial —como Open AI, Mystral o Grok— o un modelo de código abierto. Los clientes también pueden incorporar modelos especializados, como LLM médicos, o aquellos optimizados para sus necesidades específicas. El enfoque de “gobernanza por defecto” que RavenDB utiliza en sus productos limita las capacidades del modelo, impidiéndole realizar cambios no autorizados en la base de datos o acceder a los sistemas internos. Esto agiliza el desarrollo de aplicaciones y lo hace más seguro, brindando mayor tranquilidad a los equipos de riesgo.

    En lugar de necesitar canales de datos complejos o API específicas de proveedores y grandes cantidades de conocimientos de ingeniería y ciencia de datos en la búsqueda de pasar del prototipo a la producción, los equipos de toda la organización ahora pueden ejecutar tareas GenAI directamente dentro de la base de datos, reduciendo significativamente la brecha entre el experimento y el resultado final.

    “Los desarrolladores ahora tienen control total sobre todo lo que más les preocupa, como el costo, el rendimiento y el cumplimiento normativo”, afirma Eini. “Desde nuestra perspectiva, la clave es que, al facilitarles el uso de la IA en sus sistemas, les permitimos aplicar modelos sofisticados en todas partes. La idea es que, en lugar de pasar meses en procesos de integración, ahora son tan sencillos como ejecutar una consulta. El resultado final es una tecnología que permite pasar de la idea a la implementación más rápido que nunca y prácticamente sin interrupciones”.

    Fuente.

    Venture Beat (2025, 8 de julio). Incorporar GenAI a la base de datos cambia todo en el desarrollo de aplicaciones. Recuperado el 09 de julio de 2025, de: https://venturebeat.com/data-infrastructure/bringing-genai-into-the-database-changes-everything-about-app-development/

  • Investigadores chinos presentan MemOS, el primer ‘sistema operativo de memoria’ que proporciona a la IA una memoria similar a la humana

    Investigadores chinos presentan MemOS, el primer ‘sistema operativo de memoria’ que proporciona a la IA una memoria similar a la humana

    Un equipo de investigadores de instituciones líderes, entre ellas la Universidad Jiao Tong de Shanghai y la Universidad de Zhejiang, ha desarrollado lo que denominan el primer «sistema operativo de memoria» para inteligencia artificial, abordando una limitación fundamental que ha impedido que los sistemas de IA logren una memoria y un aprendizaje persistentes similares a los humanos.

    El sistema, llamado MemOS , trata la memoria como un recurso computacional central que puede programarse, compartirse y evolucionar con el tiempo, de forma similar a cómo los sistemas operativos tradicionales gestionan los recursos de CPU y almacenamiento. La investigación, publicada el 4 de julio en arXiv , demuestra mejoras significativas de rendimiento con respecto a los enfoques existentes, incluyendo un aumento del 159 % en las tareas de razonamiento temporal en comparación con los sistemas de memoria de OpenAI.

    “Los modelos de lenguaje grande (LLM) se han convertido en una infraestructura esencial para la inteligencia artificial general (AGI), pero su falta de sistemas de gestión de memoria bien definidos obstaculiza el desarrollo del razonamiento de contexto largo, la personalización continua y la consistencia del conocimiento”, escriben los investigadores en su artículo .

    Los sistemas de IA tienen dificultades con la memoria persistente en las conversaciones

    Los sistemas de IA actuales se enfrentan a lo que los investigadores denominan el problema del ” silo de memoria “: una limitación arquitectónica fundamental que les impide mantener relaciones coherentes y duraderas con los usuarios. Cada conversación o sesión comienza prácticamente desde cero, y los modelos no pueden retener preferencias, conocimiento acumulado ni patrones de comportamiento en las interacciones. Esto genera una experiencia de usuario frustrante, ya que un asistente de IA podría olvidar las restricciones dietéticas del usuario mencionadas en una conversación al preguntarle sobre recomendaciones de restaurantes en la siguiente.

    Si bien algunas soluciones, como la Generación Aumentada por Recuperación (RAG), intentan abordar este problema incorporando información externa durante las conversaciones, los investigadores argumentan que estas siguen siendo soluciones alternativas sin estado y sin control del ciclo de vida. El problema va más allá de la simple recuperación de información: se trata de crear sistemas que realmente puedan aprender y evolucionar a partir de la experiencia, de forma similar a la memoria humana.

    “Los modelos existentes se basan principalmente en parámetros estáticos y estados contextuales de corta duración, lo que limita su capacidad para rastrear las preferencias del usuario o actualizar la información durante periodos prolongados”, explica el equipo. Esta limitación se hace especialmente evidente en entornos empresariales, donde se espera que los sistemas de IA mantengan el contexto en flujos de trabajo complejos y de múltiples etapas que pueden durar días o semanas.

    El nuevo sistema ofrece mejoras espectaculares en las tareas de razonamiento de IA

    MemOS introduce un enfoque fundamentalmente diferente mediante lo que los investigadores denominan ” MemCubes “: unidades de memoria estandarizadas que pueden encapsular diferentes tipos de información y ser compuestas, migradas y evolucionadas con el tiempo. Estas abarcan desde conocimiento explícito basado en texto hasta adaptaciones a nivel de parámetros y estados de activación dentro del modelo, creando un marco unificado para la gestión de la memoria que antes no existía.

    En las pruebas realizadas con el benchmark LOCOMO , que evalúa tareas de razonamiento con uso intensivo de memoria, MemOS superó consistentemente los parámetros de referencia establecidos en todas las categorías. El sistema logró una mejora general del 38,98 % en comparación con la implementación de memoria de OpenAI, con mejoras especialmente significativas en escenarios de razonamiento complejos que requieren conectar información en múltiples turnos de conversación.

    Según la investigación, MemOS (MemOS-0630) se mantiene en el primer puesto en todas las categorías, superando a sistemas de referencia robustos como mem0, LangMem, Zep y OpenAI-Memory, con márgenes especialmente amplios en entornos complejos como el multisalto y el razonamiento temporal. El sistema también ofreció mejoras sustanciales en la eficiencia, con una reducción de hasta el 94 % en la latencia del tiempo hasta el primer token en ciertas configuraciones gracias a su innovador mecanismo de inyección de memoria caché KV.

    Estas mejoras de rendimiento sugieren que el cuello de botella de la memoria ha sido una limitación más significativa de lo que se creía. Al considerar la memoria como un recurso computacional de primera clase, MemOS parece liberar capacidades de razonamiento que antes estaban limitadas por limitaciones arquitectónicas.

    La tecnología podría transformar la forma en que las empresas implementan la inteligencia artificial

    Las implicaciones para la implementación de IA empresarial podrían ser transformadoras, especialmente a medida que las empresas dependen cada vez más de los sistemas de IA para mantener relaciones complejas y continuas con clientes y empleados. MemOS permite lo que los investigadores describen como « migración de memoria multiplataforma », lo que permite que las memorias de IA sean portátiles entre diferentes plataformas y dispositivos, eliminando así lo que denominan « islas de memoria » que actualmente retienen el contexto del usuario en aplicaciones específicas.

    Considere la frustración actual que experimentan muchos usuarios cuando la información explorada en una plataforma de IA no se puede transferir a otra. Un equipo de marketing podría desarrollar perfiles de clientes detallados mediante conversaciones con ChatGPT, solo para empezar de cero al cambiar a otra herramienta de IA para la planificación de campañas. MemOS aborda esto creando un formato de memoria estandarizado que puede transferirse entre sistemas.

    La investigación también describe el potencial de los módulos de memoria de pago , donde los expertos en la materia podrían agrupar sus conocimientos en unidades de memoria adquiribles. Los investigadores visualizan escenarios en los que un estudiante de medicina en prácticas clínicas podría querer estudiar el manejo de una enfermedad autoinmune poco común. Un médico experimentado podría encapsular heurísticas diagnósticas, rutas de interrogatorio y patrones de casos típicos en una memoria estructurada que otros sistemas de IA podrían instalar y utilizar.

    Este modelo de mercado podría transformar radicalmente la forma en que se distribuye y monetiza el conocimiento especializado en los sistemas de IA, creando nuevas oportunidades económicas para los expertos y democratizando el acceso a conocimiento especializado de alta calidad. Para las empresas, esto podría significar la rápida implementación de sistemas de IA con amplia experiencia en áreas específicas, sin los costos ni los plazos tradicionales asociados con la capacitación personalizada.

    El diseño de tres capas refleja los sistemas operativos informáticos tradicionales

    La arquitectura técnica de MemOS refleja décadas de aprendizaje en el diseño de sistemas operativos tradicionales, adaptada a los desafíos únicos de la gestión de memoria de IA. El sistema emplea una arquitectura de tres capas: una capa de interfaz para las llamadas a la API, una capa de operación para la programación de la memoria y la gestión del ciclo de vida, y una capa de infraestructura para el almacenamiento y la gobernanza.

    El componente MemScheduler del sistema gestiona dinámicamente diferentes tipos de memoria, desde estados de activación temporales hasta modificaciones permanentes de parámetros, seleccionando estrategias óptimas de almacenamiento y recuperación según los patrones de uso y los requisitos de las tareas. Esto representa una diferencia significativa con respecto a los enfoques actuales, que suelen tratar la memoria como completamente estática (integrada en los parámetros del modelo) o completamente efímera (limitada al contexto de la conversación).

    “El enfoque se desplaza de la cantidad de conocimiento que el modelo aprende una vez a su capacidad para transformar la experiencia en memoria estructurada y recuperarla y reconstruirla repetidamente”, señalan los investigadores, describiendo su visión de lo que denominan paradigmas de “ entrenamiento de memoria ”. Esta filosofía arquitectónica sugiere un replanteamiento fundamental del diseño de los sistemas de IA, alejándose del paradigma actual de preentrenamiento masivo hacia un aprendizaje más dinámico, basado en la experiencia.

    Los paralelismos con el desarrollo de sistemas operativos son sorprendentes. Así como las primeras computadoras requerían que los programadores gestionaran manualmente la asignación de memoria, los sistemas de IA actuales exigen que los desarrolladores organicen cuidadosamente el flujo de información entre los diferentes componentes. MemOS simplifica esta complejidad, lo que podría permitir una nueva generación de aplicaciones de IA que pueden desarrollarse sobre una sofisticada gestión de memoria sin necesidad de conocimientos técnicos profundos.

    Los investigadores publican el código como código abierto para acelerar la adopción

    El equipo ha lanzado MemOS como un proyecto de código abierto, con el código completo disponible en GitHub y compatibilidad con las principales plataformas de IA, como HuggingFace, OpenAI y Ollama. Esta estrategia de código abierto parece diseñada para acelerar la adopción y fomentar el desarrollo comunitario, en lugar de adoptar un enfoque propietario que podría limitar su implementación generalizada.

    “Esperamos que MemOS ayude a que los sistemas de IA avancen, pasando de generadores estáticos a agentes basados ​​en memoria en constante evolución”, comentó Zhiyu Li, líder del proyecto, en el repositorio de GitHub. El sistema actualmente es compatible con plataformas Linux, y está previsto que sea compatible con Windows y macOS, lo que sugiere que el equipo prioriza la adopción por parte de empresas y desarrolladores sobre la accesibilidad inmediata para el consumidor.

    La estrategia de lanzamiento de código abierto refleja una tendencia más amplia en la investigación de IA, donde las mejoras fundamentales de la infraestructura se comparten abiertamente para beneficiar a todo el ecosistema. Este enfoque ha acelerado históricamente la innovación en áreas como los marcos de aprendizaje profundo y podría tener efectos similares para la gestión de memoria en sistemas de IA.

    Los gigantes tecnológicos compiten por resolver las limitaciones de memoria de la IA

    La investigación llega en un momento en que las principales empresas de IA se enfrentan a las limitaciones de los enfoques actuales de memoria, lo que pone de relieve la importancia fundamental que este desafío ha adquirido para la industria. OpenAI introdujo recientemente funciones de memoria para ChatGPT , mientras que Anthropic , Google y otros proveedores han experimentado con diversas formas de contexto persistente. Sin embargo, estas implementaciones han tenido, por lo general, un alcance limitado y, a menudo, carecen del enfoque sistemático que ofrece MemOS .

    El momento de esta investigación sugiere que la gestión de la memoria se ha convertido en un campo de batalla competitivo crucial en el desarrollo de la IA. Las empresas que puedan resolver eficazmente el problema de la memoria podrían obtener ventajas significativas en la retención y satisfacción de los usuarios, ya que sus sistemas de IA podrán construir relaciones más profundas y útiles con el tiempo.

    Los analistas de la industria llevan tiempo prediciendo que el próximo gran avance en IA no provendría necesariamente de modelos más grandes ni de más datos de entrenamiento, sino de innovaciones arquitectónicas que imiten mejor las capacidades cognitivas humanas. La gestión de memoria representa precisamente este tipo de avance fundamental, que podría abrir camino a nuevas aplicaciones y casos de uso inviables con los sistemas actuales sin estado.

    Este desarrollo forma parte de un cambio más amplio en la investigación de IA hacia sistemas con mayor capacidad de estado y persistentes que puedan acumular y desarrollar conocimiento con el tiempo, capacidades consideradas esenciales para la inteligencia artificial general. Para los líderes de tecnología empresarial que evalúan implementaciones de IA, MemOS podría representar un avance significativo en la creación de sistemas de IA que mantengan el contexto y mejoren con el tiempo, en lugar de tratar cada interacción de forma aislada.

    El equipo de investigación indica que planea explorar el intercambio de memoria entre modelos, los bloques de memoria autoevolutivos y el desarrollo de un ecosistema más amplio de “mercado de memoria” en trabajos futuros. Pero quizás el impacto más significativo de MemOS no sea su implementación técnica específica, sino la prueba de que tratar la memoria como un recurso computacional de primera clase puede generar mejoras significativas en las capacidades de IA. En una industria que se ha centrado principalmente en escalar el tamaño de los modelos y los datos de entrenamiento, MemOS sugiere que el próximo avance podría provenir de una mejor arquitectura, en lugar de computadoras más grandes.

    Fuente.

    VentureBeat (2025, 08 de julio).

    Investigadores chinos presentan MemOS, el primer ‘sistema operativo de memoria’ que proporciona a la IA una memoria similar a la humana. Recuperado el 09 de julio de 2025, de: https://venturebeat.com/ai/chinese-researchers-unveil-memos-the-first-memory-operating-system-that-gives-ai-human-like-recall/

  • Autorregulación y normas globales, claves para aprovechar la IA

    Autorregulación y normas globales, claves para aprovechar la IA

    Las empresas mexicanas han comenzado a optar por una autorregulación y por dar seguimiento a normas internacionales para integrar la IA a su cotidianidad.

    El mayor reto para las organizaciones con el aprovechamiento de la inteligencia artificial (IA) está en su capacidad para adoptar un modelo ético, transparente y estratégico que potencie su actividad, contrario a la creencia de que los criterios técnicos son el obstáculo.

    “El problema no es la IA en sí, sino el uso que le damos (…) La inteligencia artificial no reemplazará a las personas, serán las personas que sepan usar esa tecnología quienes desplacen a aquellas no lo hagan”, refirió Francisco Carlos, director general de Generat IA.

    El experto relata así que las empresas mexicanas han comenzado a optar por una autorregulación y por dar seguimiento a normas internacionales para integrar la IA a su cotidianidad.

    Ya desde diciembre del 2023, se publicó la norma internacional ISO/IEC 42001, más enfocada al establecimiento de reglas sobre gobernanza, gestión de riesgos y uso ético de la IA.

    El estándar se presentó como una guía para empresas que comienzan a implementar tecnología de inteligencia artificial o que buscan reforzar sus políticas internas.

    Aunque el debate regulatorio en México sigue abierto, algunas organizaciones han optado mejor por autorregularse.

    “No se puede esperar a que llegue la legislación. La autorregulación es una necesidad estratégica”, dijo Francisco Carlos.

    Uno de los principales riesgos de la IA son los sesgos automatizados que pueden afectar decisiones sensibles. Por ello, la capacitación continua y especializada del talento humano se vuelve necesaria.

    La adopción responsable de IA implica beneficios en atención, evaluación de riesgos y eficiencia operativa para todas las entidades. Según PwC, las empresas que incorporan IA con criterios éticos consiguen ventaja en reputación y productividad.

    “No se trata de subirnos a la moda. Se trata de construir cimientos sólidos con esta tecnología. La IA es como un río: no se detiene, pero sí podemos dirigir su cauce (…) Las empresas pueden apoyarse en organismos expertos, creadores de normas como BSI que ayudan a las organizaciones a establecer o utilizar sistemas de IA de forma responsable, optimizando los beneficios y cumpliendo con los requisitos reglamentarios”, dijo.

    Fuente.

    El Economista(2025, 09 de julio). Autorregulación y normas globales, claves para aprovechar la IA. Recuperado el 09 de julio de 2025, de: https://www.eleconomista.com.mx/tecnologia/autorregulacion-normas-globales-claves-aprovechar-ia-20250709-767387.html

  • ChatGPT está probando una nueva y misteriosa función llamada “estudiar juntos”

    ChatGPT está probando una nueva y misteriosa función llamada “estudiar juntos”

    Esta herramienta, que aún no está disponible para todos los usuarios, actúa como un tutor personalizado, guiando paso a paso a los usuarios en distintas materias.

    Como parte de una actualización experimental, OpenAI puso a disposición la función llamada “Estudiar Juntos” (Study with Me) en ChatGPT, con la que el chatbot funciona no sólo como un asistente conversacional, sino como un compañero de estudio diseñado para acompañar el aprendizaje de estudiantes de todos los niveles.

    Al hacer clic en “Estudiar Juntos”, ChatGPT introduce al usuario a un modo de estudio personalizado e interactivo. Los usuarios pueden escribir: “Ayúdame a estudiar álgebra” o “Enséñame historia de América Latina”, y el sistema automáticamente construye una ruta de aprendizaje que puede incluir explicaciones, ejemplos, pruebas cortas, retroalimentación inmediata y ejercicios prácticos.

    “Esta herramienta, además de ofrecer información estática o resúmenes rápidos, funciona como un tutor adaptativo. Primero, evalúa el conocimiento del usuario sobre un tema determinado. A partir de allí, ajusta el nivel de dificultad, sugiere recursos complementarios y acompaña paso a paso el proceso de estudio. La experiencia se asemeja a tener un profesor particular disponible 24/7, capaz de explicar conceptos complejos con claridad, reforzar áreas débiles y hasta generar simulacros de exámenes”, explicó ChatGPT sobre esta herramienta.

    De acuerdo con los reportes de algunos usuarios, la función “Estudiar Juntos” aparece en el menú de herramientas de ChatGPT junto con la generación de imágenes, la escritura de código o la creación de presentaciones.

    Algunas filtraciones sugieren que, en el futuro, podría permitir estudiar de forma sincrónica con otros usuarios, en salas virtuales, simulando grupos de estudio. Aunque esta opción todavía no está habilitada.

    “Estudiar Juntos” aún no está disponible para todos los usuarios. Por el momento, sólo es utilizada por un grupo reducido de usuarios que utilizan versiones avanzadas del modelo GPT-4 (específicamente, una versión denominada GPT-4 mini high), lo que indica que la función se encuentra en una etapa inicial de prueba.

    Hasta ahora, OpenAI no ha confirmado si “Estudiar Juntos” será parte de su versión gratuita, si estará limitada a usuarios del plan Plus o si será una funcionalidad dirigida al sector educativo, posiblemente bajo el plan ChatGPT Edu anunciado recientemente.

    Fuente.

    DPL News (2025, 09 de julio). ChatGPT está probando una nueva y misteriosa función llamada “estudiar juntos”. Recuperado el 09 de julio de 2025, de: https://dplnews.com/chatgpt-esta-probando-una-nueva-y-misteriosa-funcion-llamada-estudiar-juntos/

  • Autorregulación y corregulación, alternativas para adoptar IA en México y América Latina

    Autorregulación y corregulación, alternativas para adoptar IA en México y América Latina

    Ciudad de México. Mientras se desarrolla una regulación específica sobre la Inteligencia Artificial (IA) en México, han emergido modelos de autorregulación y corregulación que allanan el camino hacia su implementación responsable en las organizaciones, coincidieron NYCE y BP Gurus, durante la presentación del estudio Perspectivas sobre el estado de la Inteligencia Artificial en Latinoamérica: Oportunidades, Riesgos y el Papel de la ISO/IEC 42001.

    Ante los dos modelos extremos regulatorios que imperan en la actualidad, el europeo restrictivo y el más abierto estadounidense, “lo mejor es un modelo de corregulación en donde la ley establece básicamente los abusos”, expuso Pablo Corona, director global de Ventas de NYCE.

    3 requisitos para una regulación de la IA

    Para Corona, es necesario adoptar una “visión de riesgos”; este es uno de los tres elementos clave de la regulación sobre IA. El presidente de la Asociación de Internet MX explica este enfoque con una analogía de una gradación del transporte que incluye a la bicicleta, la motocicleta, el automóvil, el autobús, el avión y un submarino nuclear.

    “Habría que entender que hay inteligencias artificiales de tamaño bicicleta, de tamaño moto, de tamaño auto, de tamaño autobús, de tamaño avión o de tamaño bomba nuclear y entonces entender cómo ponerle restricciones a los niveles de riesgo que tiene cada una de ellas”, respondió consultado por DPL News sobre cuál sería el mejor modelo que América Latina podría adoptar.

    “La segunda clave es que hay un modelo de transparencia, explicabilidad y condiciones para que pudieran revocarse los datos con los que se entrenó una Inteligencia Artificial, y la tercera tiene que ver con la autorregulación”, complementó Corona, quien concluyó que, por lo tanto, los usos deberían estar autorregulados por la industria y ser explicables, modificables y auditables con transparencia.

    El riesgo de ampliar la brecha

    La adopción de la IA se produce en un contexto de desigualdad estructural, limitación de capacidades institucionales y agendas regulatorias incipientes.

    Según la Unión Internacional de Telecomunicaciones (UIT), 35% de la población rural en América Latina aún no tiene acceso regular a Internet. “Comenzamos con una brecha digital. La Inteligencia Artificial, desde esta perspectiva, nos está trayendo riesgos y desigualdad”, advirtió Ariana Bucio, directora de Operaciones (COO) de BP Gurus, durante la presentación.

    “El reto más grande que tenemos como región es cerrar esta brecha, incorporar a poblaciones que no son consideradas, mujeres en la Inteligencia Artificial y promover las carreras de ciencia y tecnología, para que podamos formar talentos necesarios, porque sí tenemos en nuestra región datos, tenemos talento, pero no tenemos infraestructura”, agregó.

    Adopción de IA en las organizaciones

    Bucio explicó que para implementar la IA, primero es necesario establecer un objetivo y definir una problemática a resolver. “Sin un objetivo y sin una estrategia, la Inteligencia Artificial no va a funcionar. Entonces, todas las organizaciones deben comenzar con un liderazgo consciente”, aseveró.

    También compartió que, en la actualidad, según el Banco Interamericano de Desarrollo (BID), 15% de las empresas en Latinoamérica ya han implementado pilotos de IA, “pero no significa que estén alineados al gobierno de la Inteligencia Artificial”. Por ello, tanto NYCE como BP Gurus promueven la creación de un nuevo rol: director de Inteligencia Artificial o Chief Artificial Intelligence Officer en inglés, que será multidisciplinario y, por lo tanto, se alimentará de diferentes perfiles.

    Norma, punto intermedio

    Para Pablo Corona, la norma ISO/IEC 42001, que establece los lineamientos para una gobernanza en el uso y aplicación de la Inteligencia Artificial en una organización, es el punto intermedio. Según el estudio de NYCE, “puede ser un puente entre la autorregulación tecnológica y la futura legislación regional sobre IA”.

    El informe subraya la necesidad de “construir una arquitectura regulatoria gradual, flexible y orientada a resultados” y, en ese sentido, las normas internacionales ofrecen “un marco robusto, ético y aplicable que permite institucionalizar principios fundamentales de transparencia, rendición de cuentas y gestión de riesgos en el uso de la IA”.

    Corona detalló que la certificación está dirigida a tres perfiles: desarrolladores de IA, prestadores de servicios y usuarios.Corona resaltó que, de acuerdo con el AI Readiness Index 2023 de Oxford Insights,  México ocupa el lugar 63 de 118 países en desarrollo de IA.

    También advirtió que el problema con la Inteligencia Artificial es que es la primera herramienta generada por los seres humanos que se volvió sujeto, por lo que no existe marco jurídico, legal, social, regulatorio para controlarla y, por lo tanto, quien lo haga tendrá una ventaja social.

    Fuente.

    DPL News (2025, 02 de julio). Autorregulación y corregulación, alternativas para adoptar IA en México y América Latina. Recuperado el 08 de julio de 2025, de: https://dplnews.com/autorregulacion-corregulacion-adoptar-ia-mexico-latam/

  • Blanco de ciberataques, empresas de servicios financieros digitales

    Blanco de ciberataques, empresas de servicios financieros digitales

    En los meses recientes, el Banco de México (BdeM) detectó un aumento en ciberataques dirigidos a empresas de tecnología que ofrecen servicios a instituciones financieras y que tienen como objetivo robar información y accesos de los clientes para cometer fraudes.

    Lo anterior fue dado a conocer por el banco central en el reporte de estabilidad financiera a junio de este año, en el que señala que los riesgos asociados a la inteligencia artificial (IA) se mantienen bajos, pero no deben pasarse por alto por la acelerada adopción de esta herramienta.

    El BdeM señala que a la fecha en la que fue publicado el reporte –11 de junio– no se han identificado afectaciones directas a instituciones financieras mexicanas ni a sus clientes, derivadas de este tipo de ataques.

    Incidentes de 2024

    El reporte al banco central de los incidentes cibernéticos ocurridos en 2024 en el sistema financiero mexicano señala que hubo un total de cuatro, de los cuales tres fueron dirigidos a intermediarios bancarios y uno a una sociedad financiera popular (Sofipo).

    Dichos incidentes tuvieron afectación económica para las instituciones financieras de 483 millones de pesos, pero no generaron pérdidas a los clientes.

    Uso de la IA

    Según el BdeM, el sector financiero mundial ahora sigue de cerca la evolución y relevancia de los riesgos cibernéticos asociados con el creciente uso de la IA y la digitalización de las finanzas.

    En un entorno en el que empresas e individuos han experimentado el uso amplio y cotidiano de herramientas de IA, en el corto plazo (dos años) las preocupaciones sobre los posibles resultados adversos de este tipo de tecnologías se encuentran aún en un nivel bajo, destaca.

    No obstante, puntualizó, los riesgos asociados a estas tecnologías no deben desestimarse como resultado del ritmo acelerado de su adopción, sus posibles usos y su creciente omnipresencia.

    Al igual que otros bancos centrales, el Banco de México ha incorporado en su gestión de riesgos institucionales aquellos derivados del uso de IA y continuará con el seguimiento, iniciado en 2024, de la evolución y adopción de esta tecnología en el sistema financiero, agregó.

    Según el banco central, entre los principales desafíos de la llegada de la IA se encuentran gestionar la seguridad de la información que es accesible o es generada por la misma para mantener sus niveles de confidencialidad, integridad y disponibilidad existentes.

    “También se deben incorporar las nuevas tecnologías en el ecosistema informático establecido, de forma que se mitigue el riesgo operativo que dicha integración pudiera implicar.

    El uso de estas herramientas sin la capacitación y controles adecuados puede conducir a conclusiones poco precisas, erróneas, inexplicables o inconsistentes, lo cual representa un reto tanto para la rendición de cuentas como para la toma de decisiones, con la posibilidad de generar riesgo reputacional, agregó.

    Se identifica un aumento en los ataques informáticos a empresas de tecnología que ofrecen productos y servicios a las instituciones financieras. Los ataques tienen el objetivo de sustraer información de acceso de sus clientes, misma que puede utilizarse para cometer fraudes, destaca.

    Fuente.

    La Jornada (2025, 15 de junio). Blanco de ciberataques, empresas de servicios financieros digitales. Recuperado el 02 de julio de 2025, de: https://www.jornada.com.mx/noticia/2025/06/15/economia/blanco-de-ciberataques-empresas-de-servicios-financieros-digitales

  • México sufrió 35,200 millones de ciberataques en el primer trimestre de 2025

    México sufrió 35,200 millones de ciberataques en el primer trimestre de 2025

    La fragmentación de herramientas y la baja madurez en ciberseguridad de muchas empresas mexicanas hacen urgente integrar la protección digital como parte del núcleo estratégico de negocio.

    México registró más de 35,200 millones de ciberataques en los primeros tres meses de 2025, una cifra que lo coloca como el segundo país con mayor volumen de actividad cibercriminal en América Latina, sólo detrás de Brasil, de acuerdo con el último informe del Panorama Global de Amenazas 2025 elaborado por FortiGuard Labs, el laboratorio de inteligencia contra amenazas de la firma de ciberseguridad Fortinet.

    Esta cifra, que representa un aumento sostenido respecto a años anteriores, en 2024 se reportaron 324,000 millones de eventos maliciosos en territorio mexicano, ilustra la creciente sofisticación de las amenazas digitales que enfrentan tanto empresas como instituciones gubernamentales y usuarios particulares.

    Inteligencia artificial

    Fortinet ha detectado que las organizaciones criminales están utilizando inteligencia artificial (IA) para ejecutar ataques más dirigidos, difíciles de detectar y con mayor capacidad de evasión de los sistemas de defensa tradicionales. Paradójicamente, la misma IA se convierte también en herramienta esencial para las empresas que buscan protegerse.

    “El uso de IA generativa permite a los centros de operaciones de seguridad (SOC) y de red (NOC) anticiparse a posibles amenazas y responder más rápido que sus contrapartes humanas”, explicó Sebastián Russo, director de Ingeniería para Fortinet México.

    El desafío, sin embargo, es multidimensional: los atacantes perfeccionan técnicas como el phishing, mientras que las empresas luchan con la falta de personal especializado. La brecha de talento en ciberseguridad se estima en 4.8 millones de profesionales a nivel global, de los cuales 1.3 millones corresponden a América Latina y el Caribe.

    Muchas herramientas y errores humanos

    Uno de los problemas más apremiantes que enfrentan las organizaciones mexicanas es la fragmentación de herramientas de ciberseguridad. La mayoría emplea soluciones de múltiples proveedores que no están integradas, lo que dificulta correlacionar eventos y contextualizar amenazas en tiempo real.

    Esta desconexión interna impide detectar a tiempo ataques sofisticados como los de tipo ransomware, malware persistente o vulneraciones a servicios en la nube.

    A esto se suma el factor humano: según Fortinet, **el error humano sigue siendo una de las principales puertas de entrada** a las redes corporativas. El phishing —correos falsos que buscan robar credenciales o instalar malware— se ha vuelto cada vez más elaborado.

    Estrategia de negocio

    Más allá de los departamentos de TI, Fortinet insiste en que la ciberseguridad debe formar parte del núcleo estratégico de las empresas. La protección de datos, la validación de accesos y la seguridad en la nube no pueden depender únicamente de la tecnología, sino también de políticas claras, estructuras robustas y decisiones desde los niveles más altos de dirección.

    “Hoy las organizaciones no saben con certeza dónde empieza y termina su infraestructura. La nube se ha convertido en una extensión difusa de sus redes”, se expuso durante una sesión técnica de Fortinet.

    La creciente digitalización de la economía mexicana, sumada a la baja madurez en ciberseguridad de muchas empresas, especialmente las pequeñas y medianas, convierte al país en un blanco recurrente para actores maliciosos.

    Los sectores más vulnerables, según Fortinet, incluyen salud, educación, manufactura y servicios financieros, aunque ninguna industria está exenta.

    La tendencia de ataques masivos y automatizados, combinada con la ingeniería social y técnicas avanzadas de evasión, apunta a que la segunda mitad de 2025 podría superar incluso las cifras récord del primer semestre.

    Fuente:

    El Economista (2025, 28 de junio). México sufrió 35,200 millones de ciberataques en el primer trimestre de 2025. Recuperado el 02 de julio de 2025, de: https://www.eleconomista.com.mx/tecnologia/mexico-sufrio-35-200-millones-ciberataques-primer-trimestre-20250628-765729.html

  • Google presenta Gemini CLI como un Agente gratuito para tareas de código

    Google presenta Gemini CLI como un Agente gratuito para tareas de código

    Google anunció la disponibilidad bajo vista previa privada de Gemini CLI, su nueva herramienta para programadores con capacidades de Agente que se integra directamente en las terminales de los desarrolladores, lo que permitirá ejecutar múltiples tareas de código con Inteligencia Artificial (IA).

    Gemini CLI, un Agente de IA de código abierto, permitirá a los desarrolladores integrar directamente las capacidades de Gemini en sus terminales de programación. Sin embargo, Google asegura que el Agente aún podrá realizar tareas más allá de la codificación, desde la generación de contenidos y la resolución de problemas hasta la investigación en profundidad y la gestión de tareas.

    Gemini CLI también se integrará con el asistente de codificación de IA de la compañía,Gemini Code Assist, para que todos los desarrolladores (con planes gratuitos, estándar y Enterprise Code Assist) obtengan una codificación impulsada por la IA tanto en VS Code como en Gemini CLI.

    Actualmente en vista previa, con acceso gratuito, Gemini CLI permite realizar diversas tareas en el flujo de trabajo de la programación, desde la comprensión de código y la manipulación de archivos hasta la ejecución de comandos y la solución dinámica de problemas. Asimismo, ofrece una actualización fundamental de la experiencia de línea de comandos, lo que permite escribir código, depurar problemas y agilizar el flujo de trabajo con lenguaje natural.

    Además, cuenta con algunas herramientas integradas que permiten, por ejemplo, contextualizar los mensajes con la búsqueda de Google para obtener información de páginas web y proporcionar contexto externo en tiempo real al modelo; compatibilidad integrada con el protocolo de contexto de modelo (MCP) o las extensiones incluidas; y automatización de tareas e integrarlas con los flujos de trabajo existentes invocando Gemini CLI de forma no interactiva dentro de scripts.

    Gemini CLI incluye acceso gratuito a Gemini 2.5 Pro, que ahora logra una ventana de contexto de 1 millón de tokens. Asimismo, ofrece realizar hasta 60 solicitudes de modelo por minuto y 1,000 solicitudes por día, sin costo.

    Fuente.

    DPL News (2025, 25 de junio). Google presenta Gemini CLI como un Agente gratuito para tareas de código. Recuperado el 01 de julio de 2025, de:  https://dplnews.com/google-gemini-cli-agente-gratuito-tareas-de-codigo/