Un equipo de investigadores de instituciones líderes, entre ellas la Universidad Jiao Tong de Shanghai y la Universidad de Zhejiang, ha desarrollado lo que denominan el primer «sistema operativo de memoria» para inteligencia artificial, abordando una limitación fundamental que ha impedido que los sistemas de IA logren una memoria y un aprendizaje persistentes similares a los humanos.
El sistema, llamado MemOS , trata la memoria como un recurso computacional central que puede programarse, compartirse y evolucionar con el tiempo, de forma similar a cómo los sistemas operativos tradicionales gestionan los recursos de CPU y almacenamiento. La investigación, publicada el 4 de julio en arXiv , demuestra mejoras significativas de rendimiento con respecto a los enfoques existentes, incluyendo un aumento del 159 % en las tareas de razonamiento temporal en comparación con los sistemas de memoria de OpenAI.
“Los modelos de lenguaje grande (LLM) se han convertido en una infraestructura esencial para la inteligencia artificial general (AGI), pero su falta de sistemas de gestión de memoria bien definidos obstaculiza el desarrollo del razonamiento de contexto largo, la personalización continua y la consistencia del conocimiento”, escriben los investigadores en su artículo .
Los sistemas de IA tienen dificultades con la memoria persistente en las conversaciones
Los sistemas de IA actuales se enfrentan a lo que los investigadores denominan el problema del ” silo de memoria “: una limitación arquitectónica fundamental que les impide mantener relaciones coherentes y duraderas con los usuarios. Cada conversación o sesión comienza prácticamente desde cero, y los modelos no pueden retener preferencias, conocimiento acumulado ni patrones de comportamiento en las interacciones. Esto genera una experiencia de usuario frustrante, ya que un asistente de IA podría olvidar las restricciones dietéticas del usuario mencionadas en una conversación al preguntarle sobre recomendaciones de restaurantes en la siguiente.
Si bien algunas soluciones, como la Generación Aumentada por Recuperación (RAG), intentan abordar este problema incorporando información externa durante las conversaciones, los investigadores argumentan que estas siguen siendo soluciones alternativas sin estado y sin control del ciclo de vida. El problema va más allá de la simple recuperación de información: se trata de crear sistemas que realmente puedan aprender y evolucionar a partir de la experiencia, de forma similar a la memoria humana.
“Los modelos existentes se basan principalmente en parámetros estáticos y estados contextuales de corta duración, lo que limita su capacidad para rastrear las preferencias del usuario o actualizar la información durante periodos prolongados”, explica el equipo. Esta limitación se hace especialmente evidente en entornos empresariales, donde se espera que los sistemas de IA mantengan el contexto en flujos de trabajo complejos y de múltiples etapas que pueden durar días o semanas.
El nuevo sistema ofrece mejoras espectaculares en las tareas de razonamiento de IA
MemOS introduce un enfoque fundamentalmente diferente mediante lo que los investigadores denominan ” MemCubes “: unidades de memoria estandarizadas que pueden encapsular diferentes tipos de información y ser compuestas, migradas y evolucionadas con el tiempo. Estas abarcan desde conocimiento explícito basado en texto hasta adaptaciones a nivel de parámetros y estados de activación dentro del modelo, creando un marco unificado para la gestión de la memoria que antes no existía.
En las pruebas realizadas con el benchmark LOCOMO , que evalúa tareas de razonamiento con uso intensivo de memoria, MemOS superó consistentemente los parámetros de referencia establecidos en todas las categorías. El sistema logró una mejora general del 38,98 % en comparación con la implementación de memoria de OpenAI, con mejoras especialmente significativas en escenarios de razonamiento complejos que requieren conectar información en múltiples turnos de conversación.
Según la investigación, MemOS (MemOS-0630) se mantiene en el primer puesto en todas las categorías, superando a sistemas de referencia robustos como mem0, LangMem, Zep y OpenAI-Memory, con márgenes especialmente amplios en entornos complejos como el multisalto y el razonamiento temporal. El sistema también ofreció mejoras sustanciales en la eficiencia, con una reducción de hasta el 94 % en la latencia del tiempo hasta el primer token en ciertas configuraciones gracias a su innovador mecanismo de inyección de memoria caché KV.
Estas mejoras de rendimiento sugieren que el cuello de botella de la memoria ha sido una limitación más significativa de lo que se creía. Al considerar la memoria como un recurso computacional de primera clase, MemOS parece liberar capacidades de razonamiento que antes estaban limitadas por limitaciones arquitectónicas.
La tecnología podría transformar la forma en que las empresas implementan la inteligencia artificial
Las implicaciones para la implementación de IA empresarial podrían ser transformadoras, especialmente a medida que las empresas dependen cada vez más de los sistemas de IA para mantener relaciones complejas y continuas con clientes y empleados. MemOS permite lo que los investigadores describen como « migración de memoria multiplataforma », lo que permite que las memorias de IA sean portátiles entre diferentes plataformas y dispositivos, eliminando así lo que denominan « islas de memoria » que actualmente retienen el contexto del usuario en aplicaciones específicas.
Considere la frustración actual que experimentan muchos usuarios cuando la información explorada en una plataforma de IA no se puede transferir a otra. Un equipo de marketing podría desarrollar perfiles de clientes detallados mediante conversaciones con ChatGPT, solo para empezar de cero al cambiar a otra herramienta de IA para la planificación de campañas. MemOS aborda esto creando un formato de memoria estandarizado que puede transferirse entre sistemas.
La investigación también describe el potencial de los módulos de memoria de pago , donde los expertos en la materia podrían agrupar sus conocimientos en unidades de memoria adquiribles. Los investigadores visualizan escenarios en los que un estudiante de medicina en prácticas clínicas podría querer estudiar el manejo de una enfermedad autoinmune poco común. Un médico experimentado podría encapsular heurísticas diagnósticas, rutas de interrogatorio y patrones de casos típicos en una memoria estructurada que otros sistemas de IA podrían instalar y utilizar.
Este modelo de mercado podría transformar radicalmente la forma en que se distribuye y monetiza el conocimiento especializado en los sistemas de IA, creando nuevas oportunidades económicas para los expertos y democratizando el acceso a conocimiento especializado de alta calidad. Para las empresas, esto podría significar la rápida implementación de sistemas de IA con amplia experiencia en áreas específicas, sin los costos ni los plazos tradicionales asociados con la capacitación personalizada.
El diseño de tres capas refleja los sistemas operativos informáticos tradicionales
La arquitectura técnica de MemOS refleja décadas de aprendizaje en el diseño de sistemas operativos tradicionales, adaptada a los desafíos únicos de la gestión de memoria de IA. El sistema emplea una arquitectura de tres capas: una capa de interfaz para las llamadas a la API, una capa de operación para la programación de la memoria y la gestión del ciclo de vida, y una capa de infraestructura para el almacenamiento y la gobernanza.
El componente MemScheduler del sistema gestiona dinámicamente diferentes tipos de memoria, desde estados de activación temporales hasta modificaciones permanentes de parámetros, seleccionando estrategias óptimas de almacenamiento y recuperación según los patrones de uso y los requisitos de las tareas. Esto representa una diferencia significativa con respecto a los enfoques actuales, que suelen tratar la memoria como completamente estática (integrada en los parámetros del modelo) o completamente efímera (limitada al contexto de la conversación).
“El enfoque se desplaza de la cantidad de conocimiento que el modelo aprende una vez a su capacidad para transformar la experiencia en memoria estructurada y recuperarla y reconstruirla repetidamente”, señalan los investigadores, describiendo su visión de lo que denominan paradigmas de “ entrenamiento de memoria ”. Esta filosofía arquitectónica sugiere un replanteamiento fundamental del diseño de los sistemas de IA, alejándose del paradigma actual de preentrenamiento masivo hacia un aprendizaje más dinámico, basado en la experiencia.
Los paralelismos con el desarrollo de sistemas operativos son sorprendentes. Así como las primeras computadoras requerían que los programadores gestionaran manualmente la asignación de memoria, los sistemas de IA actuales exigen que los desarrolladores organicen cuidadosamente el flujo de información entre los diferentes componentes. MemOS simplifica esta complejidad, lo que podría permitir una nueva generación de aplicaciones de IA que pueden desarrollarse sobre una sofisticada gestión de memoria sin necesidad de conocimientos técnicos profundos.
Los investigadores publican el código como código abierto para acelerar la adopción
El equipo ha lanzado MemOS como un proyecto de código abierto, con el código completo disponible en GitHub y compatibilidad con las principales plataformas de IA, como HuggingFace, OpenAI y Ollama. Esta estrategia de código abierto parece diseñada para acelerar la adopción y fomentar el desarrollo comunitario, en lugar de adoptar un enfoque propietario que podría limitar su implementación generalizada.
“Esperamos que MemOS ayude a que los sistemas de IA avancen, pasando de generadores estáticos a agentes basados en memoria en constante evolución”, comentó Zhiyu Li, líder del proyecto, en el repositorio de GitHub. El sistema actualmente es compatible con plataformas Linux, y está previsto que sea compatible con Windows y macOS, lo que sugiere que el equipo prioriza la adopción por parte de empresas y desarrolladores sobre la accesibilidad inmediata para el consumidor.
La estrategia de lanzamiento de código abierto refleja una tendencia más amplia en la investigación de IA, donde las mejoras fundamentales de la infraestructura se comparten abiertamente para beneficiar a todo el ecosistema. Este enfoque ha acelerado históricamente la innovación en áreas como los marcos de aprendizaje profundo y podría tener efectos similares para la gestión de memoria en sistemas de IA.
Los gigantes tecnológicos compiten por resolver las limitaciones de memoria de la IA
La investigación llega en un momento en que las principales empresas de IA se enfrentan a las limitaciones de los enfoques actuales de memoria, lo que pone de relieve la importancia fundamental que este desafío ha adquirido para la industria. OpenAI introdujo recientemente funciones de memoria para ChatGPT , mientras que Anthropic , Google y otros proveedores han experimentado con diversas formas de contexto persistente. Sin embargo, estas implementaciones han tenido, por lo general, un alcance limitado y, a menudo, carecen del enfoque sistemático que ofrece MemOS .
El momento de esta investigación sugiere que la gestión de la memoria se ha convertido en un campo de batalla competitivo crucial en el desarrollo de la IA. Las empresas que puedan resolver eficazmente el problema de la memoria podrían obtener ventajas significativas en la retención y satisfacción de los usuarios, ya que sus sistemas de IA podrán construir relaciones más profundas y útiles con el tiempo.
Los analistas de la industria llevan tiempo prediciendo que el próximo gran avance en IA no provendría necesariamente de modelos más grandes ni de más datos de entrenamiento, sino de innovaciones arquitectónicas que imiten mejor las capacidades cognitivas humanas. La gestión de memoria representa precisamente este tipo de avance fundamental, que podría abrir camino a nuevas aplicaciones y casos de uso inviables con los sistemas actuales sin estado.
Este desarrollo forma parte de un cambio más amplio en la investigación de IA hacia sistemas con mayor capacidad de estado y persistentes que puedan acumular y desarrollar conocimiento con el tiempo, capacidades consideradas esenciales para la inteligencia artificial general. Para los líderes de tecnología empresarial que evalúan implementaciones de IA, MemOS podría representar un avance significativo en la creación de sistemas de IA que mantengan el contexto y mejoren con el tiempo, en lugar de tratar cada interacción de forma aislada.
El equipo de investigación indica que planea explorar el intercambio de memoria entre modelos, los bloques de memoria autoevolutivos y el desarrollo de un ecosistema más amplio de “mercado de memoria” en trabajos futuros. Pero quizás el impacto más significativo de MemOS no sea su implementación técnica específica, sino la prueba de que tratar la memoria como un recurso computacional de primera clase puede generar mejoras significativas en las capacidades de IA. En una industria que se ha centrado principalmente en escalar el tamaño de los modelos y los datos de entrenamiento, MemOS sugiere que el próximo avance podría provenir de una mejor arquitectura, en lugar de computadoras más grandes.
Fuente.
VentureBeat (2025, 08 de julio).
Investigadores chinos presentan MemOS, el primer ‘sistema operativo de memoria’ que proporciona a la IA una memoria similar a la humana. Recuperado el 09 de julio de 2025, de: https://venturebeat.com/ai/chinese-researchers-unveil-memos-the-first-memory-operating-system-that-gives-ai-human-like-recall/

