Category: Inteligencia Artificial

  • Google y la NASA desarrollan IA para la atención médica en el espacio

    Google y la NASA desarrollan IA para la atención médica en el espacio

    Google y la NASA colaboraron en una prueba de concepto para un Sistema automatizado de Apoyo a la Decisión Clínica (CDSS), conocido como Asistente Digital para Oficiales Médicos de la Tripulación (CMO-DA), diseñado para que los astronautas cuenten con asistencia médica durante misiones espaciales prolongadas.

    La interfaz multimodal de CMO-DA utiliza Inteligencia Artificial (IA) que será capacitada con la literatura sobre vuelos espaciales y utilizará técnicas de vanguardia de procesamiento del lenguaje natural y Aprendizaje Automático para proporcionar análisis seguros y en tiempo real de la salud y el rendimiento de la tripulación, lo que permitiría diagnosticar y tratar síntomas de forma autónoma.

    Además, la herramienta está diseñada para ayudar al oficial médico de la tripulación o al cirujano de vuelo designado a mantener la salud de la tripulación y a tomar decisiones médicas basadas en datos y análisis predictivo, con el objetivo principal de apoyar la exploración humana de la Luna, Marte y más allá.

    Los ensayos realizados entre la NASA y Google probaron CMO-DA en una amplia gama de escenarios médicos. Los resultados se midieron utilizando el marco de Examen Clínico Objetivo Estructurado, una herramienta que evalúa las habilidades clínicas de estudiantes de medicina y profesionales de la salud en activo, y mostraron ser fiables respecto a los síntomas reportados.

    Actualmente, Google y la NASA colaboran con médicos para probar y perfeccionar el modelo, con el objetivo de mejorar la salud y el rendimiento de las tripulaciones autónomas durante futuras misiones de exploración espacial.

    Además de apoyar la exploración espacial, el sistema CMO-DA también busca ampliar los límites de lo que es posible con la IA para brindar atención esencial en los entornos más remotos y exigentes, beneficiando también a la población

    Fuente.

    DPL News (2025, 08 de septiembre). Google y la NASA desarrollan IA para la atención médica en el espacio. Recuperado el 08 de septiembre de 2025, de: https://dplnews.com/google-y-nasa-desarrollan-ia-atencion-medica-espacio/ 

  • IA en telecomunicaciones: clave para la eficiencia y nuevos negocios

    IA en telecomunicaciones: clave para la eficiencia y nuevos negocios

    Buenos Aires, Argentina. Las empresas de telecomunicaciones revisan con lupa sus acciones en un escenario de constante innovación y que, por las inversiones necesarias y la feroz competencia, no permite pasos en falso. En este contexto, y aún con riesgos asociados, la Inteligencia Artificial(IA) se presenta como un aliado obligado para ganar eficiencia y generar nuevos negocios. El Fiber Connect Latam 2025 fue escenario del debate.

    Las telcos se enfrentan al desafío de estar en constante innovación por mayores expectativas de los usuarios, más demanda de servicios, crecimiento de redes y la necesidad de encontrar nuevas fuentes de ingresos. La IA puede ser la respuesta a algunas de las preguntas que tienen los protagonistas del sector, pero deben entender que no opera sola. “No hay IA sin datos. No se puede ser turista en el mundo IA y no se trata de hacer un roadmap, sino que los planes de negocio incluyan la tecnología por sus virtudes”, inició Cristian Lucchesi, Telecom & Media Industry Advisor de Google Cloud Latin America.

    Las empresas se animan al desafío. 68% de las telco tienen productivos casos de IA y la mitad de ellos los desplegó hace más de un año”, reveló el ejecutivo y agregó que, al mismo tiempo, está bajando el time to market de productos asociados: más del 86% de las empresas tomaron menos de seis meses desde el proceso de ideación hasta la puesta en producción. ¿En qué se utiliza? Principalmente para atención al cliente, back-office y mayor eficiencia.

    Lucchesi añadió que las firmas observan a la IA como aliado ideal principalmente para modernizar la red, garantizando la confiabilidad del servicio, mayor escalabilidad y rendimiento; acelerar la eficiencia, con cambios favorables en aspectos como operaciones en terreno y productividad de la fuerza laboral; mejorar la experiencia del cliente; y nuevas formas de monetización. En este camino, el sector debe aprovechar sus virtudes, tales como la capacidad de su red y la experiencia en “generar ecosistema de partners”, cerró.

    Luego, en un panel en el que se discutieron oportunidades de negocio en clave IA, Alejandro Girardotti, de Cirion, marcó que “el impacto (de IA) es grande y la idea es que sea mayor: dispara necesidades en todos los ámbitos desde el punto de vista de la conectividad y a eso se le agrega la latencia como factor relevante para alguno de los casos. Hay que estar listo en varios niveles, también en aspectos adicionales como energía”, marcó.

    Para Gerardo Renzetti, CTO de Arsat, la Inteligencia Artificial presenta virtudes como la eficiencia y mejoras en la gestión de tráfico pero, al mismo tiempo, “empuja a los operadores a una renovación constante de tecnología y, en este punto, hay que revisar también cuál y cómo es el retorno de la inversión”. Indicó que “agregar valor con IA no debe ser igual a cambiar el concepto que tienen las compañías” y destacó la importancia de diferenciar automatización de IA.

    “Avanzamos con IA en lo que respecta a la atención al cliente, para la automatización de procesos. En cuanto a las redes, es algo en lo que recién entramos, porque hay que hacer muchos cambios para que funcione. Entendemos que es una tecnología que tenemos que abrazar”, valoró Luis Quinelli, presidente de SION. Coincidió al cierre con Miguel Zehnder, de Alvis, y con el resto de los oradores en que la aplicación de IA será útil para lograr eficiencia, un factor clave para un sector ávido de agilizar procesos para la reducción de costos.

     

    Fuente.

    DPL News(2025, 05 de agosto). IA en telecomunicaciones: clave para la eficiencia y nuevos negocios. Recuperado el 10 de agosto de 2025, de: https://dplnews.com/ia-en-telecomunicaciones-eficiencia-nuevos-negocios/

  • Agentes autónomos: el futuro del trabajo colaborativo ya está aquí, según NTT Data

    Agentes autónomos: el futuro del trabajo colaborativo ya está aquí, según NTT Data

    NTT Data presentó sus desarrollos más avanzados en IA: agentes sintéticos y robótica, mostrando cómo estas tecnologías están redefiniendo la forma en que trabajamos, nos comunicamos y coexistimos con las máquinas.

    La Inteligencia Artificial (IA) ya no es simplemente una herramienta para automatizar tareas o responder preguntas. Para NTT Data, los agentes inteligentes con mayor autonomía están marcando el inicio de una nueva era en el trabajo colaborativo.

    En su conferencia The Future Uncovered, la compañía japonesa destacó que la IA ya no se trata sólo de interacciones texto a texto o asistentes virtuales limitados: ahora se desarrollan entidades capaces de razonar, coordinarse, ejecutar tareas complejas y aprender de su entorno.

    Como ejemplo, uno de los desarrollos más llamativos de NTT Data es Rita, una agente de Inteligencia Artificial que puede conversar de forma natural en varios idiomas, observar su entorno, imaginar escenarios, generar imágenes y responder en tiempo real.

    Su capacidad para interrumpir y ser interrumpida, al igual que un humano en una conversación, es un ejemplo del alto nivel de sofisticación alcanzado, afirmó Xavier Colomer, jefe de Inteligencia Artificial DTI en NTT Data.

    Pero el gran salto conceptual presentado por la compañía fue el de los agentes colaborativos. Estas IAs trabajan en conjunto como un equipo humano distribuido: un agente puede encargarse de la ortografía, otro de la estructura narrativa y otro de la coherencia temática, todos dirigidos por un “agente manager” que coordina el flujo de trabajo.

    Ya no se trata de un solo modelo haciendo todo, sino de varios agentes especializados que cooperan para alcanzar un objetivo común, explicó Víctor Leon Marambio, jefe de Innovación Tecnológica Digital y director de Tecnología de la empresa.

    Personas sintéticas: networking automatizado

    Durante el Mobile World Congress 2025, NTT Data desplegó Synthetic Affairs, una plataforma donde los visitantes podían crear un clon digital basado en su perfil profesional.

    Estos “humanos sintéticos” realizaron networking de forma autónoma, visitaron stands, conversaron con otros avatares y generaron más de 20 mil interacciones útiles. Al final del día, los usuarios reales recibían una lista personalizada de contactos y leads que probablemente no habrían conseguido por cuenta propia.

    Los ejecutivos resaltaron que esta dinámica también puede aplicarse a eventos, marketing, testing de campañas o incluso selección de personal, lo cual refleja una transformación profunda del rol humano: ya no es únicamente quien opera las herramientas, sino quien la dota de propósito y supervisión.

    De la pantalla al mundo físico

    Otro punto destacado de la conferencia fue la presentación de Pixel, un robot cuadrúpedo con IA integrada ―parecido en forma a un perro― capaz de mapear entornos tridimensionales, evitar obstáculos, manipular objetos y funcionar incluso sin conexión a la Nube.

    Diseñado para tareas en entornos de riesgo como minas o zonas de desastre, este desarrollo demuestra cómo la Inteligencia Artificial también está extendiendo las capacidades físicas, no sólo las cognitivas.

    Según NTT Data, en el horizonte los humanoides también cobrarán protagonismo, al estar adaptados a moverse en entornos construidos para humanos —con puertas, manivelas o escaleras—, lo que amplía su aplicabilidad en sectores como la industria, la salud o la logística.

    Nuevos dilemas, nuevas habilidades

    Si bien las oportunidades que abren estas tecnologías son inmensas, NTT Data subrayó los retos que implican: ética, veracidad de la información, seguridad y sostenibilidad.

    La posibilidad de crear clones digitales, la mayor autonomía de los agentes y la generación de contenidos hiperrealistas hacen urgente establecer límites éticos, salvaguardas técnicas y formación masiva para prevenir riesgos o usos inadecuados.

    “La IA no tiene conciencia, pero sí genera resultados en función del contexto y los datos que le damos. Si los insumos tienen mala intención, las respuestas también lo tendrán”, advirtió Xavier Colomer.La clave, de acuerdo con los especialistas, está en combinar la autonomía de las máquinas con la supervisión y el juicio humano, bajo el principio del “humano aumentado”.

    Fuente:

    DPL News (2025, 24 de julio). Agentes autónomos: el futuro del trabajo colaborativo ya está aquí, según NTT Data. Recuperado el 30 de julio de 2025, de: https://dplnews.com/agentes-autonomos-el-futuro-del-trabajo-colaborativo-ya-esta-aqui-segun-ntt-data/

  • Humanos superaron la puntuación de oro de la IA en el principal concurso de matemáticas

    Humanos superaron la puntuación de oro de la IA en el principal concurso de matemáticas

    Los organizadores del concurso advirtieron que no pudieron verificar cuánta potencia informática habían utilizado los modelos de IA.

    Los humanos vencieron a los modelos de Inteligencia artificial creados por Google y OpenAI en una importante competencia internacional de matemáticas, a pesar de que los programas alcanzaron puntajes de nivel oro por primera vez.

    Ninguno de los modelos obtuvo la máxima puntuación, en cambio, cinco jóvenes lograron puntuaciones perfectas en la Olimpiada Internacional de Matemáticas (OMI), una prestigiosa competición anual en la que los participantes deben tener menos de 20 años.

    Los organizadores del concurso advirtieron que no pudieron verificar cuánta potencia informática habían utilizado los modelos de IA o si hubo participación humana.

    Google dijo el lunes que una versión avanzada de su chatbot Gemini había resuelto cinco de los seis problemas matemáticos planteados en la OMI, celebrada este mes en Queensland, Australia.

    “Podemos confirmar que Google DeepMind alcanzó la tan deseada meta, obtuvo un puntaje de 35 sobre 42 puntos, un marcador de medalla de oro”, dijo el gigante tecnológico estadounidense citando al presidente de la OMI, Gregor Dolinar.

    “Sus soluciones fueron sorprendentes en muchos aspectos. Los evaluadores de IMO las encontraron claras, precisas y la mayoría fáciles de seguir”.

    Alrededor del 10% de los concursantes humanos ganaron medallas de oro y cinco recibieron puntuaciones perfectas de 42 puntos.

    OpenIA, el fabricante estadounidense de ChatGPT, dijo que su modelo de razonamiento experimental también obtuvo un nivel de oro, con 35 puntos en la prueba.

    “Evaluamos nuestros modelos con los problemas de la OMI de 2025, bajo las mismas reglas que los concursantes humanos”, dijo en las redes sociales el investigador de OpenIA Alexander Wei.

    “Para cada problema, tres ex medallistas de la OMI calificaron de forma independiente las respuestas que presentaron los modelos”, agregó Wei.

    Fuente.

    El Economista (2025, 26 de julio). Humanos superaron la puntuación de oro de la IA en el principal concurso de matemáticas. Recuperado el 29 de julio de 2025, de: https://www.eleconomista.com.mx/tecnologia/humanos-superaron-puntuacion-oro-ia-principal-concurso-matematicas-20250726-769528.html

     

  • Investigadores chinos presentan MemOS, el primer ‘sistema operativo de memoria’ que proporciona a la IA una memoria similar a la humana

    Investigadores chinos presentan MemOS, el primer ‘sistema operativo de memoria’ que proporciona a la IA una memoria similar a la humana

    Un equipo de investigadores de instituciones líderes, entre ellas la Universidad Jiao Tong de Shanghai y la Universidad de Zhejiang, ha desarrollado lo que denominan el primer «sistema operativo de memoria» para inteligencia artificial, abordando una limitación fundamental que ha impedido que los sistemas de IA logren una memoria y un aprendizaje persistentes similares a los humanos.

    El sistema, llamado MemOS , trata la memoria como un recurso computacional central que puede programarse, compartirse y evolucionar con el tiempo, de forma similar a cómo los sistemas operativos tradicionales gestionan los recursos de CPU y almacenamiento. La investigación, publicada el 4 de julio en arXiv , demuestra mejoras significativas de rendimiento con respecto a los enfoques existentes, incluyendo un aumento del 159 % en las tareas de razonamiento temporal en comparación con los sistemas de memoria de OpenAI.

    “Los modelos de lenguaje grande (LLM) se han convertido en una infraestructura esencial para la inteligencia artificial general (AGI), pero su falta de sistemas de gestión de memoria bien definidos obstaculiza el desarrollo del razonamiento de contexto largo, la personalización continua y la consistencia del conocimiento”, escriben los investigadores en su artículo .

    Los sistemas de IA tienen dificultades con la memoria persistente en las conversaciones

    Los sistemas de IA actuales se enfrentan a lo que los investigadores denominan el problema del ” silo de memoria “: una limitación arquitectónica fundamental que les impide mantener relaciones coherentes y duraderas con los usuarios. Cada conversación o sesión comienza prácticamente desde cero, y los modelos no pueden retener preferencias, conocimiento acumulado ni patrones de comportamiento en las interacciones. Esto genera una experiencia de usuario frustrante, ya que un asistente de IA podría olvidar las restricciones dietéticas del usuario mencionadas en una conversación al preguntarle sobre recomendaciones de restaurantes en la siguiente.

    Si bien algunas soluciones, como la Generación Aumentada por Recuperación (RAG), intentan abordar este problema incorporando información externa durante las conversaciones, los investigadores argumentan que estas siguen siendo soluciones alternativas sin estado y sin control del ciclo de vida. El problema va más allá de la simple recuperación de información: se trata de crear sistemas que realmente puedan aprender y evolucionar a partir de la experiencia, de forma similar a la memoria humana.

    “Los modelos existentes se basan principalmente en parámetros estáticos y estados contextuales de corta duración, lo que limita su capacidad para rastrear las preferencias del usuario o actualizar la información durante periodos prolongados”, explica el equipo. Esta limitación se hace especialmente evidente en entornos empresariales, donde se espera que los sistemas de IA mantengan el contexto en flujos de trabajo complejos y de múltiples etapas que pueden durar días o semanas.

    El nuevo sistema ofrece mejoras espectaculares en las tareas de razonamiento de IA

    MemOS introduce un enfoque fundamentalmente diferente mediante lo que los investigadores denominan ” MemCubes “: unidades de memoria estandarizadas que pueden encapsular diferentes tipos de información y ser compuestas, migradas y evolucionadas con el tiempo. Estas abarcan desde conocimiento explícito basado en texto hasta adaptaciones a nivel de parámetros y estados de activación dentro del modelo, creando un marco unificado para la gestión de la memoria que antes no existía.

    En las pruebas realizadas con el benchmark LOCOMO , que evalúa tareas de razonamiento con uso intensivo de memoria, MemOS superó consistentemente los parámetros de referencia establecidos en todas las categorías. El sistema logró una mejora general del 38,98 % en comparación con la implementación de memoria de OpenAI, con mejoras especialmente significativas en escenarios de razonamiento complejos que requieren conectar información en múltiples turnos de conversación.

    Según la investigación, MemOS (MemOS-0630) se mantiene en el primer puesto en todas las categorías, superando a sistemas de referencia robustos como mem0, LangMem, Zep y OpenAI-Memory, con márgenes especialmente amplios en entornos complejos como el multisalto y el razonamiento temporal. El sistema también ofreció mejoras sustanciales en la eficiencia, con una reducción de hasta el 94 % en la latencia del tiempo hasta el primer token en ciertas configuraciones gracias a su innovador mecanismo de inyección de memoria caché KV.

    Estas mejoras de rendimiento sugieren que el cuello de botella de la memoria ha sido una limitación más significativa de lo que se creía. Al considerar la memoria como un recurso computacional de primera clase, MemOS parece liberar capacidades de razonamiento que antes estaban limitadas por limitaciones arquitectónicas.

    La tecnología podría transformar la forma en que las empresas implementan la inteligencia artificial

    Las implicaciones para la implementación de IA empresarial podrían ser transformadoras, especialmente a medida que las empresas dependen cada vez más de los sistemas de IA para mantener relaciones complejas y continuas con clientes y empleados. MemOS permite lo que los investigadores describen como « migración de memoria multiplataforma », lo que permite que las memorias de IA sean portátiles entre diferentes plataformas y dispositivos, eliminando así lo que denominan « islas de memoria » que actualmente retienen el contexto del usuario en aplicaciones específicas.

    Considere la frustración actual que experimentan muchos usuarios cuando la información explorada en una plataforma de IA no se puede transferir a otra. Un equipo de marketing podría desarrollar perfiles de clientes detallados mediante conversaciones con ChatGPT, solo para empezar de cero al cambiar a otra herramienta de IA para la planificación de campañas. MemOS aborda esto creando un formato de memoria estandarizado que puede transferirse entre sistemas.

    La investigación también describe el potencial de los módulos de memoria de pago , donde los expertos en la materia podrían agrupar sus conocimientos en unidades de memoria adquiribles. Los investigadores visualizan escenarios en los que un estudiante de medicina en prácticas clínicas podría querer estudiar el manejo de una enfermedad autoinmune poco común. Un médico experimentado podría encapsular heurísticas diagnósticas, rutas de interrogatorio y patrones de casos típicos en una memoria estructurada que otros sistemas de IA podrían instalar y utilizar.

    Este modelo de mercado podría transformar radicalmente la forma en que se distribuye y monetiza el conocimiento especializado en los sistemas de IA, creando nuevas oportunidades económicas para los expertos y democratizando el acceso a conocimiento especializado de alta calidad. Para las empresas, esto podría significar la rápida implementación de sistemas de IA con amplia experiencia en áreas específicas, sin los costos ni los plazos tradicionales asociados con la capacitación personalizada.

    El diseño de tres capas refleja los sistemas operativos informáticos tradicionales

    La arquitectura técnica de MemOS refleja décadas de aprendizaje en el diseño de sistemas operativos tradicionales, adaptada a los desafíos únicos de la gestión de memoria de IA. El sistema emplea una arquitectura de tres capas: una capa de interfaz para las llamadas a la API, una capa de operación para la programación de la memoria y la gestión del ciclo de vida, y una capa de infraestructura para el almacenamiento y la gobernanza.

    El componente MemScheduler del sistema gestiona dinámicamente diferentes tipos de memoria, desde estados de activación temporales hasta modificaciones permanentes de parámetros, seleccionando estrategias óptimas de almacenamiento y recuperación según los patrones de uso y los requisitos de las tareas. Esto representa una diferencia significativa con respecto a los enfoques actuales, que suelen tratar la memoria como completamente estática (integrada en los parámetros del modelo) o completamente efímera (limitada al contexto de la conversación).

    “El enfoque se desplaza de la cantidad de conocimiento que el modelo aprende una vez a su capacidad para transformar la experiencia en memoria estructurada y recuperarla y reconstruirla repetidamente”, señalan los investigadores, describiendo su visión de lo que denominan paradigmas de “ entrenamiento de memoria ”. Esta filosofía arquitectónica sugiere un replanteamiento fundamental del diseño de los sistemas de IA, alejándose del paradigma actual de preentrenamiento masivo hacia un aprendizaje más dinámico, basado en la experiencia.

    Los paralelismos con el desarrollo de sistemas operativos son sorprendentes. Así como las primeras computadoras requerían que los programadores gestionaran manualmente la asignación de memoria, los sistemas de IA actuales exigen que los desarrolladores organicen cuidadosamente el flujo de información entre los diferentes componentes. MemOS simplifica esta complejidad, lo que podría permitir una nueva generación de aplicaciones de IA que pueden desarrollarse sobre una sofisticada gestión de memoria sin necesidad de conocimientos técnicos profundos.

    Los investigadores publican el código como código abierto para acelerar la adopción

    El equipo ha lanzado MemOS como un proyecto de código abierto, con el código completo disponible en GitHub y compatibilidad con las principales plataformas de IA, como HuggingFace, OpenAI y Ollama. Esta estrategia de código abierto parece diseñada para acelerar la adopción y fomentar el desarrollo comunitario, en lugar de adoptar un enfoque propietario que podría limitar su implementación generalizada.

    “Esperamos que MemOS ayude a que los sistemas de IA avancen, pasando de generadores estáticos a agentes basados ​​en memoria en constante evolución”, comentó Zhiyu Li, líder del proyecto, en el repositorio de GitHub. El sistema actualmente es compatible con plataformas Linux, y está previsto que sea compatible con Windows y macOS, lo que sugiere que el equipo prioriza la adopción por parte de empresas y desarrolladores sobre la accesibilidad inmediata para el consumidor.

    La estrategia de lanzamiento de código abierto refleja una tendencia más amplia en la investigación de IA, donde las mejoras fundamentales de la infraestructura se comparten abiertamente para beneficiar a todo el ecosistema. Este enfoque ha acelerado históricamente la innovación en áreas como los marcos de aprendizaje profundo y podría tener efectos similares para la gestión de memoria en sistemas de IA.

    Los gigantes tecnológicos compiten por resolver las limitaciones de memoria de la IA

    La investigación llega en un momento en que las principales empresas de IA se enfrentan a las limitaciones de los enfoques actuales de memoria, lo que pone de relieve la importancia fundamental que este desafío ha adquirido para la industria. OpenAI introdujo recientemente funciones de memoria para ChatGPT , mientras que Anthropic , Google y otros proveedores han experimentado con diversas formas de contexto persistente. Sin embargo, estas implementaciones han tenido, por lo general, un alcance limitado y, a menudo, carecen del enfoque sistemático que ofrece MemOS .

    El momento de esta investigación sugiere que la gestión de la memoria se ha convertido en un campo de batalla competitivo crucial en el desarrollo de la IA. Las empresas que puedan resolver eficazmente el problema de la memoria podrían obtener ventajas significativas en la retención y satisfacción de los usuarios, ya que sus sistemas de IA podrán construir relaciones más profundas y útiles con el tiempo.

    Los analistas de la industria llevan tiempo prediciendo que el próximo gran avance en IA no provendría necesariamente de modelos más grandes ni de más datos de entrenamiento, sino de innovaciones arquitectónicas que imiten mejor las capacidades cognitivas humanas. La gestión de memoria representa precisamente este tipo de avance fundamental, que podría abrir camino a nuevas aplicaciones y casos de uso inviables con los sistemas actuales sin estado.

    Este desarrollo forma parte de un cambio más amplio en la investigación de IA hacia sistemas con mayor capacidad de estado y persistentes que puedan acumular y desarrollar conocimiento con el tiempo, capacidades consideradas esenciales para la inteligencia artificial general. Para los líderes de tecnología empresarial que evalúan implementaciones de IA, MemOS podría representar un avance significativo en la creación de sistemas de IA que mantengan el contexto y mejoren con el tiempo, en lugar de tratar cada interacción de forma aislada.

    El equipo de investigación indica que planea explorar el intercambio de memoria entre modelos, los bloques de memoria autoevolutivos y el desarrollo de un ecosistema más amplio de “mercado de memoria” en trabajos futuros. Pero quizás el impacto más significativo de MemOS no sea su implementación técnica específica, sino la prueba de que tratar la memoria como un recurso computacional de primera clase puede generar mejoras significativas en las capacidades de IA. En una industria que se ha centrado principalmente en escalar el tamaño de los modelos y los datos de entrenamiento, MemOS sugiere que el próximo avance podría provenir de una mejor arquitectura, en lugar de computadoras más grandes.

    Fuente.

    VentureBeat (2025, 08 de julio).

    Investigadores chinos presentan MemOS, el primer ‘sistema operativo de memoria’ que proporciona a la IA una memoria similar a la humana. Recuperado el 09 de julio de 2025, de: https://venturebeat.com/ai/chinese-researchers-unveil-memos-the-first-memory-operating-system-that-gives-ai-human-like-recall/

  • ChatGPT está probando una nueva y misteriosa función llamada “estudiar juntos”

    ChatGPT está probando una nueva y misteriosa función llamada “estudiar juntos”

    Esta herramienta, que aún no está disponible para todos los usuarios, actúa como un tutor personalizado, guiando paso a paso a los usuarios en distintas materias.

    Como parte de una actualización experimental, OpenAI puso a disposición la función llamada “Estudiar Juntos” (Study with Me) en ChatGPT, con la que el chatbot funciona no sólo como un asistente conversacional, sino como un compañero de estudio diseñado para acompañar el aprendizaje de estudiantes de todos los niveles.

    Al hacer clic en “Estudiar Juntos”, ChatGPT introduce al usuario a un modo de estudio personalizado e interactivo. Los usuarios pueden escribir: “Ayúdame a estudiar álgebra” o “Enséñame historia de América Latina”, y el sistema automáticamente construye una ruta de aprendizaje que puede incluir explicaciones, ejemplos, pruebas cortas, retroalimentación inmediata y ejercicios prácticos.

    “Esta herramienta, además de ofrecer información estática o resúmenes rápidos, funciona como un tutor adaptativo. Primero, evalúa el conocimiento del usuario sobre un tema determinado. A partir de allí, ajusta el nivel de dificultad, sugiere recursos complementarios y acompaña paso a paso el proceso de estudio. La experiencia se asemeja a tener un profesor particular disponible 24/7, capaz de explicar conceptos complejos con claridad, reforzar áreas débiles y hasta generar simulacros de exámenes”, explicó ChatGPT sobre esta herramienta.

    De acuerdo con los reportes de algunos usuarios, la función “Estudiar Juntos” aparece en el menú de herramientas de ChatGPT junto con la generación de imágenes, la escritura de código o la creación de presentaciones.

    Algunas filtraciones sugieren que, en el futuro, podría permitir estudiar de forma sincrónica con otros usuarios, en salas virtuales, simulando grupos de estudio. Aunque esta opción todavía no está habilitada.

    “Estudiar Juntos” aún no está disponible para todos los usuarios. Por el momento, sólo es utilizada por un grupo reducido de usuarios que utilizan versiones avanzadas del modelo GPT-4 (específicamente, una versión denominada GPT-4 mini high), lo que indica que la función se encuentra en una etapa inicial de prueba.

    Hasta ahora, OpenAI no ha confirmado si “Estudiar Juntos” será parte de su versión gratuita, si estará limitada a usuarios del plan Plus o si será una funcionalidad dirigida al sector educativo, posiblemente bajo el plan ChatGPT Edu anunciado recientemente.

    Fuente.

    DPL News (2025, 09 de julio). ChatGPT está probando una nueva y misteriosa función llamada “estudiar juntos”. Recuperado el 09 de julio de 2025, de: https://dplnews.com/chatgpt-esta-probando-una-nueva-y-misteriosa-funcion-llamada-estudiar-juntos/

  • Autorregulación y corregulación, alternativas para adoptar IA en México y América Latina

    Autorregulación y corregulación, alternativas para adoptar IA en México y América Latina

    Ciudad de México. Mientras se desarrolla una regulación específica sobre la Inteligencia Artificial (IA) en México, han emergido modelos de autorregulación y corregulación que allanan el camino hacia su implementación responsable en las organizaciones, coincidieron NYCE y BP Gurus, durante la presentación del estudio Perspectivas sobre el estado de la Inteligencia Artificial en Latinoamérica: Oportunidades, Riesgos y el Papel de la ISO/IEC 42001.

    Ante los dos modelos extremos regulatorios que imperan en la actualidad, el europeo restrictivo y el más abierto estadounidense, “lo mejor es un modelo de corregulación en donde la ley establece básicamente los abusos”, expuso Pablo Corona, director global de Ventas de NYCE.

    3 requisitos para una regulación de la IA

    Para Corona, es necesario adoptar una “visión de riesgos”; este es uno de los tres elementos clave de la regulación sobre IA. El presidente de la Asociación de Internet MX explica este enfoque con una analogía de una gradación del transporte que incluye a la bicicleta, la motocicleta, el automóvil, el autobús, el avión y un submarino nuclear.

    “Habría que entender que hay inteligencias artificiales de tamaño bicicleta, de tamaño moto, de tamaño auto, de tamaño autobús, de tamaño avión o de tamaño bomba nuclear y entonces entender cómo ponerle restricciones a los niveles de riesgo que tiene cada una de ellas”, respondió consultado por DPL News sobre cuál sería el mejor modelo que América Latina podría adoptar.

    “La segunda clave es que hay un modelo de transparencia, explicabilidad y condiciones para que pudieran revocarse los datos con los que se entrenó una Inteligencia Artificial, y la tercera tiene que ver con la autorregulación”, complementó Corona, quien concluyó que, por lo tanto, los usos deberían estar autorregulados por la industria y ser explicables, modificables y auditables con transparencia.

    El riesgo de ampliar la brecha

    La adopción de la IA se produce en un contexto de desigualdad estructural, limitación de capacidades institucionales y agendas regulatorias incipientes.

    Según la Unión Internacional de Telecomunicaciones (UIT), 35% de la población rural en América Latina aún no tiene acceso regular a Internet. “Comenzamos con una brecha digital. La Inteligencia Artificial, desde esta perspectiva, nos está trayendo riesgos y desigualdad”, advirtió Ariana Bucio, directora de Operaciones (COO) de BP Gurus, durante la presentación.

    “El reto más grande que tenemos como región es cerrar esta brecha, incorporar a poblaciones que no son consideradas, mujeres en la Inteligencia Artificial y promover las carreras de ciencia y tecnología, para que podamos formar talentos necesarios, porque sí tenemos en nuestra región datos, tenemos talento, pero no tenemos infraestructura”, agregó.

    Adopción de IA en las organizaciones

    Bucio explicó que para implementar la IA, primero es necesario establecer un objetivo y definir una problemática a resolver. “Sin un objetivo y sin una estrategia, la Inteligencia Artificial no va a funcionar. Entonces, todas las organizaciones deben comenzar con un liderazgo consciente”, aseveró.

    También compartió que, en la actualidad, según el Banco Interamericano de Desarrollo (BID), 15% de las empresas en Latinoamérica ya han implementado pilotos de IA, “pero no significa que estén alineados al gobierno de la Inteligencia Artificial”. Por ello, tanto NYCE como BP Gurus promueven la creación de un nuevo rol: director de Inteligencia Artificial o Chief Artificial Intelligence Officer en inglés, que será multidisciplinario y, por lo tanto, se alimentará de diferentes perfiles.

    Norma, punto intermedio

    Para Pablo Corona, la norma ISO/IEC 42001, que establece los lineamientos para una gobernanza en el uso y aplicación de la Inteligencia Artificial en una organización, es el punto intermedio. Según el estudio de NYCE, “puede ser un puente entre la autorregulación tecnológica y la futura legislación regional sobre IA”.

    El informe subraya la necesidad de “construir una arquitectura regulatoria gradual, flexible y orientada a resultados” y, en ese sentido, las normas internacionales ofrecen “un marco robusto, ético y aplicable que permite institucionalizar principios fundamentales de transparencia, rendición de cuentas y gestión de riesgos en el uso de la IA”.

    Corona detalló que la certificación está dirigida a tres perfiles: desarrolladores de IA, prestadores de servicios y usuarios.Corona resaltó que, de acuerdo con el AI Readiness Index 2023 de Oxford Insights,  México ocupa el lugar 63 de 118 países en desarrollo de IA.

    También advirtió que el problema con la Inteligencia Artificial es que es la primera herramienta generada por los seres humanos que se volvió sujeto, por lo que no existe marco jurídico, legal, social, regulatorio para controlarla y, por lo tanto, quien lo haga tendrá una ventaja social.

    Fuente.

    DPL News (2025, 02 de julio). Autorregulación y corregulación, alternativas para adoptar IA en México y América Latina. Recuperado el 08 de julio de 2025, de: https://dplnews.com/autorregulacion-corregulacion-adoptar-ia-mexico-latam/

  • Google presenta Gemini CLI como un Agente gratuito para tareas de código

    Google presenta Gemini CLI como un Agente gratuito para tareas de código

    Google anunció la disponibilidad bajo vista previa privada de Gemini CLI, su nueva herramienta para programadores con capacidades de Agente que se integra directamente en las terminales de los desarrolladores, lo que permitirá ejecutar múltiples tareas de código con Inteligencia Artificial (IA).

    Gemini CLI, un Agente de IA de código abierto, permitirá a los desarrolladores integrar directamente las capacidades de Gemini en sus terminales de programación. Sin embargo, Google asegura que el Agente aún podrá realizar tareas más allá de la codificación, desde la generación de contenidos y la resolución de problemas hasta la investigación en profundidad y la gestión de tareas.

    Gemini CLI también se integrará con el asistente de codificación de IA de la compañía,Gemini Code Assist, para que todos los desarrolladores (con planes gratuitos, estándar y Enterprise Code Assist) obtengan una codificación impulsada por la IA tanto en VS Code como en Gemini CLI.

    Actualmente en vista previa, con acceso gratuito, Gemini CLI permite realizar diversas tareas en el flujo de trabajo de la programación, desde la comprensión de código y la manipulación de archivos hasta la ejecución de comandos y la solución dinámica de problemas. Asimismo, ofrece una actualización fundamental de la experiencia de línea de comandos, lo que permite escribir código, depurar problemas y agilizar el flujo de trabajo con lenguaje natural.

    Además, cuenta con algunas herramientas integradas que permiten, por ejemplo, contextualizar los mensajes con la búsqueda de Google para obtener información de páginas web y proporcionar contexto externo en tiempo real al modelo; compatibilidad integrada con el protocolo de contexto de modelo (MCP) o las extensiones incluidas; y automatización de tareas e integrarlas con los flujos de trabajo existentes invocando Gemini CLI de forma no interactiva dentro de scripts.

    Gemini CLI incluye acceso gratuito a Gemini 2.5 Pro, que ahora logra una ventana de contexto de 1 millón de tokens. Asimismo, ofrece realizar hasta 60 solicitudes de modelo por minuto y 1,000 solicitudes por día, sin costo.

    Fuente.

    DPL News (2025, 25 de junio). Google presenta Gemini CLI como un Agente gratuito para tareas de código. Recuperado el 01 de julio de 2025, de:  https://dplnews.com/google-gemini-cli-agente-gratuito-tareas-de-codigo/

  • Congreso estadounidense prohibirá a oficinas del gobierno adquirir IA hecha en China

    Congreso estadounidense prohibirá a oficinas del gobierno adquirir IA hecha en China

    El Comité Selecto de la Cámara de Representantes sobre China presentó la “Ley de IA no Adversaria”, la cual buscaría frenar el crecimiento de la Inteligencia Artificial (IA) de China en los sistemas del gobierno estadounidense. La ley fue presentada en el marco de la audiencia “Autoritarios y algoritmos: por qué la Inteligencia Artificial estadounidense debe liderar”.

    La ley está siendo impulsada por los representantes John Moolenaar y Raja Krishnamoorthi, que ya ha recibido el apoyo en el Senado por parte de Rick Scott y Gary Peters. Según el Comité, la ley prohibiría a las agencias ejecutivas estadounidenses adquirir o utilizar Inteligencia Artificial desarrollada por empresas vinculadas a adversarios extranjeros como el Partido Comunista Chino (PCC).

    “Estamos en una nueva Guerra Fría, y la Inteligencia Artificial es la tecnología estratégica central. El PCC no innova, sino que roba, escala y subvierte. Desde el robo de propiedad intelectual y el contrabando de chips hasta la integración de la IA en plataformas militares y de vigilancia, el Partido Comunista Chino se apresura a convertir esta tecnología en un arma. Debemos trazar una línea clara: los sistemas gubernamentales estadounidenses no pueden ser alimentados por herramientas construidas para servir a intereses autoritarios”, dijo Moolenaar.

    Por su parte, el senador Scott afirmó que al existir “clara evidencia de que China puede tener acceso a los datos de usuarios estadounidenses en sistemas de IA, es absolutamente una locura que nuestras propias agencias federales utilicen estas plataformas peligrosas y sometan a nuestro gobierno al control de Beijing”.

    Entre las principales facultades de la ley, se establece que creará una lista pública de sistemas de IA desarrollados por adversarios extranjeros, mantenida y actualizada por el Consejo Federal de Seguridad en las Adquisiciones.

    También se prohíbe que las agencias ejecutivas adquieran o utilicen IA desarrollada por adversarios, excepto en casos limitados como la investigación, la lucha antiterrorista o las necesidades de misión crítica.

    Por otro lado, establece un proceso de exclusión de la lista para las empresas que puedan demostrar que están libres del control o la influencia de adversarios extranjeros.

    La reglamentación adicional incluye actualizaciones cada 180 días de la lista de IA adversaria, y dirigir a las agencias a utilizar las autoridades existentes para excluir los productos de IA considerados de los sistemas federales.

    “No podemos permitir que regímenes hostiles incrusten su código en nuestros sistemas más sensibles. Esta legislación bipartidista creará un claro cortafuegos entre la IA de adversarios extranjeros y el gobierno de Estados Unidos, protegiendo nuestras instituciones y al pueblo estadounidense”, señaló Krishnamoorthi.

    La ley forma parte de los esfuerzos de Estados Unidos por frenar el avance chino en el sector tecnológico, para lo cual ya ha impuesto otras restricciones como acceso a tecnología clave para compañías chinas, así como sanciones para compañías estadounidenses que hagan negocios con empresas de China. En ese sentido, el Comité advirtió que continuará trabajando en nuevas leyes durante el verano “para hacer frente a la explotación de la innovación estadounidense por parte del PCCh”.

    Fuente.

    DPL News (2025, 27 de junio). Congreso estadounidense prohibirá a oficinas del gobierno adquirir IA hecha en China. Recuperado el 01 de julio de 2025, de: https://dplnews.com/congreso-estadounidense-prohibira-a-oficinas-del-gobierno-adquirir-ia-hecha-en-china/

  • Groq acaba de hacer que Hugging Face sea mucho más rápido, y llegará para AWS y Google

    Groq acaba de hacer que Hugging Face sea mucho más rápido, y llegará para AWS y Google

    Groq , la startup de inferencia de inteligencia artificial, está realizando una apuesta agresiva para desafiar a los proveedores de nube establecidos como Amazon Web Services y Google con dos anuncios importantes que podrían cambiar la forma en que los desarrolladores acceden a los modelos de IA de alto rendimiento.

    La compañía anunció el lunes que ahora es compatible con el modelo de lenguaje Qwen3 32B de Alibaba con su ventana de contexto completa de 131 000 tokens, una capacidad técnica que, según afirma, ningún otro proveedor de inferencia rápida puede igualar. Simultáneamente, Groq se convirtió en proveedor oficial de inferencia en la plataforma de Hugging Face , lo que potencialmente expone su tecnología a millones de desarrolladores de todo el mundo.

    Esta medida es el intento más audaz de Groq hasta el momento de ganar participación en el mercado de inferencia de IA en rápida expansión, donde empresas como AWS Bedrock , Google Vertex AI y Microsoft Azure han dominado al ofrecer un acceso conveniente a los principales modelos de lenguaje.

    “La integración de Hugging Face amplía el ecosistema de Groq, ofreciendo a los desarrolladores opciones y reduciendo aún más las barreras de entrada para adoptar la rápida y eficiente inferencia de IA de Groq”, declaró un portavoz de Groq a VentureBeat. “Groq es el único proveedor de inferencia que habilita la ventana de contexto completa de 131K, lo que permite a los desarrolladores crear aplicaciones a escala”.

    Cómo se comparan las afirmaciones de la ventana de contexto de 131k de Groq con las de sus competidores en inferencia de IA

    La afirmación de Groq sobre las ventanas de contexto (la cantidad de texto que un modelo de IA puede procesar simultáneamente) ataca una limitación fundamental que ha afectado a las aplicaciones prácticas de IA. La mayoría de los proveedores de inferencia tienen dificultades para mantener la velocidad y la rentabilidad al gestionar ventanas de contexto grandes, esenciales para tareas como analizar documentos completos o mantener conversaciones largas.

    La firma independiente de benchmarking Artificial Analysis midió la implementación de Qwen3 32B de Groq funcionando a aproximadamente 535 tokens por segundo, una velocidad que permitiría el procesamiento en tiempo real de documentos extensos o tareas de razonamiento complejas. La compañía ofrece un precio de $0.29 por millón de tokens de entrada y $0.59 por millón de tokens de salida, tarifas inferiores a las de muchos proveedores consolidados.

    “Groq ofrece una pila completamente integrada que proporciona computación de inferencia diseñada para escalar, lo que significa que podemos seguir mejorando los costos de inferencia y, al mismo tiempo, garantizar el rendimiento que los desarrolladores necesitan para crear soluciones de IA reales”, explicó el portavoz cuando se le preguntó sobre la viabilidad económica de soportar ventanas de contexto masivas.

    La ventaja técnica reside en la arquitectura personalizada de la Unidad de Procesamiento del Lenguaje (LPU) de Groq , diseñada específicamente para la inferencia de IA, en lugar de las unidades de procesamiento gráfico (GPU) de propósito general que utilizan la mayoría de los competidores. Este enfoque de hardware especializado permite a Groq gestionar operaciones que consumen mucha memoria, como grandes ventanas de contexto, con mayor eficiencia.

    Por qué la integración de Hugging Face de Groq podría liberar a millones de nuevos desarrolladores de IA

    La integración con Hugging Face representa quizás la estrategia a largo plazo más significativa. Hugging Face se ha convertido en la plataforma de facto para el desarrollo de IA de código abierto, albergando cientos de miles de modelos y prestando servicio a millones de desarrolladores mensualmente. Al convertirse en proveedor oficial de inferencia, Groq obtiene acceso a este vasto ecosistema de desarrolladores con facturación optimizada y acceso unificado.

    Los desarrolladores ahora pueden seleccionar Groq como proveedor directamente en Hugging Face Playground o en la API , y el uso se factura a sus cuentas de Hugging Face. La integración es compatible con diversos modelos populares, como la serie Llama de Meta, los modelos Gemma de Google y el recién incorporado Qwen3 32B .

    “Esta colaboración entre Hugging Face y Groq es un importante paso adelante para hacer que la inferencia de IA de alto rendimiento sea más accesible y eficiente”, según una declaración conjunta.

    La asociación podría aumentar drásticamente la base de usuarios y el volumen de transacciones de Groq, pero también plantea interrogantes sobre la capacidad de la empresa para mantener el rendimiento a escala.

    ¿Puede la infraestructura de Groq competir con AWS Bedrock y Google Vertex AI a escala?

    Cuando se le presionó sobre los planes de expansión de infraestructura para manejar el nuevo tráfico potencialmente significativo de Hugging Face , el portavoz de Groq reveló la presencia global actual de la compañía: “En la actualidad, la infraestructura global de Groq incluye ubicaciones de centros de datos en todo Estados Unidos, Canadá y Medio Oriente, que brindan servicio a más de 20 millones de tokens por segundo”.

    La compañía planea continuar su expansión internacional, aunque no se proporcionaron detalles específicos. Este esfuerzo de expansión global será crucial, ya que Groq se enfrenta a una creciente presión de competidores bien financiados con mayores recursos de infraestructura.

    El servicio Bedrock de Amazon , por ejemplo, aprovecha la enorme infraestructura global en la nube de AWS, mientras que Vertex AI de Google se beneficia de la red mundial de centros de datos del gigante de las búsquedas. El servicio Azure OpenAI de Microsoft cuenta con un respaldo de infraestructura igualmente sólido.

    Sin embargo, el portavoz de Groq expresó su confianza en el enfoque diferenciado de la empresa: «Como industria, apenas estamos empezando a ver el inicio de la demanda real de computación de inferencia. Incluso si Groq desplegara el doble de la infraestructura prevista este año, seguiría sin tener capacidad suficiente para satisfacer la demanda actual».

    Cómo los precios agresivos de inferencia de IA podrían afectar el modelo de negocio de Groq

    El mercado de inferencia de IA se ha caracterizado por precios agresivos y márgenes muy estrechos, ya que los proveedores compiten por cuota de mercado. Los precios competitivos de Groq plantean dudas sobre la rentabilidad a largo plazo, especialmente dada la alta inversión de capital que requiere el desarrollo e implementación de hardware especializado.

    “A medida que vemos que más y más nuevas soluciones de IA llegan al mercado y se adoptan, la demanda de inferencia seguirá creciendo a un ritmo exponencial”, declaró el portavoz al ser preguntado sobre el camino hacia la rentabilidad. “Nuestro objetivo final es escalar para satisfacer esa demanda, aprovechando nuestra infraestructura para reducir al máximo el coste de la computación de inferencia y propiciar la futura economía de la IA”.

    Esta estrategia —apostar a un crecimiento masivo del volumen para lograr rentabilidad a pesar de los márgenes bajos— refleja enfoques adoptados por otros proveedores de infraestructura, aunque el éxito está lejos de estar garantizado.

    Qué significa la adopción de IA empresarial para el mercado de inferencia de 154 mil millones de dólares

    Los anuncios se producen en un momento en que el mercado de inferencia de IA experimenta un crecimiento explosivo. La firma de investigación Grand View Research estima que el mercado global de chips de inferencia de IA alcanzará los 154.900 millones de dólares para 2030, impulsado por el creciente despliegue de aplicaciones de IA en diferentes sectores.

    Para los responsables de la toma de decisiones empresariales, las decisiones de Groq representan tanto una oportunidad como un riesgo. Las afirmaciones de rendimiento de la compañía, de validarse a gran escala, podrían reducir significativamente los costos de las aplicaciones con uso intensivo de IA. Sin embargo, depender de un proveedor más pequeño también presenta posibles riesgos para la cadena de suministro y la continuidad en comparación con los gigantes consolidados de la nube.

    La capacidad técnica para manejar ventanas de contexto completas podría resultar particularmente valiosa para aplicaciones empresariales que involucran análisis de documentos, investigación legal o tareas de razonamiento complejas donde mantener el contexto a lo largo de interacciones prolongadas es crucial.

    El doble anuncio de Groq representa una apuesta calculada a que el hardware especializado y los precios agresivos pueden superar las ventajas de infraestructura de los gigantes tecnológicos. El éxito de esta estrategia probablemente dependerá de la capacidad de la compañía para mantener las ventajas de rendimiento a la vez que escala globalmente, un reto que ha resultado difícil para muchas startups de infraestructura.

    Por ahora, los desarrolladores obtienen otra opción de alto rendimiento en un mercado cada vez más competitivo, mientras las empresas observan si las promesas técnicas de Groq se traducen en un servicio confiable y de calidad de producción a gran escala.

    Fuente.

    Venture Beat (2025, 16 de junio).

    Groq acaba de hacer que Hugging Face sea mucho más rápido, y llegará para AWS y Google. Recuperado el 20 de junio de 2025, de: https://venturebeat.com/ai/groq-just-made-hugging-face-way-faster-and-its-coming-for-aws-and-google/