Category: Inteligencia Artificial

  • Investigadores chinos presentan MemOS, el primer ‘sistema operativo de memoria’ que proporciona a la IA una memoria similar a la humana

    Investigadores chinos presentan MemOS, el primer ‘sistema operativo de memoria’ que proporciona a la IA una memoria similar a la humana

    Un equipo de investigadores de instituciones líderes, entre ellas la Universidad Jiao Tong de Shanghai y la Universidad de Zhejiang, ha desarrollado lo que denominan el primer «sistema operativo de memoria» para inteligencia artificial, abordando una limitación fundamental que ha impedido que los sistemas de IA logren una memoria y un aprendizaje persistentes similares a los humanos.

    El sistema, llamado MemOS , trata la memoria como un recurso computacional central que puede programarse, compartirse y evolucionar con el tiempo, de forma similar a cómo los sistemas operativos tradicionales gestionan los recursos de CPU y almacenamiento. La investigación, publicada el 4 de julio en arXiv , demuestra mejoras significativas de rendimiento con respecto a los enfoques existentes, incluyendo un aumento del 159 % en las tareas de razonamiento temporal en comparación con los sistemas de memoria de OpenAI.

    “Los modelos de lenguaje grande (LLM) se han convertido en una infraestructura esencial para la inteligencia artificial general (AGI), pero su falta de sistemas de gestión de memoria bien definidos obstaculiza el desarrollo del razonamiento de contexto largo, la personalización continua y la consistencia del conocimiento”, escriben los investigadores en su artículo .

    Los sistemas de IA tienen dificultades con la memoria persistente en las conversaciones

    Los sistemas de IA actuales se enfrentan a lo que los investigadores denominan el problema del ” silo de memoria “: una limitación arquitectónica fundamental que les impide mantener relaciones coherentes y duraderas con los usuarios. Cada conversación o sesión comienza prácticamente desde cero, y los modelos no pueden retener preferencias, conocimiento acumulado ni patrones de comportamiento en las interacciones. Esto genera una experiencia de usuario frustrante, ya que un asistente de IA podría olvidar las restricciones dietéticas del usuario mencionadas en una conversación al preguntarle sobre recomendaciones de restaurantes en la siguiente.

    Si bien algunas soluciones, como la Generación Aumentada por Recuperación (RAG), intentan abordar este problema incorporando información externa durante las conversaciones, los investigadores argumentan que estas siguen siendo soluciones alternativas sin estado y sin control del ciclo de vida. El problema va más allá de la simple recuperación de información: se trata de crear sistemas que realmente puedan aprender y evolucionar a partir de la experiencia, de forma similar a la memoria humana.

    “Los modelos existentes se basan principalmente en parámetros estáticos y estados contextuales de corta duración, lo que limita su capacidad para rastrear las preferencias del usuario o actualizar la información durante periodos prolongados”, explica el equipo. Esta limitación se hace especialmente evidente en entornos empresariales, donde se espera que los sistemas de IA mantengan el contexto en flujos de trabajo complejos y de múltiples etapas que pueden durar días o semanas.

    El nuevo sistema ofrece mejoras espectaculares en las tareas de razonamiento de IA

    MemOS introduce un enfoque fundamentalmente diferente mediante lo que los investigadores denominan ” MemCubes “: unidades de memoria estandarizadas que pueden encapsular diferentes tipos de información y ser compuestas, migradas y evolucionadas con el tiempo. Estas abarcan desde conocimiento explícito basado en texto hasta adaptaciones a nivel de parámetros y estados de activación dentro del modelo, creando un marco unificado para la gestión de la memoria que antes no existía.

    En las pruebas realizadas con el benchmark LOCOMO , que evalúa tareas de razonamiento con uso intensivo de memoria, MemOS superó consistentemente los parámetros de referencia establecidos en todas las categorías. El sistema logró una mejora general del 38,98 % en comparación con la implementación de memoria de OpenAI, con mejoras especialmente significativas en escenarios de razonamiento complejos que requieren conectar información en múltiples turnos de conversación.

    Según la investigación, MemOS (MemOS-0630) se mantiene en el primer puesto en todas las categorías, superando a sistemas de referencia robustos como mem0, LangMem, Zep y OpenAI-Memory, con márgenes especialmente amplios en entornos complejos como el multisalto y el razonamiento temporal. El sistema también ofreció mejoras sustanciales en la eficiencia, con una reducción de hasta el 94 % en la latencia del tiempo hasta el primer token en ciertas configuraciones gracias a su innovador mecanismo de inyección de memoria caché KV.

    Estas mejoras de rendimiento sugieren que el cuello de botella de la memoria ha sido una limitación más significativa de lo que se creía. Al considerar la memoria como un recurso computacional de primera clase, MemOS parece liberar capacidades de razonamiento que antes estaban limitadas por limitaciones arquitectónicas.

    La tecnología podría transformar la forma en que las empresas implementan la inteligencia artificial

    Las implicaciones para la implementación de IA empresarial podrían ser transformadoras, especialmente a medida que las empresas dependen cada vez más de los sistemas de IA para mantener relaciones complejas y continuas con clientes y empleados. MemOS permite lo que los investigadores describen como « migración de memoria multiplataforma », lo que permite que las memorias de IA sean portátiles entre diferentes plataformas y dispositivos, eliminando así lo que denominan « islas de memoria » que actualmente retienen el contexto del usuario en aplicaciones específicas.

    Considere la frustración actual que experimentan muchos usuarios cuando la información explorada en una plataforma de IA no se puede transferir a otra. Un equipo de marketing podría desarrollar perfiles de clientes detallados mediante conversaciones con ChatGPT, solo para empezar de cero al cambiar a otra herramienta de IA para la planificación de campañas. MemOS aborda esto creando un formato de memoria estandarizado que puede transferirse entre sistemas.

    La investigación también describe el potencial de los módulos de memoria de pago , donde los expertos en la materia podrían agrupar sus conocimientos en unidades de memoria adquiribles. Los investigadores visualizan escenarios en los que un estudiante de medicina en prácticas clínicas podría querer estudiar el manejo de una enfermedad autoinmune poco común. Un médico experimentado podría encapsular heurísticas diagnósticas, rutas de interrogatorio y patrones de casos típicos en una memoria estructurada que otros sistemas de IA podrían instalar y utilizar.

    Este modelo de mercado podría transformar radicalmente la forma en que se distribuye y monetiza el conocimiento especializado en los sistemas de IA, creando nuevas oportunidades económicas para los expertos y democratizando el acceso a conocimiento especializado de alta calidad. Para las empresas, esto podría significar la rápida implementación de sistemas de IA con amplia experiencia en áreas específicas, sin los costos ni los plazos tradicionales asociados con la capacitación personalizada.

    El diseño de tres capas refleja los sistemas operativos informáticos tradicionales

    La arquitectura técnica de MemOS refleja décadas de aprendizaje en el diseño de sistemas operativos tradicionales, adaptada a los desafíos únicos de la gestión de memoria de IA. El sistema emplea una arquitectura de tres capas: una capa de interfaz para las llamadas a la API, una capa de operación para la programación de la memoria y la gestión del ciclo de vida, y una capa de infraestructura para el almacenamiento y la gobernanza.

    El componente MemScheduler del sistema gestiona dinámicamente diferentes tipos de memoria, desde estados de activación temporales hasta modificaciones permanentes de parámetros, seleccionando estrategias óptimas de almacenamiento y recuperación según los patrones de uso y los requisitos de las tareas. Esto representa una diferencia significativa con respecto a los enfoques actuales, que suelen tratar la memoria como completamente estática (integrada en los parámetros del modelo) o completamente efímera (limitada al contexto de la conversación).

    “El enfoque se desplaza de la cantidad de conocimiento que el modelo aprende una vez a su capacidad para transformar la experiencia en memoria estructurada y recuperarla y reconstruirla repetidamente”, señalan los investigadores, describiendo su visión de lo que denominan paradigmas de “ entrenamiento de memoria ”. Esta filosofía arquitectónica sugiere un replanteamiento fundamental del diseño de los sistemas de IA, alejándose del paradigma actual de preentrenamiento masivo hacia un aprendizaje más dinámico, basado en la experiencia.

    Los paralelismos con el desarrollo de sistemas operativos son sorprendentes. Así como las primeras computadoras requerían que los programadores gestionaran manualmente la asignación de memoria, los sistemas de IA actuales exigen que los desarrolladores organicen cuidadosamente el flujo de información entre los diferentes componentes. MemOS simplifica esta complejidad, lo que podría permitir una nueva generación de aplicaciones de IA que pueden desarrollarse sobre una sofisticada gestión de memoria sin necesidad de conocimientos técnicos profundos.

    Los investigadores publican el código como código abierto para acelerar la adopción

    El equipo ha lanzado MemOS como un proyecto de código abierto, con el código completo disponible en GitHub y compatibilidad con las principales plataformas de IA, como HuggingFace, OpenAI y Ollama. Esta estrategia de código abierto parece diseñada para acelerar la adopción y fomentar el desarrollo comunitario, en lugar de adoptar un enfoque propietario que podría limitar su implementación generalizada.

    “Esperamos que MemOS ayude a que los sistemas de IA avancen, pasando de generadores estáticos a agentes basados ​​en memoria en constante evolución”, comentó Zhiyu Li, líder del proyecto, en el repositorio de GitHub. El sistema actualmente es compatible con plataformas Linux, y está previsto que sea compatible con Windows y macOS, lo que sugiere que el equipo prioriza la adopción por parte de empresas y desarrolladores sobre la accesibilidad inmediata para el consumidor.

    La estrategia de lanzamiento de código abierto refleja una tendencia más amplia en la investigación de IA, donde las mejoras fundamentales de la infraestructura se comparten abiertamente para beneficiar a todo el ecosistema. Este enfoque ha acelerado históricamente la innovación en áreas como los marcos de aprendizaje profundo y podría tener efectos similares para la gestión de memoria en sistemas de IA.

    Los gigantes tecnológicos compiten por resolver las limitaciones de memoria de la IA

    La investigación llega en un momento en que las principales empresas de IA se enfrentan a las limitaciones de los enfoques actuales de memoria, lo que pone de relieve la importancia fundamental que este desafío ha adquirido para la industria. OpenAI introdujo recientemente funciones de memoria para ChatGPT , mientras que Anthropic , Google y otros proveedores han experimentado con diversas formas de contexto persistente. Sin embargo, estas implementaciones han tenido, por lo general, un alcance limitado y, a menudo, carecen del enfoque sistemático que ofrece MemOS .

    El momento de esta investigación sugiere que la gestión de la memoria se ha convertido en un campo de batalla competitivo crucial en el desarrollo de la IA. Las empresas que puedan resolver eficazmente el problema de la memoria podrían obtener ventajas significativas en la retención y satisfacción de los usuarios, ya que sus sistemas de IA podrán construir relaciones más profundas y útiles con el tiempo.

    Los analistas de la industria llevan tiempo prediciendo que el próximo gran avance en IA no provendría necesariamente de modelos más grandes ni de más datos de entrenamiento, sino de innovaciones arquitectónicas que imiten mejor las capacidades cognitivas humanas. La gestión de memoria representa precisamente este tipo de avance fundamental, que podría abrir camino a nuevas aplicaciones y casos de uso inviables con los sistemas actuales sin estado.

    Este desarrollo forma parte de un cambio más amplio en la investigación de IA hacia sistemas con mayor capacidad de estado y persistentes que puedan acumular y desarrollar conocimiento con el tiempo, capacidades consideradas esenciales para la inteligencia artificial general. Para los líderes de tecnología empresarial que evalúan implementaciones de IA, MemOS podría representar un avance significativo en la creación de sistemas de IA que mantengan el contexto y mejoren con el tiempo, en lugar de tratar cada interacción de forma aislada.

    El equipo de investigación indica que planea explorar el intercambio de memoria entre modelos, los bloques de memoria autoevolutivos y el desarrollo de un ecosistema más amplio de “mercado de memoria” en trabajos futuros. Pero quizás el impacto más significativo de MemOS no sea su implementación técnica específica, sino la prueba de que tratar la memoria como un recurso computacional de primera clase puede generar mejoras significativas en las capacidades de IA. En una industria que se ha centrado principalmente en escalar el tamaño de los modelos y los datos de entrenamiento, MemOS sugiere que el próximo avance podría provenir de una mejor arquitectura, en lugar de computadoras más grandes.

    Fuente.

    VentureBeat (2025, 08 de julio).

    Investigadores chinos presentan MemOS, el primer ‘sistema operativo de memoria’ que proporciona a la IA una memoria similar a la humana. Recuperado el 09 de julio de 2025, de: https://venturebeat.com/ai/chinese-researchers-unveil-memos-the-first-memory-operating-system-that-gives-ai-human-like-recall/

  • ChatGPT está probando una nueva y misteriosa función llamada “estudiar juntos”

    ChatGPT está probando una nueva y misteriosa función llamada “estudiar juntos”

    Esta herramienta, que aún no está disponible para todos los usuarios, actúa como un tutor personalizado, guiando paso a paso a los usuarios en distintas materias.

    Como parte de una actualización experimental, OpenAI puso a disposición la función llamada “Estudiar Juntos” (Study with Me) en ChatGPT, con la que el chatbot funciona no sólo como un asistente conversacional, sino como un compañero de estudio diseñado para acompañar el aprendizaje de estudiantes de todos los niveles.

    Al hacer clic en “Estudiar Juntos”, ChatGPT introduce al usuario a un modo de estudio personalizado e interactivo. Los usuarios pueden escribir: “Ayúdame a estudiar álgebra” o “Enséñame historia de América Latina”, y el sistema automáticamente construye una ruta de aprendizaje que puede incluir explicaciones, ejemplos, pruebas cortas, retroalimentación inmediata y ejercicios prácticos.

    “Esta herramienta, además de ofrecer información estática o resúmenes rápidos, funciona como un tutor adaptativo. Primero, evalúa el conocimiento del usuario sobre un tema determinado. A partir de allí, ajusta el nivel de dificultad, sugiere recursos complementarios y acompaña paso a paso el proceso de estudio. La experiencia se asemeja a tener un profesor particular disponible 24/7, capaz de explicar conceptos complejos con claridad, reforzar áreas débiles y hasta generar simulacros de exámenes”, explicó ChatGPT sobre esta herramienta.

    De acuerdo con los reportes de algunos usuarios, la función “Estudiar Juntos” aparece en el menú de herramientas de ChatGPT junto con la generación de imágenes, la escritura de código o la creación de presentaciones.

    Algunas filtraciones sugieren que, en el futuro, podría permitir estudiar de forma sincrónica con otros usuarios, en salas virtuales, simulando grupos de estudio. Aunque esta opción todavía no está habilitada.

    “Estudiar Juntos” aún no está disponible para todos los usuarios. Por el momento, sólo es utilizada por un grupo reducido de usuarios que utilizan versiones avanzadas del modelo GPT-4 (específicamente, una versión denominada GPT-4 mini high), lo que indica que la función se encuentra en una etapa inicial de prueba.

    Hasta ahora, OpenAI no ha confirmado si “Estudiar Juntos” será parte de su versión gratuita, si estará limitada a usuarios del plan Plus o si será una funcionalidad dirigida al sector educativo, posiblemente bajo el plan ChatGPT Edu anunciado recientemente.

    Fuente.

    DPL News (2025, 09 de julio). ChatGPT está probando una nueva y misteriosa función llamada “estudiar juntos”. Recuperado el 09 de julio de 2025, de: https://dplnews.com/chatgpt-esta-probando-una-nueva-y-misteriosa-funcion-llamada-estudiar-juntos/

  • Autorregulación y corregulación, alternativas para adoptar IA en México y América Latina

    Autorregulación y corregulación, alternativas para adoptar IA en México y América Latina

    Ciudad de México. Mientras se desarrolla una regulación específica sobre la Inteligencia Artificial (IA) en México, han emergido modelos de autorregulación y corregulación que allanan el camino hacia su implementación responsable en las organizaciones, coincidieron NYCE y BP Gurus, durante la presentación del estudio Perspectivas sobre el estado de la Inteligencia Artificial en Latinoamérica: Oportunidades, Riesgos y el Papel de la ISO/IEC 42001.

    Ante los dos modelos extremos regulatorios que imperan en la actualidad, el europeo restrictivo y el más abierto estadounidense, “lo mejor es un modelo de corregulación en donde la ley establece básicamente los abusos”, expuso Pablo Corona, director global de Ventas de NYCE.

    3 requisitos para una regulación de la IA

    Para Corona, es necesario adoptar una “visión de riesgos”; este es uno de los tres elementos clave de la regulación sobre IA. El presidente de la Asociación de Internet MX explica este enfoque con una analogía de una gradación del transporte que incluye a la bicicleta, la motocicleta, el automóvil, el autobús, el avión y un submarino nuclear.

    “Habría que entender que hay inteligencias artificiales de tamaño bicicleta, de tamaño moto, de tamaño auto, de tamaño autobús, de tamaño avión o de tamaño bomba nuclear y entonces entender cómo ponerle restricciones a los niveles de riesgo que tiene cada una de ellas”, respondió consultado por DPL News sobre cuál sería el mejor modelo que América Latina podría adoptar.

    “La segunda clave es que hay un modelo de transparencia, explicabilidad y condiciones para que pudieran revocarse los datos con los que se entrenó una Inteligencia Artificial, y la tercera tiene que ver con la autorregulación”, complementó Corona, quien concluyó que, por lo tanto, los usos deberían estar autorregulados por la industria y ser explicables, modificables y auditables con transparencia.

    El riesgo de ampliar la brecha

    La adopción de la IA se produce en un contexto de desigualdad estructural, limitación de capacidades institucionales y agendas regulatorias incipientes.

    Según la Unión Internacional de Telecomunicaciones (UIT), 35% de la población rural en América Latina aún no tiene acceso regular a Internet. “Comenzamos con una brecha digital. La Inteligencia Artificial, desde esta perspectiva, nos está trayendo riesgos y desigualdad”, advirtió Ariana Bucio, directora de Operaciones (COO) de BP Gurus, durante la presentación.

    “El reto más grande que tenemos como región es cerrar esta brecha, incorporar a poblaciones que no son consideradas, mujeres en la Inteligencia Artificial y promover las carreras de ciencia y tecnología, para que podamos formar talentos necesarios, porque sí tenemos en nuestra región datos, tenemos talento, pero no tenemos infraestructura”, agregó.

    Adopción de IA en las organizaciones

    Bucio explicó que para implementar la IA, primero es necesario establecer un objetivo y definir una problemática a resolver. “Sin un objetivo y sin una estrategia, la Inteligencia Artificial no va a funcionar. Entonces, todas las organizaciones deben comenzar con un liderazgo consciente”, aseveró.

    También compartió que, en la actualidad, según el Banco Interamericano de Desarrollo (BID), 15% de las empresas en Latinoamérica ya han implementado pilotos de IA, “pero no significa que estén alineados al gobierno de la Inteligencia Artificial”. Por ello, tanto NYCE como BP Gurus promueven la creación de un nuevo rol: director de Inteligencia Artificial o Chief Artificial Intelligence Officer en inglés, que será multidisciplinario y, por lo tanto, se alimentará de diferentes perfiles.

    Norma, punto intermedio

    Para Pablo Corona, la norma ISO/IEC 42001, que establece los lineamientos para una gobernanza en el uso y aplicación de la Inteligencia Artificial en una organización, es el punto intermedio. Según el estudio de NYCE, “puede ser un puente entre la autorregulación tecnológica y la futura legislación regional sobre IA”.

    El informe subraya la necesidad de “construir una arquitectura regulatoria gradual, flexible y orientada a resultados” y, en ese sentido, las normas internacionales ofrecen “un marco robusto, ético y aplicable que permite institucionalizar principios fundamentales de transparencia, rendición de cuentas y gestión de riesgos en el uso de la IA”.

    Corona detalló que la certificación está dirigida a tres perfiles: desarrolladores de IA, prestadores de servicios y usuarios.Corona resaltó que, de acuerdo con el AI Readiness Index 2023 de Oxford Insights,  México ocupa el lugar 63 de 118 países en desarrollo de IA.

    También advirtió que el problema con la Inteligencia Artificial es que es la primera herramienta generada por los seres humanos que se volvió sujeto, por lo que no existe marco jurídico, legal, social, regulatorio para controlarla y, por lo tanto, quien lo haga tendrá una ventaja social.

    Fuente.

    DPL News (2025, 02 de julio). Autorregulación y corregulación, alternativas para adoptar IA en México y América Latina. Recuperado el 08 de julio de 2025, de: https://dplnews.com/autorregulacion-corregulacion-adoptar-ia-mexico-latam/

  • Google presenta Gemini CLI como un Agente gratuito para tareas de código

    Google presenta Gemini CLI como un Agente gratuito para tareas de código

    Google anunció la disponibilidad bajo vista previa privada de Gemini CLI, su nueva herramienta para programadores con capacidades de Agente que se integra directamente en las terminales de los desarrolladores, lo que permitirá ejecutar múltiples tareas de código con Inteligencia Artificial (IA).

    Gemini CLI, un Agente de IA de código abierto, permitirá a los desarrolladores integrar directamente las capacidades de Gemini en sus terminales de programación. Sin embargo, Google asegura que el Agente aún podrá realizar tareas más allá de la codificación, desde la generación de contenidos y la resolución de problemas hasta la investigación en profundidad y la gestión de tareas.

    Gemini CLI también se integrará con el asistente de codificación de IA de la compañía,Gemini Code Assist, para que todos los desarrolladores (con planes gratuitos, estándar y Enterprise Code Assist) obtengan una codificación impulsada por la IA tanto en VS Code como en Gemini CLI.

    Actualmente en vista previa, con acceso gratuito, Gemini CLI permite realizar diversas tareas en el flujo de trabajo de la programación, desde la comprensión de código y la manipulación de archivos hasta la ejecución de comandos y la solución dinámica de problemas. Asimismo, ofrece una actualización fundamental de la experiencia de línea de comandos, lo que permite escribir código, depurar problemas y agilizar el flujo de trabajo con lenguaje natural.

    Además, cuenta con algunas herramientas integradas que permiten, por ejemplo, contextualizar los mensajes con la búsqueda de Google para obtener información de páginas web y proporcionar contexto externo en tiempo real al modelo; compatibilidad integrada con el protocolo de contexto de modelo (MCP) o las extensiones incluidas; y automatización de tareas e integrarlas con los flujos de trabajo existentes invocando Gemini CLI de forma no interactiva dentro de scripts.

    Gemini CLI incluye acceso gratuito a Gemini 2.5 Pro, que ahora logra una ventana de contexto de 1 millón de tokens. Asimismo, ofrece realizar hasta 60 solicitudes de modelo por minuto y 1,000 solicitudes por día, sin costo.

    Fuente.

    DPL News (2025, 25 de junio). Google presenta Gemini CLI como un Agente gratuito para tareas de código. Recuperado el 01 de julio de 2025, de:  https://dplnews.com/google-gemini-cli-agente-gratuito-tareas-de-codigo/

  • Congreso estadounidense prohibirá a oficinas del gobierno adquirir IA hecha en China

    Congreso estadounidense prohibirá a oficinas del gobierno adquirir IA hecha en China

    El Comité Selecto de la Cámara de Representantes sobre China presentó la “Ley de IA no Adversaria”, la cual buscaría frenar el crecimiento de la Inteligencia Artificial (IA) de China en los sistemas del gobierno estadounidense. La ley fue presentada en el marco de la audiencia “Autoritarios y algoritmos: por qué la Inteligencia Artificial estadounidense debe liderar”.

    La ley está siendo impulsada por los representantes John Moolenaar y Raja Krishnamoorthi, que ya ha recibido el apoyo en el Senado por parte de Rick Scott y Gary Peters. Según el Comité, la ley prohibiría a las agencias ejecutivas estadounidenses adquirir o utilizar Inteligencia Artificial desarrollada por empresas vinculadas a adversarios extranjeros como el Partido Comunista Chino (PCC).

    “Estamos en una nueva Guerra Fría, y la Inteligencia Artificial es la tecnología estratégica central. El PCC no innova, sino que roba, escala y subvierte. Desde el robo de propiedad intelectual y el contrabando de chips hasta la integración de la IA en plataformas militares y de vigilancia, el Partido Comunista Chino se apresura a convertir esta tecnología en un arma. Debemos trazar una línea clara: los sistemas gubernamentales estadounidenses no pueden ser alimentados por herramientas construidas para servir a intereses autoritarios”, dijo Moolenaar.

    Por su parte, el senador Scott afirmó que al existir “clara evidencia de que China puede tener acceso a los datos de usuarios estadounidenses en sistemas de IA, es absolutamente una locura que nuestras propias agencias federales utilicen estas plataformas peligrosas y sometan a nuestro gobierno al control de Beijing”.

    Entre las principales facultades de la ley, se establece que creará una lista pública de sistemas de IA desarrollados por adversarios extranjeros, mantenida y actualizada por el Consejo Federal de Seguridad en las Adquisiciones.

    También se prohíbe que las agencias ejecutivas adquieran o utilicen IA desarrollada por adversarios, excepto en casos limitados como la investigación, la lucha antiterrorista o las necesidades de misión crítica.

    Por otro lado, establece un proceso de exclusión de la lista para las empresas que puedan demostrar que están libres del control o la influencia de adversarios extranjeros.

    La reglamentación adicional incluye actualizaciones cada 180 días de la lista de IA adversaria, y dirigir a las agencias a utilizar las autoridades existentes para excluir los productos de IA considerados de los sistemas federales.

    “No podemos permitir que regímenes hostiles incrusten su código en nuestros sistemas más sensibles. Esta legislación bipartidista creará un claro cortafuegos entre la IA de adversarios extranjeros y el gobierno de Estados Unidos, protegiendo nuestras instituciones y al pueblo estadounidense”, señaló Krishnamoorthi.

    La ley forma parte de los esfuerzos de Estados Unidos por frenar el avance chino en el sector tecnológico, para lo cual ya ha impuesto otras restricciones como acceso a tecnología clave para compañías chinas, así como sanciones para compañías estadounidenses que hagan negocios con empresas de China. En ese sentido, el Comité advirtió que continuará trabajando en nuevas leyes durante el verano “para hacer frente a la explotación de la innovación estadounidense por parte del PCCh”.

    Fuente.

    DPL News (2025, 27 de junio). Congreso estadounidense prohibirá a oficinas del gobierno adquirir IA hecha en China. Recuperado el 01 de julio de 2025, de: https://dplnews.com/congreso-estadounidense-prohibira-a-oficinas-del-gobierno-adquirir-ia-hecha-en-china/

  • Groq acaba de hacer que Hugging Face sea mucho más rápido, y llegará para AWS y Google

    Groq acaba de hacer que Hugging Face sea mucho más rápido, y llegará para AWS y Google

    Groq , la startup de inferencia de inteligencia artificial, está realizando una apuesta agresiva para desafiar a los proveedores de nube establecidos como Amazon Web Services y Google con dos anuncios importantes que podrían cambiar la forma en que los desarrolladores acceden a los modelos de IA de alto rendimiento.

    La compañía anunció el lunes que ahora es compatible con el modelo de lenguaje Qwen3 32B de Alibaba con su ventana de contexto completa de 131 000 tokens, una capacidad técnica que, según afirma, ningún otro proveedor de inferencia rápida puede igualar. Simultáneamente, Groq se convirtió en proveedor oficial de inferencia en la plataforma de Hugging Face , lo que potencialmente expone su tecnología a millones de desarrolladores de todo el mundo.

    Esta medida es el intento más audaz de Groq hasta el momento de ganar participación en el mercado de inferencia de IA en rápida expansión, donde empresas como AWS Bedrock , Google Vertex AI y Microsoft Azure han dominado al ofrecer un acceso conveniente a los principales modelos de lenguaje.

    “La integración de Hugging Face amplía el ecosistema de Groq, ofreciendo a los desarrolladores opciones y reduciendo aún más las barreras de entrada para adoptar la rápida y eficiente inferencia de IA de Groq”, declaró un portavoz de Groq a VentureBeat. “Groq es el único proveedor de inferencia que habilita la ventana de contexto completa de 131K, lo que permite a los desarrolladores crear aplicaciones a escala”.

    Cómo se comparan las afirmaciones de la ventana de contexto de 131k de Groq con las de sus competidores en inferencia de IA

    La afirmación de Groq sobre las ventanas de contexto (la cantidad de texto que un modelo de IA puede procesar simultáneamente) ataca una limitación fundamental que ha afectado a las aplicaciones prácticas de IA. La mayoría de los proveedores de inferencia tienen dificultades para mantener la velocidad y la rentabilidad al gestionar ventanas de contexto grandes, esenciales para tareas como analizar documentos completos o mantener conversaciones largas.

    La firma independiente de benchmarking Artificial Analysis midió la implementación de Qwen3 32B de Groq funcionando a aproximadamente 535 tokens por segundo, una velocidad que permitiría el procesamiento en tiempo real de documentos extensos o tareas de razonamiento complejas. La compañía ofrece un precio de $0.29 por millón de tokens de entrada y $0.59 por millón de tokens de salida, tarifas inferiores a las de muchos proveedores consolidados.

    “Groq ofrece una pila completamente integrada que proporciona computación de inferencia diseñada para escalar, lo que significa que podemos seguir mejorando los costos de inferencia y, al mismo tiempo, garantizar el rendimiento que los desarrolladores necesitan para crear soluciones de IA reales”, explicó el portavoz cuando se le preguntó sobre la viabilidad económica de soportar ventanas de contexto masivas.

    La ventaja técnica reside en la arquitectura personalizada de la Unidad de Procesamiento del Lenguaje (LPU) de Groq , diseñada específicamente para la inferencia de IA, en lugar de las unidades de procesamiento gráfico (GPU) de propósito general que utilizan la mayoría de los competidores. Este enfoque de hardware especializado permite a Groq gestionar operaciones que consumen mucha memoria, como grandes ventanas de contexto, con mayor eficiencia.

    Por qué la integración de Hugging Face de Groq podría liberar a millones de nuevos desarrolladores de IA

    La integración con Hugging Face representa quizás la estrategia a largo plazo más significativa. Hugging Face se ha convertido en la plataforma de facto para el desarrollo de IA de código abierto, albergando cientos de miles de modelos y prestando servicio a millones de desarrolladores mensualmente. Al convertirse en proveedor oficial de inferencia, Groq obtiene acceso a este vasto ecosistema de desarrolladores con facturación optimizada y acceso unificado.

    Los desarrolladores ahora pueden seleccionar Groq como proveedor directamente en Hugging Face Playground o en la API , y el uso se factura a sus cuentas de Hugging Face. La integración es compatible con diversos modelos populares, como la serie Llama de Meta, los modelos Gemma de Google y el recién incorporado Qwen3 32B .

    “Esta colaboración entre Hugging Face y Groq es un importante paso adelante para hacer que la inferencia de IA de alto rendimiento sea más accesible y eficiente”, según una declaración conjunta.

    La asociación podría aumentar drásticamente la base de usuarios y el volumen de transacciones de Groq, pero también plantea interrogantes sobre la capacidad de la empresa para mantener el rendimiento a escala.

    ¿Puede la infraestructura de Groq competir con AWS Bedrock y Google Vertex AI a escala?

    Cuando se le presionó sobre los planes de expansión de infraestructura para manejar el nuevo tráfico potencialmente significativo de Hugging Face , el portavoz de Groq reveló la presencia global actual de la compañía: “En la actualidad, la infraestructura global de Groq incluye ubicaciones de centros de datos en todo Estados Unidos, Canadá y Medio Oriente, que brindan servicio a más de 20 millones de tokens por segundo”.

    La compañía planea continuar su expansión internacional, aunque no se proporcionaron detalles específicos. Este esfuerzo de expansión global será crucial, ya que Groq se enfrenta a una creciente presión de competidores bien financiados con mayores recursos de infraestructura.

    El servicio Bedrock de Amazon , por ejemplo, aprovecha la enorme infraestructura global en la nube de AWS, mientras que Vertex AI de Google se beneficia de la red mundial de centros de datos del gigante de las búsquedas. El servicio Azure OpenAI de Microsoft cuenta con un respaldo de infraestructura igualmente sólido.

    Sin embargo, el portavoz de Groq expresó su confianza en el enfoque diferenciado de la empresa: «Como industria, apenas estamos empezando a ver el inicio de la demanda real de computación de inferencia. Incluso si Groq desplegara el doble de la infraestructura prevista este año, seguiría sin tener capacidad suficiente para satisfacer la demanda actual».

    Cómo los precios agresivos de inferencia de IA podrían afectar el modelo de negocio de Groq

    El mercado de inferencia de IA se ha caracterizado por precios agresivos y márgenes muy estrechos, ya que los proveedores compiten por cuota de mercado. Los precios competitivos de Groq plantean dudas sobre la rentabilidad a largo plazo, especialmente dada la alta inversión de capital que requiere el desarrollo e implementación de hardware especializado.

    “A medida que vemos que más y más nuevas soluciones de IA llegan al mercado y se adoptan, la demanda de inferencia seguirá creciendo a un ritmo exponencial”, declaró el portavoz al ser preguntado sobre el camino hacia la rentabilidad. “Nuestro objetivo final es escalar para satisfacer esa demanda, aprovechando nuestra infraestructura para reducir al máximo el coste de la computación de inferencia y propiciar la futura economía de la IA”.

    Esta estrategia —apostar a un crecimiento masivo del volumen para lograr rentabilidad a pesar de los márgenes bajos— refleja enfoques adoptados por otros proveedores de infraestructura, aunque el éxito está lejos de estar garantizado.

    Qué significa la adopción de IA empresarial para el mercado de inferencia de 154 mil millones de dólares

    Los anuncios se producen en un momento en que el mercado de inferencia de IA experimenta un crecimiento explosivo. La firma de investigación Grand View Research estima que el mercado global de chips de inferencia de IA alcanzará los 154.900 millones de dólares para 2030, impulsado por el creciente despliegue de aplicaciones de IA en diferentes sectores.

    Para los responsables de la toma de decisiones empresariales, las decisiones de Groq representan tanto una oportunidad como un riesgo. Las afirmaciones de rendimiento de la compañía, de validarse a gran escala, podrían reducir significativamente los costos de las aplicaciones con uso intensivo de IA. Sin embargo, depender de un proveedor más pequeño también presenta posibles riesgos para la cadena de suministro y la continuidad en comparación con los gigantes consolidados de la nube.

    La capacidad técnica para manejar ventanas de contexto completas podría resultar particularmente valiosa para aplicaciones empresariales que involucran análisis de documentos, investigación legal o tareas de razonamiento complejas donde mantener el contexto a lo largo de interacciones prolongadas es crucial.

    El doble anuncio de Groq representa una apuesta calculada a que el hardware especializado y los precios agresivos pueden superar las ventajas de infraestructura de los gigantes tecnológicos. El éxito de esta estrategia probablemente dependerá de la capacidad de la compañía para mantener las ventajas de rendimiento a la vez que escala globalmente, un reto que ha resultado difícil para muchas startups de infraestructura.

    Por ahora, los desarrolladores obtienen otra opción de alto rendimiento en un mercado cada vez más competitivo, mientras las empresas observan si las promesas técnicas de Groq se traducen en un servicio confiable y de calidad de producción a gran escala.

    Fuente.

    Venture Beat (2025, 16 de junio).

    Groq acaba de hacer que Hugging Face sea mucho más rápido, y llegará para AWS y Google. Recuperado el 20 de junio de 2025, de: https://venturebeat.com/ai/groq-just-made-hugging-face-way-faster-and-its-coming-for-aws-and-google/

  • Amazon invertirá 13 mil mdd en Australia para ampliar capacidades de IA

    Amazon invertirá 13 mil mdd en Australia para ampliar capacidades de IA

    Amazon anunció que invertirá 20 mil millones de dólares australianos (13 mil millones de dólares estadounidenses) entre 2025 y 2029 para ampliar, operar y mantener su infraestructura de Centros de Datos en Australia, que permitirá atender el fuerte crecimiento de la demanda de computación en la Nube e Inteligencia Artificial (IA) por las empresas locales.

    Según la compañía, la inversión se alinea con las perspectivas del gobierno australiano, que espera que la IA y la automatización aporten hasta 600 mil millones de dólares australianos anuales al PIB en 2030. La infraestructura desplegada por Amazon también se asegurará de cumplir con los requerimientos de residencia de datos y otras regulaciones.

    “Este es exactamente el tipo de inversión económica en nuestra nación que queremos ver, y crea oportunidades para la innovación y el crecimiento continuos. La inversión generará oportunidades económicas para los australianos, incluidos puestos de trabajo cualificados e infraestructuras capaces de soportar aplicaciones complejas de IA y supercomputación”, dijo Anthony Albanese, primer ministro de Australia.

    Amazon Web Services (AWS) ha operado en Australia desde 2012 con la apertura de la región de AWS Asia Pacífico (Sídney). En 2023, lanzó la región de AWS Asia Pacífico (Melbourne) y las primeras zonas locales de AWS del país en Perth, y en abril de 2024, AWS lanzó Amazon Bedrock, su servicio de IA Generativa.

    En julio de 2024, el gobierno australiano anunció una asociación con AWS para proporcionar una Nube de AWS “Top Secret” para ofrecer innovación en la Nube para los sectores de seguridad nacional y defensa y así mejorar las capacidades de defensa e inteligencia de la nación.

    Para apoyar el crecimiento de la infraestructura de Nube, Amazon reveló también que abrirá tres nuevos proyectos de energías renovables, incluyendo tres nuevas granjas solares en Victoria y Queensland, de donde obtendrá una capacidad combinada de más de 170 megavatios (MW). Estos se sumarán a otros ocho parques solares ya operativos, que en su conjunto generarán más de 1.4 millones de megavatios hora de energía libre de carbono al año, o lo suficiente para abastecer a unos 290 mil hogares australianos.

    Albanese declaró: “me complace unirme a Matt Garman para anunciar la inversión de AWS de 20 mil millones de dólares australianos en cinco años para seguir desarrollando y ampliando sus Centros de Datos en Sídney y Melbourne. Esta es la mayor inversión que nuestro país ha visto por parte de un proveedor de tecnología global, y es una oportunidad emocionante para que Australia construya capacidad de IA utilizando una infraestructura segura y resistente.

    Amazon invertirá 20 mil millones de dólares en Pensilvania, Estados Unidos

    Amazon anunció que planea una nueva inversión de al menos 20 mil millones de dólares en Pensilvania, Estados Unidos, para ampliar su infraestructura de Centros de Datos para IA y computación en la Nube. Esta nueva inversión tendrá un impacto de mil 250 nuevos puestos de trabajo altamente cualificados.

    Como otros proyectos de inversión de la compañía de comercio electrónico y Nube, también incluye programas de formación y educación para la comunidad local, como programas para técnicos de Centros de Datos, talleres de fusión de fibra óptica y oportunidades de concienciación y aprendizaje STEM para escuelas de primaria y secundaria.

    La inversión se enfocará en instalar nuevos campus en Salem Township y Falls Township, aunque la compañía aclara que otras localidades están compitiendo por ser elegidas.

    Estos campus de computación en la Nube e innovación en IA se unen a la actual infraestructura ya instalada por Amazon en la Mancomunidad de Pensilvania, que ahora incluye 23 centros de cumplimiento y clasificación y 20 estaciones de entrega de última milla, lo que representa inversiones por más de 26 mil millones de dólares desde 2010.

    Fuente.

    DPL News (2025, 18 de junio). Amazon invertirá 13 mil mdd en Australia para ampliar capacidades de IA. Recuperado el 18 de junio de 2025, de: https://dplnews.com/amazon-invertira-13-mil-mdd-australia-capacidades-ia/

  • Nueva York podría ser el primer estado de EE. UU. en regular la IA

    Nueva York podría ser el primer estado de EE. UU. en regular la IA

    El Senado estatal de Nueva York aprobó, de manera casi unánime, la Ley de Educación y Seguridad de Inteligencia Artificial Responsable (RAISE, por sus siglas en inglés), una legislación pionera que busca proteger a la sociedad de los riesgos asociados con el mal uso de la IA.

    La Ley RAISE establece que las grandes empresas de IA (aquellas que hayan invertido más de 100 millones de dólares en recursos computacionales para entrenar modelos avanzados) deberán publicar protocolos de seguridad, realizar evaluaciones de riesgo y reportar cualquier incidente grave relacionado con el mal uso de sus tecnologías.

    Además, faculta al Fiscal General del Estado para imponer sanciones civiles a las compañías que no cumplan con estos requisitos, cerrando el paso a quienes prioricen las ganancias por encima de la seguridad pública.

    La aprobación de esta iniciativa representa un “paso hacia el futuro que todos queremos y merecemos”, subrayó Andrew Gounardes, senador estatal de Nueva York y principal impulsor del proyecto.

    Además, el senador cuestionó: “¿dejarías que tu hijo viajara en un coche sin cinturón de seguridad ni airbags? Claro que no. Entonces, ¿por qué dejarías que usara una IA increíblemente potente sin las medidas de seguridad básicas?”

    Si bien muchas compañías tecnológicas ya se han comprometido voluntariamente a desarrollar planes de seguridad, la Ley RAISE convierte esa buena voluntad en una obligación legal, con el fin de evitar que los incentivos financieros conduzcan a omitir controles críticos en el desarrollo de modelos cada vez más potentes. De hecho, Estados Unidos no exige que las empresas de IA revelen las capacidades de sus modelos ni detallen las medidas que toman para reducir riesgos.

    “El pueblo de Nueva York quiere que la tecnología mejore sus vidas, no que las ponga en peligro. Esta es una protección sensata, como esperaríamos de cualquier empresa que trabaje en un producto potencialmente peligroso”, afirmó Gounardes.

    Con esta iniciativa, Nueva York se coloca a la vanguardia en materia de regulación de IA en Estados Unidos, donde existen cada vez menos regulaciones para esta tecnología desde la llegada de Donald Trump a la presidencia del país.

    Además, la Ley RAISE llega en medio de una propuesta del Partido Republicano de Estados Unidos que busca impedir que los estados regulen la IA durante 10 años.

    Por el momento, la Ley RAISE espera la firma de la gobernadora de Nueva York, Kathy Hochul, con lo que la decisión quedaría en firme.

    Fuente.

    DPL News (2025, 18 de junio). Nueva York podría ser el primer estado de EE. UU. en regular la IA. Recuperado el 18 de junio de 2025, de: https://dplnews.com/nueva-york-podria-ser-el-primer-estado-de-ee-uu-en-regular-la-ia/

  • Zencoder acaba de lanzar una IA que puede reemplazar días de trabajo de control de calidad en dos horas

    Zencoder acaba de lanzar una IA que puede reemplazar días de trabajo de control de calidad en dos horas

    Zencoder , la startup de codificación de inteligencia artificial fundada por el emprendedor en serie Andrew Filev, anunció hoy el lanzamiento de la beta pública de Zentester , un agente impulsado por IA diseñado para automatizar las pruebas de software de extremo a extremo. Este paso crítico, aunque a menudo lento, puede retrasar el lanzamiento de productos días o semanas.

    La nueva herramienta representa el último intento de Zencoder por destacar en el cada vez más concurrido mercado de asistentes de programación con IA, donde las empresas compiten por automatizar no solo la generación de código, sino también flujos de trabajo completos de desarrollo de software. A diferencia de las herramientas de programación con IA existentes, que se centran principalmente en la escritura de código, Zentester se centra en la fase de verificación: garantizar que el software funcione correctamente antes de llegar a los clientes.

    “La verificación es el eslabón perdido para escalar el desarrollo impulsado por IA, desde la experimentación hasta la producción”, afirmó Filev en una entrevista exclusiva con VentureBeat. El CEO, quien fundó la empresa de gestión de proyectos Wrike y la vendió a Citrix por 2250 millones de dólares en 2021, añadió: “Zentester no solo genera pruebas, sino que brinda a los desarrolladores la confianza necesaria para lanzar al validar que su código, generado por IA o escrito por humanos, cumple su función”.

    El anuncio se produce en un momento en que el mercado de la programación con IA se consolida rápidamente. El mes pasado, Zencoder adquirió Machinet , otro asistente de programación con IA con más de 100.000 descargas. Al mismo tiempo, OpenAI llegó a un acuerdo para adquirir la herramienta de programación Windsurf por aproximadamente 3.000 millones de dólares (el acuerdo se cerró en mayo). Estas acciones ponen de manifiesto cómo las empresas se apresuran a crear plataformas integrales de desarrollo de IA en lugar de soluciones puntuales.

    Por qué las pruebas de software se han convertido en el mayor obstáculo en el desarrollo impulsado por IA

    Zentester aborda un desafío persistente en el desarrollo de software: los largos ciclos de retroalimentación entre los desarrolladores y los equipos de control de calidad. En entornos empresariales típicos, los desarrolladores escriben código y lo envían a los equipos de control de calidad para su prueba, a menudo esperando varios días para recibir retroalimentación. Para entonces, los desarrolladores ya han pasado a otros proyectos, lo que genera costosos cambios de contexto cuando se detectan problemas.

    “En un proceso de ingeniería típico, después de que un desarrollador crea una función y la envía a control de calidad, recibe retroalimentación varios días después”, declaró Filev a VentureBeat. “Para entonces, ya han pasado a otra cosa. Este cambio de contexto y estas idas y venidas, especialmente dolorosas durante las crisis de lanzamiento, pueden convertir correcciones sencillas en pruebas de una semana”.

    El primer cliente, Club Solutions Group, informó mejoras espectaculares, y el director ejecutivo, Mike Cervino, afirmó: “Lo que a nuestro equipo de control de calidad le llevaba un par de días, ahora a los desarrolladores les lleva dos horas”.

    El momento es especialmente relevante, ya que las herramientas de codificación de IA generan volúmenes de código cada vez mayores. Si bien herramientas como GitHub Copilot y Cursor han acelerado la generación de código, también han generado nuevos desafíos para el control de calidad. Filev estima que si las herramientas de IA multiplican por diez la generación de código, los requisitos de prueba también se multiplicarán por diez, lo que desbordará los procesos de control de calidad tradicionales.

    Cómo los agentes de IA de Zentester hacen clic en botones y completan formularios como evaluadores humanos

    A diferencia de los frameworks de pruebas tradicionales, que requieren que los desarrolladores escriban scripts complejos, Zentester funciona con instrucciones sencillas. El agente de IA puede interactuar con las aplicaciones como un usuario humano (haciendo clic en botones, rellenando formularios y navegando por los flujos de trabajo del software), a la vez que valida tanto las interfaces de usuario frontend como la funcionalidad backend.

    El sistema se integra con los marcos de prueba existentes, como Playwright y Selenium, en lugar de reemplazarlos por completo. “No nos gusta en absoluto que se abandonen elementos que forman parte de nuestro ADN”, afirmó Filev. “Creemos que la IA debería aprovechar los procesos y herramientas que ya existen en la industria”.

    Zentester ofrece cinco capacidades principales: pruebas de calidad dirigidas por el desarrollador durante el desarrollo de funciones, aceleración de control de calidad para la creación de conjuntos de pruebas integrales, mejora de la calidad del código generado por IA, mantenimiento de pruebas automatizado y verificación autónoma en canales de integración continua.

    La herramienta representa la última incorporación a la plataforma multiagente más amplia de Zencoder, que incluye agentes de codificación para generar software y agentes de pruebas unitarias para la verificación básica. La tecnología ” Repo Grokking ” de la compañía analiza repositorios de código completos para proporcionar contexto, mientras que un canal de corrección de errores busca reducir los errores generados por la IA.

    La batalla por el dominio de la codificación de IA se intensifica a medida que miles de millones se invierten en herramientas de automatización

    El lanzamiento intensifica la competencia en el mercado de herramientas de desarrollo de IA, donde empresas consolidadas como GitHub Copilot de Microsoft y nuevas como Cursor compiten por la atención de los desarrolladores. El enfoque de Zencoder, que consiste en crear agentes especializados para las diferentes fases de desarrollo, contrasta con el de sus competidores, centrados principalmente en la generación de código.

    “En este momento, hay tres productos de coordinación fuertes en el mercado que están a nivel de producción: nosotros, Cursor y Windsurf”, dijo Filev en una entrevista reciente. “Para las empresas más pequeñas, cada vez es más difícil competir”.

    La empresa afirma tener un rendimiento superior en los puntos de referencia de la industria, informando índices de éxito del 63 % en las pruebas SWE-Bench Verified y aproximadamente el 30 % en el nuevo punto de referencia SWE-Bench Multimodal ; resultados que, según Filev, duplican los mejores rendimientos anteriores.

    Los analistas de la industria señalan que la automatización de pruebas de extremo a extremo representa el siguiente paso lógico para las herramientas de codificación de IA, pero la implementación exitosa requiere una comprensión sofisticada de la lógica de la aplicación y los flujos de trabajo del usuario.

    Lo que los compradores empresariales deben saber antes de adoptar plataformas de pruebas de IA

    El enfoque de Zencoder ofrece tanto oportunidades como desafíos para los clientes empresariales que evalúan herramientas de pruebas de IA. Las certificaciones SOC 2 Tipo II , ISO 27001 e ISO 42001 de la compañía abordan cuestiones de seguridad y cumplimiento cruciales para las grandes organizaciones.

    Sin embargo, Filev reconoce que es necesaria la cautela empresarial. “Para las empresas, todavía no recomendamos cambiar por completo los ciclos de vida del desarrollo de software”, afirmó. “Lo que recomendamos es una IA mejorada, donde ahora pueden realizar revisiones de código y pruebas de aceptación rápidas con IA, lo que reduce la cantidad de trabajo que debe realizar el siguiente paso en el proceso”.

    La estrategia de integración de la empresa (trabajar dentro de entornos de desarrollo existentes como Visual Studio Code y JetBrains IDE en lugar de requerir cambios de plataforma) puede resultar atractiva para empresas con cadenas de herramientas establecidas.

    La carrera para automatizar el desarrollo de software desde la idea hasta la implementación

    El lanzamiento de Zentester posiciona a Zencoder para competir por una mayor participación en el flujo de trabajo de desarrollo de software a medida que las herramientas de IA se expanden más allá de la simple generación de código. La visión de la compañía abarca la automatización completa, desde los requisitos hasta la implementación en producción, aunque Filev reconoce las limitaciones actuales.

    “El siguiente paso será la transición de los requisitos a producción, todo el proceso”, dijo Filev. “¿Puedes canalizarlo para que puedas tener requisitos en lenguaje natural y luego la IA pueda ayudarte a desglosarlos, construir la arquitectura, el código, la revisión, la verificación y el envío a producción?”

    Zencoder ofrece Zentester a través de tres niveles de precios: una versión básica gratuita, un plan comercial de $19 por usuario por mes y una opción empresarial de $39 por usuario por mes con soporte premium y funciones de cumplimiento.

    Para una industria que aún debate si la inteligencia artificial reemplazará a los programadores o simplemente los hará más productivos, Zentester sugiere una tercera posibilidad: una IA que se encargue del tedioso trabajo de verificación mientras los desarrolladores se centran en la innovación. La pregunta ya no es si las máquinas pueden escribir código, sino si se puede confiar en ellas para probarlo.

    Fuente.

    VentureBeat (2025, 10 de junio). Zencoder acaba de lanzar una IA que puede reemplazar días de trabajo de control de calidad en dos horas. Recuperado el 13 de junio de 2025, de: https://venturebeat.com/ai/zencoder-just-launched-an-ai-that-can-replace-days-of-qa-work-in-two-hours/

  • Tesla muestra las últimas habilidades de su robot humanoide Optimus Gen 2

    Tesla muestra las últimas habilidades de su robot humanoide Optimus Gen 2

    La compañía tecnológica fabricante de automóviles dio a conocer su robot Optimus en el año 2022, al que definió como un robot humanoide destinado al trabajo.

    El robot humanoide de Tesla, Optimus Gen 2, ya es capaz de llevar a cabo múltiples tareas del hogar, así como en distintos espacios de trabajo, al disponer de la habilidad de pasar la aspiradora, cocinar y mover todo tipo de objetos, según las indicaciones que le de el usuario.

    La compañía tecnológica fabricante de automóviles dio a conocer su robot Optimus en el año 2022, al que definió como un robot humanoide destinado al trabajo y a llevar a cabo tareas sencillas del hogar, como cargar cajas o regar las plantas.

    En diciembre de 2023, Tesla presentó la segunda generación de su robot humanoide, Optimus Gen 2, con mejoras en la movilidad del cuello y las manos, y novedades como los sensores en los dedos, para manejar objetos más delicados con diferentes niveles de presión. Este modelo también dispone de un diseño más ligero, con lo que es capaz de caminar un 30 por ciento más rápido.

    Ahora, Tesla ha compartido algunas de las habilidades que Optimus es capaz de ejecutar, ya sea en el hogar o en entornos laborales como, por ejemplo, fábricas, donde puede pasar la aspiradora, sacar la basura, cocinar, limpiar distintos tipos de superficies, así como mover todo tipo de objetos y colocarlos en los lugares indicados, de forma completamente autónoma, mediante indicaciones de los usuarios por comandos de voz.

    Incluso, es capaz de llevar a cabo tareas más minuciosas y que requieren más control de sus habilidades, como coger una servilleta de un rollo de papel o manejar un microondas.

    Así lo ha compartido la tecnológica dirigida por Elon Musk en un vídeo en el que reúne distintos ejemplos de dichas tareas, compartido a través de una publicación en X (antigua Twitter), donde ha explicado que se ejecutan mediante una única red neuronal, y que han utilizado ejemplos con vídeos de humanos llevándolas a cabo para mejorar el aprendizaje de los robots.

    Se ha de tener en cuenta que, tal y como comunicó el propio Elon Musk el pasado año, la compañía pretende comenzar a comercializar el robot humanoide Optimus Gen 2 a finales de este año 2025, por lo que continúa trabajando para mejorar sus capacidades.

    Fuente:

    El Economista (2025, 21 de mayo). Tesla muestra las últimas habilidades de su robot humanoide Optimus Gen 2. Recuperado el 29 de mayo de 2025, de: https://www.eleconomista.com.mx/tecnologia/tesla-muestra-ultimas-habilidades-robot-humanoide-optimus-gen-20250521-760072.html