Category: Inteligencia Artificial

  • DeepSeek revoluciona la industria de la IA: por qué el próximo salto de la IA puede no provenir de más datos, sino de más computación en la inferencia

    DeepSeek revoluciona la industria de la IA: por qué el próximo salto de la IA puede no provenir de más datos, sino de más computación en la inferencia

    El panorama de la IA continúa evolucionando a un ritmo acelerado, con desarrollos recientes que desafían los paradigmas establecidos. A principios de 2025, el laboratorio chino de IA DeepSeek presentó un nuevo modelo que impactó a la industria de la IA y provocó una caída del 17 % en las acciones de Nvidia, junto con las de otras empresas relacionadas con la demanda de centros de datos de IA. Se informó ampliamente que esta reacción del mercado se debió a la aparente capacidad de DeepSeek para ofrecer modelos de alto rendimiento a un costo mucho menor que el de sus competidores en EE. UU., lo que generó debate sobre las implicaciones para los centros de datos de IA . 

    Para contextualizar la disrupción de DeepSeek, creemos que es útil considerar un cambio más amplio en el panorama de la IA impulsado por la escasez de datos de entrenamiento adicionales. Debido a que los principales laboratorios de IA ya han entrenado sus modelos en gran parte de los datos públicos disponibles en internet, la escasez de datos está ralentizando futuras mejoras en el preentrenamiento . Como resultado, los proveedores de modelos están buscando “computación en tiempo de prueba” (TTC), donde los modelos de razonamiento (como la serie “o” de modelos de Open AI) “piensan” antes de responder a una pregunta en el momento de la inferencia, como un método alternativo para mejorar el rendimiento general del modelo. La idea actual es que TTC puede exhibir mejoras en la ley de escalado similares a las que alguna vez impulsaron el preentrenamiento, lo que potencialmente posibilita la próxima ola de avances transformadores de la IA.

    Estos avances indican dos cambios significativos: primero, los laboratorios con presupuestos más reducidos (según se informa) ahora pueden lanzar modelos de vanguardia. El segundo cambio es el enfoque en la TTC como el próximo impulsor potencial del progreso de la IA. A continuación, analizamos ambas tendencias y sus posibles implicaciones para el panorama competitivo y el mercado de la IA en general.

    Implicaciones para la industria de la IA

    Creemos que el cambio hacia TTC y la mayor competencia entre los modelos de razonamiento pueden tener una serie de implicaciones para el panorama más amplio de la IA en hardware, plataformas en la nube, modelos básicos y software empresarial. 

    1. Hardware (GPU, chips dedicados e infraestructura informática)

    • Desde clústeres de entrenamiento masivos hasta picos de tiempo de prueba bajo demanda: en nuestra opinión, el cambio hacia el TTC puede tener implicaciones para el tipo de recursos de hardware que requieren las empresas de IA y cómo se gestionan. En lugar de invertir en clústeres de GPU cada vez más grandes dedicados a cargas de trabajo de entrenamiento, las empresas de IA podrían aumentar su inversión en capacidades de inferencia para satisfacer las crecientes necesidades de TTC. Si bien es probable que las empresas de IA sigan necesitando un gran número de GPU para gestionar las cargas de trabajo de inferencia, las diferencias entre las cargas de trabajo de entrenamiento y las de inferencia pueden afectar la configuración y el uso de esos chips. En concreto, dado que las cargas de trabajo de inferencia tienden a ser más dinámicas (y con picos) , la planificación de la capacidad puede volverse más compleja que para las cargas de trabajo de entrenamiento orientadas a lotes. 
    • Auge del hardware optimizado para inferencia: Creemos que el cambio de enfoque hacia el TTC probablemente aumentará las oportunidades para hardware de IA alternativo especializado en computación de inferencia de baja latencia. Por ejemplo, podríamos observar una mayor demanda de alternativas a las GPU, como los circuitos integrados de aplicación específica (ASIC) para inferencia . A medida que el acceso al TTC se vuelve más importante que la capacidad de entrenamiento, el predominio de las GPU de propósito general, que se utilizan tanto para entrenamiento como para inferencia, podría disminuir. Este cambio podría beneficiar a los proveedores de chips de inferencia especializados. 

    2. Plataformas en la nube: Hiperescaladores (AWS, Azure, GCP) y computación en la nube

    • La calidad de servicio (QoS) se convierte en un factor diferenciador clave: un problema que impide la adopción de la IA en las empresas, además de las preocupaciones sobre la precisión de los modelos, es la poca fiabilidad de las API de inferencia. Los problemas asociados con la inferencia de API poco fiable incluyen tiempos de respuesta fluctuantes , limitaciones de velocidad y dificultades para gestionar solicitudes simultáneas y adaptarse a los cambios en los endpoints de la API . Un mayor tiempo de respuesta (TTC) puede agravar aún más estos problemas. En estas circunstancias, un proveedor de nube capaz de proporcionar modelos con garantías de QoS que aborden estos desafíos tendría, en nuestra opinión, una ventaja significativa.
    • Aumento del gasto en la nube a pesar de las mejoras de eficiencia: En lugar de reducir la demanda de hardware de IA, es posible que enfoques más eficientes para el entrenamiento e inferencia de modelos de lenguaje grandes (LLM) sigan la paradoja de Jevons, una observación histórica según la cual una mayor eficiencia impulsa un mayor consumo general. En este caso, los modelos de inferencia eficientes podrían animar a más desarrolladores de IA a aprovechar los modelos de razonamiento, lo que, a su vez, aumenta la demanda de computación. Creemos que los recientes avances en modelos podrían generar una mayor demanda de computación de IA en la nube, tanto para la inferencia de modelos como para el entrenamiento de modelos más pequeños y especializados.

    3. Proveedores de modelos de base (OpenAI, Anthropic, Cohere, DeepSeek, Mistral)

    • Impacto en los modelos preentrenados: Si nuevos actores como DeepSeek pueden competir con los laboratorios de IA de vanguardia a una fracción de los costos reportados, los modelos preentrenados propietarios podrían volverse menos defendibles como foso. También podemos esperar más innovaciones en TTC para modelos de transformadores y, como ha demostrado DeepSeek, estas innovaciones pueden provenir de fuentes externas a los laboratorios de IA más consolidados.   

    4. Adopción de IA empresarial y SaaS (capa de aplicación)

    • Preocupaciones de seguridad y privacidad: Dados los orígenes de DeepSeek en China, es probable que haya un escrutinio continuo de los productos de la empresa desde una perspectiva de seguridad y privacidad. En particular, es poco probable que las ofertas de API y chatbots con sede en China de la empresa sean ampliamente utilizadas por clientes de IA empresarial en los EE. UU., Canadá u otros países occidentales. Según se informa, muchas empresas están tomando medidas para bloquear el uso del sitio web y las aplicaciones de DeepSeek. Esperamos que los modelos de DeepSeek se enfrenten al escrutinio incluso cuando estén alojados por terceros en los EE. UU. y otros centros de datos occidentales, lo que puede limitar la adopción empresarial de los modelos. Los investigadores ya están señalando ejemplos de preocupaciones de seguridad en torno al jailbreak , el sesgo y la generación de contenido dañino . Dada la atención del consumidor , es posible que veamos experimentación y evaluación de los modelos de DeepSeek en la empresa, pero es poco probable que los compradores empresariales se alejen de los incumbentes debido a estas preocupaciones.
    • La especialización vertical cobra fuerza: Anteriormente, las aplicaciones verticales que utilizaban modelos base se centraban principalmente en la creación de flujos de trabajo diseñados para necesidades empresariales específicas. Técnicas como la generación aumentada por recuperación (RAG), el enrutamiento de modelos, la llamada a funciones y las barreras de seguridad han desempeñado un papel importante en la adaptación de modelos generalizados a estos casos de uso especializados. Si bien estas estrategias han dado lugar a éxitos notables, ha persistido la preocupación de que mejoras significativas en los modelos subyacentes pudieran volver obsoletas estas aplicaciones. Como advirtió Sam Altman, un avance significativo en las capacidades de los modelos podría arrasar con las innovaciones de la capa de aplicación que se construyen como envoltorios de los modelos base.

    Sin embargo, si los avances en el cómputo en tiempo de entrenamiento se estancan, la amenaza de un desplazamiento rápido disminuye. En un mundo donde las mejoras en el rendimiento del modelo provienen de las optimizaciones de TTC, pueden surgir nuevas oportunidades para los actores de la capa de aplicación. Las innovaciones en algoritmos de post-entrenamiento específicos del dominio, como la optimización de indicaciones estructuradas , las estrategias de razonamiento con capacidad de respuesta a la latencia y las técnicas de muestreo eficientes, pueden proporcionar mejoras significativas en el rendimiento en los mercados verticales objetivo.

    Cualquier mejora del rendimiento sería especialmente relevante en el contexto de modelos centrados en el razonamiento, como GPT-4o y DeepSeek-R1 de OpenAI, que suelen presentar tiempos de respuesta de varios segundos. En aplicaciones en tiempo real, reducir la latencia y mejorar la calidad de la inferencia dentro de un dominio determinado podría proporcionar una ventaja competitiva. Por lo tanto, las empresas especializadas en la capa de aplicación con experiencia en el dominio pueden desempeñar un papel fundamental en la optimización de la eficiencia de la inferencia y el ajuste preciso de los resultados.

    DeepSeek demuestra un énfasis cada vez menor en el creciente preentrenamiento como único factor determinante de la calidad del modelo. En cambio, este desarrollo subraya la creciente importancia del TTC. Si bien la adopción directa de los modelos de DeepSeek en aplicaciones de software empresarial sigue siendo incierta debido al escrutinio continuo, su impacto en la mejora de otros modelos existentes es cada vez más evidente.

    Creemos que los avances de DeepSeek han impulsado a laboratorios de IA consolidados a incorporar técnicas similares en sus procesos de ingeniería e investigación, complementando así las ventajas de su hardware. La consiguiente reducción en los costes de los modelos, como se predijo, parece estar contribuyendo a un mayor uso de los mismos, en consonancia con los principios de la paradoja de Jevons.

    Fuente.

    VentureBeat (2025, 5 de abril). DeepSeek revoluciona la industria de la IA: por qué el próximo salto de la IA puede no provenir de más datos, sino de más computación en la inferencia. Recuperado el 08 de abril de 2025, de: https://venturebeat.com/ai/deepseek-jolts-ai-industry-why-ais-next-leap-may-not-come-from-more-data-but-more-compute-at-inference/

  • La inteligencia artificial está transformando al mundo y América Latina y el Caribe no puede quedarse atrás

    La inteligencia artificial está transformando al mundo y América Latina y el Caribe no puede quedarse atrás

    Autoridades y expertos analizan en la CEPAL el potencial de la IA para salir de las trampas del desarrollo en las que está sumida la región y promover las transformaciones indispensables para un desarrollo más productivo, inclusivo y sostenible.

    La inteligencia artificial (IA) está transformando al mundo y los países de América Latina y el Caribe no pueden ser unos meros espectadores. Es importante construir una agenda propia en esta materia, coincidieron hoy autoridades y expertos reunidos en la sede de la CEPAL durante la primera jornada de la conferencia “IA en América Latina y el Caribe: retos, estrategias y gobernanza para el desarrollo de la región”.

    El evento, que se prolongará hasta mañana miércoles 5 de marzo, es organizado por la Comisión Económica para América Latina y el Caribe (CEPAL) de las Naciones Unidas, y la Cátedra IA y Democracia, de la Escuela de Gobernanza Transnacional de Florencia, del Instituto Universitario Europeo (EUI). La reunión tiene como objetivo explorar el potencial de la IA para salir de las tres grandes trampas que limitan el desarrollo de la región -baja capacidad de crecimiento y de desarrollo productivo; elevada desigualdad, baja movilidad social y débil cohesión social; y débil institucionalidad y gobernanza poco efectiva- y promover las once transformaciones indispensables que la CEPAL ha estado impulsando para lograr un desarrollo más productivo, inclusivo y sostenible.

    La conferencia fue inaugurada por José Manuel Salazar-Xirinachs, Secretario Ejecutivo de la CEPAL; Claudia Gintersdorfer, Embajadora de la Unión Europea en Chile; Cristian Cuevas Vega, Subsecretario de Ciencia, Tecnología, Conocimiento e Innovación de Chile; y Amandeep Singh Gill, Enviado Especial del Secretario General de la ONU para Tecnologías Digitales y Emergentes, Oficina de Tecnologías Digitales y Emergentes (mensaje por video).

    En su discurso de bienvenida, el Secretario Ejecutivo de la CEPAL remarcó que la entidad estará concentrada principalmente en el aprovechamiento de las oportunidades que representa la IA para el desarrollo de la región y para salir de las tres trampas del desarrollo. “Sin duda, las tecnologías digitales son parte de la solución para superar las trampas de desarrollo en las que está sumida la región. En lo económico, pueden ser grandes motores para dinamizar el crecimiento de la productividad. En lo social, pueden contribuir a reducir desigualdad y a aumentar la movilidad social ascendente. Y en materia institucional y de gobernanza, pueden contribuir a fortalecer la transparencia, reducir la corrupción y el desperdicio de recursos, aumentar la eficiencia estatal y la participación ciudadana”, enfatizó.

    Pero para avanzar en estas direcciones, Salazar-Xirinachs insistió en que se necesita una utilización real, efectiva y de amplia base de estas tecnologías, ya que si su adopción se limita a sectores reducidos de la sociedad, de las empresas y de las personas, la nueva revolución tecnológica generaría más desigualdad y exclusión, en vez de mayor equidad e inclusión. “Es fundamental garantizar que la IA no profundice las desigualdades existentes ni se convierta en un factor adicional de exclusión”, declaró.

    La Embajadora de la Unión Europea en Chile, Claudia Gintersdorfer, indicó que las soluciones de inteligencia artificial ofrecen grandes oportunidades a los gobiernos, a las empresas y a los ciudadanos, pero también pueden plantear riesgos. “En la Unión Europea pensamos que necesitamos un marco regulador que garantice una IA fiable, basada, entre otras cosas, en datos confiables y de alta calidad”, dijo.

    Por su parte, el Subsecretario de Ciencia, Tecnología, Conocimiento e Innovación de Chile, Cristian Cuevas Vega, señaló que la IA es una oportunidad histórica para América Latina y el Caribe, pero debe estar alineada con las mejoras de las condiciones sociales y la reducción de la desigualdad. “Necesitamos un modelo de gobernanza propio de IA para América Latina y el Caribe. Es urgente una mayor coordinación entre los países. Muchos países no cuentan con estrategias nacionales actualizadas en esta materia y, en los que existe algún tipo de regulación, esta es diversa”, precisó.

    En su mensaje por video, el Enviado Especial del Secretario General de la ONU para Tecnologías Digitales y Emergentes, Amandeep Singh Gill, indicó que la misión de las Naciones Unidas es clara: la tecnología debe servir a la humanidad y no al revés. “La ONU ofrece un espacio inclusivo, transparente e igualitario para la cooperación digital. El Pacto Digital Global, adoptado en la Cumbre del Futuro en septiembre pasado, es un marco integral para gobernar la tecnología digital y la IA, que se basa en el progreso de la Cumbre Mundial sobre la Sociedad de la Información, cuyo 20 aniversario celebramos este año. El Pacto es el primer acuerdo mundial que introduce llamados a la acción para fomentar una economía digital inclusiva, abordar los daños en línea, promover la gobernanza responsable de los datos y gobernar la IA para la humanidad”, explicó.

    La primera jornada de la conferencia sobre IA en América Latina y el Caribe incluyó también una conferencia magistral titulada “Inteligencia artificial: El camino hasta aquí y el rumbo en juego ”, a cargo de Martin Hilbert, Profesor y experto en IA, Universidad de California, Davis (Estados Unidos), así como tres paneles sobre la gobernanza multinivel de la IA, los factores habilitantes y desarrollo de capacidades regionales, y la IA al servicio del desarrollo productivo: experiencias y casos prácticos.

    El segundo día del evento (miércoles 5 de marzo) incluirá una conferencia magistral de Daniel Innerarity, Director Cátedra IA y Democracia, Escuela de Gobernanza Transnacional, Instituto Universitario Europeo, titulada “¿Qué significa la transformación digital y la IA?”, que será seguida por la presentación del manual de buenas prácticas de la Red Iberoamericana para la Democracia y la IA (REDemocracIA), y un cuarto panel de discusión sobre la IA al servicio de un desarrollo más inclusivo: experiencias y casos prácticos.

    Fuente

    CEPAL (2025, 04 de marzo). La inteligencia artificial está transformando al mundo y América Latina y el Caribe no puede quedarse atrás. Recuperado el 02 de abril de 2025, de: https://www.cepal.org/es/comunicados/la-inteligencia-artificial-esta-transformando-al-mundo-america-latina-caribe-puede

  • Google lanza Gemini 2.5 y promete un salto revolucionario en la Inteligencia Artificial

    Google lanza Gemini 2.5 y promete un salto revolucionario en la Inteligencia Artificial

    Gemini 2.5 destaca por su capacidad de razonamiento, permitiéndole analizar información, incorporar contexto y tomar decisiones fundamentadas antes de responder.

    Google lanzó la nueva versión 2.5 de Gemini, el cual ha sido presentado como su modelo de Inteligencia Artificial más avanzado hasta la fecha.

    Gemini 2.5 destaca por su capacidad de razonamiento, permitiéndole analizar información, incorporar contexto y tomar decisiones fundamentadas antes de responder.

    De acuerdo con la compañía, esta habilidad refleja avances significativos en técnicas como el aprendizaje por refuerzo y la inducción de cadenas de pensamiento, que han sido la base de su desarrollo, además de los aprendizajes obtenidos con el modelo anterior Gemini 2.0 Flash Thinking.

    La versión Pro de este modelo redefine el estándar en tareas complejas, afirmó Google, ya que lidera métricas en programación, matemáticas y ciencias. Señaló que en pruebas como GPQA (un punto de referencia de preguntas y respuestas a prueba de Google para graduados) y AIME 2025, sobresale por su razonamiento avanzado.

    Además, logra un puntaje del 18.8 por ciento en Humanity’s Last Exam, diseñado para medir la frontera del conocimiento humano.

    Con un enfoque reforzado en programación, Gemini 2.5 Pro ha logrado un desempeño destacado en la creación y edición de código, superando ampliamente a su predecesor, Gemini 2.0. En estándares como SWE-Bench Verified, alcanza una puntuación del 63.8% con configuraciones personalizadas, demostrando su excelencia en aplicaciones avanzadas.

    La compañía californiana dijo que Gemini 2.5 Pro ya puede utilizarse a través de Google AI Studio y la app Gemini para usuarios de Gemini Advanced, y su implementación en Vertex AI está prevista próximamente.

    También anunció capacidades para escalar su uso en producción masiva, con detalles de precios a revelarse en las próximas semanas.

    “Nos hemos centrado en el rendimiento de la codificación, y con Gemini 2.5 hemos dado un gran salto con respecto a la versión 2.0, con más mejoras por venir. 2.5 Pro destaca en la creación de aplicaciones web visualmente atractivas y aplicaciones de código agentic, además de la transformación y edición de código”, señaló la compañía.

    Fuente.

    DPL News (2025, 26 de marzo). Goole lanza Gemini 2.5 y promete un salto revolucionario a la Inteligencia Artificial. Recuperado el 27 de marzo de 2025, de: https://dplnews.com/google-lanza-gemini-2-5-salto-revolucionario-en-la-ia/

  • Microsoft dota a los agentes empresariales de un razonamiento profundo y presenta un agente analista de datos que supera a los competidores

    Microsoft dota a los agentes empresariales de un razonamiento profundo y presenta un agente analista de datos que supera a los competidores

    Microsoft ha creado el ecosistema de agentes de inteligencia artificial empresarial más grande y ahora está ampliando su liderazgo con nuevas y poderosas capacidades que posicionan a la empresa por delante en uno de los segmentos más emocionantes de la tecnología empresarial.

    La compañía anunció el martes por la noche dos importantes novedades en su plataforma Copilot Studio: capacidades de razonamiento profundo que permiten a los agentes abordar problemas complejos mediante un pensamiento metódico y cuidadoso, y flujos de agentes que combinan la flexibilidad de la IA con la automatización determinista de procesos de negocio. Microsoft también presentó dos agentes especializados en razonamiento profundo para Microsoft 365 Copilot: Researcher y Analyst.

    “Ya tenemos clientes con miles de agentes”, declaró Charles Lamanna, vicepresidente corporativo de negocios e industria de Microsoft, en una entrevista exclusiva con VentureBeat el lunes. “Empiezas a tener este tipo de fuerza laboral con agentes, donde, sin importar el trabajo, probablemente tengas un agente que te ayude a completarlo más rápido”.

    El agente analista distintivo de Microsoft

    Si bien el agente Researcher replica las capacidades de competidores como Deep Research de OpenAI y Google, el agente Analyst de Microsoft ofrece una oferta más diferenciada. Diseñado para funcionar como un científico de datos personal, el agente Analyst puede procesar diversas fuentes de datos, como archivos de Excel, CSV y tablas incrustadas en documentos, generando información mediante la ejecución y visualización de código.

    “Este no es un modelo básico listo para usar”, enfatizó Lamanna. “Requiere bastantes extensiones, ajustes y capacitación sobre los modelos principales”. Microsoft ha aprovechado su profundo conocimiento de los flujos de trabajo de Excel y los patrones de análisis de datos para crear un agente que se adapta a la forma en que los usuarios empresariales trabajan con los datos.

    El analista puede generar automáticamente código Python para procesar los archivos de datos cargados, crear visualizaciones y proporcionar información empresarial sin necesidad de conocimientos técnicos por parte de los usuarios. Esto lo hace especialmente valioso para análisis financieros, previsiones presupuestarias e informes operativos que suelen requerir una preparación exhaustiva de los datos.

    Razonamiento profundo: Llevando el pensamiento crítico a los agentes empresariales

    La capacidad de razonamiento profundo de Microsoft amplía las capacidades de los agentes más allá de la simple realización de tareas, abarcando juicios complejos y trabajo analítico. Al integrar modelos de razonamiento avanzado como o1 de OpenAI y conectarlos con datos empresariales, estos agentes pueden abordar problemas empresariales ambiguos de forma más metódica.

    El sistema determina dinámicamente cuándo invocar un razonamiento más profundo, ya sea implícitamente según la complejidad de la tarea o explícitamente cuando los usuarios incluyen indicaciones como “razona sobre esto” o “piensa detenidamente en esto”. Tras bambalinas, la plataforma analiza las instrucciones, evalúa el contexto y selecciona las herramientas adecuadas según los requisitos de la tarea.

    Esto permite escenarios que antes eran difíciles de automatizar. Por ejemplo, una gran empresa de telecomunicaciones utiliza agentes de razonamiento profundo para generar respuestas complejas a solicitudes de propuestas (RFP) mediante la recopilación de información de múltiples documentos internos y fuentes de conocimiento, según explicó Lamanna a VentureBeat. De igual manera, Thomson Reuters emplea estas capacidades para la debida diligencia en las revisiones de fusiones y adquisiciones, procesando documentos no estructurados para identificar información valiosa, añadió.

    Flujos de agentes: reimaginando la automatización de procesos

    Microsoft también ha introducido flujos de agentes, que evolucionan eficazmente la automatización robótica de procesos (RPA) al combinar flujos de trabajo basados ​​en reglas con razonamiento de IA. Esto responde a la demanda de los clientes de integrar lógica de negocio determinista con capacidades flexibles de IA.

    “A veces no quieren que el modelo se adapte a sus necesidades. No quieren que la IA tome sus propias decisiones. Quieren tener reglas de negocio predefinidas”, explicó Lamanna. “Otras veces sí quieren que el agente se adapte a sus necesidades y tome sus propias decisiones”.

    Este enfoque híbrido permite escenarios como la prevención inteligente de fraude, donde un flujo de agentes puede usar lógica condicional para enrutar solicitudes de reembolso de mayor valor a un agente de IA para un análisis profundo en comparación con los documentos de póliza.

    Pets at Home, una empresa británica de venta de artículos para mascotas, ya ha implementado esta tecnología para la prevención del fraude. Lamanna reveló que la empresa ha ahorrado más de un millón de libras gracias a la implementación. De igual forma, Dow Chemical ha logrado ahorrar millones de dólares en la gestión del transporte y la carga gracias a la optimización basada en agentes.

    La ventaja de Microsoft Graph

    Un elemento central de la estrategia de agentes de Microsoft es la integración de datos empresariales mediante Microsoft Graph, un mapeo completo de las relaciones laborales entre personas, documentos, correos electrónicos, eventos de calendario y datos empresariales. Esto proporciona a los agentes una comprensión contextual de la que carecen los modelos genéricos. 

    “La capacidad secreta menos conocida del gráfico de Microsoft es que podemos mejorar la relevancia en el gráfico según la interacción y la estrecha conexión de algunos archivos”, reveló Lamanna. El sistema identifica qué documentos son los más referenciados, compartidos o comentados, lo que garantiza que los agentes consulten fuentes fidedignas en lugar de copias obsoletas.

    Este enfoque otorga a Microsoft una importante ventaja competitiva sobre los proveedores de IA independientes. Si bien la competencia puede ofrecer modelos avanzados, Microsoft los combina con el contexto del entorno de trabajo y un ajuste preciso, optimizado específicamente para casos de uso empresariales y herramientas de Microsoft.

    Microsoft puede aprovechar la misma tecnología de datos y modelos web que la competencia, señaló Lamanna, «pero además tenemos todo el contenido dentro de la empresa». Esto crea un efecto de rueda de inercia donde cada nueva interacción con un agente enriquece aún más la comprensión gráfica de los patrones del lugar de trabajo.

    Adopción y accesibilidad empresarial

    Microsoft ha priorizado que estas potentes capacidades sean accesibles para organizaciones con diversos recursos técnicos, afirmó Lamanna. Los agentes se exponen directamente en Copilot, lo que permite a los usuarios interactuar mediante lenguaje natural sin necesidad de conocimientos técnicos de ingeniería.

    Mientras tanto, Copilot Studio ofrece un entorno de bajo código para el desarrollo de agentes personalizados. “Está en nuestra esencia tener una herramienta para todos, no solo para quienes pueden iniciar un SDK de Python y realizar llamadas, sino para que cualquiera pueda empezar a desarrollar estos agentes”, enfatizó Lamanna.

    Este enfoque de accesibilidad ha impulsado una rápida adopción. Microsoft reveló previamente que más de 100.000 organizaciones han utilizado Copilot Studio  y que  se crearon más de 400.000 agentes en el último trimestre .

    El panorama competitivo

    Si bien Microsoft parece liderar la implementación de agentes empresariales hoy en día, la competencia se intensifica. Google ha ampliado sus capacidades de Gemini para agentes y codificación agentística , mientras que el modelo o1 de OpenAI y el SDK de agentes ofrecen potentes herramientas de razonamiento y agentística para desarrolladores . Grandes empresas de aplicaciones empresariales como Salesforce, Oracle, ServiceNow, SAP y otras han lanzado plataformas agentísticas para sus clientes durante el último año. Además, el martes, AWS de Amazon lanzó un agente de IA, llamado Amazon Q en Quicksight, que permite a los empleados interactuar mediante lenguaje natural para realizar análisis de datos sin necesidad de habilidades especializadas.

    Los empleados pueden usar lenguaje natural para realizar análisis de datos a nivel experto, hacer preguntas hipotéticas y obtener recomendaciones prácticas, lo que les ayuda a descubrir nuevos conocimientos y tomar decisiones más rápido.

    Sin embargo, la ventaja de Microsoft reside en su enfoque más integral: una sólida colaboración con OpenAI, la empresa líder en modelos de razonamiento, que a la vez ofrece opciones de modelos, una infraestructura de nivel empresarial, una amplia integración de datos en las herramientas del entorno de trabajo y un enfoque en los resultados empresariales, en lugar de en las capacidades puras de IA. Microsoft ha creado un ecosistema que se asemeja a las mejores prácticas al combinar copilotos personales que comprenden los patrones de trabajo individuales con agentes especializados para procesos empresariales específicos.

    Para los responsables de la toma de decisiones empresariales, el mensaje es claro: la tecnología de agentes ha evolucionado más allá de la experimentación, convirtiéndose en aplicaciones empresariales prácticas con un retorno de la inversión (ROI) medible. La elección de la plataforma depende cada vez más de la integración con las herramientas y los datos existentes. En este ámbito, Microsoft cuenta con una ventaja en muchas áreas de aplicación gracias a su número de usuarios, por ejemplo, en Excel y Power Automate.

    Fuente.

    VentureBeat (2025, 25 de marzo). Microsoft dota a los agentes empresariales de un razonamiento profundo y presenta un agente analista de datos que supera a los competidores. Recuperado el 26 de marzo de 2025, de: https://venturebeat.com/ai/microsoft-infuses-enterprise-agents-with-deep-reasoning-unveils-data-analyst-agent-that-outsmarts-competitors/

  • Tencent afirma que su nuevo modelo de razonamiento es más rápido que DeepSeek

    Tencent afirma que su nuevo modelo de razonamiento es más rápido que DeepSeek

    Este nuevo modelo supera en velocidad de procesamiento al R1, desarrollado por su competidor DeepSeek.

    El gigante tecnológico Tencent presentó oficialmente su modelo de razonamiento T1, marcando un nuevo hito en el creciente panorama competitivo de la Inteligencia Artificial (IA) en China.

    En un anuncio hecho por su cuenta de WeChat, Tencent destacó las mejoras clave de esta versión: tiempos de respuesta más rápidos y una mayor capacidad para manejar documentos extensos con eficiencia.

    La empresa aseguró que el modelo T1 está diseñado para mantener una lógica clara en el contenido y generar textos estructurados y ordenados, todo mientras reduce significativamente la probabilidad de errores conceptuales o “alucinaciones”.

    Estas características, según Tencent, posicionan al T1 como una herramienta avanzada en el ámbito de la IA, adaptada a las crecientes demandas del mercado.

    Este lanzamiento tiene lugar en un contexto de mayor rivalidad en la industria, especialmente tras la aparición de los modelos desarrollados por DeepSeek, competidores que han demostrado rendimientos comparables o superiores a los sistemas occidentales a costes más bajos.

    Tencent había lanzado previamente una versión preliminar de su modelo T1 en diversas plataformas, incluida la aplicación de asistente de IA Yuanbao, y ahora introduce esta versión oficial con mejoras significativas.

    Se trata de Hunyuan Turbo S, que es capaz de responder a las consultas en apenas un segundo. Esto hace una gran diferencia frente a sus competidores, como DeepSeek R1 y otros modelos lanzados recientemente, pues estos tardan un poco más en responder, de acuerdo con Tencent.

    La versión definitiva del T1 funciona con la tecnología del modelo Turbo S, el cual fue revelado por Tencent en días pasados.

    Este modelo más reciente, de acuerdo con la compañía, supera en velocidad de procesamiento al R1, desarrollado por su competidor DeepSeek. Un gráfico compartido en el comunicado compara el T1 con el R1, mostrando que Tencent lidera en varios puntos de referencia relacionados con el conocimiento y el razonamiento.

    Tencent ha aumentado notablemente sus inversiones en el sector de la Inteligencia Artificial en los últimos meses.

    La compañía anunció recientemente su intención de incrementar el gasto de capital en 2025, consolidando su enfoque en esta área tras un agresivo plan de inversión en 2024.

    Con este impulso, Tencent busca mantenerse a la vanguardia en un mercado de IA cada vez más competitivo y estratégico.

    Fuente.

    DPL News (2025, 25 de marzo). Tencent afirma que su nuevo modelo de razonamiento es más rápido que DeepSeek. Recuperado el 25 de marzo de 2025, de: https://dplnews.com/tencent-modelo-de-razonamiento-mas-rapido-que-deepseek/

  • Chips cerebrales, el dilema de la Inteligencia Artificial en el pensamiento humano

    Un paciente con esclerosis lateral amiotrófica (ELA) logró comunicarse con un 97 por ciento de precisión utilizando sólo su mente. Se trata de Casey Harrell, un hombre de 45 años de edad que participó en un estudio de la Universidad de California en Davis (UC Davis Health). En julio de 2023, los investigadores le implantaron sensores en el cerebro que permitieron traducir sus señales cerebrales en habla, alcanzando una precisión del 97.5 por ciento y una velocidad de comunicación de 32 palabras por minuto.

    Como en el caso de Davis, la Inteligencia Artificial (IA) está redefiniendo la relación entre la tecnología y el cerebro humano. Sin embargo, mientras estas innovaciones abren nuevas posibilidades médicas y mejoran la calidad de vida de las personas, también generan profundas preocupaciones éticas y sociales si se considera la idea de tener un chip implantado en el cerebro.

    Una de las tecnologías de mayor desarrollo es la de interfaces cerebro-computadora (BCI, por sus siglas en inglés), que permite a los pacientes controlar dispositivos mediante señales cerebrales.

    Neuralink, la firma de Elon Musk, ha invertido más de mil 100 millones de dólares en implantes cerebrales, realizando ensayos en humanos para ayudar a personas con parálisis a recuperar la movilidad y la comunicación. Y recientemente anunció que su primer voluntario humano pudo mover un cursor en una pantalla con su mente.

    El hecho fue considerado un hito, debido a que acerca a la humanidad hacia un futuro en el que es posible manejar las cosas con la mente y mejorar la comunicación y la calidad de vida de personas con movilidad reducida.

    Por otro lado, si una persona sin condiciones de movilidad reducida se implementara un chip de este tipo, el impacto podría ir mucho más allá de la medicina. Esta tecnología podría mejorar la velocidad de procesamiento mental, optimizar la memoria o incluso permitir la interacción directa con dispositivos digitales sin necesidad de pantallas o teclados.

    Esta posibilidad plantea dilemas sobre si se convertiría en una herramienta exclusiva para quienes puedan pagarla, generando una brecha cognitiva entre quienes la usen y quienes no. Además, si la IA integrada en el cerebro optimiza la toma de decisiones o la creatividad, surgiría un debate sobre la autenticidad del pensamiento humano.

    Pero no es el único uso que se le da a la IA en chips biológicos. Atlas Celular, un proyecto internacional para describir todos los tipos de células del cuerpo humano, ha mapeado diversas células del humano utilizando herramientas avanzadas de IA. Esta iniciativa de biología celular podría revolucionar la medicina al ofrecer una referencia sin precedentes para el estudio de enfermedades y la personalización de tratamientos.

    “Atlas Celular te muestra detalles sobre lugares, te proporcionará detalles sobre las células y sus funciones; porque aunque cada célula de nuestro cuerpo contiene el mismo ADN, las diferentes células usan diferentes partes de este, y por eso la célula sanguínea no es nerviosa y viceversa”, explica National Geographic.

    Con herramientas de IA, los científicos analizan cantidades masivas de datos celulares con mayor precisión y agilidad. Los algoritmos avanzados pueden identificar patrones celulares y predecir el comportamiento de ciertas enfermedades a nivel molecular, facilitando la detección temprana de condiciones como el cáncer. Además, la combinación de IA con técnicas de edición genética CRISPR (Clustered Regularly Interspaced Short Palindromic Repeats), abre la posibilidad de diseñar terapias personalizadas que modifiquen células defectuosas antes de que provoquen enfermedades en las personas.

    De nuevo, si se trata de una persona con posibilidad de modificar sus células sin fines médicos, es posible que se desarrollen facultades físicas que nuevamente pueden ser inquietantes. Por ejemplo, podría optimizar su metabolismo para aumentar la resistencia física, ralentizar el envejecimiento o incluso mejorar habilidades cognitivas como la memoria y el aprendizaje, creando una nueva generación de “humanos mejorados”.

    Esta posibilidad dirige una vez más las preocupaciones hacia quiénes podrían acceder a este tipo de tecnología y quiénes no.

    Implicaciones éticas de la IA en chips cerebrales y células

    A pesar de los beneficios de la incorporación de IA en el cerebro humano, también es una posibilidad que plantea importantes cuestiones éticas.

    El neurocientífico Rafael Yuste ha advertido sobre la posibilidad de una fractura en la humanidad, donde algunos individuos tengan ventajas cognitivas gracias a implantes tecnológicos, mientras que otros no.

    Si la IA permite aumentar la memoria, la velocidad de procesamiento mental o incluso la capacidad de aprendizaje a través de neurotecnología, esto podría crear una “fractura en la humanidad”, donde unos pocos tendrían ventajas significativas sobre el resto. Este tipo de desigualdad podría generar una nueva forma de brecha social y aumentar las desigualdades económicas.

    La falta de regulación y la necesidad de principios éticos que garanticen estos avances es vital para contribuir con la mejora de la calidad de vida de las personas que lo requieren, sin generar nuevas formas de exclusión social para quienes no lo necesitan pero pueden acceder.

    Por otro lado, los chips cerebrales ponen la lupa en la importancia de la privacidad mental. A medida que la tecnología permite leer y decodificar pensamientos, surge el riesgo de que empresas y/o gobiernos puedan acceder a información altamente sensible.

    La Organización de las Naciones Unidas (ONU) ha expresado su inquietud sobre la falta de regulaciones para proteger los derechos de las personas ante estos avances e insta a la creación de marcos internacionales que impidan su uso indebido.

    -Promoción de sistemas de Inteligencia Artificial seguros y fiables que beneficien al desarrollo sostenible para todos. La resolución insta a los Estados miembros y partes interesadas a abstenerse de utilizar sistemas de IA que no puedan operar conforme a las normas internacionales de derechos humanos o que representen riesgos indebidos para el disfrute de estos derechos y subraya que los mismos derechos que tienen las personas fuera de línea deben protegerse también en línea, incluso durante todo el ciclo de vida de los sistemas de la IA-, Asamblea General de la ONU.

    A estos derechos se debe incorporar el consentimiento informado, un proceso que permite a un paciente o participante de una investigación aceptar un procedimiento o intervención médica o científica con total conocimiento del procedimiento y los posibles efectos adversos.

    A esto se adhiere la integración IA en chips cerebrales y células que pueden enviar y recibir información directamente desde y hacia el cerebro, lo que abre la posibilidad de que sean vulnerables a hackeos. Un atacante podría interceptar, manipular o incluso borrar pensamientos, recuerdos o habilidades cognitivas adquiridas a través del implante.

    Además, si estas interfaces dependen de conexiones inalámbricas para actualizarse o comunicarse con otros dispositivos, podrían convertirse en objetivos de ciberataques masivos.

    La posibilidad de que una persona pierda el control de su propio implante debido a una vulnerabilidad de seguridad no sólo genera riesgos individuales, sino que también podría desencadenar crisis sociales si se utilizan fuera de marcos éticos o en entornos militares, políticos o empresariales sin regulación.

    En un mundo donde la tecnología avanza más rápido que las leyes, es crucial garantizar que los pacientes y posibles usuarios comprendan plenamente las implicaciones de integrar IA en su biología y cuestionar hasta qué punto un individuo puede decidir sobre modificaciones cerebrales que podrían alterar su personalidad o percepción del mundo.

    Fuente.

    DPL News (2025, 24 de marzo). Chips cerebrales, el dilema de la Inteligencia Artificial en el pensamiento humano. Recuperado el 25 de marzo de 2025, de: https://dplnews.com/chips-cerebrales-dilema-ia-en-el-pensamiento-humano/

  • Periódico italiano crea una edición completamente generada por IA

    Periódico italiano crea una edición completamente generada por IA

    ¿Es un periódico generado por inteligencia artificial o un obituario?

    Un periódico italiano afirma haber creado el primer número del mundo generado íntegramente con IA, en el que los periodistas se limitan a hacer preguntas a un chatbot y leer las respuestas antes de insertarlas. The Guardian informó anteriormente sobre la iniciativa de Il Foglio , un periódico italiano de tendencia liberal conservadora.

    Claudio Cerasa, editor de Il Foglio , dijo que el experimento sirve como prueba de cómo la IA podría funcionar “en la práctica” en una sala de redacción y obliga a los periodistas a plantear preguntas difíciles sobre lo que significa la tecnología para el periodismo del futuro.

    “Será el primer diario del mundo en quioscos creado íntegramente con inteligencia artificial”, dijo Cerasa. “Por todo. Por la redacción, los titulares, las citas, los resúmenes. Y, a veces, incluso por la ironía”.

    “Il Fogolio AI”, de cuatro páginas, se insertó en la edición más grande del martes y también puede verse en línea .

    Tal vez no sea el primer periódico del mundo generado con inteligencia artificial, ya que un periódico sueco llamado Nöjesguiden afirma haber publicado una edición similar el verano pasado.

    Los primeros experimentos con inteligencia artificial generativa en las redacciones no han tenido mucho éxito. En 2023, CNET enfrentó críticas tras publicar discretamente artículos de asesoramiento financiero generados con IA, que resultaron contener importantes inexactitudes . Más recientemente, Los Angeles Times lanzó “Insights”, una herramienta impulsada por IA que supuestamente evaluaba el sesgo de los artículos de opinión y generaba contrapuntos automáticamente; la retiró rápidamente tras descubrirse que minimizaba al Ku Klux Klan .

    La inteligencia artificial generativa es eficaz para producir verosimilitudes de escritura genuina, algo que parece claro y fidedigno. Se han intentado mejorar el proceso de “pensamiento” de los chatbots, pero en última instancia son sistemas de autocompletado glorificados y se enfrentan al insoluble problema de simplemente inventar cosas . Los chatbots que presentan su lógica al producir una respuesta incluso a veces lo admiten. En definitiva, el problema con todos los modelos de lenguaje es que el usuario debe examinar detenidamente todo el texto generado y corregir errores si los detecta. Las redacciones, en particular, deben tener cuidado de no dañar aún más su credibilidad ante el público publicando información de mala calidad.

    Aun así, las organizaciones de noticias siguen experimentando con la tecnología a pesar de la gran preocupación de los periodistas, en particular sobre si las redacciones intentarán usar la IA para reducir su personal. Tanto The Washington Post como Bloomberg utilizan la IA para ofrecer resúmenes de artículos, por ejemplo. Patch, un sitio de noticias hiperlocal que anteriormente pertenecía a AOL, ahora depende completamente de la IA que rastrea la web para encontrar noticias para muchas de sus ediciones locales.

    El periodismo, entre comillas, “real” debería verse menos afectado, ya que la IA generativa simplemente crea texto nuevo a partir de material ya visto. El periodismo original (encontrar historias originales, entrevistar a personas) requiere producir información completamente nueva que aún no está disponible en la web. Sin embargo, el público en general no valora mucho los medios en la era digital; no se limita solo al periodismo, sino que ya no está dispuesto a pagar mucho por música o vídeo. Siendo la mano de obra el factor de mayor coste en la mayoría de las organizaciones, no es difícil ver que cada vez más medios utilizan la IA siempre que es posible. Varios sindicatos de periodistas han solicitado cláusulas que impidan su uso.

    Algún día, tendremos artículos de noticias sobre IA que citarán información de otros artículos de noticias sobre IA hasta el punto de que ya ni siquiera será posible identificar la fuente original. O historias generadas completamente a partir de comentarios de Reddit.

    Fuente.

    Gizmodo (2025, 18 de marzo). Periódico italiano crea una edición completamente generada por IA. Recuperado el 20 de marzo de 2025, de: https://gizmodo.com/italian-newspaper-creates-entirely-ai-generated-edition-2000577463

  • xAI adquiere Hotshot, una startup de generación de video

    xAI adquiere Hotshot, una startup de generación de video

    La compañía xAI, fundada por Elon Musk, adquirió Hotshot, una startup enfocada en la generación de videos a partir de texto.

    Esta adquisición sugiere un futuro en el que la generación de videos a partir de texto podría integrarse en la plataforma X. Aunque esta funcionalidad, en un principio, podría estar limitada a los suscriptores de pago de la red social, impulsando así su modelo de negocio.

    Hotshot ha desarrollado tres modelos avanzados de generación de video: Hotshot-XL, Hotshot Act One y Hotshot. De acuerdo con Akash Sastry, director ejecutivo, “estos modelos ofrecen un adelanto del futuro en ámbitos como la educación, el entretenimiento y la comunicación. Sin embargo, con la adquisición, la plataforma ha deshabilitado la opción de generar nuevos videos y ha dado plazo hasta el 30 de marzo de 2025 para que los usuarios descarguen sus creaciones”, aseguró en su cuenta de X.

    “Nos entusiasma seguir ampliando estos esfuerzos en Colossus, el clúster más grande del mundo, como parte de xAI”, han subrayado los directivos en este escrito, donde han agradecido a desarrolladores, inversores y clientes por acompañarlos en “este viaje”.

    Por el momento no se conocen detalles del costo total de la transacción.

    Fuente.

    DPL News (2025, 18 de marzo). xAI adquiere Hotshot, una startup de generación de video. Recuperado el 19 de marzo de 2025, de: https://dplnews.com/xai-adquiere-hotshot-startup-de-generacion-de-video/

  • ¿Cómo trabajar con Inteligencia Artificial? Esto opinan los expertos.

    ¿Cómo trabajar con Inteligencia Artificial? Esto opinan los expertos.

    Las habilidades más relevantes para trabajar con IA incluyen la curiosidad, la proactividad, resiliencia y la disposición para aprender constantemente, de acuerdo con especialistas.

    La inteligencia artificial (IA), sobre todo con la aparición de las interfaces conversacionales o chatbots, como ChatGPT, Copilot y Deepseek, se ha convertido en una herramienta para la innovación y la eficiencia, entender cómo integrarla en el ámbito laboral y personal es importante.

    Durante el panel Oportunidades y desafíos de la aplicabilidad de la IA en lo cotidiano, organizado por Ernst & Young, Microsoft y The Trust for the Americas, expertos en tecnología compartieron sus perspectivas sobre cómo trabajar con IA, las habilidades necesarias para trabajar en este campo y los desafíos que enfrentan las nuevas generaciones.

    En el panel participaron Sebastián Ayala, de Microsoft; Mathew Alexander y Danielle Morris, de Ernst & Young; y Rafael Ventura, también de Microsoft. Cada uno de ellos, desde su experiencia, ofreció ideas sobre cómo la inteligencia artificial está transformando industrias y cómo las personas pueden adaptarse a estos cambios.

    IA como copiloto

    Sebastián Ayala, ingeniero en sistemas computacionales y líder en el equipo de finanzas de Microsoft, dijo que la IA no debe verse como un reemplazo de las capacidades humanas, sino como una herramienta que amplía nuestras habilidades.

    “La responsabilidad sigue en nosotros, pero podemos extender nuestras capacidades con alguien que nos apoye en nuestros sentidos y razonamiento”, dijo.

    Ayala comparó el uso de la IA con un copiloto en un avión: no toma el control, pero facilita la navegación y la toma de decisiones.

    Mathew Alexander, líder de Relaciones Estratégicas de Operaciones Globales de Ernst & Young, coincidió en esta visión y compartió cómo su hijo utiliza herramientas como Microsoft Copilot para estudiar en la universidad.

    “Puedes usarla para revisar datos, escribir códigos, gestionar proyectos e incluso para mejorar tu currículum”, dijo.

    Alexander enfatizó que la clave está en hacer preguntas inteligentes y utilizar la IA como una guía para alcanzar objetivos.

    Habilidades

    Danielle Morris, gerente senior de consultoría en tecnología de Ernst & Young, advirtió a los jóvenes que las habilidades más valoradas en el ámbito de la IA no son necesariamente técnicas, sino aquellas relacionadas con la curiosidad, la proactividad y la resiliencia.

    “Buscamos personas que simplifiquen problemas complejos, que hagan preguntas y que no tengan miedo al fracaso”, afirmó.

    Morris también habló sobre la importancia de la diversidad de pensamiento, ya que las soluciones más innovadoras suelen surgir de equipos con perspectivas diferentes, dijo.

    Rafael Ventura, de Microsoft, añadió que la capacidad de aprender constantemente es fundamental.

    “No importa si no eres un ingeniero; lo importante es tener la disposición de experimentar y adaptarte”, dijo.

    Ventura compartió su propia experiencia de transición desde la ingeniería civil hacia la tecnología, lo que demuestra que los caminos profesionales no siempre son lineales.

    Danielle Morris explicó que herramientas como los chatbots pueden servir como punto de partida para proyectos artísticos o musicales y, en general, para potenciar la creatividad de quien la use.

    “Puedes pedirle a la IA que te dé ideas iniciales, lo que te permite saltar a un nivel de creatividad que quizás no habías explorado antes”, dijo.

    Rafael Ventura, por su parte, sugirió que la IA puede liberar capacidad mental para enfocarse en problemas más complejos.

    “No gastes tu creatividad en tareas que ya han sido resueltas; usa la IA para integrar soluciones existentes y enfócate en lo que realmente requiere innovación”, dijo.

    Fuente.

    El Economista (2025, 13 de marzo). ¿Cómo trabajar con Inteligencia Artificial? Esto opinan los expertos. Recuperado el 14 de marzo de 2025, de: https://www.eleconomista.com.mx/tecnologia/trabajar-inteligencia-artificial-esto-opinan-expertos-20250313-750391.html

  • Google presenta Gemma 3, nueva IA que se ejecuta en una sola GPU

    Google presenta Gemma 3, nueva IA que se ejecuta en una sola GPU

    Gemma 3 está diseñada para ejecutarse directamente en dispositivos, desde teléfonos y portátiles hasta estaciones de trabajo.

    Google presentó Gemma 3, una colección de modelos abiertos ligeros y de vanguardia, basados ​​en la misma investigación y tecnología que impulsa los modelos Gemini 2.0.

    La compañía explicó que se trata de sus modelos abiertos más avanzados, portátiles y desarrollados responsablemente hasta la fecha.

    Estos modelos están diseñados para ejecutarse rápidamente, directamente en dispositivos, desde teléfonos y portátiles hasta estaciones de trabajo, lo que ayuda a los desarrolladores a crear aplicaciones de IA dondequiera que las necesiten.

    Google explicó que Gemma 3 está disponible en varios tamaños (1B, 4B, 12B y 27B), lo que le permite elegir el modelo que mejor se adapte a sus necesidades específicas de hardware y rendimiento.

    También detalló que Gemma 3 ofrece un rendimiento de vanguardia para su tamaño, superando a Llama3-405B, DeepSeek-V3 y o3-mini en evaluaciones preliminares de preferencia humana en la tabla de clasificación de LMArena.

    Lo anterior, explicó la compañía, permite crear experiencias de usuario atractivas que se adaptan a una sola GPU o host de TPU.

    Gemma 3 ofrece soporte inmediato para más de 35 idiomas y soporte preentrenado para más de 140.

    Se enfoca también en la seguridad

    Google también dio a conocer que junto con Gemma 3, también lanzaron ShieldGemma 2, un potente verificador de seguridad de imágenes basado en Gemma 3.

    ShieldGemma 2 ofrece una solución lista para usar en la seguridad de imágenes, generando etiquetas de seguridad en tres categorías: contenido peligroso, sexualmente explícito y violencia.

    Los desarrolladores, agregó Google, pueden personalizar ShieldGemma aún más según sus necesidades de seguridad y usuarios. ShieldGemma 2 es abierto y está diseñado para brindar flexibilidad y control, aprovechando el rendimiento y la eficiencia de la arquitectura Gemma 3 para promover el desarrollo responsable de la IA.

     

    Fuente.

    DPL News (2025, 13 de marzo). Google presenta Gemma 3, nueva IA que se ejecuta en una sola GPU. Recuperado el 14 de marzo de 2025, de: https://dplnews.com/google-presenta-gemma-3-nueva-ia-que-se-ejecuta-en-una-sola-gpu/