Category: Inteligencia Artificial

  • Google agrega más herramientas de IA a sus aplicaciones de productividad Workspace

    Google agrega más herramientas de IA a sus aplicaciones de productividad Workspace

    Google continúa incorporando sus modelos estrella de IA a sus aplicaciones de productividad, ampliando sus funciones Gemini. 

    La empresa anunció hoy varias actualizaciones a sus productos Workspace, incluida la incorporación de resúmenes de audio y nuevos métodos optimizados para el seguimiento de reuniones. 

    Audio Overviews, que se introdujo por primera vez en el popular NotebookLM de Google , permite a las personas crear podcasts sobre el tema de investigación elegido. 

    Ahora, con Gemini, los usuarios pueden crear archivos de audio a partir de documentos y diapositivas subidos. También pueden generar resúmenes de audio dentro de  informes de investigación exhaustivos. Estos archivos de audio, similares a podcasts, se pueden descargar. Audio Overview genera voces y basa sus debates únicamente en los documentos proporcionados. 

    Google le dijo anteriormente a VentureBeat que sus pruebas mostraron que algunas personas prefieren aprender escuchando, donde la información se presenta en un formato conversacional. 

    La compañía también lanzó una nueva función llamada Canvas en Gemini, que permite crear borradores y refinar texto o código utilizando el modelo de Gemini. Google afirmó que Canvas ayuda a generar, optimizar y previsualizar código. Los documentos de Canvas se pueden compartir con Google Docs. 

    Calendarios actualizados

    Google también simplificó la forma en que los usuarios pueden agregar eventos y reuniones a sus calendarios. Gemini detectará si un correo electrónico contiene detalles de eventos y puede animar a los usuarios a agregarlo a su calendario. El modelo mostrará correos electrónicos con posibles citas si el usuario las pierde. 

    Algunos complementos de Google, como Boomerang, ofrecen funciones similares que muestran las citas sobre el asunto. La función de calendario de Gemini abrirá una ventana de chat de Gemini para avisar al usuario del evento. 

    Apuntar a los modelos de IA para que extraigan datos o eventos de correos electrónicos se ha convertido en un pilar fundamental de los asistentes y agentes de IA empresariales. Los nuevos agentes de Microsoft analizan los correos electrónicos en busca de información. La startup Martin AI cuenta con un asistente de IA que gestiona calendarios, correos electrónicos y listas de tareas.  

    Fusionando la IA generativa con la productividad

    Google añadió Gemini Chat a Workspace el año pasado para integrar la plataforma de chat independiente con Gmail, Google Docs y Calendar. Esto acercó a Google a Copilot de Microsoft, que incorporó modelos de IA a sus plataformas de productividad, incluido Outlook.  

    Las empresas continúan agregando funciones de IA al lugar de trabajo, y es posible que si sus empleados acceden regularmente a cosas como Gemini en sus Gmail y usan modelos de IA para investigar, las tasas de adopción de IA sean aún mayores. 

    Fuente.

    VentureBeat (2025, 23 de abril). Google agrega más herramientas de IA a sus aplicaciones de productividad Workspace. Recuperado el 25 de abril de 2025, de: https://venturebeat.com/ai/google-adds-more-ai-tools-to-its-workspace-productivity-apps/

  • Más allá de ChatGPT: la relevancia de la IA especializada en el mundo profesional

    Más allá de ChatGPT: la relevancia de la IA especializada en el mundo profesional

    En tanto múltiples empresas exploran los casos de uso de la Inteligencia Artificial (IA) Generativa en el ámbito profesional apoyándose de soluciones de uso general como ChatGPT, los casos de uso más significativos podrán ser descubiertos por soluciones especializadas que tengan acceso a información clave para evitar o reducir al mínimo alucinaciones o inexactitudes, explicó David Wong, director de Producto de Thomson Reuters, en entrevista con DPL News.

    En general, se reconoce que la aparición de ChatGPT desarrollada por OpenAI disparó la fascinación, tanto de usuarios como de empresas, por el uso de la IA Generativa, y que llevó rápidamente a la exploración de los potenciales casos de uso. Aunque este tipo de soluciones generales pueden atender una amplia gama de tareas, no es garantía que ofrezcan siempre una respuesta adecuada y precisa en áreas especializadas, como legal o contabilidad.

    En general, Wong apuntó que los profesionales confían en que la IA será transformativa para sus labores. En América Latina, por ejemplo, 90 por ciento de profesionales encuestados creen que la IA será no sólo transformativa, sino que además tendrá un impacto positivo en su área, según cifras de Thomson Reuters.

    En ese sentido, las empresas se han enfocado principalmente en dos áreas de aplicación de IA, según el directivo: resolver un problema de obtención de información, por ejemplo, hacer investigación o realizar preguntas; y por otro lado, buscan una solución que les ayude a realizar trabajos escritos (contratos, devolución de impuestos, etc.).

    Para ambos casos, la IA Generativa ha surgido como una aplicación muy efectiva, pero al mismo tiempo, Wong reconoce que existe una cierta disparidad entre el interés de las compañías por aplicar la IA y su aplicación en casos de uso reales, quedando principalmente en etapas de experimentación.

    Se observa que “la experimentación se está convirtiendo y traduciendo en adopción a ritmos diferentes según el dominio y el área del negocio. Y parte de lo que estamos viendo y escuchando de nuestros clientes es que existe una brecha entre el potencial que prometen estas herramientas de propósito general como ChatGPT y Copilot+, y otras, y la realidad de un trabajo específico en particular”.

    Dado que algunas de estas soluciones generales no cuentan con acceso a bases de datos o repositorios con información legal o de referencia, “el beneficio real, como el ahorro de tiempo o las eficiencias, no se aparecen” cuando se utilizan en ciertas áreas especializadas como impuestos o auditorías. Algunos de estos chatbots también están sujetos a problemas como alucinaciones que podrían reducir la confianza de los usuarios para aplicarlos en tareas complejas.

    “Hemos descubierto, y creo que esto se repite en el sector, que las soluciones de propósito general pueden proporcionar cierta comodidad, pero no crean una eficiencia real, así que si estás intentando transformar la forma en que trabaja tu departamento jurídico o tu organización de ventas, o tu equipo financiero, es muy difícil utilizar estas herramientas de propósito general”, advirtió.

    Thomson Reuters estaría buscando cerrar esta brecha “entre expectativas y realidad” con soluciones de IA Generativa específicamente diseñadas para abogados o contadores. Wong afirmó que algunas de estas soluciones ya han logrado demostrar un retorno a la inversión más rápido, acelerando su adopción en el sector empresarial.

    Por ejemplo, Wong indicó que una de sus aplicaciones más populares es un asistente de investigación de IA en su plataforma Westlaw, capaz de responder “preguntas legales complejas”. Una de las maneras en que Thomson Reuters busca reducir la ocurrencia de alucinaciones o información falsa es asegurarse que la IA buscará información en la biblioteca, siendo capaz de hacer un análisis real de la ley, de los casos y de los tratados, con lo que “proporciona una respuesta mucho más precisa y también mucho más razonada”.

    Otro de los desafíos identificados por Wong es la capacidad de las empresas de gestionar el cambio requerido para que los empleados puedan integrar estas herramientas a sus procesos y flujos de trabajo, lo que demanda tiempo y recursos.

    El directivo identificó que mientras las empresas buscan identificar dónde usar las nuevas tecnologías de IA Generativa en procesos como la investigación legal, la mayoría la integran en el inicio del proceso, donde puede eliminar horas de trabajo como la documentación, lo que libera recursos para trabajos más precisos como investigación de seguimiento.

    “Y debido a esos pasos, hay una fase de formación y adopción que debe llevarse a cabo, en la que los asociados y abogados deben ser formados por sus empresas”, dando recomendaciones que eventualmente se pueden convertir en normas.

    En cuanto al impacto que estas herramientas podrían tener sobre el empleo en general, como la pérdida o reducción de plazas, Wong indicó que es todo lo contrario, ya que áreas como contabilidad sufren actualmente de escasez de mano de obra. Incluso, alertó que los números apuntan a que el número de plazas no cubiertas podría incrementarse en los próximos 10 años, considerando el número de personas en edad de jubilación, y el poco número de egresados de universidades en esta área.

    “Nuestros clientes han estado buscando tecnología durante los últimos 10 o quizás 20 años para tratar de encontrar formas de ser más eficientes y hacer que el trabajo de ser contable sea más llevadero, más tolerable, porque las horas se han ido acumulando y es cada vez más difícil encontrar gente. Por eso creo que muchos líderes ven la IA como una de las soluciones para ayudar con esto, que se pueden delegar muchas de esas tareas más rutinarias, y gran parte del análisis inicial a la IA”, explicó.

    En el ámbito del Derecho reconoció que sí existe un debate más amplio respecto al posible impacto de la IA y la labor de los abogados. Hasta el momento, la IA ha comenzado por atender tareas rutinarias, sin un impacto significativo en el número de plazas, pero sí liberando tiempo de los trabajadores para dedicarse a tareas más complejas.

    “En el aspecto jurídico, vemos en gran medida la IA como un impulso al talento que están contratando y que tienen, y también vemos que la IA puede acelerar la formación de los abogados. En lugar de tardar años y años en llegar a ser experto o competente en un ámbito del derecho, la IA puede acelerar ese proceso, ya que el duro trabajo para poder completar el trabajo y poder ejercer el juicio legal se acorta de alguna manera porque ahora se dispone de nuevas herramientas para poder hacer el trabajo”, puntualizó.

    Fuente.

    DPL News (2025, 25 de abril). Más allá de ChatGPT: la relevancia de la IA especializada en el mundo profesional. Recuperado el 25 de abril de 2025, de: https://dplnews.com/mas-alla-de-chatgpt-la-relevancia-de-la-ia-especializada-en-el-mundo-profesional/

  • China tiene 69% de las patentes de Inteligencia Artificial en el mundo: AI Index Report 2025

    China tiene 69% de las patentes de Inteligencia Artificial en el mundo: AI Index Report 2025

    A pesar de invertir 12 veces menos que Estados Unidos en Inteligencia Artificial privada, China lidera en publicaciones científicas (23.2%), citaciones (22.6%) y despliegue industrial, con más de 276,000 robots instalados.

    En medio de la guerra arancelaria entre China y Estados Unidos, un estudio de la Universidad de Stanford muestra que el país asiático concentra 69.7% de todas las patentes relacionadas con la Inteligencia Artificial registradas en el mundo.

    De acuerdo con el AI Index Report 2025 del Instituto de IA Centrada en el Humano de la Universidad de Stanford, el crecimiento en el número total de patentes de inteligencia artificial ha sido vertiginoso.

    En 2010 se registraron apenas 3,833 patentes de IA; para 2023, la cifra se disparó a 122,511, lo que representa un incremento de más de 3,000 por ciento. Solo en 2023, el crecimiento fue de 29.6%, lo que refleja una tendencia que se acelera en lugar de estabilizarse.

    Dentro de ese universo, China se consolidó como líder absoluto, con 69.7% del total de patentes concedidas. Esto significa que más de dos de cada tres patentes de IA a nivel global tienen origen en instituciones chinas, lo que incluye tanto entidades académicas como corporativas.

    Este dominio es aún más significativo si se contrasta con los datos de inversión. En 2024, China invirtió 9,300 millones de dólares en inteligencia artificial desde el sector privado, frente a los 109,100 millones de dólares de Estados Unidos.

    Esto quiere decir que el sector privado de Estados Unidos invirtió casi 12 veces más Inteligencia Artificial, pero no logró traducir esa ventaja económica en liderazgo en propiedad intelectual.

    Estado y academia, la clave

    El modelo de desarrollo tecnológico de China ha apostado fuertemente por una combinación de apoyo estatal masivo, movilización académica y una integración industrial sin precedentes.

    A diferencia de Estados Unidos, donde la inversión privada lidera el desarrollo de modelos notables de IA, en China el ecosistema de innovación se apoya en gran medida en el sistema académico y de investigación estatal.

    En 2023, 84.5% de las publicaciones científicas en IA originadas en China provino del sector académico, muy por encima del promedio global. Aunque su participación en el desarrollo de modelos notables aún es menor comparada con Estados Unidos (15 modelos notables en China frente a 40 en Estados Unidos en 2024), su volumen de publicaciones científicas —el mayor del mundo con 23.2% del total— y de citaciones (22.6%) revela una apuesta de largo plazo: cimentar la base teórica y técnica para liderar el futuro de la IA.

    Efectos económicos

    El dominio en patentes tiene efectos indirectos sobre la inversión. A pesar de que Estados Unidos sigue liderando en inversión privada en IA, China ha impulsado estrategias estatales robustas. En 2024, el gobierno chino lanzó un fondo de 47,500 millones de dólares destinado exclusivamente al desarrollo de semiconductores, esenciales para la Inteligencia Artificial moderna.

    China no solo lidera en patentes; también está ganando terreno rápidamente en otros indicadores clave del ecosistema de IA. Por ejemplo, el país se convirtió en líder mundial en publicaciones científicas relacionadas con IA, desplazando a Europa y a Estados Unidos. En 2023, produjo 23.2% de todas las publicaciones científicas en IA a nivel global.

    En cuanto a la aplicación industrial de la IA, China instaló 276,300 robots industriales en 2023, seis veces más que Japón y 7.3 veces más que Estados Unidos. Desde 2013, cuando China superó por primera vez a Japón, su participación en las instalaciones mundiales ha pasado de 20.8 a 51.1 por ciento.

    La ventaja de Estados Unidos

    Aunque China domina en patentes y publicaciones, Estados Unidos sigue siendo líder en el desarrollo de modelos avanzados de IA. En 2024, instituciones estadounidenses produjeron 40 modelos notables, más que los 15 desarrollados en China y los tres en Europa. Además, la inversión privada en IA en Estados Unidos llegó a un récord de 109,100 millones de dólares, con 33.900 millones destinados específicamente a IA generativa.

    Este liderazgo en modelos no es menor: modelos como GPT-4 o Gemini han establecido estándares técnicos que aún no han sido igualados por sus contrapartes chinas. Sin embargo, el informe de la Universidad de Stanford señala que la brecha de rendimiento entre modelos estadounidenses y chinos se está cerrando rápidamente. En benchmarks clave como MMLU, HumanEval y MATH, la diferencia en desempeño entre ambos países se redujo de dos dígitos en 2023 a márgenes casi insignificantes en 2024.

    El dato de que China posee 69.7% de las patentes de IA a nivel mundial no es solo un récord estadístico; es un síntoma de un reordenamiento profundo en la geopolítica de la innovación. Mientras Estados Unidos mantiene el liderazgo en modelos y en inversión privada, China ha construido un ecosistema robusto que combina producción académica, despliegue industrial y propiedad intelectual.

    fuente.

    El Economista. China tiene 69% de las patentes de Inteligencia Artificial en el mundo: AI Index Report 2025. Recuperado el 10 de abril de 2025, de: https://www.eleconomista.com.mx/tecnologia/china-69-patentes-inteligencia-artificial-mundo-ai-index-report-20250410-754405.html

  • Google presenta Firebase Studio, una plataforma integral que crea aplicaciones personalizadas en el navegador en minutos

    Google presenta Firebase Studio, una plataforma integral que crea aplicaciones personalizadas en el navegador en minutos

    Google ha calentado el espacio de creación de aplicaciones: hoy lanzó una plataforma de aplicaciones de extremo a extremo impulsada por inteligencia artificial generativa que permite a los usuarios crear aplicaciones personalizadas en minutos. 

    Hoy en Google Cloud Next , el gigante tecnológico presentó el espacio de trabajo de inteligencia artificial integral Firebase Studio .  

    Tanto desarrolladores como no desarrolladores pueden usar la plataforma de desarrollo agentic basada en la nube y con tecnología Gemini para crear, lanzar, iterar y supervisar aplicaciones móviles y web, API, backends y frontends directamente desde sus navegadores. Ya está disponible en versión preliminar para todos los usuarios (se requiere una cuenta de Google). 

    Al momento de esta publicación,  Firebase Studio  experimentaba una demanda excepcionalmente alta, por lo que VentureBeat aún no ha tenido la oportunidad de probarlo. Sin embargo, la reacción inicial ha sido mayormente positiva. 

    “¡Google acaba de COCINAR! ¡Firebase Studio supera a Lovable y Bolt!”, escribió un usuario de YouTube con un videotutorial. “Esto podría ser un REVOLUCIONARIO para los desarrolladores que desean prototipar y crear rápidamente aplicaciones listas para producción con asistencia de IA”. 

    “Parece como si Cursor AI se encontrara con v0, pero gratis.”, publicó otro en X.

    Otro usuario reaccionó: “¿Es como tener adorable, cursor, replicar, rayo y windsurf, todo en un solo catálogo de pruebas?”.

    Cómo los usuarios pueden crear aplicaciones en minutos con Firebase Studio

    Firebase Studio combina las herramientas de programación Genkit y Project IDX de Google con agentes de IA especializados y la asistencia de Gemini. Está basado en el popular proyecto Code OSS, lo que le da una apariencia y un funcionamiento familiares para muchos. 

    Los usuarios solo necesitan abrir su navegador para crear una aplicación en minutos, importándola desde repositorios existentes como GitHub, GitLab, Bitbucket o desde una máquina local. La plataforma es compatible con lenguajes como Java, .NET, Node.js, Go y Python, y con frameworks como Next.js, React, Angular, Vue.js, Android, Flutter y otros.

    Los usuarios pueden elegir entre  más de 60 plantillas prediseñadas o usar un agente de prototipado que ayuda a diseñar una aplicación (incluyendo la interfaz de usuario, los flujos de IA y el esquema de la API) mediante lenguaje natural, capturas de pantalla, maquetas, herramientas de dibujo, imágenes y maquetas, sin necesidad de programar. La aplicación puede implementarse directamente en  Firebase App Hosting , Cloud Run o una infraestructura personalizada.

    Las aplicaciones se pueden supervisar en una consola de Firebase y refinarse y ampliarse en un espacio de trabajo de programación con un solo clic. Se puede previsualizar directamente en un navegador, y Firebase Studio cuenta con servicios de ejecución integrados y herramientas para emulación, pruebas, refactorización, depuración y documentación de código. 

    Google afirma que la plataforma simplifica enormemente los flujos de trabajo de programación. Gemini ayuda a los usuarios a escribir código y documentación, corregir errores, gestionar y resolver dependencias, escribir y ejecutar pruebas unitarias y trabajar con contenedores Docker, entre otras tareas. Los usuarios pueden personalizar y desarrollar diferentes aspectos de sus aplicaciones, como la inferencia de modelos, los agentes, la generación aumentada por recuperación (RAG), la experiencia de usuario (UX), la lógica de negocio y otros. 

    Google también ofrece acceso anticipado a los agentes de Gemini Code Assist en Firebase Studio para quienes participan en el Programa para Desarrolladores de Google. Por ejemplo, un agente de migración puede ayudar a migrar código; un agente de pruebas puede simular interacciones de usuarios o ejecutar escenarios adversos contra modelos de IA para identificar y corregir resultados potencialmente peligrosos; y un agente de documentación de código permite a los usuarios comunicarse con el código. 

    Durante la versión preliminar, Firebase Studio está disponible con tres espacios de trabajo para usuarios regulares, mientras que los miembros del Programa para Desarrolladores de Google pueden usar hasta 30. Los agentes de Gemini Code Assist están en lista de espera. 

    Venture Beat (2025, 09 de abril). Google presenta Firebase Studio, una plataforma integral que crea aplicaciones personalizadas en el navegador en minutos. Recuperado el 10 de abril de 2025, de: https://venturebeat.com/ai/google-introduces-firebase-studio-an-end-to-end-platform-that-builds-custom-apps-in-browser-in-minutes/

  • DeepSeek revoluciona la industria de la IA: por qué el próximo salto de la IA puede no provenir de más datos, sino de más computación en la inferencia

    DeepSeek revoluciona la industria de la IA: por qué el próximo salto de la IA puede no provenir de más datos, sino de más computación en la inferencia

    El panorama de la IA continúa evolucionando a un ritmo acelerado, con desarrollos recientes que desafían los paradigmas establecidos. A principios de 2025, el laboratorio chino de IA DeepSeek presentó un nuevo modelo que impactó a la industria de la IA y provocó una caída del 17 % en las acciones de Nvidia, junto con las de otras empresas relacionadas con la demanda de centros de datos de IA. Se informó ampliamente que esta reacción del mercado se debió a la aparente capacidad de DeepSeek para ofrecer modelos de alto rendimiento a un costo mucho menor que el de sus competidores en EE. UU., lo que generó debate sobre las implicaciones para los centros de datos de IA . 

    Para contextualizar la disrupción de DeepSeek, creemos que es útil considerar un cambio más amplio en el panorama de la IA impulsado por la escasez de datos de entrenamiento adicionales. Debido a que los principales laboratorios de IA ya han entrenado sus modelos en gran parte de los datos públicos disponibles en internet, la escasez de datos está ralentizando futuras mejoras en el preentrenamiento . Como resultado, los proveedores de modelos están buscando “computación en tiempo de prueba” (TTC), donde los modelos de razonamiento (como la serie “o” de modelos de Open AI) “piensan” antes de responder a una pregunta en el momento de la inferencia, como un método alternativo para mejorar el rendimiento general del modelo. La idea actual es que TTC puede exhibir mejoras en la ley de escalado similares a las que alguna vez impulsaron el preentrenamiento, lo que potencialmente posibilita la próxima ola de avances transformadores de la IA.

    Estos avances indican dos cambios significativos: primero, los laboratorios con presupuestos más reducidos (según se informa) ahora pueden lanzar modelos de vanguardia. El segundo cambio es el enfoque en la TTC como el próximo impulsor potencial del progreso de la IA. A continuación, analizamos ambas tendencias y sus posibles implicaciones para el panorama competitivo y el mercado de la IA en general.

    Implicaciones para la industria de la IA

    Creemos que el cambio hacia TTC y la mayor competencia entre los modelos de razonamiento pueden tener una serie de implicaciones para el panorama más amplio de la IA en hardware, plataformas en la nube, modelos básicos y software empresarial. 

    1. Hardware (GPU, chips dedicados e infraestructura informática)

    • Desde clústeres de entrenamiento masivos hasta picos de tiempo de prueba bajo demanda: en nuestra opinión, el cambio hacia el TTC puede tener implicaciones para el tipo de recursos de hardware que requieren las empresas de IA y cómo se gestionan. En lugar de invertir en clústeres de GPU cada vez más grandes dedicados a cargas de trabajo de entrenamiento, las empresas de IA podrían aumentar su inversión en capacidades de inferencia para satisfacer las crecientes necesidades de TTC. Si bien es probable que las empresas de IA sigan necesitando un gran número de GPU para gestionar las cargas de trabajo de inferencia, las diferencias entre las cargas de trabajo de entrenamiento y las de inferencia pueden afectar la configuración y el uso de esos chips. En concreto, dado que las cargas de trabajo de inferencia tienden a ser más dinámicas (y con picos) , la planificación de la capacidad puede volverse más compleja que para las cargas de trabajo de entrenamiento orientadas a lotes. 
    • Auge del hardware optimizado para inferencia: Creemos que el cambio de enfoque hacia el TTC probablemente aumentará las oportunidades para hardware de IA alternativo especializado en computación de inferencia de baja latencia. Por ejemplo, podríamos observar una mayor demanda de alternativas a las GPU, como los circuitos integrados de aplicación específica (ASIC) para inferencia . A medida que el acceso al TTC se vuelve más importante que la capacidad de entrenamiento, el predominio de las GPU de propósito general, que se utilizan tanto para entrenamiento como para inferencia, podría disminuir. Este cambio podría beneficiar a los proveedores de chips de inferencia especializados. 

    2. Plataformas en la nube: Hiperescaladores (AWS, Azure, GCP) y computación en la nube

    • La calidad de servicio (QoS) se convierte en un factor diferenciador clave: un problema que impide la adopción de la IA en las empresas, además de las preocupaciones sobre la precisión de los modelos, es la poca fiabilidad de las API de inferencia. Los problemas asociados con la inferencia de API poco fiable incluyen tiempos de respuesta fluctuantes , limitaciones de velocidad y dificultades para gestionar solicitudes simultáneas y adaptarse a los cambios en los endpoints de la API . Un mayor tiempo de respuesta (TTC) puede agravar aún más estos problemas. En estas circunstancias, un proveedor de nube capaz de proporcionar modelos con garantías de QoS que aborden estos desafíos tendría, en nuestra opinión, una ventaja significativa.
    • Aumento del gasto en la nube a pesar de las mejoras de eficiencia: En lugar de reducir la demanda de hardware de IA, es posible que enfoques más eficientes para el entrenamiento e inferencia de modelos de lenguaje grandes (LLM) sigan la paradoja de Jevons, una observación histórica según la cual una mayor eficiencia impulsa un mayor consumo general. En este caso, los modelos de inferencia eficientes podrían animar a más desarrolladores de IA a aprovechar los modelos de razonamiento, lo que, a su vez, aumenta la demanda de computación. Creemos que los recientes avances en modelos podrían generar una mayor demanda de computación de IA en la nube, tanto para la inferencia de modelos como para el entrenamiento de modelos más pequeños y especializados.

    3. Proveedores de modelos de base (OpenAI, Anthropic, Cohere, DeepSeek, Mistral)

    • Impacto en los modelos preentrenados: Si nuevos actores como DeepSeek pueden competir con los laboratorios de IA de vanguardia a una fracción de los costos reportados, los modelos preentrenados propietarios podrían volverse menos defendibles como foso. También podemos esperar más innovaciones en TTC para modelos de transformadores y, como ha demostrado DeepSeek, estas innovaciones pueden provenir de fuentes externas a los laboratorios de IA más consolidados.   

    4. Adopción de IA empresarial y SaaS (capa de aplicación)

    • Preocupaciones de seguridad y privacidad: Dados los orígenes de DeepSeek en China, es probable que haya un escrutinio continuo de los productos de la empresa desde una perspectiva de seguridad y privacidad. En particular, es poco probable que las ofertas de API y chatbots con sede en China de la empresa sean ampliamente utilizadas por clientes de IA empresarial en los EE. UU., Canadá u otros países occidentales. Según se informa, muchas empresas están tomando medidas para bloquear el uso del sitio web y las aplicaciones de DeepSeek. Esperamos que los modelos de DeepSeek se enfrenten al escrutinio incluso cuando estén alojados por terceros en los EE. UU. y otros centros de datos occidentales, lo que puede limitar la adopción empresarial de los modelos. Los investigadores ya están señalando ejemplos de preocupaciones de seguridad en torno al jailbreak , el sesgo y la generación de contenido dañino . Dada la atención del consumidor , es posible que veamos experimentación y evaluación de los modelos de DeepSeek en la empresa, pero es poco probable que los compradores empresariales se alejen de los incumbentes debido a estas preocupaciones.
    • La especialización vertical cobra fuerza: Anteriormente, las aplicaciones verticales que utilizaban modelos base se centraban principalmente en la creación de flujos de trabajo diseñados para necesidades empresariales específicas. Técnicas como la generación aumentada por recuperación (RAG), el enrutamiento de modelos, la llamada a funciones y las barreras de seguridad han desempeñado un papel importante en la adaptación de modelos generalizados a estos casos de uso especializados. Si bien estas estrategias han dado lugar a éxitos notables, ha persistido la preocupación de que mejoras significativas en los modelos subyacentes pudieran volver obsoletas estas aplicaciones. Como advirtió Sam Altman, un avance significativo en las capacidades de los modelos podría arrasar con las innovaciones de la capa de aplicación que se construyen como envoltorios de los modelos base.

    Sin embargo, si los avances en el cómputo en tiempo de entrenamiento se estancan, la amenaza de un desplazamiento rápido disminuye. En un mundo donde las mejoras en el rendimiento del modelo provienen de las optimizaciones de TTC, pueden surgir nuevas oportunidades para los actores de la capa de aplicación. Las innovaciones en algoritmos de post-entrenamiento específicos del dominio, como la optimización de indicaciones estructuradas , las estrategias de razonamiento con capacidad de respuesta a la latencia y las técnicas de muestreo eficientes, pueden proporcionar mejoras significativas en el rendimiento en los mercados verticales objetivo.

    Cualquier mejora del rendimiento sería especialmente relevante en el contexto de modelos centrados en el razonamiento, como GPT-4o y DeepSeek-R1 de OpenAI, que suelen presentar tiempos de respuesta de varios segundos. En aplicaciones en tiempo real, reducir la latencia y mejorar la calidad de la inferencia dentro de un dominio determinado podría proporcionar una ventaja competitiva. Por lo tanto, las empresas especializadas en la capa de aplicación con experiencia en el dominio pueden desempeñar un papel fundamental en la optimización de la eficiencia de la inferencia y el ajuste preciso de los resultados.

    DeepSeek demuestra un énfasis cada vez menor en el creciente preentrenamiento como único factor determinante de la calidad del modelo. En cambio, este desarrollo subraya la creciente importancia del TTC. Si bien la adopción directa de los modelos de DeepSeek en aplicaciones de software empresarial sigue siendo incierta debido al escrutinio continuo, su impacto en la mejora de otros modelos existentes es cada vez más evidente.

    Creemos que los avances de DeepSeek han impulsado a laboratorios de IA consolidados a incorporar técnicas similares en sus procesos de ingeniería e investigación, complementando así las ventajas de su hardware. La consiguiente reducción en los costes de los modelos, como se predijo, parece estar contribuyendo a un mayor uso de los mismos, en consonancia con los principios de la paradoja de Jevons.

    Fuente.

    VentureBeat (2025, 5 de abril). DeepSeek revoluciona la industria de la IA: por qué el próximo salto de la IA puede no provenir de más datos, sino de más computación en la inferencia. Recuperado el 08 de abril de 2025, de: https://venturebeat.com/ai/deepseek-jolts-ai-industry-why-ais-next-leap-may-not-come-from-more-data-but-more-compute-at-inference/

  • La inteligencia artificial está transformando al mundo y América Latina y el Caribe no puede quedarse atrás

    La inteligencia artificial está transformando al mundo y América Latina y el Caribe no puede quedarse atrás

    Autoridades y expertos analizan en la CEPAL el potencial de la IA para salir de las trampas del desarrollo en las que está sumida la región y promover las transformaciones indispensables para un desarrollo más productivo, inclusivo y sostenible.

    La inteligencia artificial (IA) está transformando al mundo y los países de América Latina y el Caribe no pueden ser unos meros espectadores. Es importante construir una agenda propia en esta materia, coincidieron hoy autoridades y expertos reunidos en la sede de la CEPAL durante la primera jornada de la conferencia “IA en América Latina y el Caribe: retos, estrategias y gobernanza para el desarrollo de la región”.

    El evento, que se prolongará hasta mañana miércoles 5 de marzo, es organizado por la Comisión Económica para América Latina y el Caribe (CEPAL) de las Naciones Unidas, y la Cátedra IA y Democracia, de la Escuela de Gobernanza Transnacional de Florencia, del Instituto Universitario Europeo (EUI). La reunión tiene como objetivo explorar el potencial de la IA para salir de las tres grandes trampas que limitan el desarrollo de la región -baja capacidad de crecimiento y de desarrollo productivo; elevada desigualdad, baja movilidad social y débil cohesión social; y débil institucionalidad y gobernanza poco efectiva- y promover las once transformaciones indispensables que la CEPAL ha estado impulsando para lograr un desarrollo más productivo, inclusivo y sostenible.

    La conferencia fue inaugurada por José Manuel Salazar-Xirinachs, Secretario Ejecutivo de la CEPAL; Claudia Gintersdorfer, Embajadora de la Unión Europea en Chile; Cristian Cuevas Vega, Subsecretario de Ciencia, Tecnología, Conocimiento e Innovación de Chile; y Amandeep Singh Gill, Enviado Especial del Secretario General de la ONU para Tecnologías Digitales y Emergentes, Oficina de Tecnologías Digitales y Emergentes (mensaje por video).

    En su discurso de bienvenida, el Secretario Ejecutivo de la CEPAL remarcó que la entidad estará concentrada principalmente en el aprovechamiento de las oportunidades que representa la IA para el desarrollo de la región y para salir de las tres trampas del desarrollo. “Sin duda, las tecnologías digitales son parte de la solución para superar las trampas de desarrollo en las que está sumida la región. En lo económico, pueden ser grandes motores para dinamizar el crecimiento de la productividad. En lo social, pueden contribuir a reducir desigualdad y a aumentar la movilidad social ascendente. Y en materia institucional y de gobernanza, pueden contribuir a fortalecer la transparencia, reducir la corrupción y el desperdicio de recursos, aumentar la eficiencia estatal y la participación ciudadana”, enfatizó.

    Pero para avanzar en estas direcciones, Salazar-Xirinachs insistió en que se necesita una utilización real, efectiva y de amplia base de estas tecnologías, ya que si su adopción se limita a sectores reducidos de la sociedad, de las empresas y de las personas, la nueva revolución tecnológica generaría más desigualdad y exclusión, en vez de mayor equidad e inclusión. “Es fundamental garantizar que la IA no profundice las desigualdades existentes ni se convierta en un factor adicional de exclusión”, declaró.

    La Embajadora de la Unión Europea en Chile, Claudia Gintersdorfer, indicó que las soluciones de inteligencia artificial ofrecen grandes oportunidades a los gobiernos, a las empresas y a los ciudadanos, pero también pueden plantear riesgos. “En la Unión Europea pensamos que necesitamos un marco regulador que garantice una IA fiable, basada, entre otras cosas, en datos confiables y de alta calidad”, dijo.

    Por su parte, el Subsecretario de Ciencia, Tecnología, Conocimiento e Innovación de Chile, Cristian Cuevas Vega, señaló que la IA es una oportunidad histórica para América Latina y el Caribe, pero debe estar alineada con las mejoras de las condiciones sociales y la reducción de la desigualdad. “Necesitamos un modelo de gobernanza propio de IA para América Latina y el Caribe. Es urgente una mayor coordinación entre los países. Muchos países no cuentan con estrategias nacionales actualizadas en esta materia y, en los que existe algún tipo de regulación, esta es diversa”, precisó.

    En su mensaje por video, el Enviado Especial del Secretario General de la ONU para Tecnologías Digitales y Emergentes, Amandeep Singh Gill, indicó que la misión de las Naciones Unidas es clara: la tecnología debe servir a la humanidad y no al revés. “La ONU ofrece un espacio inclusivo, transparente e igualitario para la cooperación digital. El Pacto Digital Global, adoptado en la Cumbre del Futuro en septiembre pasado, es un marco integral para gobernar la tecnología digital y la IA, que se basa en el progreso de la Cumbre Mundial sobre la Sociedad de la Información, cuyo 20 aniversario celebramos este año. El Pacto es el primer acuerdo mundial que introduce llamados a la acción para fomentar una economía digital inclusiva, abordar los daños en línea, promover la gobernanza responsable de los datos y gobernar la IA para la humanidad”, explicó.

    La primera jornada de la conferencia sobre IA en América Latina y el Caribe incluyó también una conferencia magistral titulada “Inteligencia artificial: El camino hasta aquí y el rumbo en juego ”, a cargo de Martin Hilbert, Profesor y experto en IA, Universidad de California, Davis (Estados Unidos), así como tres paneles sobre la gobernanza multinivel de la IA, los factores habilitantes y desarrollo de capacidades regionales, y la IA al servicio del desarrollo productivo: experiencias y casos prácticos.

    El segundo día del evento (miércoles 5 de marzo) incluirá una conferencia magistral de Daniel Innerarity, Director Cátedra IA y Democracia, Escuela de Gobernanza Transnacional, Instituto Universitario Europeo, titulada “¿Qué significa la transformación digital y la IA?”, que será seguida por la presentación del manual de buenas prácticas de la Red Iberoamericana para la Democracia y la IA (REDemocracIA), y un cuarto panel de discusión sobre la IA al servicio de un desarrollo más inclusivo: experiencias y casos prácticos.

    Fuente

    CEPAL (2025, 04 de marzo). La inteligencia artificial está transformando al mundo y América Latina y el Caribe no puede quedarse atrás. Recuperado el 02 de abril de 2025, de: https://www.cepal.org/es/comunicados/la-inteligencia-artificial-esta-transformando-al-mundo-america-latina-caribe-puede

  • Google lanza Gemini 2.5 y promete un salto revolucionario en la Inteligencia Artificial

    Google lanza Gemini 2.5 y promete un salto revolucionario en la Inteligencia Artificial

    Gemini 2.5 destaca por su capacidad de razonamiento, permitiéndole analizar información, incorporar contexto y tomar decisiones fundamentadas antes de responder.

    Google lanzó la nueva versión 2.5 de Gemini, el cual ha sido presentado como su modelo de Inteligencia Artificial más avanzado hasta la fecha.

    Gemini 2.5 destaca por su capacidad de razonamiento, permitiéndole analizar información, incorporar contexto y tomar decisiones fundamentadas antes de responder.

    De acuerdo con la compañía, esta habilidad refleja avances significativos en técnicas como el aprendizaje por refuerzo y la inducción de cadenas de pensamiento, que han sido la base de su desarrollo, además de los aprendizajes obtenidos con el modelo anterior Gemini 2.0 Flash Thinking.

    La versión Pro de este modelo redefine el estándar en tareas complejas, afirmó Google, ya que lidera métricas en programación, matemáticas y ciencias. Señaló que en pruebas como GPQA (un punto de referencia de preguntas y respuestas a prueba de Google para graduados) y AIME 2025, sobresale por su razonamiento avanzado.

    Además, logra un puntaje del 18.8 por ciento en Humanity’s Last Exam, diseñado para medir la frontera del conocimiento humano.

    Con un enfoque reforzado en programación, Gemini 2.5 Pro ha logrado un desempeño destacado en la creación y edición de código, superando ampliamente a su predecesor, Gemini 2.0. En estándares como SWE-Bench Verified, alcanza una puntuación del 63.8% con configuraciones personalizadas, demostrando su excelencia en aplicaciones avanzadas.

    La compañía californiana dijo que Gemini 2.5 Pro ya puede utilizarse a través de Google AI Studio y la app Gemini para usuarios de Gemini Advanced, y su implementación en Vertex AI está prevista próximamente.

    También anunció capacidades para escalar su uso en producción masiva, con detalles de precios a revelarse en las próximas semanas.

    “Nos hemos centrado en el rendimiento de la codificación, y con Gemini 2.5 hemos dado un gran salto con respecto a la versión 2.0, con más mejoras por venir. 2.5 Pro destaca en la creación de aplicaciones web visualmente atractivas y aplicaciones de código agentic, además de la transformación y edición de código”, señaló la compañía.

    Fuente.

    DPL News (2025, 26 de marzo). Goole lanza Gemini 2.5 y promete un salto revolucionario a la Inteligencia Artificial. Recuperado el 27 de marzo de 2025, de: https://dplnews.com/google-lanza-gemini-2-5-salto-revolucionario-en-la-ia/

  • Microsoft dota a los agentes empresariales de un razonamiento profundo y presenta un agente analista de datos que supera a los competidores

    Microsoft dota a los agentes empresariales de un razonamiento profundo y presenta un agente analista de datos que supera a los competidores

    Microsoft ha creado el ecosistema de agentes de inteligencia artificial empresarial más grande y ahora está ampliando su liderazgo con nuevas y poderosas capacidades que posicionan a la empresa por delante en uno de los segmentos más emocionantes de la tecnología empresarial.

    La compañía anunció el martes por la noche dos importantes novedades en su plataforma Copilot Studio: capacidades de razonamiento profundo que permiten a los agentes abordar problemas complejos mediante un pensamiento metódico y cuidadoso, y flujos de agentes que combinan la flexibilidad de la IA con la automatización determinista de procesos de negocio. Microsoft también presentó dos agentes especializados en razonamiento profundo para Microsoft 365 Copilot: Researcher y Analyst.

    “Ya tenemos clientes con miles de agentes”, declaró Charles Lamanna, vicepresidente corporativo de negocios e industria de Microsoft, en una entrevista exclusiva con VentureBeat el lunes. “Empiezas a tener este tipo de fuerza laboral con agentes, donde, sin importar el trabajo, probablemente tengas un agente que te ayude a completarlo más rápido”.

    El agente analista distintivo de Microsoft

    Si bien el agente Researcher replica las capacidades de competidores como Deep Research de OpenAI y Google, el agente Analyst de Microsoft ofrece una oferta más diferenciada. Diseñado para funcionar como un científico de datos personal, el agente Analyst puede procesar diversas fuentes de datos, como archivos de Excel, CSV y tablas incrustadas en documentos, generando información mediante la ejecución y visualización de código.

    “Este no es un modelo básico listo para usar”, enfatizó Lamanna. “Requiere bastantes extensiones, ajustes y capacitación sobre los modelos principales”. Microsoft ha aprovechado su profundo conocimiento de los flujos de trabajo de Excel y los patrones de análisis de datos para crear un agente que se adapta a la forma en que los usuarios empresariales trabajan con los datos.

    El analista puede generar automáticamente código Python para procesar los archivos de datos cargados, crear visualizaciones y proporcionar información empresarial sin necesidad de conocimientos técnicos por parte de los usuarios. Esto lo hace especialmente valioso para análisis financieros, previsiones presupuestarias e informes operativos que suelen requerir una preparación exhaustiva de los datos.

    Razonamiento profundo: Llevando el pensamiento crítico a los agentes empresariales

    La capacidad de razonamiento profundo de Microsoft amplía las capacidades de los agentes más allá de la simple realización de tareas, abarcando juicios complejos y trabajo analítico. Al integrar modelos de razonamiento avanzado como o1 de OpenAI y conectarlos con datos empresariales, estos agentes pueden abordar problemas empresariales ambiguos de forma más metódica.

    El sistema determina dinámicamente cuándo invocar un razonamiento más profundo, ya sea implícitamente según la complejidad de la tarea o explícitamente cuando los usuarios incluyen indicaciones como “razona sobre esto” o “piensa detenidamente en esto”. Tras bambalinas, la plataforma analiza las instrucciones, evalúa el contexto y selecciona las herramientas adecuadas según los requisitos de la tarea.

    Esto permite escenarios que antes eran difíciles de automatizar. Por ejemplo, una gran empresa de telecomunicaciones utiliza agentes de razonamiento profundo para generar respuestas complejas a solicitudes de propuestas (RFP) mediante la recopilación de información de múltiples documentos internos y fuentes de conocimiento, según explicó Lamanna a VentureBeat. De igual manera, Thomson Reuters emplea estas capacidades para la debida diligencia en las revisiones de fusiones y adquisiciones, procesando documentos no estructurados para identificar información valiosa, añadió.

    Flujos de agentes: reimaginando la automatización de procesos

    Microsoft también ha introducido flujos de agentes, que evolucionan eficazmente la automatización robótica de procesos (RPA) al combinar flujos de trabajo basados ​​en reglas con razonamiento de IA. Esto responde a la demanda de los clientes de integrar lógica de negocio determinista con capacidades flexibles de IA.

    “A veces no quieren que el modelo se adapte a sus necesidades. No quieren que la IA tome sus propias decisiones. Quieren tener reglas de negocio predefinidas”, explicó Lamanna. “Otras veces sí quieren que el agente se adapte a sus necesidades y tome sus propias decisiones”.

    Este enfoque híbrido permite escenarios como la prevención inteligente de fraude, donde un flujo de agentes puede usar lógica condicional para enrutar solicitudes de reembolso de mayor valor a un agente de IA para un análisis profundo en comparación con los documentos de póliza.

    Pets at Home, una empresa británica de venta de artículos para mascotas, ya ha implementado esta tecnología para la prevención del fraude. Lamanna reveló que la empresa ha ahorrado más de un millón de libras gracias a la implementación. De igual forma, Dow Chemical ha logrado ahorrar millones de dólares en la gestión del transporte y la carga gracias a la optimización basada en agentes.

    La ventaja de Microsoft Graph

    Un elemento central de la estrategia de agentes de Microsoft es la integración de datos empresariales mediante Microsoft Graph, un mapeo completo de las relaciones laborales entre personas, documentos, correos electrónicos, eventos de calendario y datos empresariales. Esto proporciona a los agentes una comprensión contextual de la que carecen los modelos genéricos. 

    “La capacidad secreta menos conocida del gráfico de Microsoft es que podemos mejorar la relevancia en el gráfico según la interacción y la estrecha conexión de algunos archivos”, reveló Lamanna. El sistema identifica qué documentos son los más referenciados, compartidos o comentados, lo que garantiza que los agentes consulten fuentes fidedignas en lugar de copias obsoletas.

    Este enfoque otorga a Microsoft una importante ventaja competitiva sobre los proveedores de IA independientes. Si bien la competencia puede ofrecer modelos avanzados, Microsoft los combina con el contexto del entorno de trabajo y un ajuste preciso, optimizado específicamente para casos de uso empresariales y herramientas de Microsoft.

    Microsoft puede aprovechar la misma tecnología de datos y modelos web que la competencia, señaló Lamanna, «pero además tenemos todo el contenido dentro de la empresa». Esto crea un efecto de rueda de inercia donde cada nueva interacción con un agente enriquece aún más la comprensión gráfica de los patrones del lugar de trabajo.

    Adopción y accesibilidad empresarial

    Microsoft ha priorizado que estas potentes capacidades sean accesibles para organizaciones con diversos recursos técnicos, afirmó Lamanna. Los agentes se exponen directamente en Copilot, lo que permite a los usuarios interactuar mediante lenguaje natural sin necesidad de conocimientos técnicos de ingeniería.

    Mientras tanto, Copilot Studio ofrece un entorno de bajo código para el desarrollo de agentes personalizados. “Está en nuestra esencia tener una herramienta para todos, no solo para quienes pueden iniciar un SDK de Python y realizar llamadas, sino para que cualquiera pueda empezar a desarrollar estos agentes”, enfatizó Lamanna.

    Este enfoque de accesibilidad ha impulsado una rápida adopción. Microsoft reveló previamente que más de 100.000 organizaciones han utilizado Copilot Studio  y que  se crearon más de 400.000 agentes en el último trimestre .

    El panorama competitivo

    Si bien Microsoft parece liderar la implementación de agentes empresariales hoy en día, la competencia se intensifica. Google ha ampliado sus capacidades de Gemini para agentes y codificación agentística , mientras que el modelo o1 de OpenAI y el SDK de agentes ofrecen potentes herramientas de razonamiento y agentística para desarrolladores . Grandes empresas de aplicaciones empresariales como Salesforce, Oracle, ServiceNow, SAP y otras han lanzado plataformas agentísticas para sus clientes durante el último año. Además, el martes, AWS de Amazon lanzó un agente de IA, llamado Amazon Q en Quicksight, que permite a los empleados interactuar mediante lenguaje natural para realizar análisis de datos sin necesidad de habilidades especializadas.

    Los empleados pueden usar lenguaje natural para realizar análisis de datos a nivel experto, hacer preguntas hipotéticas y obtener recomendaciones prácticas, lo que les ayuda a descubrir nuevos conocimientos y tomar decisiones más rápido.

    Sin embargo, la ventaja de Microsoft reside en su enfoque más integral: una sólida colaboración con OpenAI, la empresa líder en modelos de razonamiento, que a la vez ofrece opciones de modelos, una infraestructura de nivel empresarial, una amplia integración de datos en las herramientas del entorno de trabajo y un enfoque en los resultados empresariales, en lugar de en las capacidades puras de IA. Microsoft ha creado un ecosistema que se asemeja a las mejores prácticas al combinar copilotos personales que comprenden los patrones de trabajo individuales con agentes especializados para procesos empresariales específicos.

    Para los responsables de la toma de decisiones empresariales, el mensaje es claro: la tecnología de agentes ha evolucionado más allá de la experimentación, convirtiéndose en aplicaciones empresariales prácticas con un retorno de la inversión (ROI) medible. La elección de la plataforma depende cada vez más de la integración con las herramientas y los datos existentes. En este ámbito, Microsoft cuenta con una ventaja en muchas áreas de aplicación gracias a su número de usuarios, por ejemplo, en Excel y Power Automate.

    Fuente.

    VentureBeat (2025, 25 de marzo). Microsoft dota a los agentes empresariales de un razonamiento profundo y presenta un agente analista de datos que supera a los competidores. Recuperado el 26 de marzo de 2025, de: https://venturebeat.com/ai/microsoft-infuses-enterprise-agents-with-deep-reasoning-unveils-data-analyst-agent-that-outsmarts-competitors/

  • Tencent afirma que su nuevo modelo de razonamiento es más rápido que DeepSeek

    Tencent afirma que su nuevo modelo de razonamiento es más rápido que DeepSeek

    Este nuevo modelo supera en velocidad de procesamiento al R1, desarrollado por su competidor DeepSeek.

    El gigante tecnológico Tencent presentó oficialmente su modelo de razonamiento T1, marcando un nuevo hito en el creciente panorama competitivo de la Inteligencia Artificial (IA) en China.

    En un anuncio hecho por su cuenta de WeChat, Tencent destacó las mejoras clave de esta versión: tiempos de respuesta más rápidos y una mayor capacidad para manejar documentos extensos con eficiencia.

    La empresa aseguró que el modelo T1 está diseñado para mantener una lógica clara en el contenido y generar textos estructurados y ordenados, todo mientras reduce significativamente la probabilidad de errores conceptuales o “alucinaciones”.

    Estas características, según Tencent, posicionan al T1 como una herramienta avanzada en el ámbito de la IA, adaptada a las crecientes demandas del mercado.

    Este lanzamiento tiene lugar en un contexto de mayor rivalidad en la industria, especialmente tras la aparición de los modelos desarrollados por DeepSeek, competidores que han demostrado rendimientos comparables o superiores a los sistemas occidentales a costes más bajos.

    Tencent había lanzado previamente una versión preliminar de su modelo T1 en diversas plataformas, incluida la aplicación de asistente de IA Yuanbao, y ahora introduce esta versión oficial con mejoras significativas.

    Se trata de Hunyuan Turbo S, que es capaz de responder a las consultas en apenas un segundo. Esto hace una gran diferencia frente a sus competidores, como DeepSeek R1 y otros modelos lanzados recientemente, pues estos tardan un poco más en responder, de acuerdo con Tencent.

    La versión definitiva del T1 funciona con la tecnología del modelo Turbo S, el cual fue revelado por Tencent en días pasados.

    Este modelo más reciente, de acuerdo con la compañía, supera en velocidad de procesamiento al R1, desarrollado por su competidor DeepSeek. Un gráfico compartido en el comunicado compara el T1 con el R1, mostrando que Tencent lidera en varios puntos de referencia relacionados con el conocimiento y el razonamiento.

    Tencent ha aumentado notablemente sus inversiones en el sector de la Inteligencia Artificial en los últimos meses.

    La compañía anunció recientemente su intención de incrementar el gasto de capital en 2025, consolidando su enfoque en esta área tras un agresivo plan de inversión en 2024.

    Con este impulso, Tencent busca mantenerse a la vanguardia en un mercado de IA cada vez más competitivo y estratégico.

    Fuente.

    DPL News (2025, 25 de marzo). Tencent afirma que su nuevo modelo de razonamiento es más rápido que DeepSeek. Recuperado el 25 de marzo de 2025, de: https://dplnews.com/tencent-modelo-de-razonamiento-mas-rapido-que-deepseek/

  • Chips cerebrales, el dilema de la Inteligencia Artificial en el pensamiento humano

    Un paciente con esclerosis lateral amiotrófica (ELA) logró comunicarse con un 97 por ciento de precisión utilizando sólo su mente. Se trata de Casey Harrell, un hombre de 45 años de edad que participó en un estudio de la Universidad de California en Davis (UC Davis Health). En julio de 2023, los investigadores le implantaron sensores en el cerebro que permitieron traducir sus señales cerebrales en habla, alcanzando una precisión del 97.5 por ciento y una velocidad de comunicación de 32 palabras por minuto.

    Como en el caso de Davis, la Inteligencia Artificial (IA) está redefiniendo la relación entre la tecnología y el cerebro humano. Sin embargo, mientras estas innovaciones abren nuevas posibilidades médicas y mejoran la calidad de vida de las personas, también generan profundas preocupaciones éticas y sociales si se considera la idea de tener un chip implantado en el cerebro.

    Una de las tecnologías de mayor desarrollo es la de interfaces cerebro-computadora (BCI, por sus siglas en inglés), que permite a los pacientes controlar dispositivos mediante señales cerebrales.

    Neuralink, la firma de Elon Musk, ha invertido más de mil 100 millones de dólares en implantes cerebrales, realizando ensayos en humanos para ayudar a personas con parálisis a recuperar la movilidad y la comunicación. Y recientemente anunció que su primer voluntario humano pudo mover un cursor en una pantalla con su mente.

    El hecho fue considerado un hito, debido a que acerca a la humanidad hacia un futuro en el que es posible manejar las cosas con la mente y mejorar la comunicación y la calidad de vida de personas con movilidad reducida.

    Por otro lado, si una persona sin condiciones de movilidad reducida se implementara un chip de este tipo, el impacto podría ir mucho más allá de la medicina. Esta tecnología podría mejorar la velocidad de procesamiento mental, optimizar la memoria o incluso permitir la interacción directa con dispositivos digitales sin necesidad de pantallas o teclados.

    Esta posibilidad plantea dilemas sobre si se convertiría en una herramienta exclusiva para quienes puedan pagarla, generando una brecha cognitiva entre quienes la usen y quienes no. Además, si la IA integrada en el cerebro optimiza la toma de decisiones o la creatividad, surgiría un debate sobre la autenticidad del pensamiento humano.

    Pero no es el único uso que se le da a la IA en chips biológicos. Atlas Celular, un proyecto internacional para describir todos los tipos de células del cuerpo humano, ha mapeado diversas células del humano utilizando herramientas avanzadas de IA. Esta iniciativa de biología celular podría revolucionar la medicina al ofrecer una referencia sin precedentes para el estudio de enfermedades y la personalización de tratamientos.

    “Atlas Celular te muestra detalles sobre lugares, te proporcionará detalles sobre las células y sus funciones; porque aunque cada célula de nuestro cuerpo contiene el mismo ADN, las diferentes células usan diferentes partes de este, y por eso la célula sanguínea no es nerviosa y viceversa”, explica National Geographic.

    Con herramientas de IA, los científicos analizan cantidades masivas de datos celulares con mayor precisión y agilidad. Los algoritmos avanzados pueden identificar patrones celulares y predecir el comportamiento de ciertas enfermedades a nivel molecular, facilitando la detección temprana de condiciones como el cáncer. Además, la combinación de IA con técnicas de edición genética CRISPR (Clustered Regularly Interspaced Short Palindromic Repeats), abre la posibilidad de diseñar terapias personalizadas que modifiquen células defectuosas antes de que provoquen enfermedades en las personas.

    De nuevo, si se trata de una persona con posibilidad de modificar sus células sin fines médicos, es posible que se desarrollen facultades físicas que nuevamente pueden ser inquietantes. Por ejemplo, podría optimizar su metabolismo para aumentar la resistencia física, ralentizar el envejecimiento o incluso mejorar habilidades cognitivas como la memoria y el aprendizaje, creando una nueva generación de “humanos mejorados”.

    Esta posibilidad dirige una vez más las preocupaciones hacia quiénes podrían acceder a este tipo de tecnología y quiénes no.

    Implicaciones éticas de la IA en chips cerebrales y células

    A pesar de los beneficios de la incorporación de IA en el cerebro humano, también es una posibilidad que plantea importantes cuestiones éticas.

    El neurocientífico Rafael Yuste ha advertido sobre la posibilidad de una fractura en la humanidad, donde algunos individuos tengan ventajas cognitivas gracias a implantes tecnológicos, mientras que otros no.

    Si la IA permite aumentar la memoria, la velocidad de procesamiento mental o incluso la capacidad de aprendizaje a través de neurotecnología, esto podría crear una “fractura en la humanidad”, donde unos pocos tendrían ventajas significativas sobre el resto. Este tipo de desigualdad podría generar una nueva forma de brecha social y aumentar las desigualdades económicas.

    La falta de regulación y la necesidad de principios éticos que garanticen estos avances es vital para contribuir con la mejora de la calidad de vida de las personas que lo requieren, sin generar nuevas formas de exclusión social para quienes no lo necesitan pero pueden acceder.

    Por otro lado, los chips cerebrales ponen la lupa en la importancia de la privacidad mental. A medida que la tecnología permite leer y decodificar pensamientos, surge el riesgo de que empresas y/o gobiernos puedan acceder a información altamente sensible.

    La Organización de las Naciones Unidas (ONU) ha expresado su inquietud sobre la falta de regulaciones para proteger los derechos de las personas ante estos avances e insta a la creación de marcos internacionales que impidan su uso indebido.

    -Promoción de sistemas de Inteligencia Artificial seguros y fiables que beneficien al desarrollo sostenible para todos. La resolución insta a los Estados miembros y partes interesadas a abstenerse de utilizar sistemas de IA que no puedan operar conforme a las normas internacionales de derechos humanos o que representen riesgos indebidos para el disfrute de estos derechos y subraya que los mismos derechos que tienen las personas fuera de línea deben protegerse también en línea, incluso durante todo el ciclo de vida de los sistemas de la IA-, Asamblea General de la ONU.

    A estos derechos se debe incorporar el consentimiento informado, un proceso que permite a un paciente o participante de una investigación aceptar un procedimiento o intervención médica o científica con total conocimiento del procedimiento y los posibles efectos adversos.

    A esto se adhiere la integración IA en chips cerebrales y células que pueden enviar y recibir información directamente desde y hacia el cerebro, lo que abre la posibilidad de que sean vulnerables a hackeos. Un atacante podría interceptar, manipular o incluso borrar pensamientos, recuerdos o habilidades cognitivas adquiridas a través del implante.

    Además, si estas interfaces dependen de conexiones inalámbricas para actualizarse o comunicarse con otros dispositivos, podrían convertirse en objetivos de ciberataques masivos.

    La posibilidad de que una persona pierda el control de su propio implante debido a una vulnerabilidad de seguridad no sólo genera riesgos individuales, sino que también podría desencadenar crisis sociales si se utilizan fuera de marcos éticos o en entornos militares, políticos o empresariales sin regulación.

    En un mundo donde la tecnología avanza más rápido que las leyes, es crucial garantizar que los pacientes y posibles usuarios comprendan plenamente las implicaciones de integrar IA en su biología y cuestionar hasta qué punto un individuo puede decidir sobre modificaciones cerebrales que podrían alterar su personalidad o percepción del mundo.

    Fuente.

    DPL News (2025, 24 de marzo). Chips cerebrales, el dilema de la Inteligencia Artificial en el pensamiento humano. Recuperado el 25 de marzo de 2025, de: https://dplnews.com/chips-cerebrales-dilema-ia-en-el-pensamiento-humano/