El panorama de la IA continúa evolucionando a un ritmo acelerado, con desarrollos recientes que desafían los paradigmas establecidos. A principios de 2025, el laboratorio chino de IA DeepSeek presentó un nuevo modelo que impactó a la industria de la IA y provocó una caída del 17 % en las acciones de Nvidia, junto con las de otras empresas relacionadas con la demanda de centros de datos de IA. Se informó ampliamente que esta reacción del mercado se debió a la aparente capacidad de DeepSeek para ofrecer modelos de alto rendimiento a un costo mucho menor que el de sus competidores en EE. UU., lo que generó debate sobre las implicaciones para los centros de datos de IA .
Para contextualizar la disrupción de DeepSeek, creemos que es útil considerar un cambio más amplio en el panorama de la IA impulsado por la escasez de datos de entrenamiento adicionales. Debido a que los principales laboratorios de IA ya han entrenado sus modelos en gran parte de los datos públicos disponibles en internet, la escasez de datos está ralentizando futuras mejoras en el preentrenamiento . Como resultado, los proveedores de modelos están buscando “computación en tiempo de prueba” (TTC), donde los modelos de razonamiento (como la serie “o” de modelos de Open AI) “piensan” antes de responder a una pregunta en el momento de la inferencia, como un método alternativo para mejorar el rendimiento general del modelo. La idea actual es que TTC puede exhibir mejoras en la ley de escalado similares a las que alguna vez impulsaron el preentrenamiento, lo que potencialmente posibilita la próxima ola de avances transformadores de la IA.
Estos avances indican dos cambios significativos: primero, los laboratorios con presupuestos más reducidos (según se informa) ahora pueden lanzar modelos de vanguardia. El segundo cambio es el enfoque en la TTC como el próximo impulsor potencial del progreso de la IA. A continuación, analizamos ambas tendencias y sus posibles implicaciones para el panorama competitivo y el mercado de la IA en general.
Implicaciones para la industria de la IA
Creemos que el cambio hacia TTC y la mayor competencia entre los modelos de razonamiento pueden tener una serie de implicaciones para el panorama más amplio de la IA en hardware, plataformas en la nube, modelos básicos y software empresarial.
1. Hardware (GPU, chips dedicados e infraestructura informática)
- Desde clústeres de entrenamiento masivos hasta picos de tiempo de prueba bajo demanda: en nuestra opinión, el cambio hacia el TTC puede tener implicaciones para el tipo de recursos de hardware que requieren las empresas de IA y cómo se gestionan. En lugar de invertir en clústeres de GPU cada vez más grandes dedicados a cargas de trabajo de entrenamiento, las empresas de IA podrían aumentar su inversión en capacidades de inferencia para satisfacer las crecientes necesidades de TTC. Si bien es probable que las empresas de IA sigan necesitando un gran número de GPU para gestionar las cargas de trabajo de inferencia, las diferencias entre las cargas de trabajo de entrenamiento y las de inferencia pueden afectar la configuración y el uso de esos chips. En concreto, dado que las cargas de trabajo de inferencia tienden a ser más dinámicas (y con picos) , la planificación de la capacidad puede volverse más compleja que para las cargas de trabajo de entrenamiento orientadas a lotes.
- Auge del hardware optimizado para inferencia: Creemos que el cambio de enfoque hacia el TTC probablemente aumentará las oportunidades para hardware de IA alternativo especializado en computación de inferencia de baja latencia. Por ejemplo, podríamos observar una mayor demanda de alternativas a las GPU, como los circuitos integrados de aplicación específica (ASIC) para inferencia . A medida que el acceso al TTC se vuelve más importante que la capacidad de entrenamiento, el predominio de las GPU de propósito general, que se utilizan tanto para entrenamiento como para inferencia, podría disminuir. Este cambio podría beneficiar a los proveedores de chips de inferencia especializados.
2. Plataformas en la nube: Hiperescaladores (AWS, Azure, GCP) y computación en la nube
- La calidad de servicio (QoS) se convierte en un factor diferenciador clave: un problema que impide la adopción de la IA en las empresas, además de las preocupaciones sobre la precisión de los modelos, es la poca fiabilidad de las API de inferencia. Los problemas asociados con la inferencia de API poco fiable incluyen tiempos de respuesta fluctuantes , limitaciones de velocidad y dificultades para gestionar solicitudes simultáneas y adaptarse a los cambios en los endpoints de la API . Un mayor tiempo de respuesta (TTC) puede agravar aún más estos problemas. En estas circunstancias, un proveedor de nube capaz de proporcionar modelos con garantías de QoS que aborden estos desafíos tendría, en nuestra opinión, una ventaja significativa.
- Aumento del gasto en la nube a pesar de las mejoras de eficiencia: En lugar de reducir la demanda de hardware de IA, es posible que enfoques más eficientes para el entrenamiento e inferencia de modelos de lenguaje grandes (LLM) sigan la paradoja de Jevons, una observación histórica según la cual una mayor eficiencia impulsa un mayor consumo general. En este caso, los modelos de inferencia eficientes podrían animar a más desarrolladores de IA a aprovechar los modelos de razonamiento, lo que, a su vez, aumenta la demanda de computación. Creemos que los recientes avances en modelos podrían generar una mayor demanda de computación de IA en la nube, tanto para la inferencia de modelos como para el entrenamiento de modelos más pequeños y especializados.
3. Proveedores de modelos de base (OpenAI, Anthropic, Cohere, DeepSeek, Mistral)
- Impacto en los modelos preentrenados: Si nuevos actores como DeepSeek pueden competir con los laboratorios de IA de vanguardia a una fracción de los costos reportados, los modelos preentrenados propietarios podrían volverse menos defendibles como foso. También podemos esperar más innovaciones en TTC para modelos de transformadores y, como ha demostrado DeepSeek, estas innovaciones pueden provenir de fuentes externas a los laboratorios de IA más consolidados.
4. Adopción de IA empresarial y SaaS (capa de aplicación)
- Preocupaciones de seguridad y privacidad: Dados los orígenes de DeepSeek en China, es probable que haya un escrutinio continuo de los productos de la empresa desde una perspectiva de seguridad y privacidad. En particular, es poco probable que las ofertas de API y chatbots con sede en China de la empresa sean ampliamente utilizadas por clientes de IA empresarial en los EE. UU., Canadá u otros países occidentales. Según se informa, muchas empresas están tomando medidas para bloquear el uso del sitio web y las aplicaciones de DeepSeek. Esperamos que los modelos de DeepSeek se enfrenten al escrutinio incluso cuando estén alojados por terceros en los EE. UU. y otros centros de datos occidentales, lo que puede limitar la adopción empresarial de los modelos. Los investigadores ya están señalando ejemplos de preocupaciones de seguridad en torno al jailbreak , el sesgo y la generación de contenido dañino . Dada la atención del consumidor , es posible que veamos experimentación y evaluación de los modelos de DeepSeek en la empresa, pero es poco probable que los compradores empresariales se alejen de los incumbentes debido a estas preocupaciones.
- La especialización vertical cobra fuerza: Anteriormente, las aplicaciones verticales que utilizaban modelos base se centraban principalmente en la creación de flujos de trabajo diseñados para necesidades empresariales específicas. Técnicas como la generación aumentada por recuperación (RAG), el enrutamiento de modelos, la llamada a funciones y las barreras de seguridad han desempeñado un papel importante en la adaptación de modelos generalizados a estos casos de uso especializados. Si bien estas estrategias han dado lugar a éxitos notables, ha persistido la preocupación de que mejoras significativas en los modelos subyacentes pudieran volver obsoletas estas aplicaciones. Como advirtió Sam Altman, un avance significativo en las capacidades de los modelos podría arrasar con las innovaciones de la capa de aplicación que se construyen como envoltorios de los modelos base.
Sin embargo, si los avances en el cómputo en tiempo de entrenamiento se estancan, la amenaza de un desplazamiento rápido disminuye. En un mundo donde las mejoras en el rendimiento del modelo provienen de las optimizaciones de TTC, pueden surgir nuevas oportunidades para los actores de la capa de aplicación. Las innovaciones en algoritmos de post-entrenamiento específicos del dominio, como la optimización de indicaciones estructuradas , las estrategias de razonamiento con capacidad de respuesta a la latencia y las técnicas de muestreo eficientes, pueden proporcionar mejoras significativas en el rendimiento en los mercados verticales objetivo.
Cualquier mejora del rendimiento sería especialmente relevante en el contexto de modelos centrados en el razonamiento, como GPT-4o y DeepSeek-R1 de OpenAI, que suelen presentar tiempos de respuesta de varios segundos. En aplicaciones en tiempo real, reducir la latencia y mejorar la calidad de la inferencia dentro de un dominio determinado podría proporcionar una ventaja competitiva. Por lo tanto, las empresas especializadas en la capa de aplicación con experiencia en el dominio pueden desempeñar un papel fundamental en la optimización de la eficiencia de la inferencia y el ajuste preciso de los resultados.
DeepSeek demuestra un énfasis cada vez menor en el creciente preentrenamiento como único factor determinante de la calidad del modelo. En cambio, este desarrollo subraya la creciente importancia del TTC. Si bien la adopción directa de los modelos de DeepSeek en aplicaciones de software empresarial sigue siendo incierta debido al escrutinio continuo, su impacto en la mejora de otros modelos existentes es cada vez más evidente.
Creemos que los avances de DeepSeek han impulsado a laboratorios de IA consolidados a incorporar técnicas similares en sus procesos de ingeniería e investigación, complementando así las ventajas de su hardware. La consiguiente reducción en los costes de los modelos, como se predijo, parece estar contribuyendo a un mayor uso de los mismos, en consonancia con los principios de la paradoja de Jevons.
Fuente.
VentureBeat (2025, 5 de abril). DeepSeek revoluciona la industria de la IA: por qué el próximo salto de la IA puede no provenir de más datos, sino de más computación en la inferencia. Recuperado el 08 de abril de 2025, de: https://venturebeat.com/ai/deepseek-jolts-ai-industry-why-ais-next-leap-may-not-come-from-more-data-but-more-compute-at-inference/

