Category: Big data

  • ReData impulsa inversiones en Data Centers en Brasil, pero preocupa sostenibilidad y modelo tributario

    São Paulo, Brasil. El panel sobre Centros de Datos en Futurecom 2025 este martes abordó en detalle el régimen especial de tributación para Data Centers (ReData), instituido por la Medida Provisoria Nº 1.318/2025, y expuso consensos y divergencias entre el mercado privado y la gestión pública sobre los rumbos del sector en Brasil. La percepción predominante es que la medida es positiva para atraer inversiones, pero aún deja abiertos puntos críticos relacionados con la sostenibilidad, la energía y el modelo tributario.

    Afonso Nina, presidente ejecutivo de Brasscom, destacó que las conversaciones sobre el régimen comenzaron hace más de ocho años y resultaron en un texto “muy bueno para Brasil”, pero que no resuelve todo: depende de la reglamentación infralegal para definir los detalles técnicos. La idea es que el texto del ReData, que aún no tiene fuerza de ley, sea incorporado al proyecto de ley de Inteligencia Artificial (2338/23), que todavía está lejos de concluir sus discusiones.

    Defendió el blindaje político de la propuesta y criticó el enfoque exclusivo en los grandes operadores: para Nina es necesario dar espacio también a los pequeños Data Centers. Además, recordó el cuello de botella de la generación de energía limpia, que no acompaña la demanda real de los Centros de Datos.

    El ReData prevé contrapartidas ambientales estrictas: los proyectos habilitados deben operar 100% con energía limpia o renovable y cumplir con un índice máximo de eficiencia hídrica de 0.05 L/kWh.

    En este ámbito, más temprano en el panel ICT Trends, el profesor Otávio Chase, de la Universidade Federal Rural da Amazônia (UFRA) y miembro sénior del IEEE, presentó proyecciones de que apenas 25% de la energía utilizada en Brasil en 2026 provendrá de paneles solares.

    Actualmente, poco más del 60% proviene de hidroeléctricas, pero subrayó que “el camino hacia la Inteligencia Artificial es una conexión sostenible con sistemas de energías renovables”.

    Un punto positivo en el uso del agua es que 80% de los Data Centers en el país ya operan en circuito cerrado de circulación, y se espera que para 2029 el 95% adopte este sistema, consumiendo sólo el 0.08% de agua nueva, en régimen de reposición.

    Marcos Siqueira, CRO y jefe de estrategia de Ascenty, destacó que la compañía adopta un estándar de eficiencia (PUE) inferior a 1.4, es decir, con un consumo energético muy bajo, pero centró su discurso en la cuestión tributaria. Dijo que el mercado está receptivo, pero el tema de los impuestos es decisivo para definir inversiones de miles de millones de dólares en Brasil.

    Thiago Camargo, vicepresidente ejecutivo de InvestSP, señaló que el régimen impulsa avances en Inteligencia Artificial, pero que, por otro lado, las ZPE terminan subsidiando a multinacionales, como el caso del Data Center de TikTok en Ceará.

    Recordó que el estado de São Paulo atrajo cerca de 520,000 millones de reales en inversiones, de los cuales 110,00 millones fueron en Data Centers, aunque apenas una empresa adhirió al régimen diferenciado de tributación especial.

    Rodolfo Fucher, presidente de la ABES (Asociación Brasileña de Empresas de Software), y Juliano Stanzani, director de Política Sectorial de Telecomunicaciones del Ministerio de Comunicaciones, defendieron la descentralización, además de una mayor participación social para organizar los múltiples enfoques del sector.

    Fuente.

    DPL News (2025, 30 de septiembre). ReData impulsa inversiones en Data Centers en Brasil, pero preocupa sostenibilidad y modelo tributario. Recuperado el 01 de octubre de 2025, de: https://dplnews.com/redata-impulsa-inversiones-en-data-centers-en-brasil-pero-preocupa-sostenibilidad-y-modelo-tributario/

  • China Pacific Insurance acelera la innovación con IA, Big Data y Centros de Datos

    China Pacific Insurance acelera la innovación con IA, Big Data y Centros de Datos

    Shanghái, China. La filial tecnológica de China Pacific Insurance Company (CPIC) presentó los avances de su estrategia digital, destacando cómo la innovación en Inteligencia Artificial (IA), Big Data y Centros de Datos automatizados está transformando el modelo de negocio de la compañía de seguros y mejorando la experiencia de sus más de 180 millones de clientes.

    Durante una visita a las oficinas de CPIC, en Shanghái, la compañía aseguró que, en los últimos años, ha consolidado tres Centros de Datos y dos centros de innovación para optimizar operaciones y centralizar soporte en un solo equipo compartido gracias a su “Blue Ocean Plan”, que consiste en el desarrollo de programas específicos para atraer y retener talento dentro de su compañía.

    Para ello, CPIC usa Huawei Cloud como uno de los respaldos de los millones de datos de clientes que maneja. Estos datos, analizados por IA, han permitido crear un data lake empresarial que integra la información financiera y de negocio del grupo, permitiendo el desarrollo de soluciones personalizadas y escalables.

    Durante el recorrido por la compañía, CPIC detalló que uno de los hitos más destacados fue la construcción de un Centro de Datos en apenas 298 días. Allí, la gestión de hardware y sistemas se realiza casi en su totalidad de forma automática, con monitoreo en tiempo real y operaciones 24 horas del día, los 7 días de la semana.

    En el ámbito de la atención al cliente, CPIC lanzó la plataforma Insurance APP, que reúne los servicios de otras de sus empresas aliadas en un solo canal digital. Sin invertir en publicidad, la aplicación logró duplicar el número de usuarios activos diarios, pasando de 100,000 a 210,000.

    Fuente.

    DPL News (2025, 18 de septiembre). China Pacific Insurance acelera la innovación con IA, Big Data y Centros de Datos. Recuperado el 19 de septiembre de 2025, de: https://dplnews.com/china-pacific-insurance-acelera-la-innovacion-con-ia-big-data-y-centros-de-datos/

  • Microsoft presenta Fairwater, su Centro de Datos de IA más grande y sofisticado

    Microsoft presenta Fairwater, su Centro de Datos de IA más grande y sofisticado

    El nuevo Centro de Datos de IA de Microsoft ofrecerá un rendimiento 10 veces superior al de la supercomputadora más rápida del mundo actual.

    Microsoft continúa su camino por liderar el desarrollo de Inteligencia Artificial (IA) en el mundo, por lo que presentó Fairwater, su nuevo Centro de Datos dedicado a la IA, en Wisconsin, considerado por la propia empresa como la fábrica de IA más grande y sofisticada que han construido hasta el momento.

    Se trata de una instalación con una superficie de 127 hectáreas y tres enormes edificios con un total de 114,000 metros cuadrados bajo techo.

    Microsoft detalló en su blog que la construcción de estas instalaciones requirió 75.8 kilómetros de pilotes de cimentación profunda, 11.8 millones de kilos de acero estructural, 193.8 kilómetros de cable subterráneo de media tensión y 117.8 kilómetros de tuberías mecánicas.

    “A diferencia de los Centros de Datos en la Nube típicos, optimizados para ejecutar numerosas cargas de trabajo independientes y de menor tamaño, como el alojamiento de sitios Web, correo electrónico o aplicaciones empresariales, este Centro de Datos está diseñado para funcionar como una gigantesca supercomputadora de IA mediante una única red plana que interconecta cientos de miles de las GPU NVIDIA más recientes.

    “De hecho, ofrecerá un rendimiento 10 veces superior al de la supercomputadora más rápida del mundo actual, lo que permitirá cargas de trabajo de entrenamiento e inferencia de IA a un nivel sin precedentes”, aseveró la compañía de Redmond.

    El nuevo Centro de Datos de Microsoft en Wisconsin gestiona un único y masivo clúster de servidores NVIDIA GB200 interconectados, millones de núcleos de cómputo y exabytes de almacenamiento, todo diseñado para las cargas de trabajo de IA más exigentes, explicó la compañía.

    También explicó que el desafío de establecer la escala de supercomputación, en particular a medida que los requisitos de entrenamiento de IA continúan exigiendo escalas de computación innovadoras, es lograr la topología de red perfecta.

    Añadió que para garantizar una comunicación de baja latencia a través de múltiples capas en un entorno de Nube, Microsoft necesitaba extender el rendimiento más allá de un solo rack.

    Fuente.

    DPL News (2025, 18 de septiembre). Microsoft presenta Fairwater, su Centro de Datos de IA más grande y sofisticado. Recuperado el 19 de septiembre de 2025, de: https://dplnews.com/microsoft-fairwater-centro-de-datos-ia-mas-grande-y-sofisticado/

  • IA calienta los Centros de Datos: Schneider Electric apuesta por el enfriamiento líquido como estándar del futuro

    IA calienta los Centros de Datos: Schneider Electric apuesta por el enfriamiento líquido como estándar del futuro

    Querétaro, México. Por décadas, el enfriamiento con sistemas de aire acondicionado ha dominado la operación de los Centros de Datos. Pero la irrupción de la Inteligencia Artificial (IA) está acelerando una transformación tecnológica que, según Schneider Electric, será irreversible: la migración hacia el enfriamiento líquido (liquid cooling).

    Aunque no es nueva, esta tecnología está entrando en una fase crítica de adopción, explica a DPL News Alberto Llavot, gerente de Preventa y Desarrollo de Negocios de Schneider Electric para México y Centroamérica, en el marco de su evento Data Cool 2025.

    El consumo de energía es un tema crucial para los Centros de Datos, pues es mayor a medida que aumenta el procesamiento y almacenamiento de datos en las instalaciones. Si no se gestiona adecuadamente, este consumo puede elevar significativamente los costos operativos y la huella de carbono.

    Hoy en día, la refrigeración por aire es el método más utilizado para sacar el calor que generan los enormes volúmenes de datos. Aunque había sido rentable para soportar la digitalización hasta hace unos años, se proyecta que esta tecnología no podrá responder a los requerimientos de la Inteligencia Artificial.

    “Hace 10 años, ningún administrador de TI te hubiera dicho que era la mejor forma de enfriar un servidor. Hoy, no cabe duda”, afirma. La razón es clara: la densidad térmica y el consumo energético que demandan los servidores de IA han superado los límites de la refrigeración tradicional.

    De acuerdo con proyecciones de la compañía, el 60% de los nuevos desarrollos de Centros de Datos en los próximos 5 años estarán enfocados en IA, y la mayoría incorporará liquid cooling desde su diseño.

    El cambio, sin embargo, será gradual: muchos centros actuales fueron concebidos para sistemas de aire, por lo que la transición requerirá rediseños profundos o soluciones híbridas que combinen ambas tecnologías.

    Una carrera contra el tiempo (y contra el calor)

    Aunque cada vez más proveedores de tecnología para Centros de Datos están convencidos de la necesidad de adoptar el enfriamiento líquido, la industria enfrenta un desafío adicional: la falta de estándares globales para liquid cooling.

    Organismos certificadores como Uptime Institute y CREA están trabajando en ello, pero el avance tecnológico es más rápido que la regulación. “La tecnología evoluciona tan rápido que para cuando hay un estándar, ya existe una solución nueva”, advierte Llavot.

    En términos de beneficios, el ejecutivo destaca la eficiencia energética y la optimización de costos operativos como los principales atractivos para implementar tecnología de enfriamiento líquido. Al extraer más calor con menos recursos, dice, los Centros de Datos pueden volverse más sostenibles y atractivos para el capital.

    Una de las preocupaciones sociales ante el crecimiento de los data centers es el uso intensivo de recursos como el agua para enfriar estas instalaciones. De acuerdo con el Banco Mundial, un Centro de Datos puede utilizar hasta 25.5 millones de litros de agua al año para la refrigeración, lo equivalente al consumo diario que hacen 300,000 personas de este recurso.

    Sin embargo, Llavot señala que las soluciones de enfriamiento líquido utilizan sistemas cerrados de agua para minimizar el desperdicio y garantizar la sostenibilidad.

    Además, Adriana Rivera expone que la Asociación Mexicana de Data Centers, la cual dirige, hizo un estudio en el que encontró que el consumo de 1 MW anual por un Centro de Datos es igual a lo que se usa para producir 6.6 kg de carne de cerdo ó 2.4 kg de carne de res, por lo que considera que la huella hídrica es mínima.

    México, en fase de exploración

    Aunque la refrigeración líquida ya se aplica en países como Estados Unidos, donde Schneider Electric ha implementado proyectos de hasta 800 kW en sólo 10 gabinetes, México aún no registra implementaciones formales.

    “La industria no está lista todavía, pero estamos difundiendo el cambio para que la adopción sea más clara”, expone Llavot.

    El especialista prevé que, con la presión que ejercerá la IA sobre la capacidad de procesamiento y enfriamiento, la adopción será inevitable. Incluso Data Centers pequeños —de 100 a 200 kW— podrían beneficiarse de esta tecnología.

    “Hoy dominan los sistemas de aire, pero poco a poco vamos a migrar hacia sistemas híbridos”, anticipa Alberto Llavot. Sobre todo, porque el país se ha vuelto muy atractivo para el desarrollo de campus de Data Centers y ya hay diversos anuncios de inversión por parte de empresas como Amazon Web Services, Microsoft y Alibaba.

    “El crecimiento de los Centros de Datos es evidente en el panorama global. México está siendo uno de los puntos importantes para ese crecimiento, especialmente el estado de Querétaro”.

    ”Y sobre todo, los requerimientos que está demandando la Inteligencia Artificial actualmente están impulsando una revolución total en la forma en la que se lleva a cabo el enfriamiento y eso es a través del liquid cooling”.

    “Ahora no cabe duda. La cantidad de carga, la densidad térmica que están manejando los servidores es tan alta; se calientan tanto y demandan tanta energía que no existe otra forma de enfriarlos de la manera regular”, advierte Llavot.

    Fuente:

    DPL News(2025, 13 de agosto).  IA calienta los Centros de Datos: Schneider Electric apuesta por el enfriamiento líquido como estándar del futuro. Recuperado el 14 de agosto de 2025, de: https://dplnews.com/ia-calienta-los-centros-de-datos-schneider-electric-apuesta-enfriamiento-liquido/

  • Tres formas de aprovechar al máximo sus datos: IA escalable, aplicaciones inteligentes y un ecosistema abierto

    Tres formas de aprovechar al máximo sus datos: IA escalable, aplicaciones inteligentes y un ecosistema abierto

    Cualquier experto en tecnología que se precie afirmará que una estrategia de IA exitosa depende de datos fiables. De hecho, una encuesta reciente a líderes tecnológicos reveló que casi el 94 % ahora se centra más en los datos, impulsado por el creciente interés en la IA.

    Si bien esto no debería sorprender, la situación se complica cuando las organizaciones intentan explorar el panorama de proveedores. Con un mercado en constante evolución, es difícil determinar cuál puede aprovechar mejor los datos para la transformación estratégica, incluidas las iniciativas de IA.

    La buena noticia es que existen caminos hacia la modernización de datos que las empresas pueden seguir, independientemente de su etapa. Aquí tienes tres consejos para el éxito.

    1. Agregue valor a sus aplicaciones comerciales más importantes

    Las empresas aún tienen dificultades para unificar datos en sus aplicaciones empresariales, preservando al mismo tiempo el contexto y las relaciones: solo el 34 % de los líderes empresariales declaró tener una alta confianza en sus datos. Sin una base de datos confiable, las iniciativas de análisis e IA suelen estancarse, ya que los equipos dedican más tiempo a integrar y gestionar datos que a aprovecharlos para generar valor empresarial.

    Aquí es donde entra en juego una estructura de datos empresarial. Esta estructura reduce la latencia al proporcionar una capa de datos integrada y semánticamente rica sobre entornos de datos fragmentados. Esta arquitectura simplifica la gestión de datos y facilita el acceso a datos fiables. Al crear una única fuente de información fiable en múltiples fuentes y aplicaciones, las organizaciones pueden configurar con mayor facilidad la gobernanza de datos y el acceso a los datos de autoservicio.

    SAP ofrece esto con su SAP Business Data Cloud, una solución SaaS totalmente administrada que unifica y gobierna los datos de SAP y los datos de terceros.

    SAP Business Data Cloud simplifica los complejos entornos de datos de los clientes gracias a su enfoque de cero copias compartidas, que simplifica la armonización, federación y replicación de datos. Esto permite a las organizaciones dedicar tiempo a proyectos de datos estratégicos y transformadores, como el desarrollo de aplicaciones inteligentes o el suministro de datos de alta calidad para iniciativas de IA.

    Además, SAP Business Data Cloud se integra con SAP Business Suite y la potencia, un conjunto integrado de aplicaciones empresariales, datos e IA. Esto ayuda a los clientes a establecer una base de datos armonizada para conectar la información entre aplicaciones y procesos empresariales e impulsar las iniciativas de IA.

    2. Pasar de aplicaciones transaccionales a aplicaciones inteligentes

    Con una capa de datos armonizada, las empresas pueden empezar a usar o desarrollar sus propias aplicaciones inteligentes. Según Gartner, «si bien las aplicaciones pueden comportarse de forma inteligente, las aplicaciones inteligentes son inteligentes».

    Más allá de los enfoques prescriptivos basados ​​en reglas, las aplicaciones inteligentes son aplicaciones autoadaptables y autoaprendizajes que pueden ingerir y procesar datos de cualquier fuente. Estas aplicaciones democratizan los datos, sacándolos del ámbito de los científicos de datos y brindando acceso a ellos a todos, desde profesionales de recursos humanos hasta directores financieros.

    Pero con tantos proveedores que ofrecen estas aplicaciones, ¿cómo elegir? La inteligencia por sí sola no impulsa los resultados empresariales. Es importante seleccionar una empresa que proporcione estas aplicaciones directamente en el contexto de procesos empresariales clave, como la cadena de suministro o la gestión de compras, para que las personas utilicen esa inteligencia en su trabajo diario.

    El enfoque único de SAP para las aplicaciones inteligentes, que forman parte de su nube de datos empresariales, se basa en más de 50 años de experiencia perfeccionando sus procesos de negocio, aplicaciones e industrias. Las aplicaciones se construyen a partir de productos de datos, información fácilmente asimilable extraída de su amplia gama de soluciones y seleccionada para resolver problemas empresariales específicos. Enriquecidas con tecnologías de IA como el grafo de conocimiento (que identifica las relaciones entre los puntos de datos), las Aplicaciones Inteligentes de SAP están listas para usar con funciones de modelado, generación de informes, predicción y otras.

    Más importante aún, están integrados en el entorno de aplicaciones de SAP, incluyendo ERP, recursos humanos, compras, cadena de suministro, finanzas y otras soluciones. Un ejemplo es el nuevo paquete People Intelligence, incluido en SAP Business Data Cloud, que conecta y transforma los datos de personal y habilidades de la suite SAP SuccessFactors Human Capital Management en información sobre la fuerza laboral fácilmente accesible y recomendaciones basadas en IA.

    3. No lo hagas solo: un ecosistema abierto es la clave del éxito

    Ningún proveedor puede proporcionar todos los datos y la experiencia de la industria y el negocio. Por eso es importante seleccionar uno con un enfoque de ecosistema abierto.

    Es crucial por varias razones. Primero, para escalar la solución y que esté disponible en múltiples plataformas en la nube. Segundo, para brindar acceso a una amplia variedad de expertos en el sector. Y tercero, para construir un ecosistema de aplicaciones inteligentes enriquecido por líderes del sector especializados en conjuntos de datos específicos, como la evaluación de riesgos.

    Estas tres razones resumen la estrategia de SAP para sus socios. Por ejemplo, SAP anunció recientemente una alianza con Adobe para desarrollar una aplicación inteligente en SAP Business Data Cloud que combina datos de la cadena de suministro, financieros y de la experiencia digital de Adobe para generar información detallada para clientes conjuntos. Además, Moody’s colaborará con SAP para ayudar a clientes y socios a desarrollar aplicaciones inteligentes utilizando los conjuntos de datos de riesgo de Moody’s, integrados con los datos de cuentas por cobrar de SAP, para optimizar el flujo de caja y las predicciones de impago. 

    En el futuro, las organizaciones deberán considerar los datos y la IA como inseparables. El éxito de las iniciativas de IA se basa en datos relevantes y de buena calidad, extraídos de aplicaciones empresariales y otros entornos. Un estudio reciente de GigaOm reveló que las empresas que consideran los datos un activo estratégico experimentan una tasa de adopción de IA un 28 % mayor. Con SAP Business Data Cloud, las organizaciones obtienen la pieza clave que les permite armonizar y optimizar los datos de cualquier fuente, lo que permite proyectos de IA que impulsan los resultados empresariales de forma más eficaz.

    Fuente.

    Venture Beat (2025, 24 de junio). Tres formas de aprovechar al máximo sus datos: IA escalable, aplicaciones inteligentes y un ecosistema abierto. Recuperado el 09 de julio de 2025, de: https://venturebeat.com/ai/3-ways-to-get-the-most-from-your-data-scalable-ai-intelligent-apps-and-an-open-ecosystem/

  • Incorporar GenAI a la base de datos cambia todo en el desarrollo de aplicaciones

    Incorporar GenAI a la base de datos cambia todo en el desarrollo de aplicaciones

    Las bases de datos documentales han sido durante mucho tiempo la columna vertebral de las aplicaciones críticas; ahora, están entrando en una nueva era de inteligencia y capacidad. Al integrar la IA generativa directamente en la capa de datos, el impacto no es solo una actualización técnica, sino un cambio estratégico y transformador para una entrega más rápida, operaciones más eficientes y un escalamiento más inteligente.

    “Cuando se puede integrar todo el peso de un gran modelo de lenguaje en la base de datos, se pueden lograr muchísimas cosas realmente asombrosas”, afirma Oren Eini, director ejecutivo y fundador de RavenDB. “Es un replanteamiento del lugar que ocupa la IA en el conjunto de software empresarial. Con la IA integrada en el motor de datos, organizaciones de todos los tamaños pueden crear fácilmente aplicaciones inteligentes. Democratizar la capacidad de aplicar la IA en todos los aspectos del sistema resultará en un cambio radical en nuestra forma de pensar sobre el desarrollo de software”.

    Convertir consultas en acciones inteligentes

    Antes, era necesario ser experto en etiquetado de datos, dedicar mucho tiempo y esfuerzo a catalogar correctamente todos los datos, crear un sistema de búsqueda completo, etc. Con la IA a nivel de datos, se puede usar ese modelo para realizar gran parte del trabajo y, además, aplicar la búsqueda vectorial.

    La IA generativa permite a los usuarios generar, enriquecer, clasificar y automatizar contenido y decisiones directamente en la base de datos mediante grandes modelos de lenguaje. Además, las capacidades de IA, presentes en la ubicación real de los datos, permiten una ejecución segura, eficiente y en tiempo real, ya sea clasificando documentos, resumiendo las interacciones de los clientes o automatizando flujos de trabajo. Permite a los equipos crear funciones directamente a partir de los datos que ya gestionan, sin necesidad de un equipo de IA dedicado.

    “Eso te da una gran potencia, que antes solo tenían disponible las empresas más grandes”, dice Eini. “Puedes tener un sistema de altísima calidad, comparable al que pueden ejecutar Google o Microsoft, pero con una fracción de su presupuesto y un proceso de implementación rápido. Con los datos existentes, puedes pasar de cero a tener un sistema inteligente de primera calidad en cuestión de días”.

    Este tipo de integración es fundamental para organizaciones que no cuentan con grandes equipos de IA ni una infraestructura MLOps dedicada. Para muchos propósitos, añadir capacidades de IA generativa (GenAI) directamente a un motor de base de datos central supone un gran avance respecto a los envoltorios de servicios o las pilas de nube propietarias, lo que reduce significativamente la complejidad.

    Es un enfoque sencillo, afirma Eini, señalando cómo RavenDB permite a los clientes integrar la IA en sus productos. Este enfoque permite a los usuarios optimizar sus datos, gracias a la compatibilidad integrada con resúmenes, clasificación y etiquetado. Los usuarios de RavenDB pueden incluso crear flujos de trabajo que enriquecen el conjunto de datos directamente desde la base de datos y utilizar los datos para generar documentos e información adicionales, superando la recuperación pasiva de datos y utilizando los datos como catalizador de la innovación.

    La diferencia de RavenDB

    “En esencia, nuestro objetivo es mercantilizar el uso de los LLM en sus sistemas, haciéndolo fácil, predecible, sostenible y asequible”, afirma Eini. “La mayoría de las demás integraciones de IA en otros sistemas simplemente permiten realizar llamadas remotas al modelo, lo cual es útil si se desea introducir datos directamente en el modelo desde la base de datos y luego devolver la respuesta al usuario. El problema con ese flujo de trabajo es que no permite aprovechar al máximo el resultado de la acción del modelo ni personalizar y optimizar el comportamiento de los LLM”, señala.

    “Por otro lado”, explica, “el enfoque de RavenDB es crear un pipeline dedicado, donde los desarrolladores pueden simplemente ingresar un mensaje que le indica al modelo qué debe hacerse, el modelo procesa la solicitud junto con los datos en la base de datos y aplica los resultados a la base de datos de forma continua”.

    RavenDB invocará el modelo para aplicar la lógica del usuario a cualquier dato nuevo a medida que se agregue, lo que significa que ya no hay que esperar mucho tiempo para obtener resultados. Inyectar “inteligencia” a la base de datos también impide utilizar el modelo si no es necesario. RavenDB puede detectar si esos datos específicos son pertinentes para la tarea definida del modelo y omitir la invocación del modelo si no lo son (eliminando así llamadas innecesarias al modelo y los costos asociados).

    La nueva función de RavenDB permite usar de forma segura cualquier LLM directamente en la base de datos, ya sea una oferta comercial —como Open AI, Mystral o Grok— o un modelo de código abierto. Los clientes también pueden incorporar modelos especializados, como LLM médicos, o aquellos optimizados para sus necesidades específicas. El enfoque de “gobernanza por defecto” que RavenDB utiliza en sus productos limita las capacidades del modelo, impidiéndole realizar cambios no autorizados en la base de datos o acceder a los sistemas internos. Esto agiliza el desarrollo de aplicaciones y lo hace más seguro, brindando mayor tranquilidad a los equipos de riesgo.

    En lugar de necesitar canales de datos complejos o API específicas de proveedores y grandes cantidades de conocimientos de ingeniería y ciencia de datos en la búsqueda de pasar del prototipo a la producción, los equipos de toda la organización ahora pueden ejecutar tareas GenAI directamente dentro de la base de datos, reduciendo significativamente la brecha entre el experimento y el resultado final.

    “Los desarrolladores ahora tienen control total sobre todo lo que más les preocupa, como el costo, el rendimiento y el cumplimiento normativo”, afirma Eini. “Desde nuestra perspectiva, la clave es que, al facilitarles el uso de la IA en sus sistemas, les permitimos aplicar modelos sofisticados en todas partes. La idea es que, en lugar de pasar meses en procesos de integración, ahora son tan sencillos como ejecutar una consulta. El resultado final es una tecnología que permite pasar de la idea a la implementación más rápido que nunca y prácticamente sin interrupciones”.

    Fuente.

    Venture Beat (2025, 8 de julio). Incorporar GenAI a la base de datos cambia todo en el desarrollo de aplicaciones. Recuperado el 09 de julio de 2025, de: https://venturebeat.com/data-infrastructure/bringing-genai-into-the-database-changes-everything-about-app-development/

  • La UE quiere triplicar su capacidad en centros de datos en siete años

    La UE quiere triplicar su capacidad en centros de datos en siete años

    Bruselas presenta un plan para “convertirse en un líder global en inteligencia artificial”, pero no concreta con qué fondos se financiará ni si se basará en tecnología estadounidense

    Europa no quiere perder el tren de la inteligencia artificial (IA). Así es, al menos, cómo justifica el lanzamiento del llamado Plan de Acción Continente IA, que ha presentado hoy la vicepresidenta de la Comisión Europea y comisaria de Soberanía tecnológica, seguridad y democracia, Henna Virkkunen. El plan incluye triplicar las infraestructuras de centros de datos en siete años y desarrollar lo que han bautizado como gigafactorías de IA: centros de computación con al menos 100.000 chips de última generación cada uno. La UE pretende movilizar 20.000 millones de euros para ello, aunque no concreta de dónde saldrán esos fondos.

    El plan cuenta con cinco pilares. El primero tiene que ver con la supercomputación. La UE trabaja aquí con las llamadas fábricas de IA, como la que se desarrollará en Barcelona, e introduce las gigafactorías, una versión más grande de estas fábricas. La Unión se propone también “triplicar al menos” el número de centros de datos que hay en Europa. Para ello, promoverá una ley de Desarrollo de la nube y la IA que “creará las condiciones adecuadas para que la UE incentive grandes inversiones” en este terreno, con especial atención a su impacto medioambiental.

    El segundo y el tercer pilar tiene que ver con asegurar que haya datos de alta calidad para entrenar los modelos de IA, lo que se logrará con la creación de Laboratorios de datos (Data Labs) y con el lanzamiento de una Estrategia de Datos, así como con el desarrollo de algoritmos y su adopción en sectores estratégicos. El cuarto pilar versa sobre el refuerzo de habilidades y competencias en IA, que se vehiculará a través de becas y de la creación de academias de IA.

    El quinto pilar se titula simplificación regulatoria. Y eso llama la atención, porque el Reglamento Europeo de IA se aprobó hace solo un año y se está empezando a desplegar ahora. ¿Significa eso que el reglamento se hizo mal? “No se trata solo de este reglamento, sino de revisar toda la normativa para ver si podemos reducir la burocracia para las pymes y grandes empresas. Buscamos que se puedan hacer las cosas de forma más rápida, pero seguimos defendiendo los principios de minimización de riesgos incluida en el reglamento”, ha dicho Virkkunen, que no cree que la simplificación normativa genere inseguridad jurídica.

    Fuentes comunitarias aseguran que “el juego no se ha terminado” y que, aunque parezca que China y EE UU llevan ventaja en materia de IA, Europa tiene muchos “activos” para convertirse en un “líder importante” en esta industria. Sin embargo, la comisaria no ha dado detalles acerca de hasta qué punto el plan que se ha presentado se desarrollará con tecnología europea o seguirá dependiendo de la estadounidense.

    “Necesitamos comprar chips, y estamos negociando en EE UU cómo hacerlo”, ha dicho Virkkunen en alusión a las limitaciones a las exportaciones estadounidenses de chips decretada por la Administración Biden. “Estamos tratando de desarrollar nuestras propias capacidades”, asegura la comisaria.

    Respuesta a EE UU

    El plan de la UE llega cuatro meses después de que el presidente de EE UU, Donald Trump, anunciase inversiones por valor de 500.000 millones de dólares (unos 480.000 millones de euros, 24 veces más que lo comprometido hoy en Bruselas) en cuatro años para impulsar la IA. Ese dinero, que Trump describió como “el mayor proyecto de infraestructura de IA, con diferencia, de la historia”, se dedicará fundamentalmente a construir centros de datos y plantas energéticas para alimentarlos. El capital del proyecto, bautizado como Stargate, procederá de SoftBank, OpenAI, Oracle y el fondo soberano de Abu Dhabi MGX.

    Trump dijo que utilizará declaraciones de emergencia y decretos para asegurar el acceso ininterrumpido a energía que requieren este tipo de instalaciones. Una de las 41 órdenes ejecutivas que firmó Trump en el día de su regreso a la Casa Blanca supondrá la revisión de todas las normativas federales que impongan una “carga indebida” al desarrollo o la utilización de diversas fuentes de energía, en particular el carbón, el petróleo, el gas natural, la energía nuclear, siendo esta última una de las soluciones barajadas por las grandes tecnológicas para asegurarse un suministro energético continuo en sus centros de datos.

    Este aspecto clave no queda resuelto en el plan anunciado por Virkkunen, más allá de mencionar que se adoptará una Hoja de ruta para la digitalización y la IA en el sector energético, que deberá estar lista el año que viene. En ella “se propondrán medidas para facilitar la integración sostenible de los centros de datos en el sistema energético” y que “se afrontarán otros asuntos relacionados con la energía” que demandan estas infraestructuras.

    Fuente.

    El País (2025, 09 de abril). La UE quiere triplicar su capacidad en centros de datos en siete años. Recuperado el 10 de abril de 2025, de: https://elpais.com/tecnologia/2025-04-09/la-ue-quiere-triplicar-su-capacidad-en-centros-de-datos-en-siete-anos.html

  • ¿Qué les depara el futuro a las bases de datos de Google Cloud? IA en SQL y más

    ¿Qué les depara el futuro a las bases de datos de Google Cloud? IA en SQL y más

    Durante décadas, el lenguaje de consulta SQL ha sido la piedra angular de la tecnología de bases de datos.

    Pero ¿qué sucede al integrar SQL con la IA generativa moderna? Esa es la pregunta que Google Cloud responde con una serie de actualizaciones de bases de datos que se lanzarán hoy en la conferencia Google Cloud Next de la compañía.

    Durante el último año, todas las bases de datos de Google Cloud incorporaron algún tipo de compatibilidad con vectores, lo que facilita casos de uso de IA. En Google Cloud Next, se están actualizando varias bases de datos, incluyendo Firestore, que ahora es compatible con MongoDB. Google Bigtable está incorporando compatibilidad con vistas materializadas, y la compatibilidad con Oracle Database en Google Cloud también se está expandiendo.

    La noticia más importante y transformadora, al menos desde la perspectiva de la IA de bases de datos, se encuentra en la base de datos AlloyDB. Google lanzó AlloyDB en 2022 como una versión mejorada de la base de datos PostgreSQL de código abierto. En el evento Google Next del verano de 2024, se incorporaron incrustaciones vectoriales en AlloyDB, así como compatibilidad con Duet AI para facilitar la migración de bases de datos.

    Hoy, AlloyDB se está ampliando con la integración con Agentspace de Google, que también se presentará en el evento Google Cloud Next. Sin embargo, quizás lo más interesante sea el nuevo motor de consultas de IA, que por primera vez permite expresiones de lenguaje natural directamente en consultas SQL.

    El motor de consulta API de AlloyDB incorpora el lenguaje natural directamente a SQL

    El nuevo motor de consulta de inteligencia artificial de Google para AlloyDB permite a los desarrolladores usar expresiones de lenguaje natural dentro de consultas SQL estándar, no solo reemplazando SQL, sino mejorándolo con capacidades de inteligencia artificial.

    “Estamos incorporando un motor de consultas de IA a AlloyDB”, declaró Andi Gutmans, gerente general y vicepresidenta de Ingeniería de Bases de Datos de Google Cloud, a VentureBeat en una entrevista exclusiva. “En una consulta SQL, tendremos operadores que pueden usar lenguaje natural y modelos básicos, así como operadores SQL tradicionales. Y es posible combinarlos”.

    Esta innovación marca una evolución significativa en las interfaces de bases de datos. SQL, acrónimo de Lenguaje de Consulta Estructurado (Structured Query Language), se introdujo por primera vez en 1973. Durante los últimos 50 años, ha sido el estándar de facto para las consultas estructuradas de bases de datos. La promesa original de SQL era facilitar la ejecución de consultas de bases de datos con un lenguaje que usara palabras en inglés de forma natural. Las consultas y acciones SQL comunes incluyen términos como “insertar” y “unir”, pero no es un lenguaje completamente natural.

    “Estamos cumpliendo una promesa de hace 50 años según la cual SQL debería imitar al inglés actual”, afirmó Gutmans.

    El motor de consulta permite a los desarrolladores combinar una sintaxis SQL precisa con expresiones de lenguaje natural flexibles.

    A diferencia de otros enfoques que simplemente traducen el lenguaje natural a SQL, la implementación de Google integra el lenguaje natural directamente en el propio lenguaje de consulta. Google ejecuta operadores semánticos basados ​​en modelos básicos junto con operadores relacionales tradicionales en el motor de base de datos.

    “Cuando SQL se lanzó en 1973, la idea era: ‘Queríamos un lenguaje natural para consultar datos’, y SQL era una especie de lenguaje natural”, dijo Gutmans. “Pero, en realidad, ahora deberíamos considerarlo así: esta es la promesa de SQL, porque ahora se puede usar aún más lenguaje natural como parte de la consulta SQL, pero aún así está bien estructurado”.

    La integración de Agentspace democratiza el acceso a las bases de datos

    Google Cloud también está conectando AlloyDB con su plataforma Agentspace, creando una interfaz de lenguaje natural que extiende el acceso a la base de datos más allá de los especialistas técnicos a prácticamente cualquier empleado de una organización.

    Si bien los desarrolladores y administradores de bases de datos se benefician del motor de consulta de inteligencia artificial de AlloyDB, los usuarios comerciales habituales utilizarán Agentspace.

    “Es para el empleado promedio de una organización que intenta realizar su trabajo”, dijo Gutmans. “Una de las maneras de lograrlo es contar con una interfaz de lenguaje natural, que le permita hacer preguntas sobre todos los datos empresariales a los que tiene acceso”.

    Lo que hace que esta integración sea particularmente potente es cómo mantiene la seguridad a la vez que amplía el acceso. A diferencia de otras interfaces de bases de datos de lenguaje natural, la implementación de Google aprovecha su potente plataforma Agentspace, que sabe cómo razonar no solo sobre una única fuente de datos, sino sobre múltiples fuentes. Podría tratarse de una búsqueda web, AlloyDB u otros datos empresariales no estructurados.

    La optimización de la búsqueda vectorial ofrece resultados comerciales mensurables

    Durante el último año, todas las bases de datos de Google Cloud incorporaron algún tipo de compatibilidad con vectores, lo que facilita casos de uso de IA. En Google Cloud Next, se están actualizando varias bases de datos, incluyendo Firestore, que ahora es compatible con MongoDB. Google Bigtable está incorporando compatibilidad con vistas materializadas, y la compatibilidad con Oracle Database en Google Cloud también se está expandiendo.

    La noticia más importante y transformadora, al menos desde la perspectiva de la IA de bases de datos, se encuentra en la base de datos AlloyDB. Google lanzó AlloyDB en 2022 como una versión mejorada de la base de datos PostgreSQL de código abierto. En el evento Google Next del verano de 2024, se incorporaron incrustaciones vectoriales en AlloyDB, así como compatibilidad con Duet AI para facilitar la migración de bases de datos.

    Hoy, AlloyDB se está ampliando con la integración con Agentspace de Google, que también se presentará en el evento Google Cloud Next. Sin embargo, quizás lo más interesante sea el nuevo motor de consultas de IA, que por primera vez permite expresiones de lenguaje natural directamente en consultas SQL.

    El motor de consulta API de AlloyDB incorpora el lenguaje natural directamente a SQL

    El nuevo motor de consulta de inteligencia artificial de Google para AlloyDB permite a los desarrolladores usar expresiones de lenguaje natural dentro de consultas SQL estándar, no solo reemplazando SQL, sino mejorándolo con capacidades de inteligencia artificial.

    “Estamos incorporando un motor de consultas de IA a AlloyDB”, declaró Andi Gutmans, gerente general y vicepresidenta de Ingeniería de Bases de Datos de Google Cloud, a VentureBeat en una entrevista exclusiva. “En una consulta SQL, tendremos operadores que pueden usar lenguaje natural y modelos básicos, así como operadores SQL tradicionales. Y es posible combinarlos”.

    Esta innovación marca una evolución significativa en las interfaces de bases de datos. SQL, acrónimo de Lenguaje de Consulta Estructurado (Structured Query Language), se introdujo por primera vez en 1973. Durante los últimos 50 años, ha sido el estándar de facto para las consultas estructuradas de bases de datos. La promesa original de SQL era facilitar la ejecución de consultas de bases de datos con un lenguaje que usara palabras en inglés de forma natural. Las consultas y acciones SQL comunes incluyen términos como “insertar” y “unir”, pero no es un lenguaje completamente natural.

    “Estamos cumpliendo una promesa de hace 50 años según la cual SQL debería imitar al inglés actual”, afirmó Gutmans.

    El motor de consulta permite a los desarrolladores combinar una sintaxis SQL precisa con expresiones de lenguaje natural flexibles.

    A diferencia de otros enfoques que simplemente traducen el lenguaje natural a SQL, la implementación de Google integra el lenguaje natural directamente en el propio lenguaje de consulta. Google ejecuta operadores semánticos basados ​​en modelos básicos junto con operadores relacionales tradicionales en el motor de base de datos.

    “Cuando SQL se lanzó en 1973, la idea era: ‘Queríamos un lenguaje natural para consultar datos’, y SQL era una especie de lenguaje natural”, dijo Gutmans. “Pero, en realidad, ahora deberíamos considerarlo así: esta es la promesa de SQL, porque ahora se puede usar aún más lenguaje natural como parte de la consulta SQL, pero aún así está bien estructurado”.

    La integración de Agentspace democratiza el acceso a las bases de datos

    Google Cloud también está conectando AlloyDB con su plataforma Agentspace, creando una interfaz de lenguaje natural que extiende el acceso a la base de datos más allá de los especialistas técnicos a prácticamente cualquier empleado de una organización.

    Si bien los desarrolladores y administradores de bases de datos se benefician del motor de consulta de inteligencia artificial de AlloyDB, los usuarios comerciales habituales utilizarán Agentspace.

    “Es para el empleado promedio de una organización que intenta realizar su trabajo”, dijo Gutmans. “Una de las maneras de lograrlo es contar con una interfaz de lenguaje natural, que le permita hacer preguntas sobre todos los datos empresariales a los que tiene acceso”.

    Lo que hace que esta integración sea particularmente potente es cómo mantiene la seguridad a la vez que amplía el acceso. A diferencia de otras interfaces de bases de datos de lenguaje natural, la implementación de Google aprovecha su potente plataforma Agentspace, que sabe cómo razonar no solo sobre una única fuente de datos, sino sobre múltiples fuentes. Podría tratarse de una búsqueda web, AlloyDB u otros datos empresariales no estructurados.

    La optimización de la búsqueda vectorial ofrece resultados comerciales mensurables

    Esta capacidad elimina la necesidad de canales de flujo de datos complejos para calcular agregados, lo que simplifica las arquitecturas para análisis en tiempo real. 

    Qué significa esto para la adopción de IA empresarial

    Para las empresas que desarrollan aplicaciones de IA, las mejoras de la base de datos de Google ofrecen varias ventajas inmediatas. El motor de consultas de IA permite un acceso más intuitivo a los datos, manteniendo la estructura y la seguridad de SQL. La búsqueda vectorial optimizada ofrece mejoras de rendimiento mensurables para las aplicaciones de búsqueda semántica. Por último, la integración de Agentspace amplía el acceso a la base de datos en todas las organizaciones sin necesidad de conocimientos de SQL.

    Para las empresas que buscan liderar la adopción de IA, estas innovaciones significan que la infraestructura de bases de datos ahora puede participar activamente en los flujos de trabajo de IA, en lugar de simplemente almacenar datos. La convergencia de la estructura de SQL con la flexibilidad del lenguaje natural crea oportunidades para aplicaciones más inteligentes que aprovechan la inteligencia humana y de las máquinas sin necesidad de rediseñar completamente el sistema.

    Quizás lo más importante es que el enfoque de Google demuestra que las empresas no necesitan abandonar sus inversiones en bases de datos para adoptar las capacidades de IA. Como lo expresó Gutmans sucintamente cuando se le preguntó si SQL se estaba volviendo obsoleto: «SQL ha muerto. ¡Viva SQL!».

    Fuente

    Venture Beat (2025, 09 de abril). ¿Qué les depara el futuro a las bases de datos de Google Cloud? IA en SQL y más. Recuperado el 09 de abril de 2025, de: https://venturebeat.com/data-infrastructure/whats-next-for-google-cloud-databases-ai-inside-sql-and-more/

  • EE.UU. reactiva energía nuclear para alimentar Centros de Datos de sus tecnológicas

    EE.UU. reactiva energía nuclear para alimentar Centros de Datos de sus tecnológicas

    Luego de haber sido prácticamente vetada en el ocaso del siglo XX, en los últimos años —y específicamente en los últimos meses—, la energía nuclear ha renacido. Esto tiene una sede, Estados Unidos, y un motivo: la cuantiosa energía que requieren sus empresas tecnológicas para alimentar sus Centros de Datos.

    A pesar de la diversificación geográfica que ha acontecido en las últimas dos décadas, Virginia continúa siendo el mayor mercado global de Data Centers: tiene casi un centenar de campus con 5.9 GW en operación, 1.8 GW en construcción y 15.4 GW planeados. Por ahora, una cuarta parte de su demanda eléctrica proviene de ellos, con la proyección de que la cuota ascienda a 40 por ciento hacia 2030.

    Estados Unidos es el país que alberga la mayor cantidad de Centros de Datos del mundo, con alrededor de un tercio (33%) del total mundial. Eso hace que los Data Centers sean el mayor contribuidor del crecimiento de la demanda eléctrica. EE. UU. es el segundo mayor consumidor mundial de electricidad, sólo después de China.

    Globalmente, la Asociación Internacional de Energía (IEA, por sus siglas en inglés) estima que, a causa de tendencias actuales como la Inteligencia Artificial y las criptomonedas, la demanda de electricidad de los Centros de Datos, IA y cripto podría duplicarse en cuatro años, al pasar de 460 TWh en 2022 a un rango de entre 620 y 1050 TWh en 2026, con un escenario base de 800 TWh. Eso equivaldría a una demanda adicional de 160 a 590 TWh.

    EE. UU. revive la energía nuclear

    Estados Unidos, el país que desarrolló y lanzó la primera bomba atómica, es también el que está encabezando el renacimiento de la industria: la generación nuclear tuvo un incremento interanual de casi 1 por ciento en 2024. El año pasado también comenzó operaciones el primer proyecto nuclear comercial nuevo en más de tres décadas en territorio estadounidense. Por ello se estima que la generación nuclear crezca 2 por ciento en 2025, es decir, más del doble que el año previo, para después mantenerse estable hasta 2027.

    El renacimiento de la energía nuclear en Estados Unidos es una apuesta público-privada, promovida por el gobierno y desplegada por la iniciativa privada, pero las más interesadas son las compañías tecnológicas, precisamente para satisfacer la voracidad de sus Centros de Datos.

    Big Tech aseguran suministro con energía nuclear

    En el transcurso de sólo unos meses —incluso semanas—, las tres gigantes tecnológicas estadounidenses que son también hiperescaladores y, por lo tanto, proveen servicios de computación en la Nube para otras empresas, sellaron y anunciaron acuerdos para garantizar su suministro energético con producción nuclear.

    Microsoft fue la empresa que empezó esta nueva carrera nuclear: en septiembre de 2024 anunció que firmó un acuerdo con Constellation para comprarle energía nuclear por 20 años. Esto hará que la empresa de energía reactive su planta nuclear Three Mile Island, donde en 1979 ocurrió el más grave accidente nuclear en la historia de EE. UU., aunque no en la misma unidad que usará para Microsoft.

    Tres semanas después, Google anunció un acuerdo con Kairos Power para comprarle energía nuclear de reactores modulares pequeños (SMR, por sus siglas en inglés). Estos son cruciales y están recibiendo cada vez más atención. Según ambas instituciones, el acuerdo permitirá suministrar hasta 500 MW de energía libre de carbono a las redes eléctricas de EE. UU.

    Ahora, tan sólo un par de días después, Amazon anunció tres acuerdos simultáneos de proyectos con reactores modulares pequeños: con Energy Northwest en Washington para generar 320 MW; con Dominion Energy para aportar 300 MW de energía de SMR a la región de Virginia, los cuales se sumaron al acuerdo que había firmado previamente con Talen Energy para instalar un Centro de Datos junto a su planta nuclear en Pensilvania.

    Sin embargo, esta no es una apuesta inmediata, sino a largo plazo. Luego de que Constellation la cerrara en 2020 “debido a una mala situación económica”, planea volver a poner en funcionamiento la Unidad 1 de Three Mile Island, que agregará 385 MW a la red, en 2028 con el nuevo nombre de Centro de Energía Limpia Crane (CCEC); mientras que la fase inicial del primer SMR de Kairos Power para Google está prevista para 2030, con miras a implementar reactores adicionales hacia 2035.

    Apuesta global

    Según la IEA, globalmente se han anunciado planes para construir hasta 25 GW de capacidad de SMR asociada al suministro de Centros de Datos, casi todos en Estados Unidos. Esta potencia es similar a la proyectada para el estado de Virginia.

    EE. UU. es el líder mundial en innovación de SMR, debido a que el gobierno federal ha apoyado el desarrollo de múltiples diseños mediante distintos instrumentos, el más reciente de ellos la Ley ADVANCE, que el gobierno asegura que le ayudará a construir nuevos reactores a un ritmo sin precedentes desde la década de 1970. El Departamento de Energía (DOE) estima que se requerirán 375 mil trabajadores adicionales para alcanzar los 200 GW de capacidad nuclear avanzada para 2050.

    Sin embargo, aunque es el país que va a la vanguardia, no es el único que respalda la energía nuclear. En la COP 28 de Dubái en 2023, una veintena de países firmaron una Declaración para triplicar la capacidad de energía nuclear para 2050. La declaración, liderada por EE. UU. y respaldada por firmantes de cuatro continentes, entre los que destacan Canadá, Francia, Japón, Suecia, Ucrania, Emiratos Árabes Unidos y el Reino Unido, “reconoce el papel clave de la energía nuclear para lograr cero emisiones netas globales de gases de efecto invernadero (GEI) para 2050”.

    Hace un par de semanas, a mediados de marzo de 2025, tres gigantes tecnológicas estadounidenses, Amazon, Google y Meta, firmaron un compromiso de triplicar la capacidad nuclear mundial para 2050, bajo el argumento de que será fundamental para satisfacer la demanda energética futura, fortalecer la seguridad nacional de Estados Unidos y abordar el cambio climático, por su capacidad de proporcionar energía limpia independientemente del clima, la estación o la ubicación geográfica.

    Los contrarios y los opositores

    No existe, sin embargo, un consenso, y el respaldo no es unánime. Entre los firmantes de la declaración de la COP 28 no se encuentran los BRICS: Brasil, Rusia, India, China y Sudáfrica. Eso quiere decir que las naciones opositoras del bloque occidental no respaldan explícitamente la nueva apuesta por reactivar el desarrollo de energía nuclear.

    Además, cabe recordar el Tratado de No Proliferación Nuclear (TNP) que se inauguró en 1968 tras la detonación de armas nucleares por parte de Estados Unidos en Hiroshima y Nagasaki en 1945, y cinco décadas más tarde se prorrogó indefinidamente. Aunque aquí cabe aclarar que en inglés sí se distinguen las palabras que se refieren a ambas acciones: nuclear energy para la generación de energía y nuclear power para la capacidad armamentística y el potencial destructivo.

    Además, el argumento que los promotores, el gobierno de Estados Unidos y sus compañías tecnológicas, esgrimen para su uso es que se trata de energía limpia, estable y abundante y la enmarcan dentro de sus acciones para abordar el cambio climático y reducir sus emisiones de carbono; sin embargo, organizaciones ecologistas, como Greenpeace, advierten que “la energía nuclear es incompatible con un modelo energético sostenible”, ya que la consideran peligrosa, sucia —por los residuos radiactivos que generan las centrales nucleares— y muy cara.

    Fuente.

    DPL News (2025, 31 de marzo). EE.UU. reactiva energía nuclear para alimentar Centros de Datos de sus tecnológicas. Recuperado el 01 de abril de 2025, de: https://dplnews.com/ee-uu-reactiva-energia-nuclear-para-centros-de-datos/

  • 43% de nuevos centros de datos en México estará destinado a inteligencia artificial: expertos

    43% de nuevos centros de datos en México estará destinado a inteligencia artificial: expertos

    El crecimiento de la IA impulsa la infraestructura de centros de datos en el país, lo que provocará un aumento en la demanda de ancho de banda y de la capacidad de interconexión, según miembros de la industria de centros de datos.

    El crecimiento de las cargas de trabajo de inteligencia artificial (IA) impulsa una transformación en la infraestructura de los centros de datos en México y en el mundo.

    Un estudio realizado por Ciena y Censuswide muestra que 43% de las nuevas instalaciones de centros de datos en el país tendrá que estar destinado a soportar cargas de trabajo de IA, lo que refleja una tendencia global hacia el aumento del ancho de banda y la capacidad de interconexión entre centros de datos (DCI, Data Center Interconnect).

    Crecimiento de la demanda

    La encuesta, realizada a más de 1,300 responsables de la toma de decisiones en centros de datos de 13 países, destaca que 53% de los expertos considera que la IA será la mayor fuente de demanda de infraestructura DCI en los próximos 2 a 3 años, por encima de la computación en la nube (51%) y el análisis de big data (44%).

    Según el estudio, 79% de los expertos en centros de datos en México prevé un incremento de al menos seis veces en la demanda de ancho de banda de interconexión de centros de datos en los próximos cinco años. Este crecimiento se debe a la necesidad de mayor capacidad de transmisión de datos para el entrenamiento y la inferencia de modelos de IA.

    A nivel global, 87% de los encuestados cree que necesitará un ancho de banda de 800 Gb/s o más por longitud de onda para satisfacer las crecientes exigencias de interconexión. En el caso de México, este porcentaje es idéntico, lo que indica que el país está alineado con las tendencias globales en cuanto a requerimientos de infraestructura para IA.

    Brasil

    Brasil, uno de los principales mercados de centros de datos en América Latina, muestra un crecimiento aún más acelerado en la adopción de infraestructura para IA. Según el estudio, 46% de los nuevos centros de datos en el país estarán enfocados en cargas de trabajo de IA, superando a México en tres puntos porcentuales.

    El 74% de los expertos brasileños anticipa que la demanda de ancho de banda de interconexión de centros de datos crecerá al menos seis veces en los próximos cinco años. Además, 91% cree que se necesitarán 800 Gb/s o más por longitud de onda para satisfacer las necesidades del sector.

    Desafíos para el sector

    A pesar del crecimiento del sector, la Asociación Mexicana de Data Centers (MexDC) advierte que el acceso a la energía y la falta de coordinación entre los distintos niveles de gobierno podrían comprometer futuras inversiones en centros de datos en México. La industria proyecta inversiones directas por 9,200 millones de dólares y una inversión indirecta de 27,500 millones de dólares hasta 2029. Sin embargo, para concretarlas, se requiere un suministro eléctrico adicional de al menos 1,200 megawatts.

    Actualmente, la capacidad disponible para los centros de datos en México es de 300 megawatts, aunque la industria estima que será necesario alcanzar 1,500 megawatts o 1.5 gigawatts para atender la demanda proyectada en los próximos cinco años.

    La MexDC ha reconocido los esfuerzos del gobierno mexicano para expandir la capacidad de generación y transmisión de energía, pero enfatiza la necesidad de actualizar el marco regulatorio para crear condiciones favorables a la inversión.

    Desde 2019, la industria de centros de datos ha experimentado un crecimiento significativo en México, con Querétaro y la región del Bajío como puntos clave de desarrollo. Empresas como AWS, Google y OData han invertido en esta zona, generando la concentración de al menos 15 compañías del sector en los últimos años. No obstante, el crecimiento de la demanda ha superado la capacidad de infraestructura eléctrica existente, lo que ha llevado a las empresas a solicitar permisos para aumentar la capacidad disponible.

    Para lograr la meta de 70 nuevos centros de datos hacia 2029, se estima que será necesaria una inversión en infraestructura eléctrica de al menos 8,800 millones de dólares. Sin una estrategia coordinada entre los distintos niveles de gobierno, los retrasos en la autorización de infraestructura podrían afectar el avance de estos proyectos, lo que a su vez afectaría el desarrollo de aplicaciones de Inteligencia Artificial.

    Fuente.

    El Economista (2025, 18 de marzo). 43% de nuevos centros de datos en México estará destinado a inteligencia artificial: expertos. Recuperado el 25 de marzo de 2025, de: https://www.eleconomista.com.mx/tecnologia/43-nuevos-centros-datos-mexico-estara-destinado-inteligencia-artificial-expertos-20250318-750967.html