Category: Big data

  • Microsoft anuncia nuevos centros de datos sin consumo de agua

    Microsoft anuncia nuevos centros de datos sin consumo de agua

    Mediante la implantación de soluciones de refrigeración a nivel de los chips, este nuevo diseño garantiza un control preciso de la temperatura.

    Microsoft ya no consumirá agua extra para enfriar sus centros de datos en España. La compañía anunció un diseño que no utiliza agua para la refrigeración de los mismos.

    La compañía de Redmond explicó que mediante la implantación de soluciones de refrigeración a nivel de los propios chips, este nuevo diseño garantiza un control preciso de la temperatura sin depender de la evaporación del agua.

    Explicó que estas nuevas tecnologías de refrigeración líquida recirculan el agua a través de un circuito cerrado.

    Detalló que una vez que el sistema se llena durante la construcción del centro, hace circular agua continuamente entre los servidores y los equipos de refrigeración para disipar el calor sin necesidad del suministro de más agua.

    Eoin Doherty, vicepresidente de Cloud Operations + Innovation de Microsoft EMEA, fue el encargado de anunciar la aplicación de este nuevo diseño de refrigeración a las infraestructuras de Inteligencia Artificial y Nube que Microsoft tiene previsto construir en España.

    “Nuestro diseño de centros de datos Zero-Water es un importante paso adelante en nuestro objetivo de ofrecer una Nube sostenible y de alto rendimiento que beneficie tanto a las empresas como a la ciudadanía.

    “En Microsoft trabajamos para construir y operar infraestructuras digitales que no sólo impulsen la innovación, sino que también aborden los retos sociales y beneficien a las comunidades a las que servimos”, comentó Eoin Doherty.

    Microsoft detalló que sus centros de datos operaron en todo el mundo con un WUE (Water Usage Effectiveness) medio de 0.30 L/kWh en el último año fiscal. Esto representa una mejora de 39 por ciento respecto a 2021.

    Microsoft aseveró que desde el año 2000, el WUE de sus centros de datos ha mejorado en un 80 por ciento en comparación con la primera generación de infraestructuras Cloud.

    Se espera que el despliegue de la siguiente generación de centros de datos ayude a reducir el WUE global de Microsoft a un valor prácticamente nulo para cada centro de datos que emplee la nueva tecnología de evaporación Zero-Water.

    Microsoft se ha comprometido a ser positiva en agua para 2030, lo que significa que la empresa devolverá más agua de la que consume.

    Fuente.

    DPL News (2025, 19 de marzo). Microsoft anuncia nuevos centros de datos sin consumo de agua. Recuperado el 19 de marzo de 2025, de: https://dplnews.com/microsoft-nuevos-centros-de-datos-sin-consumo-de-agua/

  • La nación que se adelante en Centros de Datos tendrá una ventaja competitiva: Carlos Barroso de Nokia

    La nación que se adelante en Centros de Datos tendrá una ventaja competitiva: Carlos Barroso de Nokia

    La infraestructura digital de México está en plena transformación con el auge de los Centros de Datos, impulsados por la creciente demanda de datos, Inteligencia Artificial y servicios en la Nube. En entrevista exclusiva, Carlos Barroso, LAT IP Business Center Leader de Nokia, destacó que el país se encuentra en una posición estratégica para convertirse en un hub de Data Centers en América Latina, con una inversión proyectada de más de 7 mil millones de dólares en los próximos años.

    “Sin Centros de Datos no hay Internet ni conectividad. Son el corazón de la digitalización y estratégicos para un país. La nación que se adelante en infraestructura de Centros de Datos tendrá una ventaja competitiva por varios años”, refirió el directivo de Nokia.

    Carlos Barroso mencionó que México cuenta con más de 160 Centros de Datos operativos y que se espera un crecimiento significativo con la adición de 70 a 75 nuevos Data Centers en los próximos cuatro años. “No sólo crece la cantidad de Centros de Datos, sino que los existentes también tienen que expandirse”, afirmó Barroso. Además, el consumo energético de estos centros podría multiplicarse por diez, hasta alcanzar los 1,000 megavatios.

    El directivo de Nokia resaltó la importancia de la estabilidad y la eficiencia de la infraestructura digital. “Los Centros de Datos han dejado de ser una aplicación de segunda importancia y ahora son el cerebro de la red.” Nokia apuesta a su experiencia en la industria de las telecomunicaciones y por la innovación en hardware y software para garantizar la confiabilidad y seguridad de estos centros.

    Barroso destacó que el software es uno de los diferenciadores clave para Nokia en la industria de los Data Center. “El 15 por ciento de los problemas en los Centros de Datos se debe a fallos en la configuración del software, lo cual provoca desperdicio de energía y reduce la eficiencia operativa. Nuestro objetivo es ofrecer soluciones que minimicen estas fallas y maximicen la estabilidad de la infraestructura digital.”

    Enfatizó que el Service Router Linux (SR-Linux) de Nokia es una de las innovaciones más importantes en el sector. Permite mayor programabilidad, estabilidad y flexibilidad para los operadores de Centros de Datos.

    Sobre los retos que enfrenta la industria, Barroso identificó la escasez de talento especializado como un cuello de botella. “Es crucial atraer nuevos profesionales y hacer que el ecosistema sea más accesible. Por ello, estamos promoviendo plataformas abiertas y colaboración con socios estratégicos para fomentar el desarrollo de la industria”.

    Respecto de la sustentabilidad, un tema clave en los Centros de Datos, destacó que Nokia ha trabajado en reducir el consumo energético de su hardware, al tiempo que permite un aumento de la capacidad sin incrementar la demanda de energía. “En muchas ciudades, los Centros de Datos son los mayores consumidores de electricidad. Nuestra meta es optimizar su eficiencia y minimizar su impacto ambiental.” Nokia tiene el objetivo de lograr el mejor consumo energético posible en los Centros de Datos, aprovechando su tecnología de última generación para hacer más con menos recursos.

    La seguridad en las redes y los Data Center es otro pilar clave para Nokia. “La protección de datos es fundamental. Contamos con tecnología de cifrado quantum-safe y soluciones avanzadas contra ataques DDoS, para asegurar que los datos estén resguardados con los más altos estándares de la industria”, además de que cumple con los estándares del National Institute of Standards and Technology (NIST) de Estados Unidos.

    Subrayó que la tecnología de Nokia es la menos vulnerable del mercado, lo cual la convierte en una opción altamente confiable para empresas que buscan robustez y estabilidad en sus Centros de Datos.

    DPL Digital Stars

    Pensamiento digital, ideas centrales y visión de Carlos Barroso acerca de Centros de Datos

    En DPL News buscamos difundir el pensamiento digital y tecnológico para promover el ejercicio de derechos fundamentales a través de las TIC.

    México como Hub digital: “México tiene una posición estratégica y una proyección de inversión en Centros de Datos de 7 mil millones de dólares en los próximos años.”

    Crecimiento exponencial de consumo de energía: “El consumo energético de los Centros de Datos en México podría crecer de 80 MW a 1,000 MW en pocos años.”

    Infraestructura crítica: “Los Centros de Datos han pasado de ser secundarios a convertirse en el cerebro y corazón de la digitalización.”

    Innovación en hardware y software: “Nokia ofrece soluciones con menor consumo energético y software más estable para garantizar operación continua.”

    Importancia del software: “El 15% de los problemas en los Centros de Datos se debe a fallos en la configuración del software, lo que genera desperdicio de energía y reduce la eficiencia operativa.”

    Escasez de talento: “Uno de los mayores retos del sector es la falta de profesionales especializados en Centros de Datos.”

    Sustentabilidad: “Reducir el consumo energético y optimizar recursos es clave en el desarrollo de los Centros de Datos.”

    Ciberseguridad: “Nuestra tecnología es la menos vulnerable del mercado, con encriptación quantum-safe y protección contra ataques masivos DDoS.”

    Descentralización y soberanía de datos: “El resguardo de datos dentro de un país es cada vez más relevante por motivos estratégicos y regulatorios.”

    Mensaje a los gobiernos: “La infraestructura digital es clave para la competitividad nacional y debe ser una prioridad en las estrategias de desarrollo económico.”

    Importancia estratégica: “Sin Centros de Datos, no hay Internet ni conectividad. Son el corazón de la digitalización y estratégicos para un país.”

    Ventaja competitiva: “El país que logre adelantarse en infraestructura de Centros de Datos tendrá una ventaja estratégica por años.”

    Fuente.

    DPL News (2025, 19 de marzo). La nación que se adelante en Centros de Datos tendrá una ventaja competitiva: Carlos Barroso de Nokia. Recuperado el 19 de marzo de 2025, de: https://dplnews.com/la-nacion-que-se-adelante-en-centros-de-datos-tendra-una-ventaja-competitiva-carlos-barroso-de-nokia/

  • Almacenamiento en Centro de Datos flash acelera negocios y cumple soberanía de datos

    Almacenamiento en Centro de Datos flash acelera negocios y cumple soberanía de datos

    Barcelona, España. Enviado. La integración de la Inteligencia Artificial en la infraestructura digital de Nube y Centros de Datos va a redefinir la forma como las empresas almacenan, procesan, automatizan y utilizan sus datos, todo ello de forma ágil y sostenible con el medio ambiente.

    Durante el Data Storage Forum en el Mobile World Congress, Andrew Buss, Senior Research Director de IDC Europe, subrayó la importancia de contar con infraestructuras de TI privadas, automatizadas y basadas en tecnología all-flash para responder a la acelerada generación de datos y los nuevos modelos de negocio.

    Buss explicó que la tendencia se dirige hacia infraestructuras “private-first”: las cargas de trabajo críticas se gestionan dentro de la organización para controlar costos, cumplir con regulaciones de soberanía de datos y aprovechar las capacidades de procesamiento y redes de alta velocidad.

    Según Buss, el auge de tecnologías emergentes como las capacidades de razonamiento de la IA permitirán a las empresas líderes integrar los datos en tiempo real para adaptar su producción y servicios a las demandas del mercado.

    El analista de IFC explicó que la digitalización global obliga a transitar de modelos de negocio basados en bienes físicos hacia economías de servicios y plataformas digitales.

    Los sistemas de almacenamiento deben ser robustos, escalables, capaces de ofrecer movilidad y accesibilidad de datos.

    Otro punto abordado por Buss fue la automatización y orquestación en la gestión de Centros de Datos en entornos híbridos, tanto en Nubes públicas como privadas.

    Finalmente, Buss advirtió el impacto ambiental y el incremento en el consumo energético asociado a los Centros de Datos con IA, los cuales pueden llegar a consumir hasta 10 veces más energía que los Centros de Datos tradicionales. Por lo tanto, se necesitan soluciones de almacenamiento sostenibles con el medio ambiente, sin sacrificar rentabilidad ni seguridad.

    Fuente.

    DPL News (2025, 13 de marzo). Almacenamiento en Centro de Datos flash acelera negocios y cumple soberanía de datos. Recuperado el 13 de marzo de 2025, de: https://dplnews.com/almacenamiento-en-centros-de-datos-flash-acelera-negocios-y-cumple-soberania-de-datos/

  • AWS lanza su región de centros de datos en Querétaro.

    AWS lanza su región de centros de datos en Querétaro.

    Con el inicio de operaciones de este complejo tecnológico, AWS opera 114 zonas de disponibilidad en 36 regiones del mundo.

    Amazon Web Services (AWS) anunció el lanzamiento de la región de centros de datos que instaló en Querétaro, donde invertirá 5,000 millones de dólares.

    Con el inicio de operaciones de este complejo tecnológico, AWS opera 114 zonas de disponibilidad en 36 regiones del mundo.

    La inauguración de la infraestructura de servicios de cómputo en la nube respaldará en promedio a 7,000 empleos de tiempo completo al año, de acuerdo con la vicepresidenta para América Latina de AWS, Paula Bellizia.

    “Llegamos a México para quedarnos porque esta inversión es mucho más que la construcción de centros de datos de vanguardia, se trata de una apuesta decisiva, sostenida por el crecimiento socioeconómico y el futuro digital de este gran país y de todos los mexicanos”, declaró.

    Además, la compañía estadounidense amplió el compromiso para el desarrollo de habilidades digitales de los mexicanos, planteando el objetivo de entrenar a más de 200,000 personas a finales del próximo año, que se sumarán a los 500,000 mexicanos que la firma ha capacitado desde el 2017.

    AWS, externó, es la plataforma de servicios en la nube más grande y más usada globalmente, ofreciendo diversos servicios tecnológicos; el almacenamiento en la nube, la base datos, inteligencia artificial, entre otros servicios que -dijo- necesitan de los centros de datos.

    Al anunciar el lanzamiento del nuevo complejo, la representante regional ahondó sobre la participación que tienen los servicios de cómputo en la nube a través del procesamiento de análisis médicos, de los servicios de videoconferencias, del comercio electrónico, de las transacciones bancarias, entre otras dinámicas.

    Estudios recientes, refirió, apuntan a que la adopción de la inteligencia artificial habilitada por la nube contribuirá con más de 19,000 millones de dólares a la economía del país hasta 2030.

    Durante el anuncio del inicio de operaciones de AWS en el país, la presidenta de México, Claudia Sheinbaum Pardo, destacó que este proyecto potenciará otras inversiones; el nuevo complejo de centros de datos, expuso, representan oportunidades de desarrollo para las empresas nacionales; además de oportunidades laborales para especialistas mexicanos, desde ingenieros hasta matemáticos.

    “Estamos muy orgullosos del momento que estamos viviendo. La inversión que presentan el día de hoy muestra justamente eso, que México no sólo tiene gran presente, sino gran futuro”, declaró.

    La inversión de AWS significa la creación de una región digital de la que México será la sede, representa una contribución al Producto Interno Bruto (PIB) del orden de 10,000 millones de dólares en los próximos 15 años, a partir de este año, precisó el secretario de Economía (SE), Marcelo Ebrard Casaubón, durante la conferencia de prensa de la presidenta.

    “Es una muy buena noticia para México. Es una de las inversiones más importantes que se han registrado”, apuntó el secretario federal.

    Fuente.

    El Economista (2025, 14 de enero). AWS lanza su región de centros de datos en Querétaro. Recuperado del 06 de marzo de 2025, de: https://www.eleconomista.com.mx/estados/aws-lanza-region-centros-datos-queretaro-20250114-741947.html

  • Energía y falta de coordinación entre gobiernos arriesga inversiones en centros de datos: MexDC

    Energía y falta de coordinación entre gobiernos arriesga inversiones en centros de datos: MexDC

    Se requiere un suministro adicional de 1,200 megawatts para apoyar la inversión proyectada de 9,200 millones de dólares hasta 2029.

    La industria de centros de datos en México enfrenta retos que podrían comprometer las inversiones futuras en el sector, según la Asociación Mexicana de Data Centers (MexDC).

    Entre los principales obstáculos que identifica la MexDC están el acceso a la energía, la instalación de infraestructura y la lentitud en los trámites y autorizaciones a nivel municipal, estatal y federal. Además, la falta de coordinación entre los distintos niveles de gobierno genera retrasos que ponen en riesgo el crecimiento de una industria

    Energía

    Los centros de datos son necesarios para el ecosistema digital, ya que resguardan y facilitan el acceso a la información en tiempo real. De acuerdo con un estudio de mercado realizado por IDC y Data Center Dynamics, el sector de centros de datos en México proyecta una inversión directa de 9,200 millones de dólares y una inversión indirecta de 27,500 millones de dólares hasta 2029. Sin embargo, para concretar estas inversiones, se requerirá un suministro eléctrico adicional de al menos 1,200 megawatts, lo que representa un reto crítico para el sector.

    LaMexDC dijo reconocer los esfuerzos del gobierno mexicano en la expansión de la capacidad de generación y transmisión de energía en las principales regiones industriales del país, pero advirtió que la actualización del marco regulatorio debe garantizar condiciones favorables para la inversión. También urgió agilizar los permisos para la autogeneración, establecer contratos directos con la Comisión Federal de Electricidad (CFE) y mejorar la infraestructura de transmisión y distribución eléctrica.

    De acuerdo con la asociación, actualmente hay 300 megawatts para los centros de datos que están ubicados en México, aunque son necesarios 1,500 megawatts o 1.5 gigawatts para atender la demanda que la industria tendrá en 2029.

    Querétaro y el Bajío

    Desde 2019, la industria de centros de datos ha crecido de forma importante en México, con Querétaro y la región del Bajío como epicentros debido a sus condiciones climáticas favorables, estabilidad social y ubicación estratégica.

    Grandes empresas del sector, como AWS, Google y OData han invertido en esta zona, generando una concentración de 15 compañías en pocos años. No obstante, el crecimiento de la demanda ha superado la capacidad de infraestructura eléctrica existente.

    Las empresas han solicitado permisos a la Comisión Federal de Electricidad (CFE) y al Centro Nacional de Control de Energía (Cenace) para incrementar la capacidad eléctrica disponible, pero el proceso ha sido lento. La industria estima que para alcanzar la meta de 70 nuevos centros de datos hacia 2029, se requerirán inversiones en infraestructura eléctrica por al menos 8,800 millones de dólares.

    Falta de coordinación

    Adriana Rivera, directora ejecutiva de MexDC, dijo en entrevista que la tramitología y la falta de coordinación entre los tres niveles de gobierno generan demoras significativas para el aumento de la potencia eléctrica y la instalación de nuevos centros de datos.

    La industria necesita autorizaciones para el suministro de energía, estudios de impacto ambiental y permisos de derechos de vía para la instalación de infraestructura eléctrica y de fibra óptica. Sin una estrategia coordinada, los retrasos afectan el avance de los proyectos.

    “El dinero ya está aprobado para México, pero si no vemos interés por parte del Estado en agilizar los procesos, la inversión podría irse a otros países como Brasil, Colombia o Chile, que son nuestros competidores en este sector”, dijo Rivera.

    La asociación que agremia a las empresas de esta industria que operan en México calcula que la falta de soluciones oportunas podría poner en riesgo los 9,200 millones de dólares de inversión directa proyectados.

    Reforma en energía

    Las recientes reformas en materia energética propuestas por la presidenta Claudia Sheinbaum generan expectativas positivas en la industria. Rivera destacó que la posibilidad de que las empresas se autoabastezcan hasta en 20 megawatts representa una gran oportunidad para el sector. Sin embargo, advirtió que el problema no radica solo en la legislación, sino en la ejecución y la eficiencia de los servidores públicos encargados de gestionar los permisos.

    La industria también observa con optimismo las iniciativas del nuevo gobierno, especialmente aquellas enfocadas en fortalecer el sistema eléctrico nacional. La propuesta del Plan Nacional de Desarrollo, que incluye la digitalización gubernamental, refuerza la necesidad de contar con una infraestructura sólida de centros de datos en el país, de acuerdo con la MexDC.

    Fuente.

    El Economista (2025, 05 de marzo). Energía y falta de coordinación entre gobiernos arriesga inversiones en centros de datos: MexDC. Recuperado el 06 de marzo de 2025, de: https://www.eleconomista.com.mx/tecnologia/energia-falta-coordinacion-gobiernos-arriesga-inversiones-centros-datos-mexdc-20250305-749160.html

     

     

  • Las empresas ahora pueden ejecutar datos en tiempo real a través de las máquinas virtuales más avanzadas de Google Cloud

    Las empresas ahora pueden ejecutar datos en tiempo real a través de las máquinas virtuales más avanzadas de Google Cloud

    Hace unos meses, Google Cloud lanzó C4A como instancias de máquinas virtuales (VM) impulsadas por Axion, su primera CPU basada en Arm. Ahora, como siguiente paso en este trabajo, está presentando C4A con SSD Titanium , sus discos locales diseñados a medida destinados a mejorar el almacenamiento y el rendimiento.

    Con esta medida, Google refuerza su cartera de C4A y ofrece máquinas virtuales que pueden mejorar aún más el rendimiento de la nube para cargas de trabajo que requieren procesamiento de datos en tiempo real . Las máquinas virtuales, como dice la empresa, combinan una latencia ultrabaja y un almacenamiento de alto rendimiento con una buena relación calidad-precio, lo que las convierte en un paquete ideal para ejecutar aplicaciones como bases de datos de alto rendimiento, motores de análisis y búsquedas.

    Actualmente, Google Cloud está poniendo a disposición estas máquinas virtuales C4A equipadas con SSD Titanium en servicios como Compute Engine, Google Kubernetes Engine (GKE), Batch y Dataproc. Las máquinas virtuales C4A estándar también están disponibles en versión preliminar en Dataflow, con compatibilidad con Cloud SQL, AlloyDB y otros servicios en desarrollo.

    ¿Qué esperar de las máquinas virtuales C4A de Google con SSD Titanium?

    Las instancias C4A de Google Cloud suelen incluir tres opciones de almacenamiento: disco persistente, hiperdisco o SSD local. El disco persistente es el servicio de almacenamiento en bloque estándar en el que el rendimiento se comparte entre volúmenes del mismo tipo. El hiperdisco, por otro lado, ofrece un rendimiento dedicado, que admite hasta 350 000 operaciones de entrada/salida por segundo (IOPS) y un rendimiento de 5 GB/s por volumen, lo que ofrece un rendimiento significativamente mejor que el disco persistente.

    Sin embargo, en algunas cargas de trabajo, especialmente aquellas que exigen capacidad de almacenamiento local, incluso Hyperdisk puede tener problemas. Aquí es donde entran en juego los SSD locales, siendo los SSD Titanium la última innovación en la categoría.

    Las nuevas instancias C4A con SSD Titanium ofrecen hasta 2,4 millones de operaciones de entrada/salida de lectura aleatoria por segundo, 10,4 GiB/s de rendimiento de lectura y una latencia de acceso un 35 % menor en comparación con los SSD de generaciones anteriores. 

    Los SSD Titanium, que se conectan directamente a las instancias de cómputo dentro del servidor host, descargan tareas de almacenamiento y redes de la CPU, liberando recursos para mejorar la seguridad de las aplicaciones y el rendimiento. Esta innovación proviene del sistema Titanium de Google. Ejecuta el trabajo de descarga desde la CPU host hacia un sistema de silicio, hardware y software personalizados en el host y en todos los centros de datos de la empresa , conectados a la CPU host mediante un procesador de descarga Titanium. 

    La configuración ofrecida

    En esencia, la nueva familia C4A con SSD Titanium viene con hasta 72 vCPU, 576 GB de memoria y 6 TB de almacenamiento local. Las empresas pueden elegir entre configuraciones estándar (4 GB/vCPU) y de alta memoria (8 GB/vCPU). Las opciones de conectividad, por otro lado, pueden escalar hasta 100 Gbps.

    Todo esto puede soportar fácilmente cargas de trabajo de alto tráfico con procesamiento de datos en tiempo real, como servidores web/de aplicaciones, bases de datos de alto rendimiento, motores de análisis de datos y búsqueda. Además, puede impulsar aplicaciones que requieren almacenamiento en caché en memoria, transmisión y transcodificación de medios e inteligencia artificial y aprendizaje automático basados ​​en CPU.

    “ C4A … ofrece una relación precio-rendimiento hasta un 65 % mejor y una eficiencia energética hasta un 60 % mejor que las instancias basadas en x86 de la generación actual comparables. Juntos, C4A y los SSD Titanium ofrecen una relación precio-rendimiento líder en la industria para una amplia gama de cargas de trabajo de propósito general compatibles con Arm”, escribieron Varun Shah y Nate Baum, gerentes de producto sénior de Google Cloud, en una publicación conjunta en el blog.

    Los primeros usuarios notan un aumento del rendimiento del 40 %

    Si bien las máquinas virtuales C4A con SSD Titanium recién están disponibles para el público en general, algunos de los primeros usuarios ya están notando mejoras en el rendimiento. Entre ellos se incluyen grandes nombres como Couchbase y Elastic.

    Matt McDonough, vicepresidente sénior de productos y socios de Couchbase, destacó cómo Capella Columnar, que se ejecuta en instancias Google Axion C4A con SSD Titanium, ofrece ventajas incomparables en cuanto a precio y rendimiento, latencia ultrabaja y potencia de procesamiento escalable para cargas de trabajo analíticas y operativas. De manera similar, Uri Cohen de Elastic afirmó que la empresa observó un rendimiento un 40 % superior al de las generaciones de máquinas virtuales anteriores.

    Las máquinas virtuales C4A con SSD Titanium ya están disponibles en regiones clave, como EE. UU., Europa y Asia, y hay planes de expandirse aún más. Los clientes pueden acceder a ellas a través de máquinas virtuales Spot, bajo demanda y opciones de precios con descuento.

    Con avances significativos en rendimiento, eficiencia energética y escalabilidad, las máquinas virtuales C4A con SSD Titanium satisfacen las demandas empresariales modernas y establecen un nuevo punto de referencia para las cargas de trabajo en la nube.

    Fuente:

    VentureBeat (2025, 16 de enero).  Enterprises can now run real-time data through Google Cloud´s most advanced VMs. Recuperado el 17 de enero de 2025 de:  https://venturebeat.com/data-infrastructure/enterprises-can-now-run-real-time-data-through-google-clouds-most-advanced-vms/

  • Centros de datos fantasma: qué son (o no son) y por qué obstaculizan la verdadera promesa de la IA

    Centros de datos fantasma: qué son (o no son) y por qué obstaculizan la verdadera promesa de la IA

    En la era de la IA , las empresas de servicios públicos se enfrentan a un problema nuevo e inesperado: los centros de datos fantasma. A primera vista, puede parecer absurdo: ¿por qué (y cómo) alguien fabricaría algo tan complejo como un centro de datos? Pero, a medida que la demanda de IA se dispara junto con la necesidad de más potencia de procesamiento, la especulación en torno al desarrollo de centros de datos está creando caos, en particular en áreas como el norte de Virginia, la capital mundial de los centros de datos . En este panorama en evolución, las empresas de servicios públicos están siendo bombardeadas con solicitudes de energía de promotores inmobiliarios que pueden o no construir la infraestructura que afirman construir .

    Los centros de datos falsos representan un cuello de botella urgente para escalar la infraestructura de datos y satisfacer la demanda de computación. Este fenómeno emergente impide que el capital fluya hacia donde realmente se necesita. Cualquier empresa que pueda ayudar a resolver este problema (tal vez aprovechando la IA para resolver un problema creado por ella) tendrá una ventaja significativa.

    El espejismo de la demanda de gigavatios

    Dominion Energy, la mayor empresa de servicios públicos del norte de Virginia, ha recibido solicitudes totales de 50 gigavatios de energía para proyectos de centros de datos . Eso es más energía de la que Islandia consume en un año. 

    Pero muchas de estas solicitudes son especulativas o completamente falsas. Los promotores están considerando posibles emplazamientos y están apostando por la capacidad energética mucho antes de tener el capital o alguna estrategia sobre cómo empezar a construir. De hecho, las estimaciones sugieren que hasta el 90% de estas solicitudes son totalmente falsas.

    En los primeros días del boom de los centros de datos, las empresas de servicios públicos nunca tuvieron que preocuparse por la demanda falsa. Empresas como Amazon, Google y Microsoft (denominadas “hiperescaladores” porque operan centros de datos con cientos de miles de servidores) enviaban solicitudes de energía directa y las empresas de servicios públicos simplemente las satisfacían. Pero ahora, el frenesí por asegurar la capacidad energética ha llevado a una avalancha de solicitudes de desarrolladores o especuladores menos conocidos con antecedentes dudosos. Las empresas de servicios públicos, que tradicionalmente tratan con sólo un puñado de clientes ávidos de energía, de repente se ven inundadas de pedidos de capacidad energética que eclipsarían a toda su red.

    Las empresas de servicios públicos tienen dificultades para distinguir los hechos de la ficción

    El desafío para las empresas de servicios públicos no es sólo técnico, sino existencial. Tienen la tarea de determinar qué es real y qué no, y no están bien equipadas para manejar esto. Históricamente, las empresas de servicios públicos han sido instituciones lentas y reacias al riesgo. Ahora se les pide que investiguen a los especuladores, muchos de los cuales simplemente están jugando al juego inmobiliario, con la esperanza de cambiar sus asignaciones de energía una vez que el mercado se caliente.

    Las empresas de servicios públicos tienen grupos encargados del desarrollo económico, pero estos equipos no están acostumbrados a lidiar con docenas de solicitudes especulativas a la vez. Es similar a una fiebre por la tierra, donde solo una fracción de quienes reclaman participaciones realmente planean construir algo tangible. ¿El resultado? Parálisis. Las empresas de servicios públicos dudan en asignar energía cuando no saben qué proyectos se materializarán, lo que ralentiza todo el ciclo de desarrollo.

    Un muro de capital

    No hay escasez de capital que fluye hacia el sector de los centros de datos, pero esa abundancia es parte del problema. Cuando el capital es de fácil acceso, conduce a la especulación. En cierto modo, esto es similar al problema de la trampa para ratones: demasiados actores que persiguen un mercado con exceso de oferta. Esta afluencia de especuladores crea indecisión no sólo en las empresas de servicios públicos, sino también en las comunidades locales, que deben decidir si conceden permisos para el uso del suelo y el desarrollo de infraestructura.

    Para aumentar la complejidad, los centros de datos no son solo para IA. Es cierto que la IA está impulsando un aumento de la demanda, pero también existe una necesidad persistente de computación en la nube. Los desarrolladores están construyendo centros de datos para dar cabida a ambas, pero diferenciar entre ambas es cada vez más difícil, especialmente cuando los proyectos combinan el entusiasmo por la IA con la infraestructura de nube tradicional.

    ¿Que es real?

    Los actores legítimos (las mencionadas Apple, Google y Microsoft) están construyendo centros de datos genuinos y muchos están adoptando estrategias como acuerdos “detrás del medidor” con proveedores de energía renovable o construyendo microrredes para evitar los cuellos de botella de la interconexión a la red. Pero a medida que proliferan los proyectos reales, también lo hacen los falsos. Los desarrolladores con poca experiencia en el sector están tratando de sacar provecho, lo que conduce a un entorno cada vez más caótico para las empresas de servicios públicos.

    El problema no es sólo el riesgo financiero (aunque el capital necesario para construir un campus de una sola potencia de un gigavatio puede superar fácilmente los miles de millones de dólares), sino la enorme complejidad que supone desarrollar infraestructuras a esta escala. Un campus de 6 gigavatios suena impresionante, pero las realidades financieras y de ingeniería hacen que sea casi imposible construirlo en un plazo razonable. Sin embargo, los especuladores lanzan estas cifras enormes con la esperanza de asegurarse capacidad energética con la esperanza de vender el proyecto más adelante.

    Por qué la red eléctrica no puede satisfacer las demandas de los centros de datos

    Mientras las empresas de servicios públicos luchan por distinguir los hechos de la ficción, la red misma se convierte en un cuello de botella. McKinsey estimó recientemente que la demanda mundial de centros de datos podría alcanzar hasta 152 gigavatios para 2030 , lo que sumaría 250 teravatios-hora de nueva demanda de electricidad. En Estados Unidos, los centros de datos por sí solos podrían representar el 8% de la demanda total de energía para 2030 , una cifra asombrosa considerando lo poco que ha crecido la demanda en las últimas dos décadas.

    Sin embargo, la red eléctrica no está preparada para esta afluencia. Los problemas de interconexión y transmisión son rampantes, y se estima que Estados Unidos podría quedarse sin capacidad energética entre 2027 y 2029 si no se encuentran soluciones alternativas. Los promotores recurren cada vez más a la generación in situ, como turbinas de gas o microrredes, para evitar el cuello de botella de la interconexión, pero estas medidas provisionales sólo sirven para poner de relieve las limitaciones de la red.

    Conclusión: Las empresas de servicios públicos como guardianes

    El verdadero obstáculo no es la falta de capital (créanme, hay mucho capital en este caso) ni siquiera la falta de tecnología, sino la capacidad de las empresas de servicios públicos de actuar como guardianes, determinando quién es real y quién solo está jugando al juego de la especulación. Sin un proceso sólido para examinar a los desarrolladores, la red corre el riesgo de verse abrumada por proyectos que nunca se materializarán. La era de los centros de datos falsos ha llegado y, hasta que las empresas de servicios públicos se adapten, todo el sector puede tener dificultades para seguir el ritmo de la demanda real.

    En este entorno caótico, no se trata solo de asignación de poder; se trata de que las empresas de servicios públicos aprendan a navegar en una nueva frontera especulativa para que las empresas (y la IA) puedan prosperar.

    Fuente.

    VentureBeat (2025, 04 de enero). Centros de datos fantasma: qué son (o no son) y por qué obstaculizan la verdadera promesa de la IA. Recuperado el 14 de enero de 2025 de: https://venturebeat.com/data-infrastructure/phantom-data-centers-what-they-are-or-arent-and-why-theyre-hampering-the-true-promise-of-ai/

  • Desarrollan un método mediante “deep learning” para comprender cómo afecta el dolor crónico al cuerpo de cada paciente

    Desarrollan un método mediante “deep learning” para comprender cómo afecta el dolor crónico al cuerpo de cada paciente

    El análisis parte de la hipótesis de que las personas con dolor crónico de espalda baja presentan variaciones en sus datos biométricos en comparación con las personas sanas.  Estas variaciones están relacionadas con movimientos corporales o patrones de marcha y se cree que es debido a una respuesta adaptativa para evitar dolor o lesiones adicionales.

  • Eficiencia Energética y VPNs: Reducción de datos y ahorro de energía

    Eficiencia Energética y VPNs: Reducción de datos y ahorro de energía

    Qué es una VPN

    VPN es la abreviatura de «Virtual Private Network» o «Red Privada Virtual» en español. Una VPN es una tecnología que crea una conexión segura y encriptada, que se podría describir como un «túnel», entre tu dispositivo y la red a la que te estás conectando. (more…)

  • DeepMind AI supera a los matemáticos en un cálculo crucial para la computación

    DeepMind AI supera a los matemáticos en un cálculo crucial para la computación

    Después de resolver un desafío fundamental en biología ( predecir la estructura de las proteínas ) y desentrañar las matemáticas de la teoría de nudos , se apunta a un proceso informático fundamental integrado en miles de aplicaciones cotidianas. Desde analizar imágenes hasta modelar el clima o incluso probar el funcionamiento interno de las redes neuronales artificiales, la IA teóricamente podría acelerar los cálculos en una variedad de campos, aumentando la eficiencia y reduciendo el uso de energía y los costos. (more…)