Author: admin

  • Las empresas ahora pueden ejecutar datos en tiempo real a través de las máquinas virtuales más avanzadas de Google Cloud

    Las empresas ahora pueden ejecutar datos en tiempo real a través de las máquinas virtuales más avanzadas de Google Cloud

    Hace unos meses, Google Cloud lanzó C4A como instancias de máquinas virtuales (VM) impulsadas por Axion, su primera CPU basada en Arm. Ahora, como siguiente paso en este trabajo, está presentando C4A con SSD Titanium , sus discos locales diseñados a medida destinados a mejorar el almacenamiento y el rendimiento.

    Con esta medida, Google refuerza su cartera de C4A y ofrece máquinas virtuales que pueden mejorar aún más el rendimiento de la nube para cargas de trabajo que requieren procesamiento de datos en tiempo real . Las máquinas virtuales, como dice la empresa, combinan una latencia ultrabaja y un almacenamiento de alto rendimiento con una buena relación calidad-precio, lo que las convierte en un paquete ideal para ejecutar aplicaciones como bases de datos de alto rendimiento, motores de análisis y búsquedas.

    Actualmente, Google Cloud está poniendo a disposición estas máquinas virtuales C4A equipadas con SSD Titanium en servicios como Compute Engine, Google Kubernetes Engine (GKE), Batch y Dataproc. Las máquinas virtuales C4A estándar también están disponibles en versión preliminar en Dataflow, con compatibilidad con Cloud SQL, AlloyDB y otros servicios en desarrollo.

    ¿Qué esperar de las máquinas virtuales C4A de Google con SSD Titanium?

    Las instancias C4A de Google Cloud suelen incluir tres opciones de almacenamiento: disco persistente, hiperdisco o SSD local. El disco persistente es el servicio de almacenamiento en bloque estándar en el que el rendimiento se comparte entre volúmenes del mismo tipo. El hiperdisco, por otro lado, ofrece un rendimiento dedicado, que admite hasta 350 000 operaciones de entrada/salida por segundo (IOPS) y un rendimiento de 5 GB/s por volumen, lo que ofrece un rendimiento significativamente mejor que el disco persistente.

    Sin embargo, en algunas cargas de trabajo, especialmente aquellas que exigen capacidad de almacenamiento local, incluso Hyperdisk puede tener problemas. Aquí es donde entran en juego los SSD locales, siendo los SSD Titanium la última innovación en la categoría.

    Las nuevas instancias C4A con SSD Titanium ofrecen hasta 2,4 millones de operaciones de entrada/salida de lectura aleatoria por segundo, 10,4 GiB/s de rendimiento de lectura y una latencia de acceso un 35 % menor en comparación con los SSD de generaciones anteriores. 

    Los SSD Titanium, que se conectan directamente a las instancias de cómputo dentro del servidor host, descargan tareas de almacenamiento y redes de la CPU, liberando recursos para mejorar la seguridad de las aplicaciones y el rendimiento. Esta innovación proviene del sistema Titanium de Google. Ejecuta el trabajo de descarga desde la CPU host hacia un sistema de silicio, hardware y software personalizados en el host y en todos los centros de datos de la empresa , conectados a la CPU host mediante un procesador de descarga Titanium. 

    La configuración ofrecida

    En esencia, la nueva familia C4A con SSD Titanium viene con hasta 72 vCPU, 576 GB de memoria y 6 TB de almacenamiento local. Las empresas pueden elegir entre configuraciones estándar (4 GB/vCPU) y de alta memoria (8 GB/vCPU). Las opciones de conectividad, por otro lado, pueden escalar hasta 100 Gbps.

    Todo esto puede soportar fácilmente cargas de trabajo de alto tráfico con procesamiento de datos en tiempo real, como servidores web/de aplicaciones, bases de datos de alto rendimiento, motores de análisis de datos y búsqueda. Además, puede impulsar aplicaciones que requieren almacenamiento en caché en memoria, transmisión y transcodificación de medios e inteligencia artificial y aprendizaje automático basados ​​en CPU.

    “ C4A … ofrece una relación precio-rendimiento hasta un 65 % mejor y una eficiencia energética hasta un 60 % mejor que las instancias basadas en x86 de la generación actual comparables. Juntos, C4A y los SSD Titanium ofrecen una relación precio-rendimiento líder en la industria para una amplia gama de cargas de trabajo de propósito general compatibles con Arm”, escribieron Varun Shah y Nate Baum, gerentes de producto sénior de Google Cloud, en una publicación conjunta en el blog.

    Los primeros usuarios notan un aumento del rendimiento del 40 %

    Si bien las máquinas virtuales C4A con SSD Titanium recién están disponibles para el público en general, algunos de los primeros usuarios ya están notando mejoras en el rendimiento. Entre ellos se incluyen grandes nombres como Couchbase y Elastic.

    Matt McDonough, vicepresidente sénior de productos y socios de Couchbase, destacó cómo Capella Columnar, que se ejecuta en instancias Google Axion C4A con SSD Titanium, ofrece ventajas incomparables en cuanto a precio y rendimiento, latencia ultrabaja y potencia de procesamiento escalable para cargas de trabajo analíticas y operativas. De manera similar, Uri Cohen de Elastic afirmó que la empresa observó un rendimiento un 40 % superior al de las generaciones de máquinas virtuales anteriores.

    Las máquinas virtuales C4A con SSD Titanium ya están disponibles en regiones clave, como EE. UU., Europa y Asia, y hay planes de expandirse aún más. Los clientes pueden acceder a ellas a través de máquinas virtuales Spot, bajo demanda y opciones de precios con descuento.

    Con avances significativos en rendimiento, eficiencia energética y escalabilidad, las máquinas virtuales C4A con SSD Titanium satisfacen las demandas empresariales modernas y establecen un nuevo punto de referencia para las cargas de trabajo en la nube.

    Fuente:

    VentureBeat (2025, 16 de enero).  Enterprises can now run real-time data through Google Cloud´s most advanced VMs. Recuperado el 17 de enero de 2025 de:  https://venturebeat.com/data-infrastructure/enterprises-can-now-run-real-time-data-through-google-clouds-most-advanced-vms/

  • Microsoft acaba de crear una IA que diseña materiales para el futuro: así funciona

    Microsoft acaba de crear una IA que diseña materiales para el futuro: así funciona

    Microsoft Research ha presentado hoy un nuevo y potente sistema de inteligencia artificial que genera nuevos materiales con propiedades específicas deseadas, acelerando potencialmente el desarrollo de mejores baterías, células solares más eficientes y otras tecnologías críticas.

    El sistema, llamado MatterGen , representa un cambio fundamental en la forma en que los científicos descubren nuevos materiales. En lugar de analizar millones de compuestos existentes (el enfoque tradicional que puede llevar años), MatterGen genera directamente materiales nuevos en función de las características deseadas, de manera similar a cómo los generadores de imágenes de IA crean imágenes a partir de descripciones de texto.

    “ Los modelos generativos ofrecen un nuevo paradigma para el diseño de materiales al generar directamente materiales completamente nuevos en función de las restricciones de propiedades deseadas”, afirmó Tian Xie, director de investigación principal de Microsoft Research y autor principal del estudio publicado hoy en Nature . “Esto representa un avance importante hacia la creación de un modelo generativo universal para el diseño de materiales”.

    Cómo el motor de inteligencia artificial de Microsoft funciona de manera diferente a los métodos tradicionales

    MatterGen utiliza un tipo especializado de inteligencia artificial llamado modelo de difusión (similar a los que se utilizan en generadores de imágenes como DALL-E ), pero adaptado para trabajar con estructuras cristalinas tridimensionales. Refina gradualmente la disposición aleatoria de átomos para convertirlos en materiales estables y útiles que cumplen con criterios específicos.

    Los resultados superan a los enfoques anteriores. Según el artículo de investigación, los materiales producidos por MatterGen tienen “más del doble de probabilidades de ser novedosos y estables, y están más de 15 veces más cerca del mínimo de energía local” en comparación con los enfoques de IA anteriores. Esto significa que los materiales generados tienen más probabilidades de ser útiles y de ser físicamente posibles de crear.

    En una demostración sorprendente, el equipo colaboró ​​con científicos de los Institutos de Tecnología Avanzada de Shenzhen, China, para sintetizar un nuevo material, TaCr2O6 , que MatterGen había diseñado. El material del mundo real coincidió estrechamente con las predicciones de la IA, lo que validó la utilidad práctica del sistema.

    Las aplicaciones del mundo real podrían transformar el almacenamiento de energía y la computación

    El sistema es particularmente notable por su flexibilidad. Puede “ajustarse” para generar materiales con propiedades específicas, desde estructuras cristalinas particulares hasta características electrónicas o magnéticas deseadas. Esto podría resultar invaluable para diseñar materiales para aplicaciones industriales específicas.

    Las consecuencias podrían ser de gran alcance. Los nuevos materiales son cruciales para el avance de las tecnologías de almacenamiento de energía, diseño de semiconductores y captura de carbono. Por ejemplo, mejores materiales para baterías podrían acelerar la transición a vehículos eléctricos, mientras que materiales más eficientes para celdas solares podrían hacer que la energía renovable sea más rentable.

    “Desde una perspectiva industrial, el potencial aquí es enorme”, explicó Xie. “La civilización humana siempre ha dependido de las innovaciones materiales. Si podemos usar la IA generativa para hacer que el diseño de materiales sea más eficiente, podríamos acelerar el progreso en industrias como la energía, la atención médica y más allá”.

    La estrategia de código abierto de Microsoft tiene como objetivo acelerar el descubrimiento científico

    Microsoft ha publicado el código fuente de MatterGen bajo una licencia de código abierto, lo que permite a los investigadores de todo el mundo desarrollar la tecnología. Esta medida podría acelerar el impacto del sistema en varios campos científicos.

    El desarrollo de MatterGen forma parte de la iniciativa más amplia AI for Science de Microsoft , cuyo objetivo es acelerar los descubrimientos científicos mediante IA. El proyecto se integra con la plataforma Azure Quantum Elements de Microsoft , lo que potencialmente hace que la tecnología sea accesible para empresas e investigadores a través de servicios de computación en la nube.

    Sin embargo, los expertos advierten que, si bien MatterGen representa un avance significativo, el camino desde los materiales diseñados computacionalmente hasta las aplicaciones prácticas aún requiere pruebas y refinamientos exhaustivos. Las predicciones del sistema, si bien son prometedoras, necesitan validación experimental antes de su implementación industrial.

    Sin embargo, la tecnología representa un avance significativo en el uso de la IA para acelerar los descubrimientos científicos. Como señaló Daniel Zügner, investigador principal del proyecto: “Estamos profundamente comprometidos con la investigación que puede tener un impacto positivo en el mundo real, y esto es solo el comienzo”.

     

    Fuente.

    VentureBeat (2025, 16 de enero). Microsoft just built an AI that designs materials for the future: Here´s how it works. Recuperado el 17 de enero de 2025 de:  https://venturebeat.com/ai/microsoft-mattergen-ai-system-generates-materials-that-could-change-industries-forever/

  • Meta desarrolla un traductor de voz simultáneo con IA generativa para un centenar de idiomas

    Meta desarrolla un traductor de voz simultáneo con IA generativa para un centenar de idiomas

    Meta diseña el modelo avanzado de traductor multimodal con inteligencia artificial (IA) generativa, SeamlessM4T, con reconocimiento automático de voz y capaz de traducir de forma instantánea conversaciones de voz a voz en un centenar de idiomas. La revista Nature publica este importante avance tecnológico que puede ser el precursor de traducciones simultáneas para cualquier idioma.

    El modelo de inteligencia artificial (IA) generativa liderado por la compañía Meta,SeamlessM4T, puede traducir y transcribir voz y texto de forma automática en 101 idiomas de origen y hasta 36 idiomas de destino: genera texto traducido a 96 idiomas, pero solo puede producir una traducción hablada en 35.

    Este sistema de traducción multilingüe es un avance significativo en sistemas de traducción más rápidos, fiables y transfronterizos. La compañía dirigida por Mark Zuckerberg ya publicó una demo junto con una primera versión del estudio en agosto de 2023.

    La aplicación incorpora aspectos fonológicos y fonéticos poco explorados hasta ahora que mejoran el ritmo, los matices y la emoción del habla, lo que proporciona traducciones más auténticas y expresivas y una latencia en el proceso de apenas dos segundos. En términos de rendimiento, este modelo traductor supera a los mejores sistemas anteriores en diversas métricas, con una mejora de más del 20%.

    El modelo agrupa tecnologías anteriormente desarrolladas en I+D en IA (SeamlessExpressive, SeamlessStreaming y Seamless) e integra capacidades combinadas de modelos de traducción de habla a habla (S2ST), habla a texto (S2TT),texto a habla (T2ST) y texto a texto (T2TT).

    Para mejorar el rendimiento y reducir los errores y retrasos en los procesos de traducción, aprovecha lo conseguido en otros modelos de la marca con No Language Left Behind (NLLB) –Ningún idioma se queda atrás- del proyecto de inteligencia artificial de Meta.

    Los impulsores de este avance científico que se publica en la revista científica Nature afirman que los recursos empleados para desarrollarse se pondrán a disposición del público para uso no comercial. Se considera el modelo como un posible primer paso para que las aplicaciones de traducción simultánea automática se conviertan en pocos años en algo cotidiano.

    “Es un estudio muy interesante, y aunque ya no tan reciente”, la investigación incorpora varias innovaciones destacables”, explica Andreas Kaltenbrunner, investigador líder del grupo AI and Data for Society de la Universitat Oberta de Catalunya (UOC), en la plataforma Science Media Centre España.

    “En primer lugar, es un sistema unificado que gestiona todos los aspectos de la traducción (voz y texto) en un solo entorno, en lugar de depender de varios sistemas independientes”.

    “Otro aspecto relevante es la amplia cantidad de idiomas que soporta: más de 100 idiomas de entrada y docenas de idiomas de salida. Además, destaca por su robustez frente a desafíos del mundo real, como el manejo de ruido y la comprensión de diferentes acentos, aspectos que suelen causar dificultades a otros sistemas”.

    Maite Martín, catedrática del departamento de Informática de la Universidad de Jaén e investigadora del grupo de investigación SINAI (Sistemas Inteligentes de Acceso a la Información), apunta que “el artículo presenta un modelo unificado de traducción automática multimodal y multilingüe llamado SemalessM4T, desarrollado para superar las limitaciones actuales en la traducción de texto y habla, incluyendo traducciones entre lenguajes de pocos recursos”.

    “Uno de los aspectos más destacados del modelo es su enfoque en estudiar e incorporar idiomas con pocos recursos, como el maltés y el suajili, que han sido históricamente excluidos de los avances tecnológicos en traducción automática”, apunta esta experta.

    “Estos idiomas, al carecer de grandes volúmenes de datos etiquetados y recursos específicos, suelen quedar rezagados en el desarrollo de herramientas lingüísticas avanzadas”, prosigue. “El trabajo realizado aborda esta brecha mediante la creación de un corpus masivo de datos de habla y texto alineados. Combina datos etiquetados manualmente con recursos generados automáticamente, lo que permite ampliar significativamente el alcance y la precisión del modelo en lenguas menos representadas, un avance en la inclusión lingüística”.

    Raquel Fernández, catedrática de Lingüística Computacional y Sistemas de Diálogo y y vicedirectora de Investigación del Instituto de Lógica, Lenguaje y Computación (ILLC) de la Universidad de Ámsterdam, agrega que “los sistemas de traducción automática tienden a funcionar razonablemente bien para idiomas que están bien representados en internet (inglés, chino o español, por ejemplo), pero no tanto para idiomas con menos hablantes o menos datos digitales disponibles (como maltés, suajili o urdu)”.

    “Además, la traducción automática se ha limitado principalmente al texto escrito. El modelo presentado en este artículo supone un avance substancial al incluir la capacidad de traducir hacia y desde el habla (además del texto) y al hacerlo para una gran cantidad de idiomas diferentes”.

    Para Martín es relevante que se haya decidido poner estos datos y herramientas a disposición de la comunidad científica para uso no comercial, un enfoque que fomenta la investigación colaborativa al permitir que otros desarrolladores e investigadores utilicen estos recursos para seguir avanzando en la traducción automática, especialmente en contextos multilingües y multimodales.

    “La publicación de estos recursos no solo consolida el modelo como un referente en innovación tecnológica, sino que también impulsa el desarrollo de soluciones más inclusivas y equitativas, sentando las bases para un ecosistema de investigación más abierto y dinámico”.

    Víctor Etxebarria, catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU), agrega que el traductor, sobre todo en su versión de traducción directa de voz a voz, puede resultar muy útil, intentando imitar el servicio efectuado por las personas dedicadas a la traducción simultánea en el contexto internacional.

    “SeamlessM4T logra una mayor precisión y robustez que los sistemas de traducción tradicionales. Las métricas reportadas indican que el modelo es resistente al ruido y a variaciones en los hablantes”, añade por su parte Pablo Haya Coll, investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM) y director del área de Business & Language Analytics (BLA) del Instituto de Ingeniería del Conocimiento (IIC).

    “Es interesante destacar que el modelo incorpora estrategias para mitigar sesgos de género y toxicidad, garantizando traducciones más inclusivas y seguras. Representa un paso adelante en la construcción de sistemas inclusivos y accesibles, ofreciendo un puente efectivo entre culturas y lenguajes para su aplicación en contextos tanto digitales como presenciales”.

    Limitaciones al estudio

    El modelo, sin embargo, también enfrenta limitaciones importantes. “Aunque supone un avance significativo, todavía queda trabajo por hacer para optimizar su implementación en escenarios prácticos”, apunta Martín. Fundamentalmente, la aplicación no tiene en cuenta las inflexiones vocales ni otros componentes emocionales del habla viva que pueden dejar imprecisa la traducción final y dar lugar a malentendidos.

    “Aunque mejora la precisión en la traducción de lenguajes con pocos recursos, los resultados aún son inferiores a los obtenidos con idiomas de alta disponibilidad. Y siguen siendo desafíos la interacción en tiempo real, la expresividad de la voz traducida o sesgos de género, señala.

    Para Etxevarría, el traductor es “un producto tecnológico avanzado y probablemente muy útil, pero cerrado a los principios de la ciencia abierta”.

    “El modelo tampoco evita por ahora los retrasos ni los errores de traducción ni su enmienda en tiempo real que sí realizan las personas traductoras”.

    Asimismo, lamenta que los especialistas independientes no tienen permiso de reproducibilidad, comprobación o mejora de las bases tecnológicas, y solo tienen acceso a conectarse al traductor para efectuar ejemplos superficiales de traducciones. “Junto a sus múltiples limitaciones tecnológicas y legales”, prosigue este experto, “otra desventaja es que solo puede utilizarse a través de la API (Application Programming Interface) remoto por internet impuesto por Meta”.

    “El software no cumple los principios de la IA en código abierto tal y como lo define la Open Source Initiative: usar, estudiar, modificar y compartir para cualquier propósito”, por lo que “no contribuye al avance científico” y “no es coherente con los principios de la ciencia abierta”.

    Kaltenbrunner, por su parte, ve por su parte que es digno de elogio que el estudio incluya un análisis sobre si las traducciones incrementan la toxicidad de los textos o cómo abordan posibles sesgos de género pese a que Meta, recientemente, “parece haber decidido abandonar los esfuerzos en este sentido con su nueva política de moderación de contenidos”.

    Rodolfo Zevallos, investigador del grupo de Tecnologías del Lenguaje del BSC (Barcelona Supercomputing Center), apunta por su parte que sería interesante “profundizar en el proceso de tokenización (segmentación de palabras), particularmente para lenguas morfológicamente complejas, donde una representación adecuada es crucial para mejorar la calidad de las traducciones”.

    ¿Hay que seguir estudiando idiomas?

    Aunque es un avance significativo, tiene algunas limitaciones reseñables, añade Haya Coll. Recuerda que SeamlessM4T fue publicado en abierto por Meta en agosto de 2023. “El artículo que se publica ahora en Nature no parece que difiera de lo que ya explicó Meta en su día y puso en abierto en su repositorio de github donde se puede probar esta tecnología”.

    La calidad de las traducciones que realiza la aplicación varían según el idioma, explica, “especialmente en lenguas de bajos recursos, y según el género, acento y demografía. Puede enfrentar dificultades al traducir nombres propios, jerga y expresiones coloquiales”.

    “Hay que tener en cuenta que el habla no se limita a ser texto hablado; incorpora una variedad de componentes prosódicos, como el ritmo, el énfasis, la entonación y el tono, así como elementos emocionales que requieren una investigación más exhaustiva. Para desarrollar sistemas S2ST que resulten orgánicos y naturales, es fundamental centrar los esfuerzos en que el audio generado preserve la expresividad del lenguaje”.

    Además, “para aumentar la adopción de estos sistemas es preciso mayor investigación en sistemas que permitan traducción en streaming, es decir, traducir de forma incremental una oración a medida que se pronuncia”.

    Fernández reconoce que este modelo “representa un progreso sustancial en la traducción hablada, ya que traducir a voz sigue siendo más complejo que generar una traducción escrita: Además, el habla producida automáticamente puede no siempre ser expresiva y natural. De manera similar, al traducir de voz a texto, el modelo puede tener problemas para procesar el habla en función de factores como el género, el acento o el idioma”.

    Y “si bien tiene el potencial de mejorar la comunicación multilingüe en muchos escenarios cotidianos, aún no permite la traducción en tiempo real o simultánea, es decir, la traducción de una oración a medida que se produce”.

    Los propios autores destacan en el estudio que estas aplicaciones deben entenderse como herramientas de apoyo diseñadas para asistir en la traducción, en lugar de reemplazar la necesidad de aprender idiomas o contar con intérpretes humanos: especialmente crucial en contextos como la toma de decisiones legales o médicas.

    El inglés, origen y meta

    “La traducción automática ha evolucionado desde sistemas basados en reglas y cálculos estadísticos hasta los actuales grandes modelos lingüísticos o LLMs, gracias al poder computacional. Dentro de este contexto, la publicación presenta un avance en sistemas de traducción más rápidos, fiables y universales”, explica en SMC Rocío Romero Zaliz, profesora titular del departamento de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Granada.

    “Destaca la capacidad de realizar traducciones de voz a voz directamente, sin pasos intermedios (voz-texto, traducción texto-texto, texto-voz), acelerando el proceso. Además, soporta múltiples idiomas, acercándonos cada vez más a la utopía de un traductor automático universal”. Las mejoras no se basan en una mayor cantidad de parámetros del modelo al ser entrenado, sino en un preprocesamiento más inteligente de la información disponible, incorporando incluso nuevas fuentes de información adicionales para mejorar las traducciones”.

    Hasta ahora, “la mayoría de los traductores automáticos traducen de un idioma X a Y usando el inglés como intermediario. Sin embargo, esta publicación propone traducciones directas de un idioma X a otro idioma Y, eliminando así errores acumulados. Esto se consigue gracias al uso de un espacio de representación común donde oraciones con significados similares están próximas, independientemente del idioma”.

    Sin embargo, “el entrenamiento utilizado sigue basándose en gran medida en traducciones desde o hacia el inglés”. Es más, todas las pruebas y test mostrados en el texto principal de la publicación se han realizado entre un idioma X y el inglés o viceversa. Será entonces necesario revisar el material complementario de la publicación y probar el sistema propuesto una vez disponible entre parejas de idiomas que no incluyan el inglés o algún otro idioma mayoritario, lo cual sigue siendo un desafío”.

    Fuente.

    Expansión (2025, 15 de enero). Meta desarrolla un traductor de voz simultáneo con IA generativa para un centenar de idiomas. Recuperado el 16 de enero de 2025, de: https://www.expansion.com/directivos/estilo-vida/salud/2025/01/14/67850c59468aebe35c8b4599.html

  • Reino Unido presenta plan de acción para potenciar la Inteligencia Artificial.

    Reino Unido presenta plan de acción para potenciar la Inteligencia Artificial.

    El plan establece tres pilares clave para garantizar el desarrollo y liderazgo del país: fomentar el crecimiento de la IA, impulsar su adopción en sectores públicos y privados, y mantener al Reino Unido como referente internacional en tecnología.

    El gobierno del Reino Unido presentó un Plan de Acción de Oportunidades de Inteligencia Artificial (IA), diseñado para posicionar a la nación como líder global en IA y transformar sus servicios públicos y económicos en los próximos 10 años.

    El primer ministro del Reino Unido, Keir Starmer, anunció que el plan incluye la adopción de 50 recomendaciones formuladas por Matt Clifford, asesor en tecnología avanzada.

    “Nuestro plan convertirá a Gran Bretaña en el líder mundial, le dará a la industria la base que necesita y potenciará el Plan para el Cambio, lo que significa más empleo e inversión en el Reino Unido, más dinero en los bolsillos de la gente y servicios públicos transformados”, dijo Starmer.

    El plan establece tres pilares clave para garantizar el desarrollo y liderazgo del país: fomentar el crecimiento de la IA, impulsar su adopción en sectores públicos y privados, y mantener al Reino Unido como referente internacional en tecnología.

    Se pondrán en marcha iniciativas como la creación de Zonas de crecimiento de IA, diseñadas para agilizar permisos de planificación para la construcción de centros de datos, con el fin de mejorar el acceso a la red eléctrica y atraer inversiones globales.

    Se construirá una supercomputadora capaz de ejecutar medio millón de partidas de ajedrez por segundo, como parte de su estrategia para multiplicar por 20 la capacidad de cómputo de Inteligencia Artificial para 2030.

    Se formará un nuevo equipo dedicado para aprovechar las oportunidades que ofrece la IA y potenciar las capacidades del Reino Unido. Además, se establecerá una Biblioteca Nacional de Datos para garantizar un uso seguro y eficiente de los datos públicos, fomentando el desarrollo de la IA. También se creará un Consejo de Energía especializado en Inteligencia Artificial, liderado por los secretarios de Ciencia y Energía, que colaborará con empresas del sector energético para abordar las demandas y desafíos energéticos necesarios para impulsar el avance tecnológico.

    “Con este plan, nos convertimos en agentes del cambio. Consolidaremos nuestro estatus como el tercer mercado de Inteligencia Artificial más grande del mundo”, explicó Peter Kyle, secretario de Ciencia, Innovación y Tecnología.

    De acuerdo con el Fondo Monetario Internacional (FMI), la adopción plena de la IA podría aumentar la productividad anual del Reino Unido en 1.5 puntos porcentuales, generando hasta 47 mil millones de libras esterlinas al año durante una década.

    Por otra parte, las empresas tecnológicas Vantage Data Centres, Nscaley Kyndryl invertirán 14 millones de libras esterlinas en el Reino Unido para construir la infraestructura de IA que el país necesita para aprovechar el potencial de esta tecnología y generar 13 mil 250 puestos de trabajo en todo el país.

    Este Plan de Acción es un elemento central de la Estrategia Industrial del gobierno y constituye el primer pilar del próximo Plan del Sector Digital y Tecnológico, cuya publicación está prevista en los próximos meses.

    Fuente: DPL News (2025, 14 de enero). Reino Unido presenta plan de acción para potenciar la Inteligencia Artificial. Recuperado el 15 de enero de 2025 de:  https://dplnews.com/reino-unido-plan-de-accion-para-potenciar-la-ia/

  • Centros de datos fantasma: qué son (o no son) y por qué obstaculizan la verdadera promesa de la IA

    Centros de datos fantasma: qué son (o no son) y por qué obstaculizan la verdadera promesa de la IA

    En la era de la IA , las empresas de servicios públicos se enfrentan a un problema nuevo e inesperado: los centros de datos fantasma. A primera vista, puede parecer absurdo: ¿por qué (y cómo) alguien fabricaría algo tan complejo como un centro de datos? Pero, a medida que la demanda de IA se dispara junto con la necesidad de más potencia de procesamiento, la especulación en torno al desarrollo de centros de datos está creando caos, en particular en áreas como el norte de Virginia, la capital mundial de los centros de datos . En este panorama en evolución, las empresas de servicios públicos están siendo bombardeadas con solicitudes de energía de promotores inmobiliarios que pueden o no construir la infraestructura que afirman construir .

    Los centros de datos falsos representan un cuello de botella urgente para escalar la infraestructura de datos y satisfacer la demanda de computación. Este fenómeno emergente impide que el capital fluya hacia donde realmente se necesita. Cualquier empresa que pueda ayudar a resolver este problema (tal vez aprovechando la IA para resolver un problema creado por ella) tendrá una ventaja significativa.

    El espejismo de la demanda de gigavatios

    Dominion Energy, la mayor empresa de servicios públicos del norte de Virginia, ha recibido solicitudes totales de 50 gigavatios de energía para proyectos de centros de datos . Eso es más energía de la que Islandia consume en un año. 

    Pero muchas de estas solicitudes son especulativas o completamente falsas. Los promotores están considerando posibles emplazamientos y están apostando por la capacidad energética mucho antes de tener el capital o alguna estrategia sobre cómo empezar a construir. De hecho, las estimaciones sugieren que hasta el 90% de estas solicitudes son totalmente falsas.

    En los primeros días del boom de los centros de datos, las empresas de servicios públicos nunca tuvieron que preocuparse por la demanda falsa. Empresas como Amazon, Google y Microsoft (denominadas “hiperescaladores” porque operan centros de datos con cientos de miles de servidores) enviaban solicitudes de energía directa y las empresas de servicios públicos simplemente las satisfacían. Pero ahora, el frenesí por asegurar la capacidad energética ha llevado a una avalancha de solicitudes de desarrolladores o especuladores menos conocidos con antecedentes dudosos. Las empresas de servicios públicos, que tradicionalmente tratan con sólo un puñado de clientes ávidos de energía, de repente se ven inundadas de pedidos de capacidad energética que eclipsarían a toda su red.

    Las empresas de servicios públicos tienen dificultades para distinguir los hechos de la ficción

    El desafío para las empresas de servicios públicos no es sólo técnico, sino existencial. Tienen la tarea de determinar qué es real y qué no, y no están bien equipadas para manejar esto. Históricamente, las empresas de servicios públicos han sido instituciones lentas y reacias al riesgo. Ahora se les pide que investiguen a los especuladores, muchos de los cuales simplemente están jugando al juego inmobiliario, con la esperanza de cambiar sus asignaciones de energía una vez que el mercado se caliente.

    Las empresas de servicios públicos tienen grupos encargados del desarrollo económico, pero estos equipos no están acostumbrados a lidiar con docenas de solicitudes especulativas a la vez. Es similar a una fiebre por la tierra, donde solo una fracción de quienes reclaman participaciones realmente planean construir algo tangible. ¿El resultado? Parálisis. Las empresas de servicios públicos dudan en asignar energía cuando no saben qué proyectos se materializarán, lo que ralentiza todo el ciclo de desarrollo.

    Un muro de capital

    No hay escasez de capital que fluye hacia el sector de los centros de datos, pero esa abundancia es parte del problema. Cuando el capital es de fácil acceso, conduce a la especulación. En cierto modo, esto es similar al problema de la trampa para ratones: demasiados actores que persiguen un mercado con exceso de oferta. Esta afluencia de especuladores crea indecisión no sólo en las empresas de servicios públicos, sino también en las comunidades locales, que deben decidir si conceden permisos para el uso del suelo y el desarrollo de infraestructura.

    Para aumentar la complejidad, los centros de datos no son solo para IA. Es cierto que la IA está impulsando un aumento de la demanda, pero también existe una necesidad persistente de computación en la nube. Los desarrolladores están construyendo centros de datos para dar cabida a ambas, pero diferenciar entre ambas es cada vez más difícil, especialmente cuando los proyectos combinan el entusiasmo por la IA con la infraestructura de nube tradicional.

    ¿Que es real?

    Los actores legítimos (las mencionadas Apple, Google y Microsoft) están construyendo centros de datos genuinos y muchos están adoptando estrategias como acuerdos “detrás del medidor” con proveedores de energía renovable o construyendo microrredes para evitar los cuellos de botella de la interconexión a la red. Pero a medida que proliferan los proyectos reales, también lo hacen los falsos. Los desarrolladores con poca experiencia en el sector están tratando de sacar provecho, lo que conduce a un entorno cada vez más caótico para las empresas de servicios públicos.

    El problema no es sólo el riesgo financiero (aunque el capital necesario para construir un campus de una sola potencia de un gigavatio puede superar fácilmente los miles de millones de dólares), sino la enorme complejidad que supone desarrollar infraestructuras a esta escala. Un campus de 6 gigavatios suena impresionante, pero las realidades financieras y de ingeniería hacen que sea casi imposible construirlo en un plazo razonable. Sin embargo, los especuladores lanzan estas cifras enormes con la esperanza de asegurarse capacidad energética con la esperanza de vender el proyecto más adelante.

    Por qué la red eléctrica no puede satisfacer las demandas de los centros de datos

    Mientras las empresas de servicios públicos luchan por distinguir los hechos de la ficción, la red misma se convierte en un cuello de botella. McKinsey estimó recientemente que la demanda mundial de centros de datos podría alcanzar hasta 152 gigavatios para 2030 , lo que sumaría 250 teravatios-hora de nueva demanda de electricidad. En Estados Unidos, los centros de datos por sí solos podrían representar el 8% de la demanda total de energía para 2030 , una cifra asombrosa considerando lo poco que ha crecido la demanda en las últimas dos décadas.

    Sin embargo, la red eléctrica no está preparada para esta afluencia. Los problemas de interconexión y transmisión son rampantes, y se estima que Estados Unidos podría quedarse sin capacidad energética entre 2027 y 2029 si no se encuentran soluciones alternativas. Los promotores recurren cada vez más a la generación in situ, como turbinas de gas o microrredes, para evitar el cuello de botella de la interconexión, pero estas medidas provisionales sólo sirven para poner de relieve las limitaciones de la red.

    Conclusión: Las empresas de servicios públicos como guardianes

    El verdadero obstáculo no es la falta de capital (créanme, hay mucho capital en este caso) ni siquiera la falta de tecnología, sino la capacidad de las empresas de servicios públicos de actuar como guardianes, determinando quién es real y quién solo está jugando al juego de la especulación. Sin un proceso sólido para examinar a los desarrolladores, la red corre el riesgo de verse abrumada por proyectos que nunca se materializarán. La era de los centros de datos falsos ha llegado y, hasta que las empresas de servicios públicos se adapten, todo el sector puede tener dificultades para seguir el ritmo de la demanda real.

    En este entorno caótico, no se trata solo de asignación de poder; se trata de que las empresas de servicios públicos aprendan a navegar en una nueva frontera especulativa para que las empresas (y la IA) puedan prosperar.

    Fuente.

    VentureBeat (2025, 04 de enero). Centros de datos fantasma: qué son (o no son) y por qué obstaculizan la verdadera promesa de la IA. Recuperado el 14 de enero de 2025 de: https://venturebeat.com/data-infrastructure/phantom-data-centers-what-they-are-or-arent-and-why-theyre-hampering-the-true-promise-of-ai/

  • Una IA que promete revolucionar leyendo la mente: ¿Cómo funciona Omi?

    Una IA que promete revolucionar leyendo la mente: ¿Cómo funciona Omi?

    El CES 2025 ha sido testigo de innovaciones fascinantes, pero pocas han generado tanto interés como Omi, una inteligencia artificial portátil que promete “leer la mente”.

    Este dispositivo, diseñado por Based Hardware, combina funciones de productividad con un enfoque futurista, aunque no está exento de dudas sobre privacidad y expectativas.

    ¿Qué es Omi y cómo funciona?

    Omi es un dispositivo compacto, del tamaño de un botón, que se utiliza adherido a la sien mediante una cinta médica o como un accesorio colgante. Actúa como un asistente virtual avanzado, activado por voz con el comando “hey, Omi”. Utilizando el modelo GPT-4o de OpenAI, ofrece funciones como responder preguntas, agendar reuniones, generar resúmenes y compartir consejos.

    Aunque se promociona como una IA que “lee la mente”, esto es parcialmente exagerado. Actualmente, Omi escucha conversaciones de manera constante para optimizar la interacción con el usuario. Based Hardware planea que en el futuro interprete ondas cerebrales para activar comandos sin necesidad de hablar, una funcionalidad que podría llegar en dos años.

    ¿Privacidad en riesgo?

    La capacidad de Omi para “escuchar todo” ha generado preocupaciones sobre la privacidad. Para mitigar estas dudas, el dispositivo opera sobre una plataforma de código abierto, permitiendo a los usuarios verificar el destino de sus datos o almacenarlos localmente. Según el fundador de Based Hardware, Nik Shevchenko, esta transparencia es clave para ganar la confianza de los consumidores.

    Promesas y dudas en torno a Omi

    El entusiasmo en torno a Omi recuerda a otros productos con propuestas similares que no lograron consolidarse. En CES 2024, dispositivos como Rabbit R1 y Ai Pin también prometieron integrar IA en la vida diaria, pero terminaron catalogados como fracasos. El éxito de Omi dependerá de si logra cumplir sus promesas y ganar aceptación entre los usuarios.

    Precio y disponibilidad

    Omi estará disponible en el segundo trimestre de este año a un precio de 89 dólares. Queda por ver si este dispositivo revolucionará la interacción con la IA o si será otro ejemplo de tecnología prometedora que no alcanza las expectativas.

    Fuente:

    GIZMODO( 2025. 11 de enero). Una IA que promete revolucionar leyendo la mente: ¿Cómo funciona Omi?. Recuperado el 14 de enero de 2025 de: https://es.gizmodo.com/una-ia-que-promete-revolucionar-leyendo-la-mente-como-funciona-omi-2000143293

  • A 100 días de gobierno, Sheinbaum resalta trabajo de México en semiconductores, litio e Inteligencia Artificial

    A 100 días de gobierno, Sheinbaum resalta trabajo de México en semiconductores, litio e Inteligencia Artificial

    Sheinbaum Pardo destacó que México se convertirá en potencia científica con acciones como extracción de litio y diseño de semiconductores.

    A 100 días de iniciado el sexenio de la presidenta de México, Claudia Sheinbaum Pardo, informó que ya iniciaron los trabajos para que México desarrolle Inteligencia Artificial (IA) y diseño de semiconductores.

    Asimismo, destacó el trabajo que realizarán en la extracción de litio, además del proyecto de autos eléctricos Olinia, que fue presentado la semana pasada.

    “Ya se encuentran trabajando y van a tener los recursos suficientes los proyectos científicos, de desarrollo tecnológico, como el auto eléctrico mexicano Olinia, el Taller de Diseño de Semiconductores, y en los siguientes días se instalan los grupos de científicos que diseñarán aviones no tripulados, boyas marinas para medición, métodos de extracción de litio, la Fábrica de Software Libre e Inteligencia Artificial, entre otros desarrollos”, aseveró.

    En su discurso en el Zócalo de Ciudad de México, Sheinbaum Pardo ratificó su compromiso para que México se convierta en una potencia científica.

    “Como me comprometí, México será una potencia científica”, añadió.

    Además, cuando se refirió a los avances en el sector salud, aseveró que a través de plataformas digitales y de forma transparente hasta la fecha han ahorrado ya 23 mil millones de pesos adicionales.

    Fuente:

    DPL News (2025, 12 de enero). A 100 días de gobierno, Sheinbaum resalta trabajo de México en semiconductores, litio e Inteligencia Artificial. Recuperado el 13 de enero de 2025 de: https://dplnews.com/100-dias-de-gobierno-sheinbaum-semiconductores-litio/

  • Desafíos que enfrenta México en Ciencia y Tecnología

    Desafíos que enfrenta México en Ciencia y Tecnología

    El 12 de enero de este 2025, la Presidenta Claudia Sheinbaum, presentó su informe de los 100 primeros días de su administración, entre otros asuntos manifestó que México será una potencia Científica; sin embargo habrá que observar el contexto científico-tecnológico, donde las naciones más desarrolladas, han hecho de sus capacidades tecnológicas, su instrumento, para el dominio de mercados y de la nueva geopolítica, buscando superar la hegemonía de los EEUU.

    El modelo económico y tecnológico de los EEUU, siempre ha sido corporativista, los altos directivos políticos, son electos por las grandes empresas transnacionales, las políticas públicas se diseñan para apoyarlas en la conquista de los mercados globales.

    En la administración 2.0 de Trump, que inicia el próximo 20 de enero, nombrará un gabinete de empresarios (Negrete, 2025) como al defensor de la Industria de las Telecomunicaciones, Brendan Carr, será presidente de la Comisión Federal de Comunicaciones, a JD Vence, el vicepresidente, ligado a los financieros de la tecnología digital, como AOL-Time, Google, y Paypal.

    Michael Kratos como director de la Oficina de Política Científica y Tecnológica, fue Director Ejecutivo de la empresa Scale AI; en la subsecretaría de investigación e ingeniería, estará Emil Michael, exfuncionario de Uber; como director de la oficina de IA y criptomonedas de la Casa Blanca, estará el Empresario David Sacks; el Asesor principal de Políticas de IA será Sriram Krishnan.

    El nombramiento de más peso político es el de Elon Musk, que junto a otro empresario Vivek Ramaswamy se harán cargo de la función estratégica de mayor trascendencia, el Departamento de eficiencia Gubernamental, con grandes facultades, para decidir sobre la existencia, de múltiples áreas del gabinete de Trump.

    La economía de los EEUU es un sistema capitalista neoliberal, creando un ambiente propicio para eventos de gran relevancia en el mundo tecnológico empresarial como el CES (Consumer Electronics Show) organizado desde 1967 por la Asociación del Consumidor de Tecnología (Consumer Technology Association) que representa a más de mil 200 grandes empresas tecnológicas en los EEUU.

    Por su parte Canadá, se ha posicionado como líder a nivel global en tecnología digital, con un enfoque en áreas de IA, con la formación de ecosistemas tecnológicos y de innovación, a partir de dos hub digitales: Montreal y Vancuber.

    Las fortalezas de México para encaminarse a una potencia científico-tecnológica, son cerca de 34 mil integrantes del Sistema Nacional de Investigadores, además de contar con más de 900 Instituciones de Educación Superior Públicas y 27 Centros Públicos de Investigación.

    Además de lo anterior se creó la Secretaría de Ciencia Humanidades Tecnología e Innovación, cuyas funciones están estipuladas en el artículo 38Bis del Decreto que reforma la Ley Orgánica de la Administración Pública Federal, tiene el encargo de articular, coordinar y ejercer la rectoría, que corresponde al Estado mexicano, en las Humanidades, Ciencias, Tecnologías e Innovación (Secretaría de Gobernación, 2024).

    El incluir a las humanidades en la Rectoría del Estado en materia de Ciencia, Tecnología e Innovación, hace la diferencia con Canadá y los EEUU, porque implica que el desarrollo científico-tecnológico, tendrá en México, un impacto social, los beneficios que se generen no se acumularan en las trasnacionales enfocadas al mercado, para lograr altas tasas de rentabilidad para acumularse en los corporativos, sino que la política científico-tecnológica de México estará orientada por los derechos humanos y la sustentabilidad, para reducir la desigualdad económica y social, además de hacer frente a los impactos del cambio climático, congruente con el humanismo mexicano.

    Hay que reconocer, que revertir los patrones actuales no será sencillo, como el hecho de que el 95% de las solicitudes de patente, es por extranjeros, además la estructura empresarial del país, está basada en mipymes, sin procesos de investigación, las comunidades marginadas adolecen de una cultura de creación de tecnología, y la investigación está focalizada a artículos indexados, cuando lo que se requiere es investigación aplicada que dé respuesta a las necesidades de las empresas mexicanas y a la sociedad en general.

    Ser una potencia científico-tecnológica, está cuesta arriba, pero no imposible, si existe el apoyo y la coordinación de todos los actores con políticas públicas congruentes, en los tres niveles de gobierno, y una intensa participación de las IES públicas, sólo así México podría avanzar. ¿Y la negociación del T-MEC?

    Desafíos que enfrenta México en Ciencia y Tecnología

    Fuente:

    Jimenez, M. (5 de enero de 2025). EL PAIS. Recuperado el enero de 2025, de elpaís.com: https://elpais.com/us/branded/ces-consumer-electronics-show/2025-01-06/ces-2025-todo-lo-que-hay-saber-sobre-el-evento-de-tecnologia-mas-iconico-de-las-vegas.html#?rel=mas

    Negrete, J. F. (10 de enero de 2025). dplnews. Recuperado el enero de 2025, de dplnews.com: https://dplnews.com/digital-trends-en-politica-y-regulacion-2025/

    Rubio, I. (10 de enero de 2025). EL PAÍS. Recuperado el enero de 2025, de elpais.com: https://elpais.com/tecnologia/2025-01-10/los-10-inventos-mas-curiosos-del-ces-2025-de-la-cuchara-que-sala-la-comida-sin-sal-a-la-camioneta-con-un-coche-volador-dentro.html

    Secretaria de Gobernacion. (11 de noviembre de 2024). Gobernación, Diario Oficial de la Federación. Recuperado el enero de 2025, de dof.gob.mx: https://www.dof.gob.mx/nota_detalle.php?codigo=5744005&fecha=28/11/2024#gsc.tab=0

  • La nueva técnica rStar-Math de Microsoft mejora los modelos pequeños para superar a la versión preliminar o1 de OpenAI en problemas matemáticos

    La nueva técnica rStar-Math de Microsoft mejora los modelos pequeños para superar a la versión preliminar o1 de OpenAI en problemas matemáticos

    Microsoft está duplicando el potencial de los modelos de lenguaje pequeños (SLMs) con la presentación de rStar-Math , una nueva técnica de razonamiento que se puede aplicar a modelos pequeños para mejorar su desempeño en problemas matemáticos utilizando técnicas de razonamiento: un desempeño similar al del modelo o1-preview de OpenAI y, en algunos casos, superior.

    Aunque todavía se encuentra en fase de investigación (como se describe en un artículo publicado en el sitio de revisión previa arXiv.org y acreditado a ocho autores de Microsoft, la Universidad de Pekín y la Universidad de Tsinghua en China), la técnica se aplicó a varios modelos de código abierto más pequeños, incluidos el propio Phi-3 mini de Microsoft, el Qwen-1.5B de Alibaba (un modelo de 1.500 millones de parámetros) y el Qwen-7B (un modelo de 7.000 millones de parámetros). Mostró un rendimiento mejorado en todos ellos, incluso superando al modelo más avanzado anterior de OpenAI en el punto de referencia de terceros MATH (resolución de problemas de palabras) de 12.500 preguntas que abarcaban varias ramas como geometría y álgebra, y todos los niveles de dificultad.

    En última instancia, según una publicación en Hugging Face , los investigadores planean hacer que su código y datos estén disponibles en Github en https://github.com/microsoft/rStar , aunque uno de los autores del artículo, Li Lyna Zhang, escribió en los comentarios de la publicación de Hugging Face que el equipo “aún está en el proceso de revisión interna para el lanzamiento de código abierto”. Como tal, “el repositorio sigue siendo privado por ahora. ¡Por favor, permanezca atento!”

    Los miembros de la comunidad expresaron su entusiasmo, calificaron las innovaciones de “impresionantes” y elogiaron la combinación de Monte Carlo Tree Search (MCTS) con el razonamiento paso a paso. Un comentarista destacó la simplicidad y utilidad de usar valores Q para la puntuación de pasos, mientras que otros especularon sobre futuras aplicaciones en pruebas geométricas y razonamiento simbólico.

    Esta noticia llega poco después de la publicación del código abierto del modelo Phi-4 de Microsoft, un sistema de inteligencia artificial más pequeño de 14 mil millones de parámetros ahora disponible en Hugging Face bajo la licencia permisiva del MIT.

    Si bien el lanzamiento de Phi-4 ha ampliado el acceso a modelos pequeños de alto rendimiento, rStar-Math muestra un enfoque especializado: utilizar sistemas de IA más pequeños para lograr resultados de vanguardia en razonamiento matemático.

    rStar-Math funciona utilizando varios modelos y componentes diferentes para ayudar a que un modelo pequeño objetivo “autoevolucione”.

    La clave de rStar-Math es que aprovecha el método Monte Carlo Tree Search (MCTS), que imita el “pensamiento profundo” humano refinando iterativamente soluciones paso a paso a problemas matemáticos.

    Los investigadores utilizaron MCTS porque “descompone problemas matemáticos complejos en tareas de generación de un solo paso más simples, reduciendo la dificultad” para modelos más pequeños.

    Sin embargo, no se limitaron a aplicar MCTS como lo han hecho otros investigadores, sino que, en un golpe de brillantez, también pidieron al modelo que entrenaron que siempre generara sus pasos de razonamiento de “cadena de pensamiento” como descripciones en lenguaje natural y como código Python.

    Ordenaron que el modelo incluiría las respuestas en lenguaje natural como comentarios de código Python, y solo aquellas salidas que usaran Python se usarían para entrenar el modelo.

    Los investigadores también entrenaron un “modelo de políticas” para generar pasos de razonamiento matemático y un modelo de preferencia de procesos (PPM) para seleccionar los pasos más prometedores para resolver los problemas, y los mejoraron a ambos a lo largo de cuatro rondas de “autoevolución”, en las que cada modelo mejoraba al otro.

    Para sus datos iniciales, los investigadores dijeron que utilizaron “747.000 problemas matemáticos de fuentes disponibles públicamente”, junto con sus soluciones, pero generaron nuevos pasos para resolverlos con los dos modelos descritos anteriormente.

    Resultados récord

    Después de cuatro rondas de autoevolución, rStar-Math logró hitos importantes:

    • En el punto de referencia MATH , la precisión del modelo Qwen2.5-Math-7B aumentó del 58,8 % al 90,0 %, superando a OpenAI o1-preview.

    • En el Examen Americano de Invitación de Matemáticas (AIME) , resolvió el 53,3% de los problemas, ubicándose entre el 20% superior de los competidores de escuela secundaria.

    Estos resultados resaltan el poder de los SLM para manejar el razonamiento matemático complejo, tradicionalmente dominado por sistemas más grandes.

    ¿Cuanto más pequeño, mejor?

    En los últimos años, la innovación en IA se ha basado en gran medida en la ampliación de los modelos lingüísticos, y el aumento de los parámetros se ha considerado una forma de mejorar el rendimiento. Sin embargo, los altos costos asociados a estos modelos masivos, desde los recursos computacionales hasta el consumo de energía, han planteado dudas sobre la escalabilidad.

    Microsoft ofrece un camino alternativo, centrado en la eficiencia. El lanzamiento de rStar-Math subraya aún más este compromiso al demostrar cómo los SLM pueden rivalizar (y en algunos casos superar) las capacidades de sus homólogos de mayor tamaño.

    Los lanzamientos duales de Phi-4 y el documento rStar-Math de Microsoft sugieren que los modelos compactos y especializados pueden proporcionar alternativas poderosas a los sistemas más grandes de la industria.

    Además, al superar a competidores más grandes en indicadores clave, estos modelos desafían la idea de que cuanto más grande, mejor. Abren las puertas a organizaciones medianas e investigadores académicos para acceder a capacidades de vanguardia sin la carga financiera o ambiental de los modelos masivos.

    Fuente:

    VentureBeat(2025, 09 de enero). La nueva técnica rStar-Math de Microsoft mejora los modelos pequeños para superar a la versión preliminar o1 de OpenAI en problemas matemáticos. Recuperado el 10 de enero de 2025 de: https://venturebeat.com/ai/microsofts-new-rstar-math-technique-upgrades-small-models-to-outperform-openais-o1-preview-at-math-problems/

  • ¿Es este el material más fuerte del mundo? ¡Supera al diamante!

    ¿Es este el material más fuerte del mundo? ¡Supera al diamante!

    Un hallazgo reciente realizado con tecnología de vanguardia pone en duda todo lo que creíamos saber sobre los materiales más resistentes. Investigadores estadounidenses identificaron un nuevo tipo de carbono con características sorprendentes que podrían cambiar la percepción sobre la dureza.

    El diamante, conocido por décadas como el material más duro del planeta, ha sido superado. Investigadores del Laboratorio Nacional Lawrence Livermore y la Universidad del Sur de Florida encontraron una forma cristalina de carbono aún más resistente. A continuación, te contamos cómo lo descubrieron y qué lo hace único.

    Un hallazgo revolucionario: el BC8

    Gracias al superordenador Frontier y a simulaciones avanzadas, los científicos lograron identificar al BC8, una forma cristalina de carbono que supera en un 30% la resistencia a la compresión de los diamantes tradicionales.

    Esta investigación, realizada con millones de átomos bajo condiciones extremas, determinó que el BC8 puede mantenerse estable y que posee propiedades que lo colocan por encima de cualquier material conocido. Este hallazgo abre nuevas posibilidades para entender las propiedades de los materiales y explorar aplicaciones innovadoras.

    Características únicas del BC8

    El BC8 se distingue por su estructura tetraédrica, similar a una pirámide, que le otorga una resistencia superior. A diferencia del diamante, carece de «planos de clivaje», puntos débiles que pueden comprometer su integridad estructural.

    Los investigadores sugieren que este material podría formarse naturalmente en exoplanetas ricos en carbono, donde las condiciones extremas de presión y temperatura favorecerían su creación. Según Ivan Oleynik, coautor del estudio, este conocimiento es clave para modelar de manera precisa el interior de estos planetas lejanos.

    Cómo fue posible este descubrimiento

    Las especulaciones sobre la existencia del BC8 datan de los años 80, pero sólo recientemente se confirmó su viabilidad gracias a avances en simulaciones computacionales. El superordenador Frontier permitió reproducir condiciones extremas y analizar la evolución de miles de millones de átomos en tiempo real.

    «Este avance nos permite comprender las condiciones exactas en las que el BC8 puede formarse, abriendo nuevas perspectivas tanto en la ciencia de materiales como en la astrofísica», explicó Oleynik.

    ¿Qué significa este hallazgo para el futuro?

    La identificación del BC8 no sólo redefine lo que entendemos por dureza, sino que también tiene implicaciones potenciales en campos como la exploración espacial y el diseño de materiales ultrarresistentes. Este descubrimiento es un recordatorio del poder de la tecnología para desvelar los secretos más profundos de la materia.

    Fuente: GIZMODO(2025, 10 de enero). ¿Es este el material más fuerte del mundo? ¡Supera al diamante! Recuperado el 10 de enero de 2025, de: https://es.gizmodo.com/es-este-el-material-mas-fuerte-del-mundo-supera-al-diamante-2000143175