Author: admin

  • Una herramienta futurista que redefine el aprendizaje musical

    Una herramienta futurista que redefine el aprendizaje musical

    Un avance revolucionario promete llevar a los pianistas más allá de sus límites naturales. Descubre cómo un exoesqueleto robótico está transformando la forma en que los músicos perfeccionan su técnica y aceleran su velocidad.

    En la búsqueda de la perfección musical, superar las barreras impuestas por la coordinación y velocidad humanas siempre ha sido un desafío. Un exoesqueleto robótico de mano, desarrollado en los laboratorios Sony Computer Science de Tokio bajo la dirección de Shinichi Furuya, promete cambiar esta realidad, permitiendo a los pianistas expertos alcanzar niveles de destreza técnica inalcanzables con métodos tradicionales.

    Un enfoque innovador para el entrenamiento

    Inspirado en técnicas clásicas de enseñanza musical, el exoesqueleto guía los dedos de los pianistas a través de patrones complejos, replicando el aprendizaje háptico que los maestros suelen transmitir al colocar sus manos sobre las de los alumnos. Este dispositivo combina precisión tecnológica con plasticidad cerebral para acelerar el aprendizaje y perfeccionar movimientos avanzados sin necesidad de ensayo y error constante.

    Cómo funciona el exoesqueleto robótico

    El exoesqueleto opera con motores independientes para cada dedo, capaces de realizar movimientos de hasta cuatro ciclos por segundo. Esto permite a los pianistas experimentar combinaciones de patrones rápidos y complejos de manera pasiva. Además, su diseño personalizado ajusta los movimientos para optimizar el progreso técnico, enfocándose en mejorar la coordinación y la precisión.

    Esta herramienta no solo imita movimientos, sino que los guía activamente, ayudando a los pianistas a entender y adoptar técnicas avanzadas que antes requerían años de práctica intensiva.

    Impacto en el desempeño musical

    En un estudio con 118 pianistas expertos, todos con más de 10,000 horas de práctica, el exoesqueleto demostró ser sorprendentemente eficaz. Después de alcanzar una meseta de progreso mediante métodos tradicionales, los músicos entrenaron durante 30 minutos con el dispositivo. Los resultados mostraron mejoras significativas en la velocidad y coordinación de ambas manos, cambios que se mantuvieron incluso al día siguiente.

    Además, los escáneres cerebrales revelaron modificaciones en las áreas sensoriales del cerebro responsables del control motor. Estos cambios sugieren que el dispositivo no solo perfecciona la técnica física, sino que también remodela la percepción y el control, llevando el aprendizaje a un nivel completamente nuevo.

    Más allá de la música

    El éxito del exoesqueleto plantea un escenario emocionante para otras disciplinas. Desde deportes de élite hasta cirugía, donde la precisión y la coordinación son críticas, esta tecnología podría revolucionar cómo se entrenan habilidades avanzadas en individuos sanos.

    Como comentó Nathan Lepora, de la Universidad de Bristol: “Es la primera vez que veo que se utiliza un exoesqueleto robótico para ir más allá de las capacidades humanas normales de destreza”. Este avance no solo desafía los límites del aprendizaje tradicional, sino que también redefine lo que es posible en el desarrollo de habilidades humanas.

    El futuro del aprendizaje asistido

    El exoesqueleto robótico no solo representa una herramienta para perfeccionar la técnica musical, sino una puerta hacia un futuro donde la tecnología amplíe las capacidades humanas. Al superar las limitaciones físicas y motoras, esta innovación promete transformar tanto la música como otras disciplinas, marcando el comienzo de una nueva era en el aprendizaje y el rendimiento humano.

    Fuente:

    GIZMODO (2025, 20 de enero). Una herramienta futurista que redefine el aprendizaje musical. Recuperado el 20 de enero de 2025, de: https://es.gizmodo.com/una-herramienta-futurista-que-redefine-el-aprendizaje-musical-2000144908

  • La Inteligencia Artificial ¿creará la cultura para el control social y político?

    La Inteligencia Artificial ¿creará la cultura para el control social y político?

    La Inteligencia Artificial (IA), surge en 1956 en la Conferencia de Darmouth EEUU, que organizó John McCarthy y otros connotados científicos (Cairo, 2011), Alan Turing, ya había publicado en 1950, su trabajo Computing Machinery and Intelligence, buscando respuesta a la pregunta ¿son las máquinas capaces de pensar? (Rodriguez, 2021).

    La Asociación Americana de Inteligencia Artificial (AAAI) la define como “la comprensión científica de los mecanismos que fundamentan el pensamiento y el comportamiento inteligente y su incorporación en las máquinas” (Cairo B. O., 2011, pág. 2), para Kurzweil es el arte de crear máquinas con la capacidad para ejecutar funciones que realizadas por humanos requieren de inteligencia (Kurzweil, 1992)

    El debate gira en torno a las bondades y riesgos del cada vez mayor uso en nuestra vida diaria de la IA, el arte y la cultura no están ajenas a las aplicaciones de la IA, ¿acaso la IA puede ser tan creativa o más que los seres humanos? (Jimenez, Kuko, Wil, 2019).

    ¿Puede una IA, crear obras artísticas y crear cultura? Para algunos la cultura es un proceso histórico-social que da como resultado, valores que cohesionan a la sociedad, teniendo como factor vinculante la emocionalidad humana, una IA no podría entender o simular en toda su dimensión lo que esto significa.

    Actualmente la IA puede procesar información por sí sola y realizar la toma de decisiones, por lo que la IA ya no es una mera herramienta, sino que ya tiene un nivel de autonomía, pudiendo generar, crear arte y lograr descubrimientos científicos (Noah, 2024), como también hacer poesía, música y pintura, por ejemplo en octubre del 2018, un algoritmo creó la pintura “El retrato de Edmon de Belamy” que se vendió por más de 430 mil dólares (Ruiz, 2024).

    También hay IA que generan imágenes falsas, son creadas a partir de grandes volúmenes de información, de imágenes reales, se pueden identificar las deepfakes de imágenes, cuando se examinan de cerca y con detenimiento, dice Siwei Lyu, (Yang, 2025), las IA generadoras de imágenes falsas, solo replican la información que se les programó, pero las caras falsas superpuestas, rara vez parpadean, porque a las IA las entrenan con imágenes de personas con los ojos abiertos; los humanos tienen pupilas circulares, pero las IA generadores de imágenes falsas, generan formas extrañas en las pupilas, también las manos son delatoras de imágenes falsas.

    Habrá que decirlo, la IA con una gran variedad de datos y técnicas, son de gran ayuda para mejorar las habilidades de diseño, así como para que los artistas puedan crear obras más únicas y originales, aumentando la creatividad en el arte, (Julliet.ai, Blog, 2025), esta nueva interacción entre artistas y la IA, conduce a cambiar el arte, en cuanto a nuevas imágenes, que representen el mundo real.

    Las redes sociales, vía internet, son el medio ideal para que fluya la IA en todo momento, lo que está haciendo la diferencia son los centros de datos, como unidades neurológicas, para la conectividad que propician; el mayor número de centros de datos se localizan en los EEUU con 2673, Reino Unido con 452, Alemania con 450, China 415, México tiene 153 (ELAND CABLES, 2021).

    La era tecnológica se venido perfilando hacia un Imperialismo Tecnológico (Calcaneo, 2025), integrado por las grandes empresas, estando en primer lugar los barones de las redes sociales, dueños de lo digital y de la hiper-conectividad como de la IA, para sus fines corporativos, su influencia está dimensionada en 5 mil millones de usuarios de las redes sociales, que ellos controlan para crear una la cultura del libre mercado-neoliberal, con el apoyo del gobierno más poderosos del mundo, los EEUU, cuya gobernanza está a merced de un gabinete de multimillonarios, el control del gobierno será en beneficio de sus corporativos.

    Empresas como Huawei y Tik-Tok con sus 170 millones de usuarios en los EEUU, representan un riesgo a la Hegemonía norteamericana y a sus grandes tecnológicas, cuyo propósito de éstas, es crear una cultura pro-corporativista tecnológica, para consolidar la hegemonía de los EEUU y de las grandes tecnológicas, para ello las redes sociales y la IA son fundamentales. ¿Hacia dónde va el mundo?

    La IA ¿creará la cultura para el control social y político_compressed

    Bibliografía

    Calcaneo, M. (17 de Enero de 2025). Trump y las Redes Sociales. La Jornada, año 41(14552), pág. https://www.jornada.com.mx/2025/01/17/opinion/014a2pol.

    Cairo, B. O. (2011). El Hombre Artificial: El futuro de la tecnología. Ciudad de México: Alfaomega Grupo Editor S.A. de C.V.

    Cairo, O. B. (2011). El Hombre Artificial: El Futuro de la Tecnología. Ciudad de México: Alfaomega grupo editor S.A. de C.V.

    ELAND CABLES. (28 de mayo de 2021). ELAND CABLES. Recuperado el enero de 2025, de elandcables.com: https://www.elandcables.com/es/company/news-and-events/the-growing-number-of-data-centres-around-the-world

    Jimenez, Kuko, Wil. (13 de junio de 2019). Wil Jimenez Kuko. Recuperado el enero de 2025, de wiljimenezkuko.com: https://www.wiljimenezkuko.com/post/la-inteligencia-artificial-aplicada-al-arte-y-la-cultura

    Julliet.ai, Blog. (15 de enero de 2025). Julliet. Recuperado el enero de 2025, de julliet.ai: https://www.julliet.ai/blog/la-inteligencia-artificial-y-sus-usos-en-el-arte-clc2jeon9145691kpmefvqgy6h

    Kurzweil, R. (1992). The Age of Intelligent Machines. Cambridge: MIT Press.

    Noah, H. Y. (2024). Nexus: una breve historia de las redes de información desde la Edad de Piedra hasta la IA. Ciudad de México, México : Penguin Random House Grupo Editorial S.A.U.

    Parlamento Europeo. (26 de marzo de 2021). Parlamento Europeo. Recuperado el enero de 2025, de europarl.europa.eu: https://www.europarl.europa.eu/topics/es/article/20200827STO85804/que-es-la-inteligencia-artificial-y-como-se-usa

    Rodriguez, G. G. (20 de septiembre de 2021). CII.IA. Recuperado el enero de 2025, de ciiia.mc: https://www.ciiia.mx/noticiasciiia/la-prueba-de-turing

    Ruiz, G. N. (26 de octubre de 2024). FRANCE24. Recuperado el enero de 2025, de france24.com: https://www.france24.com/es/20181026-obra-inteligencia-artificial-edmond-belamy

    Yang, A. (15 de eneo de 2025). NATIONAL GEOGRAPHIC. Recuperado el enero de 2025, de nationalgeographic.es: Siwei Lyu, profesor de informática e ingeniería de la Universidad de Buffalo (Estados Unidos).

  • Las empresas ahora pueden ejecutar datos en tiempo real a través de las máquinas virtuales más avanzadas de Google Cloud

    Las empresas ahora pueden ejecutar datos en tiempo real a través de las máquinas virtuales más avanzadas de Google Cloud

    Hace unos meses, Google Cloud lanzó C4A como instancias de máquinas virtuales (VM) impulsadas por Axion, su primera CPU basada en Arm. Ahora, como siguiente paso en este trabajo, está presentando C4A con SSD Titanium , sus discos locales diseñados a medida destinados a mejorar el almacenamiento y el rendimiento.

    Con esta medida, Google refuerza su cartera de C4A y ofrece máquinas virtuales que pueden mejorar aún más el rendimiento de la nube para cargas de trabajo que requieren procesamiento de datos en tiempo real . Las máquinas virtuales, como dice la empresa, combinan una latencia ultrabaja y un almacenamiento de alto rendimiento con una buena relación calidad-precio, lo que las convierte en un paquete ideal para ejecutar aplicaciones como bases de datos de alto rendimiento, motores de análisis y búsquedas.

    Actualmente, Google Cloud está poniendo a disposición estas máquinas virtuales C4A equipadas con SSD Titanium en servicios como Compute Engine, Google Kubernetes Engine (GKE), Batch y Dataproc. Las máquinas virtuales C4A estándar también están disponibles en versión preliminar en Dataflow, con compatibilidad con Cloud SQL, AlloyDB y otros servicios en desarrollo.

    ¿Qué esperar de las máquinas virtuales C4A de Google con SSD Titanium?

    Las instancias C4A de Google Cloud suelen incluir tres opciones de almacenamiento: disco persistente, hiperdisco o SSD local. El disco persistente es el servicio de almacenamiento en bloque estándar en el que el rendimiento se comparte entre volúmenes del mismo tipo. El hiperdisco, por otro lado, ofrece un rendimiento dedicado, que admite hasta 350 000 operaciones de entrada/salida por segundo (IOPS) y un rendimiento de 5 GB/s por volumen, lo que ofrece un rendimiento significativamente mejor que el disco persistente.

    Sin embargo, en algunas cargas de trabajo, especialmente aquellas que exigen capacidad de almacenamiento local, incluso Hyperdisk puede tener problemas. Aquí es donde entran en juego los SSD locales, siendo los SSD Titanium la última innovación en la categoría.

    Las nuevas instancias C4A con SSD Titanium ofrecen hasta 2,4 millones de operaciones de entrada/salida de lectura aleatoria por segundo, 10,4 GiB/s de rendimiento de lectura y una latencia de acceso un 35 % menor en comparación con los SSD de generaciones anteriores. 

    Los SSD Titanium, que se conectan directamente a las instancias de cómputo dentro del servidor host, descargan tareas de almacenamiento y redes de la CPU, liberando recursos para mejorar la seguridad de las aplicaciones y el rendimiento. Esta innovación proviene del sistema Titanium de Google. Ejecuta el trabajo de descarga desde la CPU host hacia un sistema de silicio, hardware y software personalizados en el host y en todos los centros de datos de la empresa , conectados a la CPU host mediante un procesador de descarga Titanium. 

    La configuración ofrecida

    En esencia, la nueva familia C4A con SSD Titanium viene con hasta 72 vCPU, 576 GB de memoria y 6 TB de almacenamiento local. Las empresas pueden elegir entre configuraciones estándar (4 GB/vCPU) y de alta memoria (8 GB/vCPU). Las opciones de conectividad, por otro lado, pueden escalar hasta 100 Gbps.

    Todo esto puede soportar fácilmente cargas de trabajo de alto tráfico con procesamiento de datos en tiempo real, como servidores web/de aplicaciones, bases de datos de alto rendimiento, motores de análisis de datos y búsqueda. Además, puede impulsar aplicaciones que requieren almacenamiento en caché en memoria, transmisión y transcodificación de medios e inteligencia artificial y aprendizaje automático basados ​​en CPU.

    “ C4A … ofrece una relación precio-rendimiento hasta un 65 % mejor y una eficiencia energética hasta un 60 % mejor que las instancias basadas en x86 de la generación actual comparables. Juntos, C4A y los SSD Titanium ofrecen una relación precio-rendimiento líder en la industria para una amplia gama de cargas de trabajo de propósito general compatibles con Arm”, escribieron Varun Shah y Nate Baum, gerentes de producto sénior de Google Cloud, en una publicación conjunta en el blog.

    Los primeros usuarios notan un aumento del rendimiento del 40 %

    Si bien las máquinas virtuales C4A con SSD Titanium recién están disponibles para el público en general, algunos de los primeros usuarios ya están notando mejoras en el rendimiento. Entre ellos se incluyen grandes nombres como Couchbase y Elastic.

    Matt McDonough, vicepresidente sénior de productos y socios de Couchbase, destacó cómo Capella Columnar, que se ejecuta en instancias Google Axion C4A con SSD Titanium, ofrece ventajas incomparables en cuanto a precio y rendimiento, latencia ultrabaja y potencia de procesamiento escalable para cargas de trabajo analíticas y operativas. De manera similar, Uri Cohen de Elastic afirmó que la empresa observó un rendimiento un 40 % superior al de las generaciones de máquinas virtuales anteriores.

    Las máquinas virtuales C4A con SSD Titanium ya están disponibles en regiones clave, como EE. UU., Europa y Asia, y hay planes de expandirse aún más. Los clientes pueden acceder a ellas a través de máquinas virtuales Spot, bajo demanda y opciones de precios con descuento.

    Con avances significativos en rendimiento, eficiencia energética y escalabilidad, las máquinas virtuales C4A con SSD Titanium satisfacen las demandas empresariales modernas y establecen un nuevo punto de referencia para las cargas de trabajo en la nube.

    Fuente:

    VentureBeat (2025, 16 de enero).  Enterprises can now run real-time data through Google Cloud´s most advanced VMs. Recuperado el 17 de enero de 2025 de:  https://venturebeat.com/data-infrastructure/enterprises-can-now-run-real-time-data-through-google-clouds-most-advanced-vms/

  • Microsoft acaba de crear una IA que diseña materiales para el futuro: así funciona

    Microsoft acaba de crear una IA que diseña materiales para el futuro: así funciona

    Microsoft Research ha presentado hoy un nuevo y potente sistema de inteligencia artificial que genera nuevos materiales con propiedades específicas deseadas, acelerando potencialmente el desarrollo de mejores baterías, células solares más eficientes y otras tecnologías críticas.

    El sistema, llamado MatterGen , representa un cambio fundamental en la forma en que los científicos descubren nuevos materiales. En lugar de analizar millones de compuestos existentes (el enfoque tradicional que puede llevar años), MatterGen genera directamente materiales nuevos en función de las características deseadas, de manera similar a cómo los generadores de imágenes de IA crean imágenes a partir de descripciones de texto.

    “ Los modelos generativos ofrecen un nuevo paradigma para el diseño de materiales al generar directamente materiales completamente nuevos en función de las restricciones de propiedades deseadas”, afirmó Tian Xie, director de investigación principal de Microsoft Research y autor principal del estudio publicado hoy en Nature . “Esto representa un avance importante hacia la creación de un modelo generativo universal para el diseño de materiales”.

    Cómo el motor de inteligencia artificial de Microsoft funciona de manera diferente a los métodos tradicionales

    MatterGen utiliza un tipo especializado de inteligencia artificial llamado modelo de difusión (similar a los que se utilizan en generadores de imágenes como DALL-E ), pero adaptado para trabajar con estructuras cristalinas tridimensionales. Refina gradualmente la disposición aleatoria de átomos para convertirlos en materiales estables y útiles que cumplen con criterios específicos.

    Los resultados superan a los enfoques anteriores. Según el artículo de investigación, los materiales producidos por MatterGen tienen “más del doble de probabilidades de ser novedosos y estables, y están más de 15 veces más cerca del mínimo de energía local” en comparación con los enfoques de IA anteriores. Esto significa que los materiales generados tienen más probabilidades de ser útiles y de ser físicamente posibles de crear.

    En una demostración sorprendente, el equipo colaboró ​​con científicos de los Institutos de Tecnología Avanzada de Shenzhen, China, para sintetizar un nuevo material, TaCr2O6 , que MatterGen había diseñado. El material del mundo real coincidió estrechamente con las predicciones de la IA, lo que validó la utilidad práctica del sistema.

    Las aplicaciones del mundo real podrían transformar el almacenamiento de energía y la computación

    El sistema es particularmente notable por su flexibilidad. Puede “ajustarse” para generar materiales con propiedades específicas, desde estructuras cristalinas particulares hasta características electrónicas o magnéticas deseadas. Esto podría resultar invaluable para diseñar materiales para aplicaciones industriales específicas.

    Las consecuencias podrían ser de gran alcance. Los nuevos materiales son cruciales para el avance de las tecnologías de almacenamiento de energía, diseño de semiconductores y captura de carbono. Por ejemplo, mejores materiales para baterías podrían acelerar la transición a vehículos eléctricos, mientras que materiales más eficientes para celdas solares podrían hacer que la energía renovable sea más rentable.

    “Desde una perspectiva industrial, el potencial aquí es enorme”, explicó Xie. “La civilización humana siempre ha dependido de las innovaciones materiales. Si podemos usar la IA generativa para hacer que el diseño de materiales sea más eficiente, podríamos acelerar el progreso en industrias como la energía, la atención médica y más allá”.

    La estrategia de código abierto de Microsoft tiene como objetivo acelerar el descubrimiento científico

    Microsoft ha publicado el código fuente de MatterGen bajo una licencia de código abierto, lo que permite a los investigadores de todo el mundo desarrollar la tecnología. Esta medida podría acelerar el impacto del sistema en varios campos científicos.

    El desarrollo de MatterGen forma parte de la iniciativa más amplia AI for Science de Microsoft , cuyo objetivo es acelerar los descubrimientos científicos mediante IA. El proyecto se integra con la plataforma Azure Quantum Elements de Microsoft , lo que potencialmente hace que la tecnología sea accesible para empresas e investigadores a través de servicios de computación en la nube.

    Sin embargo, los expertos advierten que, si bien MatterGen representa un avance significativo, el camino desde los materiales diseñados computacionalmente hasta las aplicaciones prácticas aún requiere pruebas y refinamientos exhaustivos. Las predicciones del sistema, si bien son prometedoras, necesitan validación experimental antes de su implementación industrial.

    Sin embargo, la tecnología representa un avance significativo en el uso de la IA para acelerar los descubrimientos científicos. Como señaló Daniel Zügner, investigador principal del proyecto: “Estamos profundamente comprometidos con la investigación que puede tener un impacto positivo en el mundo real, y esto es solo el comienzo”.

     

    Fuente.

    VentureBeat (2025, 16 de enero). Microsoft just built an AI that designs materials for the future: Here´s how it works. Recuperado el 17 de enero de 2025 de:  https://venturebeat.com/ai/microsoft-mattergen-ai-system-generates-materials-that-could-change-industries-forever/

  • Meta desarrolla un traductor de voz simultáneo con IA generativa para un centenar de idiomas

    Meta desarrolla un traductor de voz simultáneo con IA generativa para un centenar de idiomas

    Meta diseña el modelo avanzado de traductor multimodal con inteligencia artificial (IA) generativa, SeamlessM4T, con reconocimiento automático de voz y capaz de traducir de forma instantánea conversaciones de voz a voz en un centenar de idiomas. La revista Nature publica este importante avance tecnológico que puede ser el precursor de traducciones simultáneas para cualquier idioma.

    El modelo de inteligencia artificial (IA) generativa liderado por la compañía Meta,SeamlessM4T, puede traducir y transcribir voz y texto de forma automática en 101 idiomas de origen y hasta 36 idiomas de destino: genera texto traducido a 96 idiomas, pero solo puede producir una traducción hablada en 35.

    Este sistema de traducción multilingüe es un avance significativo en sistemas de traducción más rápidos, fiables y transfronterizos. La compañía dirigida por Mark Zuckerberg ya publicó una demo junto con una primera versión del estudio en agosto de 2023.

    La aplicación incorpora aspectos fonológicos y fonéticos poco explorados hasta ahora que mejoran el ritmo, los matices y la emoción del habla, lo que proporciona traducciones más auténticas y expresivas y una latencia en el proceso de apenas dos segundos. En términos de rendimiento, este modelo traductor supera a los mejores sistemas anteriores en diversas métricas, con una mejora de más del 20%.

    El modelo agrupa tecnologías anteriormente desarrolladas en I+D en IA (SeamlessExpressive, SeamlessStreaming y Seamless) e integra capacidades combinadas de modelos de traducción de habla a habla (S2ST), habla a texto (S2TT),texto a habla (T2ST) y texto a texto (T2TT).

    Para mejorar el rendimiento y reducir los errores y retrasos en los procesos de traducción, aprovecha lo conseguido en otros modelos de la marca con No Language Left Behind (NLLB) –Ningún idioma se queda atrás- del proyecto de inteligencia artificial de Meta.

    Los impulsores de este avance científico que se publica en la revista científica Nature afirman que los recursos empleados para desarrollarse se pondrán a disposición del público para uso no comercial. Se considera el modelo como un posible primer paso para que las aplicaciones de traducción simultánea automática se conviertan en pocos años en algo cotidiano.

    “Es un estudio muy interesante, y aunque ya no tan reciente”, la investigación incorpora varias innovaciones destacables”, explica Andreas Kaltenbrunner, investigador líder del grupo AI and Data for Society de la Universitat Oberta de Catalunya (UOC), en la plataforma Science Media Centre España.

    “En primer lugar, es un sistema unificado que gestiona todos los aspectos de la traducción (voz y texto) en un solo entorno, en lugar de depender de varios sistemas independientes”.

    “Otro aspecto relevante es la amplia cantidad de idiomas que soporta: más de 100 idiomas de entrada y docenas de idiomas de salida. Además, destaca por su robustez frente a desafíos del mundo real, como el manejo de ruido y la comprensión de diferentes acentos, aspectos que suelen causar dificultades a otros sistemas”.

    Maite Martín, catedrática del departamento de Informática de la Universidad de Jaén e investigadora del grupo de investigación SINAI (Sistemas Inteligentes de Acceso a la Información), apunta que “el artículo presenta un modelo unificado de traducción automática multimodal y multilingüe llamado SemalessM4T, desarrollado para superar las limitaciones actuales en la traducción de texto y habla, incluyendo traducciones entre lenguajes de pocos recursos”.

    “Uno de los aspectos más destacados del modelo es su enfoque en estudiar e incorporar idiomas con pocos recursos, como el maltés y el suajili, que han sido históricamente excluidos de los avances tecnológicos en traducción automática”, apunta esta experta.

    “Estos idiomas, al carecer de grandes volúmenes de datos etiquetados y recursos específicos, suelen quedar rezagados en el desarrollo de herramientas lingüísticas avanzadas”, prosigue. “El trabajo realizado aborda esta brecha mediante la creación de un corpus masivo de datos de habla y texto alineados. Combina datos etiquetados manualmente con recursos generados automáticamente, lo que permite ampliar significativamente el alcance y la precisión del modelo en lenguas menos representadas, un avance en la inclusión lingüística”.

    Raquel Fernández, catedrática de Lingüística Computacional y Sistemas de Diálogo y y vicedirectora de Investigación del Instituto de Lógica, Lenguaje y Computación (ILLC) de la Universidad de Ámsterdam, agrega que “los sistemas de traducción automática tienden a funcionar razonablemente bien para idiomas que están bien representados en internet (inglés, chino o español, por ejemplo), pero no tanto para idiomas con menos hablantes o menos datos digitales disponibles (como maltés, suajili o urdu)”.

    “Además, la traducción automática se ha limitado principalmente al texto escrito. El modelo presentado en este artículo supone un avance substancial al incluir la capacidad de traducir hacia y desde el habla (además del texto) y al hacerlo para una gran cantidad de idiomas diferentes”.

    Para Martín es relevante que se haya decidido poner estos datos y herramientas a disposición de la comunidad científica para uso no comercial, un enfoque que fomenta la investigación colaborativa al permitir que otros desarrolladores e investigadores utilicen estos recursos para seguir avanzando en la traducción automática, especialmente en contextos multilingües y multimodales.

    “La publicación de estos recursos no solo consolida el modelo como un referente en innovación tecnológica, sino que también impulsa el desarrollo de soluciones más inclusivas y equitativas, sentando las bases para un ecosistema de investigación más abierto y dinámico”.

    Víctor Etxebarria, catedrático de Ingeniería de Sistemas y Automática en la Universidad del País Vasco (UPV/EHU), agrega que el traductor, sobre todo en su versión de traducción directa de voz a voz, puede resultar muy útil, intentando imitar el servicio efectuado por las personas dedicadas a la traducción simultánea en el contexto internacional.

    “SeamlessM4T logra una mayor precisión y robustez que los sistemas de traducción tradicionales. Las métricas reportadas indican que el modelo es resistente al ruido y a variaciones en los hablantes”, añade por su parte Pablo Haya Coll, investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM) y director del área de Business & Language Analytics (BLA) del Instituto de Ingeniería del Conocimiento (IIC).

    “Es interesante destacar que el modelo incorpora estrategias para mitigar sesgos de género y toxicidad, garantizando traducciones más inclusivas y seguras. Representa un paso adelante en la construcción de sistemas inclusivos y accesibles, ofreciendo un puente efectivo entre culturas y lenguajes para su aplicación en contextos tanto digitales como presenciales”.

    Limitaciones al estudio

    El modelo, sin embargo, también enfrenta limitaciones importantes. “Aunque supone un avance significativo, todavía queda trabajo por hacer para optimizar su implementación en escenarios prácticos”, apunta Martín. Fundamentalmente, la aplicación no tiene en cuenta las inflexiones vocales ni otros componentes emocionales del habla viva que pueden dejar imprecisa la traducción final y dar lugar a malentendidos.

    “Aunque mejora la precisión en la traducción de lenguajes con pocos recursos, los resultados aún son inferiores a los obtenidos con idiomas de alta disponibilidad. Y siguen siendo desafíos la interacción en tiempo real, la expresividad de la voz traducida o sesgos de género, señala.

    Para Etxevarría, el traductor es “un producto tecnológico avanzado y probablemente muy útil, pero cerrado a los principios de la ciencia abierta”.

    “El modelo tampoco evita por ahora los retrasos ni los errores de traducción ni su enmienda en tiempo real que sí realizan las personas traductoras”.

    Asimismo, lamenta que los especialistas independientes no tienen permiso de reproducibilidad, comprobación o mejora de las bases tecnológicas, y solo tienen acceso a conectarse al traductor para efectuar ejemplos superficiales de traducciones. “Junto a sus múltiples limitaciones tecnológicas y legales”, prosigue este experto, “otra desventaja es que solo puede utilizarse a través de la API (Application Programming Interface) remoto por internet impuesto por Meta”.

    “El software no cumple los principios de la IA en código abierto tal y como lo define la Open Source Initiative: usar, estudiar, modificar y compartir para cualquier propósito”, por lo que “no contribuye al avance científico” y “no es coherente con los principios de la ciencia abierta”.

    Kaltenbrunner, por su parte, ve por su parte que es digno de elogio que el estudio incluya un análisis sobre si las traducciones incrementan la toxicidad de los textos o cómo abordan posibles sesgos de género pese a que Meta, recientemente, “parece haber decidido abandonar los esfuerzos en este sentido con su nueva política de moderación de contenidos”.

    Rodolfo Zevallos, investigador del grupo de Tecnologías del Lenguaje del BSC (Barcelona Supercomputing Center), apunta por su parte que sería interesante “profundizar en el proceso de tokenización (segmentación de palabras), particularmente para lenguas morfológicamente complejas, donde una representación adecuada es crucial para mejorar la calidad de las traducciones”.

    ¿Hay que seguir estudiando idiomas?

    Aunque es un avance significativo, tiene algunas limitaciones reseñables, añade Haya Coll. Recuerda que SeamlessM4T fue publicado en abierto por Meta en agosto de 2023. “El artículo que se publica ahora en Nature no parece que difiera de lo que ya explicó Meta en su día y puso en abierto en su repositorio de github donde se puede probar esta tecnología”.

    La calidad de las traducciones que realiza la aplicación varían según el idioma, explica, “especialmente en lenguas de bajos recursos, y según el género, acento y demografía. Puede enfrentar dificultades al traducir nombres propios, jerga y expresiones coloquiales”.

    “Hay que tener en cuenta que el habla no se limita a ser texto hablado; incorpora una variedad de componentes prosódicos, como el ritmo, el énfasis, la entonación y el tono, así como elementos emocionales que requieren una investigación más exhaustiva. Para desarrollar sistemas S2ST que resulten orgánicos y naturales, es fundamental centrar los esfuerzos en que el audio generado preserve la expresividad del lenguaje”.

    Además, “para aumentar la adopción de estos sistemas es preciso mayor investigación en sistemas que permitan traducción en streaming, es decir, traducir de forma incremental una oración a medida que se pronuncia”.

    Fernández reconoce que este modelo “representa un progreso sustancial en la traducción hablada, ya que traducir a voz sigue siendo más complejo que generar una traducción escrita: Además, el habla producida automáticamente puede no siempre ser expresiva y natural. De manera similar, al traducir de voz a texto, el modelo puede tener problemas para procesar el habla en función de factores como el género, el acento o el idioma”.

    Y “si bien tiene el potencial de mejorar la comunicación multilingüe en muchos escenarios cotidianos, aún no permite la traducción en tiempo real o simultánea, es decir, la traducción de una oración a medida que se produce”.

    Los propios autores destacan en el estudio que estas aplicaciones deben entenderse como herramientas de apoyo diseñadas para asistir en la traducción, en lugar de reemplazar la necesidad de aprender idiomas o contar con intérpretes humanos: especialmente crucial en contextos como la toma de decisiones legales o médicas.

    El inglés, origen y meta

    “La traducción automática ha evolucionado desde sistemas basados en reglas y cálculos estadísticos hasta los actuales grandes modelos lingüísticos o LLMs, gracias al poder computacional. Dentro de este contexto, la publicación presenta un avance en sistemas de traducción más rápidos, fiables y universales”, explica en SMC Rocío Romero Zaliz, profesora titular del departamento de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Granada.

    “Destaca la capacidad de realizar traducciones de voz a voz directamente, sin pasos intermedios (voz-texto, traducción texto-texto, texto-voz), acelerando el proceso. Además, soporta múltiples idiomas, acercándonos cada vez más a la utopía de un traductor automático universal”. Las mejoras no se basan en una mayor cantidad de parámetros del modelo al ser entrenado, sino en un preprocesamiento más inteligente de la información disponible, incorporando incluso nuevas fuentes de información adicionales para mejorar las traducciones”.

    Hasta ahora, “la mayoría de los traductores automáticos traducen de un idioma X a Y usando el inglés como intermediario. Sin embargo, esta publicación propone traducciones directas de un idioma X a otro idioma Y, eliminando así errores acumulados. Esto se consigue gracias al uso de un espacio de representación común donde oraciones con significados similares están próximas, independientemente del idioma”.

    Sin embargo, “el entrenamiento utilizado sigue basándose en gran medida en traducciones desde o hacia el inglés”. Es más, todas las pruebas y test mostrados en el texto principal de la publicación se han realizado entre un idioma X y el inglés o viceversa. Será entonces necesario revisar el material complementario de la publicación y probar el sistema propuesto una vez disponible entre parejas de idiomas que no incluyan el inglés o algún otro idioma mayoritario, lo cual sigue siendo un desafío”.

    Fuente.

    Expansión (2025, 15 de enero). Meta desarrolla un traductor de voz simultáneo con IA generativa para un centenar de idiomas. Recuperado el 16 de enero de 2025, de: https://www.expansion.com/directivos/estilo-vida/salud/2025/01/14/67850c59468aebe35c8b4599.html

  • Reino Unido presenta plan de acción para potenciar la Inteligencia Artificial.

    Reino Unido presenta plan de acción para potenciar la Inteligencia Artificial.

    El plan establece tres pilares clave para garantizar el desarrollo y liderazgo del país: fomentar el crecimiento de la IA, impulsar su adopción en sectores públicos y privados, y mantener al Reino Unido como referente internacional en tecnología.

    El gobierno del Reino Unido presentó un Plan de Acción de Oportunidades de Inteligencia Artificial (IA), diseñado para posicionar a la nación como líder global en IA y transformar sus servicios públicos y económicos en los próximos 10 años.

    El primer ministro del Reino Unido, Keir Starmer, anunció que el plan incluye la adopción de 50 recomendaciones formuladas por Matt Clifford, asesor en tecnología avanzada.

    “Nuestro plan convertirá a Gran Bretaña en el líder mundial, le dará a la industria la base que necesita y potenciará el Plan para el Cambio, lo que significa más empleo e inversión en el Reino Unido, más dinero en los bolsillos de la gente y servicios públicos transformados”, dijo Starmer.

    El plan establece tres pilares clave para garantizar el desarrollo y liderazgo del país: fomentar el crecimiento de la IA, impulsar su adopción en sectores públicos y privados, y mantener al Reino Unido como referente internacional en tecnología.

    Se pondrán en marcha iniciativas como la creación de Zonas de crecimiento de IA, diseñadas para agilizar permisos de planificación para la construcción de centros de datos, con el fin de mejorar el acceso a la red eléctrica y atraer inversiones globales.

    Se construirá una supercomputadora capaz de ejecutar medio millón de partidas de ajedrez por segundo, como parte de su estrategia para multiplicar por 20 la capacidad de cómputo de Inteligencia Artificial para 2030.

    Se formará un nuevo equipo dedicado para aprovechar las oportunidades que ofrece la IA y potenciar las capacidades del Reino Unido. Además, se establecerá una Biblioteca Nacional de Datos para garantizar un uso seguro y eficiente de los datos públicos, fomentando el desarrollo de la IA. También se creará un Consejo de Energía especializado en Inteligencia Artificial, liderado por los secretarios de Ciencia y Energía, que colaborará con empresas del sector energético para abordar las demandas y desafíos energéticos necesarios para impulsar el avance tecnológico.

    “Con este plan, nos convertimos en agentes del cambio. Consolidaremos nuestro estatus como el tercer mercado de Inteligencia Artificial más grande del mundo”, explicó Peter Kyle, secretario de Ciencia, Innovación y Tecnología.

    De acuerdo con el Fondo Monetario Internacional (FMI), la adopción plena de la IA podría aumentar la productividad anual del Reino Unido en 1.5 puntos porcentuales, generando hasta 47 mil millones de libras esterlinas al año durante una década.

    Por otra parte, las empresas tecnológicas Vantage Data Centres, Nscaley Kyndryl invertirán 14 millones de libras esterlinas en el Reino Unido para construir la infraestructura de IA que el país necesita para aprovechar el potencial de esta tecnología y generar 13 mil 250 puestos de trabajo en todo el país.

    Este Plan de Acción es un elemento central de la Estrategia Industrial del gobierno y constituye el primer pilar del próximo Plan del Sector Digital y Tecnológico, cuya publicación está prevista en los próximos meses.

    Fuente: DPL News (2025, 14 de enero). Reino Unido presenta plan de acción para potenciar la Inteligencia Artificial. Recuperado el 15 de enero de 2025 de:  https://dplnews.com/reino-unido-plan-de-accion-para-potenciar-la-ia/

  • Centros de datos fantasma: qué son (o no son) y por qué obstaculizan la verdadera promesa de la IA

    Centros de datos fantasma: qué son (o no son) y por qué obstaculizan la verdadera promesa de la IA

    En la era de la IA , las empresas de servicios públicos se enfrentan a un problema nuevo e inesperado: los centros de datos fantasma. A primera vista, puede parecer absurdo: ¿por qué (y cómo) alguien fabricaría algo tan complejo como un centro de datos? Pero, a medida que la demanda de IA se dispara junto con la necesidad de más potencia de procesamiento, la especulación en torno al desarrollo de centros de datos está creando caos, en particular en áreas como el norte de Virginia, la capital mundial de los centros de datos . En este panorama en evolución, las empresas de servicios públicos están siendo bombardeadas con solicitudes de energía de promotores inmobiliarios que pueden o no construir la infraestructura que afirman construir .

    Los centros de datos falsos representan un cuello de botella urgente para escalar la infraestructura de datos y satisfacer la demanda de computación. Este fenómeno emergente impide que el capital fluya hacia donde realmente se necesita. Cualquier empresa que pueda ayudar a resolver este problema (tal vez aprovechando la IA para resolver un problema creado por ella) tendrá una ventaja significativa.

    El espejismo de la demanda de gigavatios

    Dominion Energy, la mayor empresa de servicios públicos del norte de Virginia, ha recibido solicitudes totales de 50 gigavatios de energía para proyectos de centros de datos . Eso es más energía de la que Islandia consume en un año. 

    Pero muchas de estas solicitudes son especulativas o completamente falsas. Los promotores están considerando posibles emplazamientos y están apostando por la capacidad energética mucho antes de tener el capital o alguna estrategia sobre cómo empezar a construir. De hecho, las estimaciones sugieren que hasta el 90% de estas solicitudes son totalmente falsas.

    En los primeros días del boom de los centros de datos, las empresas de servicios públicos nunca tuvieron que preocuparse por la demanda falsa. Empresas como Amazon, Google y Microsoft (denominadas “hiperescaladores” porque operan centros de datos con cientos de miles de servidores) enviaban solicitudes de energía directa y las empresas de servicios públicos simplemente las satisfacían. Pero ahora, el frenesí por asegurar la capacidad energética ha llevado a una avalancha de solicitudes de desarrolladores o especuladores menos conocidos con antecedentes dudosos. Las empresas de servicios públicos, que tradicionalmente tratan con sólo un puñado de clientes ávidos de energía, de repente se ven inundadas de pedidos de capacidad energética que eclipsarían a toda su red.

    Las empresas de servicios públicos tienen dificultades para distinguir los hechos de la ficción

    El desafío para las empresas de servicios públicos no es sólo técnico, sino existencial. Tienen la tarea de determinar qué es real y qué no, y no están bien equipadas para manejar esto. Históricamente, las empresas de servicios públicos han sido instituciones lentas y reacias al riesgo. Ahora se les pide que investiguen a los especuladores, muchos de los cuales simplemente están jugando al juego inmobiliario, con la esperanza de cambiar sus asignaciones de energía una vez que el mercado se caliente.

    Las empresas de servicios públicos tienen grupos encargados del desarrollo económico, pero estos equipos no están acostumbrados a lidiar con docenas de solicitudes especulativas a la vez. Es similar a una fiebre por la tierra, donde solo una fracción de quienes reclaman participaciones realmente planean construir algo tangible. ¿El resultado? Parálisis. Las empresas de servicios públicos dudan en asignar energía cuando no saben qué proyectos se materializarán, lo que ralentiza todo el ciclo de desarrollo.

    Un muro de capital

    No hay escasez de capital que fluye hacia el sector de los centros de datos, pero esa abundancia es parte del problema. Cuando el capital es de fácil acceso, conduce a la especulación. En cierto modo, esto es similar al problema de la trampa para ratones: demasiados actores que persiguen un mercado con exceso de oferta. Esta afluencia de especuladores crea indecisión no sólo en las empresas de servicios públicos, sino también en las comunidades locales, que deben decidir si conceden permisos para el uso del suelo y el desarrollo de infraestructura.

    Para aumentar la complejidad, los centros de datos no son solo para IA. Es cierto que la IA está impulsando un aumento de la demanda, pero también existe una necesidad persistente de computación en la nube. Los desarrolladores están construyendo centros de datos para dar cabida a ambas, pero diferenciar entre ambas es cada vez más difícil, especialmente cuando los proyectos combinan el entusiasmo por la IA con la infraestructura de nube tradicional.

    ¿Que es real?

    Los actores legítimos (las mencionadas Apple, Google y Microsoft) están construyendo centros de datos genuinos y muchos están adoptando estrategias como acuerdos “detrás del medidor” con proveedores de energía renovable o construyendo microrredes para evitar los cuellos de botella de la interconexión a la red. Pero a medida que proliferan los proyectos reales, también lo hacen los falsos. Los desarrolladores con poca experiencia en el sector están tratando de sacar provecho, lo que conduce a un entorno cada vez más caótico para las empresas de servicios públicos.

    El problema no es sólo el riesgo financiero (aunque el capital necesario para construir un campus de una sola potencia de un gigavatio puede superar fácilmente los miles de millones de dólares), sino la enorme complejidad que supone desarrollar infraestructuras a esta escala. Un campus de 6 gigavatios suena impresionante, pero las realidades financieras y de ingeniería hacen que sea casi imposible construirlo en un plazo razonable. Sin embargo, los especuladores lanzan estas cifras enormes con la esperanza de asegurarse capacidad energética con la esperanza de vender el proyecto más adelante.

    Por qué la red eléctrica no puede satisfacer las demandas de los centros de datos

    Mientras las empresas de servicios públicos luchan por distinguir los hechos de la ficción, la red misma se convierte en un cuello de botella. McKinsey estimó recientemente que la demanda mundial de centros de datos podría alcanzar hasta 152 gigavatios para 2030 , lo que sumaría 250 teravatios-hora de nueva demanda de electricidad. En Estados Unidos, los centros de datos por sí solos podrían representar el 8% de la demanda total de energía para 2030 , una cifra asombrosa considerando lo poco que ha crecido la demanda en las últimas dos décadas.

    Sin embargo, la red eléctrica no está preparada para esta afluencia. Los problemas de interconexión y transmisión son rampantes, y se estima que Estados Unidos podría quedarse sin capacidad energética entre 2027 y 2029 si no se encuentran soluciones alternativas. Los promotores recurren cada vez más a la generación in situ, como turbinas de gas o microrredes, para evitar el cuello de botella de la interconexión, pero estas medidas provisionales sólo sirven para poner de relieve las limitaciones de la red.

    Conclusión: Las empresas de servicios públicos como guardianes

    El verdadero obstáculo no es la falta de capital (créanme, hay mucho capital en este caso) ni siquiera la falta de tecnología, sino la capacidad de las empresas de servicios públicos de actuar como guardianes, determinando quién es real y quién solo está jugando al juego de la especulación. Sin un proceso sólido para examinar a los desarrolladores, la red corre el riesgo de verse abrumada por proyectos que nunca se materializarán. La era de los centros de datos falsos ha llegado y, hasta que las empresas de servicios públicos se adapten, todo el sector puede tener dificultades para seguir el ritmo de la demanda real.

    En este entorno caótico, no se trata solo de asignación de poder; se trata de que las empresas de servicios públicos aprendan a navegar en una nueva frontera especulativa para que las empresas (y la IA) puedan prosperar.

    Fuente.

    VentureBeat (2025, 04 de enero). Centros de datos fantasma: qué son (o no son) y por qué obstaculizan la verdadera promesa de la IA. Recuperado el 14 de enero de 2025 de: https://venturebeat.com/data-infrastructure/phantom-data-centers-what-they-are-or-arent-and-why-theyre-hampering-the-true-promise-of-ai/

  • Una IA que promete revolucionar leyendo la mente: ¿Cómo funciona Omi?

    Una IA que promete revolucionar leyendo la mente: ¿Cómo funciona Omi?

    El CES 2025 ha sido testigo de innovaciones fascinantes, pero pocas han generado tanto interés como Omi, una inteligencia artificial portátil que promete “leer la mente”.

    Este dispositivo, diseñado por Based Hardware, combina funciones de productividad con un enfoque futurista, aunque no está exento de dudas sobre privacidad y expectativas.

    ¿Qué es Omi y cómo funciona?

    Omi es un dispositivo compacto, del tamaño de un botón, que se utiliza adherido a la sien mediante una cinta médica o como un accesorio colgante. Actúa como un asistente virtual avanzado, activado por voz con el comando “hey, Omi”. Utilizando el modelo GPT-4o de OpenAI, ofrece funciones como responder preguntas, agendar reuniones, generar resúmenes y compartir consejos.

    Aunque se promociona como una IA que “lee la mente”, esto es parcialmente exagerado. Actualmente, Omi escucha conversaciones de manera constante para optimizar la interacción con el usuario. Based Hardware planea que en el futuro interprete ondas cerebrales para activar comandos sin necesidad de hablar, una funcionalidad que podría llegar en dos años.

    ¿Privacidad en riesgo?

    La capacidad de Omi para “escuchar todo” ha generado preocupaciones sobre la privacidad. Para mitigar estas dudas, el dispositivo opera sobre una plataforma de código abierto, permitiendo a los usuarios verificar el destino de sus datos o almacenarlos localmente. Según el fundador de Based Hardware, Nik Shevchenko, esta transparencia es clave para ganar la confianza de los consumidores.

    Promesas y dudas en torno a Omi

    El entusiasmo en torno a Omi recuerda a otros productos con propuestas similares que no lograron consolidarse. En CES 2024, dispositivos como Rabbit R1 y Ai Pin también prometieron integrar IA en la vida diaria, pero terminaron catalogados como fracasos. El éxito de Omi dependerá de si logra cumplir sus promesas y ganar aceptación entre los usuarios.

    Precio y disponibilidad

    Omi estará disponible en el segundo trimestre de este año a un precio de 89 dólares. Queda por ver si este dispositivo revolucionará la interacción con la IA o si será otro ejemplo de tecnología prometedora que no alcanza las expectativas.

    Fuente:

    GIZMODO( 2025. 11 de enero). Una IA que promete revolucionar leyendo la mente: ¿Cómo funciona Omi?. Recuperado el 14 de enero de 2025 de: https://es.gizmodo.com/una-ia-que-promete-revolucionar-leyendo-la-mente-como-funciona-omi-2000143293

  • A 100 días de gobierno, Sheinbaum resalta trabajo de México en semiconductores, litio e Inteligencia Artificial

    A 100 días de gobierno, Sheinbaum resalta trabajo de México en semiconductores, litio e Inteligencia Artificial

    Sheinbaum Pardo destacó que México se convertirá en potencia científica con acciones como extracción de litio y diseño de semiconductores.

    A 100 días de iniciado el sexenio de la presidenta de México, Claudia Sheinbaum Pardo, informó que ya iniciaron los trabajos para que México desarrolle Inteligencia Artificial (IA) y diseño de semiconductores.

    Asimismo, destacó el trabajo que realizarán en la extracción de litio, además del proyecto de autos eléctricos Olinia, que fue presentado la semana pasada.

    “Ya se encuentran trabajando y van a tener los recursos suficientes los proyectos científicos, de desarrollo tecnológico, como el auto eléctrico mexicano Olinia, el Taller de Diseño de Semiconductores, y en los siguientes días se instalan los grupos de científicos que diseñarán aviones no tripulados, boyas marinas para medición, métodos de extracción de litio, la Fábrica de Software Libre e Inteligencia Artificial, entre otros desarrollos”, aseveró.

    En su discurso en el Zócalo de Ciudad de México, Sheinbaum Pardo ratificó su compromiso para que México se convierta en una potencia científica.

    “Como me comprometí, México será una potencia científica”, añadió.

    Además, cuando se refirió a los avances en el sector salud, aseveró que a través de plataformas digitales y de forma transparente hasta la fecha han ahorrado ya 23 mil millones de pesos adicionales.

    Fuente:

    DPL News (2025, 12 de enero). A 100 días de gobierno, Sheinbaum resalta trabajo de México en semiconductores, litio e Inteligencia Artificial. Recuperado el 13 de enero de 2025 de: https://dplnews.com/100-dias-de-gobierno-sheinbaum-semiconductores-litio/

  • Desafíos que enfrenta México en Ciencia y Tecnología

    Desafíos que enfrenta México en Ciencia y Tecnología

    El 12 de enero de este 2025, la Presidenta Claudia Sheinbaum, presentó su informe de los 100 primeros días de su administración, entre otros asuntos manifestó que México será una potencia Científica; sin embargo habrá que observar el contexto científico-tecnológico, donde las naciones más desarrolladas, han hecho de sus capacidades tecnológicas, su instrumento, para el dominio de mercados y de la nueva geopolítica, buscando superar la hegemonía de los EEUU.

    El modelo económico y tecnológico de los EEUU, siempre ha sido corporativista, los altos directivos políticos, son electos por las grandes empresas transnacionales, las políticas públicas se diseñan para apoyarlas en la conquista de los mercados globales.

    En la administración 2.0 de Trump, que inicia el próximo 20 de enero, nombrará un gabinete de empresarios (Negrete, 2025) como al defensor de la Industria de las Telecomunicaciones, Brendan Carr, será presidente de la Comisión Federal de Comunicaciones, a JD Vence, el vicepresidente, ligado a los financieros de la tecnología digital, como AOL-Time, Google, y Paypal.

    Michael Kratos como director de la Oficina de Política Científica y Tecnológica, fue Director Ejecutivo de la empresa Scale AI; en la subsecretaría de investigación e ingeniería, estará Emil Michael, exfuncionario de Uber; como director de la oficina de IA y criptomonedas de la Casa Blanca, estará el Empresario David Sacks; el Asesor principal de Políticas de IA será Sriram Krishnan.

    El nombramiento de más peso político es el de Elon Musk, que junto a otro empresario Vivek Ramaswamy se harán cargo de la función estratégica de mayor trascendencia, el Departamento de eficiencia Gubernamental, con grandes facultades, para decidir sobre la existencia, de múltiples áreas del gabinete de Trump.

    La economía de los EEUU es un sistema capitalista neoliberal, creando un ambiente propicio para eventos de gran relevancia en el mundo tecnológico empresarial como el CES (Consumer Electronics Show) organizado desde 1967 por la Asociación del Consumidor de Tecnología (Consumer Technology Association) que representa a más de mil 200 grandes empresas tecnológicas en los EEUU.

    Por su parte Canadá, se ha posicionado como líder a nivel global en tecnología digital, con un enfoque en áreas de IA, con la formación de ecosistemas tecnológicos y de innovación, a partir de dos hub digitales: Montreal y Vancuber.

    Las fortalezas de México para encaminarse a una potencia científico-tecnológica, son cerca de 34 mil integrantes del Sistema Nacional de Investigadores, además de contar con más de 900 Instituciones de Educación Superior Públicas y 27 Centros Públicos de Investigación.

    Además de lo anterior se creó la Secretaría de Ciencia Humanidades Tecnología e Innovación, cuyas funciones están estipuladas en el artículo 38Bis del Decreto que reforma la Ley Orgánica de la Administración Pública Federal, tiene el encargo de articular, coordinar y ejercer la rectoría, que corresponde al Estado mexicano, en las Humanidades, Ciencias, Tecnologías e Innovación (Secretaría de Gobernación, 2024).

    El incluir a las humanidades en la Rectoría del Estado en materia de Ciencia, Tecnología e Innovación, hace la diferencia con Canadá y los EEUU, porque implica que el desarrollo científico-tecnológico, tendrá en México, un impacto social, los beneficios que se generen no se acumularan en las trasnacionales enfocadas al mercado, para lograr altas tasas de rentabilidad para acumularse en los corporativos, sino que la política científico-tecnológica de México estará orientada por los derechos humanos y la sustentabilidad, para reducir la desigualdad económica y social, además de hacer frente a los impactos del cambio climático, congruente con el humanismo mexicano.

    Hay que reconocer, que revertir los patrones actuales no será sencillo, como el hecho de que el 95% de las solicitudes de patente, es por extranjeros, además la estructura empresarial del país, está basada en mipymes, sin procesos de investigación, las comunidades marginadas adolecen de una cultura de creación de tecnología, y la investigación está focalizada a artículos indexados, cuando lo que se requiere es investigación aplicada que dé respuesta a las necesidades de las empresas mexicanas y a la sociedad en general.

    Ser una potencia científico-tecnológica, está cuesta arriba, pero no imposible, si existe el apoyo y la coordinación de todos los actores con políticas públicas congruentes, en los tres niveles de gobierno, y una intensa participación de las IES públicas, sólo así México podría avanzar. ¿Y la negociación del T-MEC?

    Desafíos que enfrenta México en Ciencia y Tecnología

    Fuente:

    Jimenez, M. (5 de enero de 2025). EL PAIS. Recuperado el enero de 2025, de elpaís.com: https://elpais.com/us/branded/ces-consumer-electronics-show/2025-01-06/ces-2025-todo-lo-que-hay-saber-sobre-el-evento-de-tecnologia-mas-iconico-de-las-vegas.html#?rel=mas

    Negrete, J. F. (10 de enero de 2025). dplnews. Recuperado el enero de 2025, de dplnews.com: https://dplnews.com/digital-trends-en-politica-y-regulacion-2025/

    Rubio, I. (10 de enero de 2025). EL PAÍS. Recuperado el enero de 2025, de elpais.com: https://elpais.com/tecnologia/2025-01-10/los-10-inventos-mas-curiosos-del-ces-2025-de-la-cuchara-que-sala-la-comida-sin-sal-a-la-camioneta-con-un-coche-volador-dentro.html

    Secretaria de Gobernacion. (11 de noviembre de 2024). Gobernación, Diario Oficial de la Federación. Recuperado el enero de 2025, de dof.gob.mx: https://www.dof.gob.mx/nota_detalle.php?codigo=5744005&fecha=28/11/2024#gsc.tab=0