Author: admin

  • Chips cerebrales, el dilema de la Inteligencia Artificial en el pensamiento humano

    Un paciente con esclerosis lateral amiotrófica (ELA) logró comunicarse con un 97 por ciento de precisión utilizando sólo su mente. Se trata de Casey Harrell, un hombre de 45 años de edad que participó en un estudio de la Universidad de California en Davis (UC Davis Health). En julio de 2023, los investigadores le implantaron sensores en el cerebro que permitieron traducir sus señales cerebrales en habla, alcanzando una precisión del 97.5 por ciento y una velocidad de comunicación de 32 palabras por minuto.

    Como en el caso de Davis, la Inteligencia Artificial (IA) está redefiniendo la relación entre la tecnología y el cerebro humano. Sin embargo, mientras estas innovaciones abren nuevas posibilidades médicas y mejoran la calidad de vida de las personas, también generan profundas preocupaciones éticas y sociales si se considera la idea de tener un chip implantado en el cerebro.

    Una de las tecnologías de mayor desarrollo es la de interfaces cerebro-computadora (BCI, por sus siglas en inglés), que permite a los pacientes controlar dispositivos mediante señales cerebrales.

    Neuralink, la firma de Elon Musk, ha invertido más de mil 100 millones de dólares en implantes cerebrales, realizando ensayos en humanos para ayudar a personas con parálisis a recuperar la movilidad y la comunicación. Y recientemente anunció que su primer voluntario humano pudo mover un cursor en una pantalla con su mente.

    El hecho fue considerado un hito, debido a que acerca a la humanidad hacia un futuro en el que es posible manejar las cosas con la mente y mejorar la comunicación y la calidad de vida de personas con movilidad reducida.

    Por otro lado, si una persona sin condiciones de movilidad reducida se implementara un chip de este tipo, el impacto podría ir mucho más allá de la medicina. Esta tecnología podría mejorar la velocidad de procesamiento mental, optimizar la memoria o incluso permitir la interacción directa con dispositivos digitales sin necesidad de pantallas o teclados.

    Esta posibilidad plantea dilemas sobre si se convertiría en una herramienta exclusiva para quienes puedan pagarla, generando una brecha cognitiva entre quienes la usen y quienes no. Además, si la IA integrada en el cerebro optimiza la toma de decisiones o la creatividad, surgiría un debate sobre la autenticidad del pensamiento humano.

    Pero no es el único uso que se le da a la IA en chips biológicos. Atlas Celular, un proyecto internacional para describir todos los tipos de células del cuerpo humano, ha mapeado diversas células del humano utilizando herramientas avanzadas de IA. Esta iniciativa de biología celular podría revolucionar la medicina al ofrecer una referencia sin precedentes para el estudio de enfermedades y la personalización de tratamientos.

    “Atlas Celular te muestra detalles sobre lugares, te proporcionará detalles sobre las células y sus funciones; porque aunque cada célula de nuestro cuerpo contiene el mismo ADN, las diferentes células usan diferentes partes de este, y por eso la célula sanguínea no es nerviosa y viceversa”, explica National Geographic.

    Con herramientas de IA, los científicos analizan cantidades masivas de datos celulares con mayor precisión y agilidad. Los algoritmos avanzados pueden identificar patrones celulares y predecir el comportamiento de ciertas enfermedades a nivel molecular, facilitando la detección temprana de condiciones como el cáncer. Además, la combinación de IA con técnicas de edición genética CRISPR (Clustered Regularly Interspaced Short Palindromic Repeats), abre la posibilidad de diseñar terapias personalizadas que modifiquen células defectuosas antes de que provoquen enfermedades en las personas.

    De nuevo, si se trata de una persona con posibilidad de modificar sus células sin fines médicos, es posible que se desarrollen facultades físicas que nuevamente pueden ser inquietantes. Por ejemplo, podría optimizar su metabolismo para aumentar la resistencia física, ralentizar el envejecimiento o incluso mejorar habilidades cognitivas como la memoria y el aprendizaje, creando una nueva generación de “humanos mejorados”.

    Esta posibilidad dirige una vez más las preocupaciones hacia quiénes podrían acceder a este tipo de tecnología y quiénes no.

    Implicaciones éticas de la IA en chips cerebrales y células

    A pesar de los beneficios de la incorporación de IA en el cerebro humano, también es una posibilidad que plantea importantes cuestiones éticas.

    El neurocientífico Rafael Yuste ha advertido sobre la posibilidad de una fractura en la humanidad, donde algunos individuos tengan ventajas cognitivas gracias a implantes tecnológicos, mientras que otros no.

    Si la IA permite aumentar la memoria, la velocidad de procesamiento mental o incluso la capacidad de aprendizaje a través de neurotecnología, esto podría crear una “fractura en la humanidad”, donde unos pocos tendrían ventajas significativas sobre el resto. Este tipo de desigualdad podría generar una nueva forma de brecha social y aumentar las desigualdades económicas.

    La falta de regulación y la necesidad de principios éticos que garanticen estos avances es vital para contribuir con la mejora de la calidad de vida de las personas que lo requieren, sin generar nuevas formas de exclusión social para quienes no lo necesitan pero pueden acceder.

    Por otro lado, los chips cerebrales ponen la lupa en la importancia de la privacidad mental. A medida que la tecnología permite leer y decodificar pensamientos, surge el riesgo de que empresas y/o gobiernos puedan acceder a información altamente sensible.

    La Organización de las Naciones Unidas (ONU) ha expresado su inquietud sobre la falta de regulaciones para proteger los derechos de las personas ante estos avances e insta a la creación de marcos internacionales que impidan su uso indebido.

    -Promoción de sistemas de Inteligencia Artificial seguros y fiables que beneficien al desarrollo sostenible para todos. La resolución insta a los Estados miembros y partes interesadas a abstenerse de utilizar sistemas de IA que no puedan operar conforme a las normas internacionales de derechos humanos o que representen riesgos indebidos para el disfrute de estos derechos y subraya que los mismos derechos que tienen las personas fuera de línea deben protegerse también en línea, incluso durante todo el ciclo de vida de los sistemas de la IA-, Asamblea General de la ONU.

    A estos derechos se debe incorporar el consentimiento informado, un proceso que permite a un paciente o participante de una investigación aceptar un procedimiento o intervención médica o científica con total conocimiento del procedimiento y los posibles efectos adversos.

    A esto se adhiere la integración IA en chips cerebrales y células que pueden enviar y recibir información directamente desde y hacia el cerebro, lo que abre la posibilidad de que sean vulnerables a hackeos. Un atacante podría interceptar, manipular o incluso borrar pensamientos, recuerdos o habilidades cognitivas adquiridas a través del implante.

    Además, si estas interfaces dependen de conexiones inalámbricas para actualizarse o comunicarse con otros dispositivos, podrían convertirse en objetivos de ciberataques masivos.

    La posibilidad de que una persona pierda el control de su propio implante debido a una vulnerabilidad de seguridad no sólo genera riesgos individuales, sino que también podría desencadenar crisis sociales si se utilizan fuera de marcos éticos o en entornos militares, políticos o empresariales sin regulación.

    En un mundo donde la tecnología avanza más rápido que las leyes, es crucial garantizar que los pacientes y posibles usuarios comprendan plenamente las implicaciones de integrar IA en su biología y cuestionar hasta qué punto un individuo puede decidir sobre modificaciones cerebrales que podrían alterar su personalidad o percepción del mundo.

    Fuente.

    DPL News (2025, 24 de marzo). Chips cerebrales, el dilema de la Inteligencia Artificial en el pensamiento humano. Recuperado el 25 de marzo de 2025, de: https://dplnews.com/chips-cerebrales-dilema-ia-en-el-pensamiento-humano/

  • GTC 2025- Anuncios y actualizaciones en directo

    GTC 2025- Anuncios y actualizaciones en directo

    Todas las noticias de la reunión más grande de NVIDIA del año, incluidos nuevos servicios y hardware, demostraciones de tecnología y lo que viene a continuación en IA.

    Lo que viene en IA está en GTC 2025. No solo la tecnología, sino también las personas y las ideas que impulsan la IA, creando nuevas oportunidades, soluciones innovadoras y formas de pensar completamente nuevas. Para todo eso, este es el lugar.

    Aquí encontrará las noticias, escuchar los debates, ver los robots y reflexionar sobre lo alucinante. Desde la conferencia principal hasta la sesión final, vuelva a visitarnos para ver la cobertura en vivo desde San José, California.

    Día Cuántico: El CEO de NVIDIA anuncia el Laboratorio de Computación Cuántica y NVIDIA Tech es clave para impulsar las innovaciones cuánticas, afirman los líderes de la industria 

    NVIDIA está profundizando en la computación cuántica con planes de abrir un laboratorio de investigación dedicado en Boston , anunció el jueves el fundador y director ejecutivo Jensen Huang al iniciar una serie de paneles en GTC con líderes de la industria.

    “Probablemente será el laboratorio de investigación de computación cuántica híbrida y acelerada más avanzado del mundo”, afirmó Huang.

    Los paneles del Día Cuántico inaugural de GTC destacaron el papel fundamental que desempeñará la computación acelerada en el avance de la tecnología naciente.

    Si bien las tecnologías y los enfoques del desarrollo cuántico varían, los panelistas coincidieron en que las GPU y los sistemas cuánticos trabajarán de la mano para lograr nuevos avances.

    El nuevo laboratorio de NVIDIA servirá como centro de colaboración con investigadores líderes de instituciones como la Universidad de Harvard y el Instituto Tecnológico de Massachusetts, entre otros.

    La instalación tiene como objetivo acelerar la innovación en la computación cuántica, un campo con enorme potencial para revolucionar industrias desde la criptografía hasta la ciencia de los materiales.

    El evento, moderado por Huang, incluyó tres paneles y una larga lista de empresas que desarrollan sistemas cuánticos. Entre los invitados se encontraban:

    • Alan Baratz, director ejecutivo de D-Wave
    • Ben Bloom, fundador y director ejecutivo de Atom Computing
    • John Levy, cofundador y director ejecutivo de SEEQC
    • Krysta Svore, miembro técnico de Microsoft
    • Loïc Henriet, director general de Pasqal
    • Matthew Kinsella, director ejecutivo de Infleqtion
    • Mikhail Lukin, profesor universitario Joshua y Beth Friedman en la Universidad de Harvard y cofundador de QuEra Computing
    • Pete Shadbolt, cofundador y director científico de PsiQuantum
    • Peter Chapman, presidente ejecutivo de IonQ
    • Rajeeb Hazra, presidente y director ejecutivo de Quantinuum
    • Rob Schoelkopf, cofundador y científico jefe de Quantum Circuits
    • Simone Severini, director general de tecnologías cuánticas en AWS
    • Subodh Kulkarni, director ejecutivo de Rigetti
    • Théau Peronnin, cofundador y director ejecutivo de Alice & Bob

    Hablaron sobre los avances de la computación cuántica para alcanzar números de dos dígitos de qubits lógicos, así como sobre los desafíos, como la necesidad de alcanzar qubits de tres dígitos para aplicaciones prácticas y escalar a millones de qubits en los próximos años.

    La IA está cambiando el juego, literalmente

    La IA está revolucionando los deportes en vivo, desbloqueando nuevas formas de involucrar a los fanáticos, optimizar las operaciones y mejorar el rendimiento de los jugadores, dijeron los líderes de la industria del deporte en un panel en GTC.

    “La IA ha estado presente en los deportes durante muchos años, pero [la industria] continúa siendo una de las primeras en adoptar las últimas innovaciones”, afirmó Sepi Motamedi, gerente sénior de marketing de productos de NVIDIA.

    Para la Liga Nacional de Hockey y LaLiga, la principal liga de fútbol de España, la IA no es solo una herramienta, sino un factor decisivo. LaLiga cuenta con cámaras en todos sus estadios, que recopilan más de 3 millones de puntos de datos por partido, según Javier Gil Fernández, responsable de implementación y desarrollo de IA en la liga.

    Mientras tanto, la NHL está probando el seguimiento óptico para capturar los movimientos esqueléticos de los jugadores. «La cantidad de datos es increíble y seguirá creciendo», afirmó Dave Lehanski, vicepresidente ejecutivo de desarrollo empresarial e innovación de la NHL.

    Más allá de los datos, la IA está transformando la experiencia de los fans. “¿No sería fantástico si la IA presentara automáticamente las historias de los partidos en tiempo real?”, preguntó Lehanski.

    El análisis de video impulsado por inteligencia artificial permitirá a los fanáticos buscar, resumir y revivir instantáneamente momentos clave.

    A medida que se profundiza la integración de la IA, la industria del deporte se enfrenta a desafíos, desde obstáculos legales hasta regulaciones. Pero algo está claro: «Si la industria comprende la IA y puede aprovecharla al máximo, estaremos listos para empezar», afirmó Fernández. El futuro del deporte es rápido, inteligente y está impulsado por la IA.

    Un miembro del Parlamento británico comparte la visión de la IA soberana del Reino Unido 

    La IA soberana (la capacidad de una nación para desarrollar e implementar IA utilizando infraestructura, conjuntos de datos y fuerza laboral nacionales) fue un tema clave en GTC, destacado en una cumbre de medio día encabezada por líderes gubernamentales y de la industria de países como Brasil, Dinamarca, India, Japón, Tailandia y el Reino Unido.

    En décadas y siglos pasados, la disponibilidad de recursos como el carbón, el petróleo y la electricidad “definía qué gobiernos y países crecían y cuáles no”, afirmó Peter Kyle, miembro del Parlamento británico y secretario de Estado de Ciencia, Innovación y Tecnología, en la cumbre. “Hoy nos encontramos en medio de otro cambio trascendental. Quién sobrevive y quién se hunde dependerá de la computación”.

    Kyle describió el Plan de Acción de Oportunidades de IA del Reino Unido, que apunta a expandir la capacidad computacional para la investigación de IA al menos 30 veces para 2030 y transformará instalaciones y terrenos actualmente no utilizados para desarrollar centros de datos para construir modelos de IA entrenados en los ricos conjuntos de datos del país en atención médica y otros dominios.

    La supercomputadora Isambard-AI del gobierno del Reino Unido, que cuenta con 5448 superchips NVIDIA GH200 Grace Hopper para ofrecer un impresionante rendimiento de IA de 21 exaflops , representa el progreso ya alcanzado hacia los objetivos soberanos de IA del país. Con la aparición de la nueva ley de escalado en tiempo de prueba para el desarrollo de la IA, señaló Kyle, hay mucho más por delante.

    “La computadora es tan buena como las personas que la usan y los datos que se introducen en ella”, dijo Kyle. “Abordar los grandes desafíos que definirán el siglo venidero requerirá algo más que capacidad bruta. Construir computadoras más grandes o más rápidas simplemente no es suficiente; en la era de la computación, los estados también deben construir de forma más inteligente”.

    Máquinas lunares impulsadas por NVIDIA Omniverse para explorar la superficie lunar

    A lo largo del accidentado y accidentado paisaje de la luna, una flota coordinada de máquinas autónomas (drones, excavadoras y transportadores) navega sin problemas por el duro vacío del espacio, trabajando en sincronía para mapear, extraer y transportar recursos valiosos.

    Este concepto para el futuro de la exploración lunar fue expuesto por Lutz Richter, un experto en robótica espacial, en una cautivadora presentación en GTC.

    Richter, en representación de SoftServe, proveedor líder de consultoría de TI y servicios digitales, describió cómo su equipo ayudó a simular y modelar este sistema multirrobot utilizando la plataforma NVIDIA Omniverse para IA física. «Creemos que el espacio se beneficiará enormemente de las herramientas avanzadas de simulación y modelado que ofrece Omniverse», afirmó Richter.

    Los drones rastrearían la superficie lunar, utilizando sensores de alta resolución para identificar regiones de interés para la extracción de hielo. La excavadora terrestre excavaría meticulosamente en el regolito, con la avanzada simulación de mecánica de suelos de SoftServe optimizando el proceso de desenterrar los depósitos de hielo. Una vez cargada, el vehículo de transporte transportaría la carga de vuelta al puesto lunar.

    Richter también presentó el trabajo de SoftServe, que simula la capacidad de los drones para explorar cuevas lunares. Los drones utilizan localización y mapeo visual simultáneo en tiempo real para navegar por el complejo terreno y cartografiar las posibles reservas de hielo ocultas en su interior.

    Al integrar la robótica con las poderosas herramientas de simulación y colaboración de Omniverse, SoftServe impulsa un enfoque innovador para la exploración de recursos lunares.

    En el Pabellón XR, ubicado en el centro de ciencia y tecnología Tech Interactive, los asistentes a GTC exploraron demostraciones inmersivas de gemelos digitales, renderizado 3D y experiencias de realidad virtual. Si las frecuentes sonrisas y exclamaciones de “¡Guau!” son un indicio de hacia dónde se dirigen estas tecnologías de IA visual, hay mucho que esperar.

    Expertos en robótica debaten sobre las perspectivas para los humanoides

    Dirigiéndose a una multitud en el Centro Cívico de San José, un panel de ejecutivos de la industria robótica analizaron el desarrollo de robots humanoides y lo que depara el futuro para convertirlos en realidad para los consumidores.

    Los panelistas discutieron el papel de los modelos de lenguaje de gran tamaño, la simulación y las mejoras en el hardware robótico para ayudar al desarrollo de robots humanoides especializados.

    “Contamos con algunos de los fundadores más extraordinarios en algunos de los mejores hardware robóticos que he visto”, afirmó Jim Fan, científico investigador principal y gerente sénior de investigación de NVIDIA. “Creo que el hardware se ha vuelto mucho mejor y mucho más económico”.

    Aaron Saunders, director de tecnología de Boston Dynamics, afirmó que las simulaciones basadas en la física han sido pioneras en el campo de la robótica. «Cerrar la brecha entre la simulación y la realidad es un gran logro», afirmó.

    El aprendizaje basado en la experiencia es el principal cambio que se ha producido en la robótica, señaló Deepak Pathak, cofundador y director ejecutivo de Skild AI. «Lo que ha cambiado por completo es cómo abordamos la robótica», afirmó.

    Los panelistas también hablaron sobre la importancia de las fuentes de datos en el entrenamiento de modelos. «Ahora obtenemos estos datos globales como si fuera internet, y podemos resolver todos los problemas actuales; lo único que necesitamos son muchas más GPU», afirmó Bernt Børnich, fundador y director ejecutivo de 1X.

    Robots en abundancia en el área de exhibición

    Desde humanoides útiles hasta brazos robóticos que apoyan cirugías, partos y procesos industriales, los avances de la IA física se exhiben en su totalidad con demostraciones interactivas en GTC.

    Cómo los microscopios autónomos y de bajo coste pueden transformar la salud pública

    Manu Prakash tiene la misión de empoderar a los trabajadores de salud comunitarios y a los científicos ciudadanos de todo el mundo con microscopios impulsados ​​por inteligencia artificial que ayudan a detectar la malaria y otras enfermedades.

    Prakash es cofundador de la empresa de microscopía Cephla y profesor asociado del Instituto Woods para el Medio Ambiente de la Universidad de Stanford. Está integrando IA en microscopios de bajo coste que pueden implementarse en entornos sanitarios locales para la monitorización de enfermedades en tiempo real a gran escala.

    “Esta es la primera máquina que puede hacer algo así en tiempo real”, dijo, demostrando en vivo cómo Octopi, la plataforma modular de microscopía robótica de Cephla, puede analizar rápidamente los glóbulos rojos para detectar parásitos de la malaria. “Uno de los aspectos fenomenales de esto es que podemos entrenarla no solo para la malaria, sino para cualquier enfermedad”.

    Prakash y su equipo descubrieron que la implementación de su canalización en el módulo NVIDIA Jetson Nano aceleró el procesamiento de imágenes cinco veces en comparación con el uso de computadoras de escritorio, lo que les permitió examinar alrededor de 3 millones de glóbulos rojos por minuto.

    Al permitir la detección rápida y de bajo costo de enfermedades que pueda ser utilizada por los trabajadores de salud comunitarios, Prakash espera mejorar las capacidades de las organizaciones de salud pública globales para enfrentar mejor desafíos como la aparición de cepas de enfermedades resistentes a los antibióticos.

    Más allá de la malaria, su equipo ha colaborado con investigadores para adaptar su sistema de IA a otras enfermedades. Una organización logró entrenar un sistema de IA para detectar cuatro tipos de anemia falciforme en tan solo seis meses. Otra entrenó un sistema para detectar si las personas están propagando activamente la tuberculosis.

    “A veces, los instrumentos con un poco de inteligencia pueden alcanzar distancias astronómicas”, dijo Prakash.

    Cómo la IA está abriendo una nueva era de creatividad en el cine

    La IA está haciendo que la producción cinematográfica sea más accesible y cambiando la forma en que los cineastas dan vida a sus visiones.

    En GTC, Haohong Wang, gerente general de TCL, compartió cómo las herramientas impulsadas por IA como Runway, Sora y MineStudio están desbloqueando flujos de trabajo más rápidos, nuevas posibilidades artísticas y un futuro más accesible para la creación de contenido.

    La IA se une a la creatividad: La producción cinematográfica tradicional puede ser lenta y costosa. Wang predice que los presupuestos para contenido generado por IA podrían permitir la creación de contenido cinematográfico a menos del 10 % de los costos actuales, poniendo a disposición de más cineastas una narrativa de alta calidad.

    Pero no se trata solo de ahorro. La IA permite a los artistas experimentar con nuevos estilos visuales en tiempo real, permitiéndoles generar escenas completas al instante, explorar nuevas técnicas narrativas y romper las barreras de la producción tradicional.

    Dirigir con IA: La producción cinematográfica con IA aún tiene dificultades con la consistencia, el control de la cámara y el movimiento humano, señaló Wang. Muchos directores sienten que les falta el mismo control que la producción cinematográfica tradicional. La solución: un flujo de trabajo 3D estructurado. Al digitalizar los recursos generados por IA (personajes, entornos y animaciones), los cineastas pueden combinar lo mejor de la IA con las técnicas tradicionales, garantizando un control preciso de la cinematografía y la consistencia visual.

    Volante de contenido: Wang describió la producción cinematográfica con IA como un “modelo de volante”, donde la creación de contenido más sencilla impulsa el crecimiento de la audiencia, atrae anunciantes e impulsa la demanda de más trabajo creativo.

    “Como pueden ver, existe un ciclo que permite que el dinero de la publicidad eventualmente regrese a la comunidad creativa”, explicó Wang. “Una vez que se presente esta oportunidad, cada vez más creativos se unirán para usar la IA para producir más contenido original y atraer más audiencias y anunciantes”.

    Aunque algunos en Hollywood siguen siendo escépticos, Wang cree que la creciente adopción hará de la IA una herramienta estándar para los cineastas, tal como lo es ahora la CGI.

    Un adelanto: Para demostrar ese potencial, Wang mostró fragmentos de “Next Stop Paris”, un cortometraje híbrido de acción real e IA. La historia sigue a dos desconocidos en una aventura, y un giro revela que la IA ha estado moldeando la narrativa desde el principio.

    La vicepresidenta de salud, Kimberly Powell, destaca los avances en ciencias biológicas

    Ayer, al dirigirse a una multitud reunida en el Teatro Montgomery, Kimberly Powell, vicepresidenta de atención médica y ciencias biológicas de NVIDIA, destacó no menos de nueve anuncios de GTC que ofrecen avances en la industria.

    Las noticias incluyeron la nueva supercomputadora de inteligencia artificial NVIDIA DGX Spark, NVIDIA AgentIQ, el marco de agente y multimodal MONAI, NVIDIA Holoscan 3.0, NVIDIA Isaac for Healthcare y movimientos de socios de Sapio Sciences, Cadence y Epic, que está acelerando la inteligencia artificial con NVIDIA NIM en Microsoft Azure.

    Y estos fueron sólo algunos de los momentos más destacados.

    “Muchos de ustedes han decidido presentar algunos de sus avances más importantes aquí en GTC, con varias docenas de anuncios de nuevos productos y avances cruciales”, afirmó Powell.

    Se analizó el papel de la computación acelerada en las imágenes médicas y la genómica, así como la introducción del modelo de base biológica más grande del mundo, Evo 2 , entrenado con 9 billones de nucleótidos, los componentes básicos del ARN y el ADN.

    Powell dijo que la biología representa un problema no resuelto que ahora está posicionado para beneficiarse de los avances de la IA.

    “Estamos empezando a experimentar algunos niveles exponenciales de inteligencia biológica al poder representar la biología en una computadora”, dijo.

    Powell también analizó el papel de la IA en el descubrimiento de fármacos, el desarrollo de agentes de IA para su uso en ensayos clínicos y la introducción de IA física para dispositivos médicos.

    “Estamos en esta próxima frontera donde no solo tendremos agentes digitales, sino que también tendremos agentes físicos donde incorporaremos IA en cosas físicas”, dijo Powell.

    Desbloquea el máximo rendimiento de la IA con NVIDIA DGX Cloud Benchmarking

    Alcanzar el máximo rendimiento de la IA requiere más que un hardware potente. Comprender cómo el hardware y el software impactan el rendimiento de la carga de trabajo de IA es crucial para la validación técnica y la planificación empresarial.

    Para ayudar a las organizaciones a tomar decisiones basadas en datos y maximizar el uso de la GPU, NVIDIA lanzó NVIDIA DGX Cloud Benchmarking , un conjunto de herramientas que permite a los usuarios optimizar su carga de trabajo de IA y sus inversiones en infraestructura de manera efectiva.

    DGX Cloud Benchmarking incluye tres componentes clave:

    • Recetas de rendimiento: scripts de referencia estandarizados y resultados de referencia que permiten la validación del rendimiento de la plataforma de IA en un conjunto diverso de cargas de trabajo de IA.
    • Performance Explorer: una herramienta interactiva que proporciona datos de rendimiento en todas las cargas de trabajo de IA.
    • Orientación de expertos y mejores prácticas: trabaje con NVIDIA para simplificar el proceso de optimización.

    Al proporcionar puntos de referencia estandarizados y conocimientos prácticos, DGX Cloud Benchmarking ayuda a los equipos de IA a optimizar sus cargas de trabajo, reducir costos y acelerar la innovación.

    NVIDIA colabora con proveedores de servicios en la nube para diseñar conjuntamente y optimizar el rendimiento de toda la pila y ofrecer plataformas de IA de alto rendimiento. Esto garantiza que las optimizaciones se basen en escenarios reales, lo que genera mejoras significativas en el rendimiento con el tiempo.

    DGX Cloud Benchmarking está diseñado para evolucionar con la industria de la IA, incorporando nuevos modelos, plataformas de hardware y optimizaciones de software para garantizar que los clientes tengan acceso a los últimos conocimientos de rendimiento.

    Ya sea que se trate de un equipo de desarrollo de IA, un equipo de TI o un proveedor de servicios en la nube que valida el rendimiento de la infraestructura, DGX Cloud Benchmarking proporciona las herramientas necesarias para desbloquear el máximo rendimiento de la IA.

    NVIDIA amplía los beneficios para las startups

    Como parte de una importante expansión de los beneficios para los miembros del programa NVIDIA Inception para empresas emergentes de vanguardia, NVIDIA ofrece a los miembros calificados hasta $100,000 en créditos NVIDIA DGX Cloud para capacidad de GPU NVIDIA H100 dedicada.

    Los miembros aprobados para este beneficio también tendrán acceso a horas de oficina con expertos que les brindarán orientación y soporte técnico. Con DGX Cloud, una plataforma unificada de IA, los miembros de Inception pueden usar el software, los servicios y la experiencia en IA de NVIDIA para crear, personalizar e implementar aplicaciones en su nube preferida.

    Otros beneficios nuevos y mejorados, que abarcan casi $300,000 en créditos y descuentos, ofrecen acceso inigualable a tecnología de vanguardia de NVIDIA Cloud Partners (NCP), proveedores de software independientes (ISV) de la Red de Socios de NVIDIA y miembros selectos de Inception. Estas ofertas pueden ayudar a las startups de Inception y a los miembros del programa NVIDIA Connect para ISV a desarrollar y expandir sus negocios, impulsando la innovación y el crecimiento en diversos sectores.

    Ofertas y beneficios adicionales del NCP

    NCP como Nebius, Scaleway y Lintasarta ofrecen créditos de nube gratuitos a los miembros elegibles de Inception, lo que les ayuda a reducir costos y fomentar la innovación. Yotta y Lambda proporcionan créditos de nube a los miembros de Inception y Connect para impulsar la escalabilidad y acelerar el tiempo de comercialización.

    Las empresas que adopten los servicios NCP se beneficiarán de un soporte local mejorado, una mayor asignación y acceso a GPU, capacidades técnicas avanzadas y asistencia práctica, acceso a centros de datos locales y precios y facturación flexibles para satisfacer las distintas necesidades de las empresas pequeñas y en crecimiento.

    Las colaboraciones nuevas y ampliadas de NCP incluirán incorporación y soporte técnico a través de capacitaciones y seminarios web, así como acceso a eventos regionales y oportunidades de soporte para la comercialización.

    Los miembros de Inception también obtendrán acceso a las mejores herramientas y software de empresas como AI21, Beamr, Bria, DeepChecks, Lightning AI, RGo Robotics, Tabnine y Weights & Biases.

    Los miembros del programa NVIDIA Connect para ISV también obtendrán acceso a beneficios selectos, disponibles solo a través del catálogo de beneficios para miembros Inception y Connect.

    Únete a los programas NVIDIA Inception y NVIDIA Connect . Se añadirán nuevos socios y ofertas exclusivas periódicamente.

    Las empresas que utilizan y muestran la tecnología NVIDIA para crear herramientas y servicios atractivos para el público emergente y desarrollador pueden obtener más información sobre los programas y completar una propuesta de beneficios para socios .

    Los gigantes de la investigación Bill Dally y Yann LeCun comparten el escenario en GTC

    Dos luminarias en la investigación de IA, Bill Dally, científico jefe de NVIDIA, y Yann LeCun, científico jefe de IA en Meta y profesor de la Universidad de Nueva York, subieron al escenario hoy en el auditorio San Jose Civic para compartir su visión sobre el futuro del campo.

    Dally le pidió a LeCun que compartiera sus pensamientos sobre la inteligencia artificial general, el impacto de la IA en la investigación científica, su trabajo actual en modelos mundiales y las cualidades necesarias para fomentar la innovación.

    LeCun predijo que la inteligencia artificial general, o AGI (que él prefiere llamar inteligencia artificial avanzada, porque “la inteligencia humana es superespecializada, por lo que llamarla general es un nombre inapropiado”) será viable en tres a cinco años.

    Destacó la importancia de los proyectos de código abierto para apoyar el desarrollo de diversos asistentes de IA.

    “Necesitamos asistentes extremadamente diversos”, dijo. “Necesitamos hablar todos los idiomas, comprender todas las culturas, todos los sistemas de valores, todos los sectores de interés. Por lo tanto, necesitamos una plataforma que cualquiera pueda usar para desarrollar esos asistentes, una población diversa de asistentes, y actualmente eso solo se puede lograr a través de plataformas de código abierto”.

    LeCun también habló sobre su trabajo en Meta para desarrollar modelos mundiales que puedan comprender, razonar y planificar en torno a entornos físicos.

    “Lo que se necesita es un predictor que, dado el estado del mundo y una acción imaginada, pueda predecir el próximo estado del mundo”, dijo. “Y si se tiene un sistema así, se puede planificar una secuencia de acciones para llegar a un resultado específico”.

    Dally señaló que construir modelos mundiales como estos requerirá una importante infraestructura de IA impulsada por GPU NVIDIA.

    “Que sigan haciéndolo”, bromeó LeCun. “Vamos a necesitar toda la computación posible”.

    Resumen: Puntos clave de la conferencia magistral de GTC

    Estos son los puntos principales que el fundador y director ejecutivo de NVIDIA, Jensen Huang, trató en su discurso inaugural:

    • Nos encontramos en un punto de inflexión de un billón de dólares en computación. La demanda de IA se está acelerando rápidamente, impulsada por el auge de la IA racional y la IA agente. La escala y la complejidad de las cargas de trabajo de IA están transformando las inversiones en centros de datos a nivel mundial.
    • NVIDIA Blackwell está en plena producción y ofrece un rendimiento 40 veces superior al de Hopper. La arquitectura Blackwell mejora significativamente el entrenamiento y la inferencia de modelos de IA, lo que permite aplicaciones de IA más eficientes y escalables. La próxima evolución de la plataforma de fábrica de IA NVIDIA Blackwell, Blackwell Ultra, estará disponible en los sistemas en el segundo semestre de este año.
    • NVIDIA seguirá un ritmo anual para el desarrollo de su infraestructura de IA. Cada año, incorporará nuevas GPU, CPU y avances en computación acelerada, incluyendo la próxima arquitectura NVIDIA Vera Rubin, diseñada para impulsar mejoras de rendimiento y eficiencia en los centros de datos de IA.
    • La infraestructura de IA, que incluye la fotónica y el almacenamiento optimizado para IA, revolucionará la industria. Las soluciones avanzadas de redes y almacenamiento mejorarán la escalabilidad, la eficiencia y el consumo energético de la IA en centros de datos a gran escala.
    • La IA física para la industria y la robótica representa una oportunidad de 50 billones de dólares. La robótica y la automatización impulsadas por IA están llamadas a transformar la manufactura, la logística, la atención médica y otras industrias, con las plataformas NVIDIA Isaac y Cosmos a la cabeza.

    Lea más detalles sobre la conferencia principal a continuación y permanezca atento para obtener más información y sesiones durante la conferencia, que se desarrollará hasta el viernes 21 de marzo.

    Sumérgete: discurso de apertura del fundador y director ejecutivo de NVIDIA, Jensen Huang, en GTC

    Bienvenido a NVIDIA

    Huang inauguró la conferencia introduciendo al público en la sede de NVIDIA, con una impactante imagen de su vestíbulo, que parecía acoger a todos. Empezó hablando de los inicios de NVIDIA hace 25 años, con las GPU. Describió el crecimiento de la IA en la última década, incluyendo la aparición de la IA agéntica , capaz de razonar para resolver un problema, planificar y actuar.

    La IA en un punto de inflexión

    Huang describió el desarrollo de la IA capaz de razonar paso a paso y analizó cómo la demanda de inferencia y aprendizaje por refuerzo impulsa la demanda de computación con IA. La demanda de GPU de los cuatro principales proveedores de servicios en la nube está en auge, ya que la IA atraviesa un punto de inflexión. Huang afirmó que prevé que el valor de la construcción de centros de datos alcance el billón de dólares.

    Ecosistema NVIDIA CUDA

    Las bibliotecas y microservicios acelerados por GPU NVIDIA CUDA-X ya están al servicio de todos los sectores, explicó Huang. En el futuro, añadió, cada empresa tendrá dos fábricas: una para lo que desarrolla y otra para la IA. Repasando una muestra del papel de NVIDIA en diversas iniciativas, anunció que NVIDIA lanzará al público su plataforma de optimización de decisiones cuOpt. La base instalada de CUDA está ahora “en todas partes”, afirmó. “Hemos alcanzado el punto de inflexión de la computación acelerada: CUDA lo ha hecho posible”.

    General Motors y NVIDIA colaboran en IA

    La IA necesita infraestructura, explicó Huang. La IA ahora se está extendiendo “al resto del mundo”, en robótica y autos autónomos, fábricas y redes inalámbricas. Una de las primeras industrias en las que la IA entró fue la de los vehículos autónomos, dijo Huang. “Desarrollamos tecnología que casi todas las compañías de autos autónomos usan”, agregó, ya sea en el centro de datos o en el auto. Huang anunció el siguiente paso en ese viaje: GM, el mayor fabricante de automóviles de EE. UU., está adoptando la IA, la simulación y la computación acelerada de NVIDIA para desarrollar vehículos, fábricas y robots de próxima generación. También anunció NVIDIA Halos , un sistema de seguridad integral que reúne la línea de soluciones de seguridad de hardware y software automotriz de NVIDIA con su investigación de IA de vanguardia en seguridad de AV.

    Centros de datos e inferencia

    A continuación, Huang habló sobre los centros de datos. Informó que la plataforma NVIDIA Blackwell está en plena producción y compartió una muestra de los sistemas de una amplia gama de socios de la industria. “¿Cómo no va a ser esto hermoso?”, dijo Huang.

    Describió cómo Blackwell apoya la ampliación extrema. «Queríamos hacer esto para resolver un problema extremo», dijo Huang, «y se llama inferencia».

    La inferencia, explicó Huang, es la generación de tokens , lo cual será crucial para las empresas. Las fábricas de IA que generan estos tokens deben construirse con una eficiencia y un rendimiento extremos. Y la demanda de tokens seguirá creciendo, con la última generación de modelos de razonamiento capaces de analizar y resolver problemas cada vez más complejos.

    Para acelerar aún más la inferencia a gran escala, Huang anunció NVIDIA Dynamo , un software de código abierto para acelerar y escalar los modelos de razonamiento de IA en fábricas de IA. «Es esencialmente el sistema operativo de una fábrica de IA», afirmó Huang.

    NVIDIA Blackwell Ultra

    Huang describió cómo Blackwell ofrece un gran salto en el rendimiento de inferencia. “Hay que asegurarse de tener la arquitectura más eficiente energéticamente posible”, dijo Huang, mostrando cómo Blackwell realiza más trabajo con menos energía que la generación anterior. “Cuanto más compras, más ahorras”, dijo Huang, provocando risas entre el público. “Es incluso mejor: cuanto más compras, más ganas”.

    Luego, Huang grabó un video que muestra cómo un nuevo NVIDIA Omniverse Blueprint puede ayudar a planificar una fábrica de IA de 1 gigavatio, permitiendo a los ingenieros diseñar, probar y optimizar una nueva generación de centros de datos de fabricación de inteligencia utilizando gemelos digitales. 

    Posteriormente, anunció la próxima evolución de la plataforma de fábrica de IA NVIDIA Blackwell, NVIDIA Blackwell Ultra , que estará disponible en sistemas durante el segundo semestre de este año. NVIDIA Blackwell Ultra potencia la inferencia de escalado en tiempo de entrenamiento y prueba (el arte de aplicar más cómputo durante la inferencia para mejorar la precisión) para que las organizaciones de todo el mundo puedan acelerar aplicaciones como el razonamiento de IA, la IA agéntica y la IA física.

    NVIDIA Vera Rubin

    Rindiendo homenaje a la astrónoma Vera Rubin, Huang describió una hoja de ruta que ofrecerá mejoras en el rendimiento de los centros de datos durante los próximos años. Huang ofreció nuevos detalles sobre las arquitecturas de GPU NVIDIA Rubin Ultra y CPU NVIDIA Vera de próxima generación, repletas de innovaciones. “Básicamente, todo es completamente nuevo, excepto el chasis”, afirmó Huang. Los sistemas basados ​​en Rubin Ultra, incluyendo el Vera Rubin NVL 144, llegarán en la segunda mitad del próximo año. Y, para la segunda mitad de 2027, se espera que lleguen los sistemas basados ​​en Rubin Ultra. “Se puede ver que Rubin va a reducir drásticamente los costos”, concluyó Huang.

    Fotónica NVIDIA

    Huang pasó a analizar cómo NVIDIA ayudará a los clientes a escalar a sistemas cada vez más grandes. La clave para ello reside en la estrecha integración de la fotónica (tecnologías de red que se basan en la transmisión de datos mediante luz en lugar de señales eléctricas) en la infraestructura de computación acelerada. Al permitir que las fábricas de IA conecten millones de GPU en diferentes ubicaciones, a la vez que reducen el consumo de energía y los costes operativos, los conmutadores de red fotónica de silicio NVIDIA Spectrum-X y NVIDIA Quantum-X fusionan circuitos electrónicos y comunicaciones ópticas. «Esta tecnología es realmente increíble», afirmó Huang. Los conmutadores fotónicos de NVIDIA integran innovaciones ópticas con 4 veces menos láseres para ofrecer una eficiencia energética 3,5 veces superior, una integridad de señal 63 veces superior, una resiliencia de red a escala 10 veces superior y una implementación 1,3 veces más rápida en comparación con los métodos tradicionales.

    DGX Spark y DGX Station

    Para que desarrolladores, investigadores, científicos de datos y estudiantes de IA puedan prototipar, perfeccionar e inferir modelos de gran tamaño en ordenadores de escritorio, NVIDIA presentó las supercomputadoras personales de IA DGX, impulsadas por la plataforma NVIDIA Grace Blackwell. Describiéndolas como el regalo de Navidad perfecto, Huang anunció DGX Spark (anteriormente Project DIGITS) y DGX Station, una nueva supercomputadora de escritorio NVIDIA Grace Blackwell de alto rendimiento, impulsada por la plataforma NVIDIA Blackwell Ultra, que lleva la potencia de la arquitectura Grace Blackwell al escritorio. Los usuarios pueden ejecutar estos modelos localmente o implementarlos en NVIDIA DGX Cloud o en cualquier otra infraestructura acelerada de nube o centro de datos. «Esta es la computadora de la era de la IA», afirmó Huang.

    IA con agentes . Al abordar el futuro de la IA con agentes, Huang anunció la familia abierta de modelos Llama Nemotron con capacidades de razonamiento, diseñada para brindar a desarrolladores y empresas una base empresarial para crear agentes de IA avanzados que puedan trabajar de forma independiente o en equipos conectados para resolver tareas complejas. Basada en los modelos Llama, la familia de razonamiento NVIDIA Llama Nemotron ofrece capacidades de razonamiento de IA bajo demanda. NVIDIA mejoró la nueva familia de modelos de razonamiento durante el postentrenamiento para optimizar las matemáticas multipaso, la codificación, el razonamiento y la toma de decisiones complejas.

    IA física y robótica

    Al describir la robótica como la próxima industria de 10 billones de dólares, Huang afirmó que, para finales de esta década, el mundo tendrá un déficit de al menos 50 millones de trabajadores. NVIDIA ofrece un conjunto completo de tecnologías para entrenar, implementar, simular y probar la robótica de próxima generación.

    En un video, Huang anunció la disponibilidad de NVIDIA Isaac GR00T N1 , el primer modelo de base abierto y totalmente personalizable del mundo para el razonamiento y las habilidades humanoides generalizadas.

    NVIDIA también anunció un importante lanzamiento de los nuevos modelos de base mundial NVIDIA Cosmos , que presentan un modelo de razonamiento abierto y totalmente personalizable para el desarrollo de IA física y brindan a los desarrolladores un control sin precedentes sobre la generación del mundo.

    “Usar Omniverse para condicionar Cosmos, y Cosmos para generar un número infinito de entornos, nos permite crear datos fundamentados, controlados por nosotros y, sin embargo, sistemáticamente infinitos al mismo tiempo”, dijo Huang.

    También presentó el motor de física de código abierto Newton para simulación robótica , en desarrollo con Google DeepMind y Disney Research, antes de que se le uniera en el escenario un robot azul que emergió de una escotilla en el suelo, pitando y balbuceando hacia Huang.

    ‘Terminemos’

    Huang concluyó su charla enfatizando varios temas importantes.

    En primer lugar, Blackwell está en plena producción: «y el ritmo de desarrollo es increíble, la demanda de los clientes es increíble», informó Huang. «Y con razón, dado que la IA está en un punto de inflexión, la cantidad de computación que debemos realizar es mucho mayor gracias a la IA de razonamiento y al entrenamiento de sistemas de IA de razonamiento y sistemas agénticos». 

    En segundo lugar, Blackwell NVL72 con Dynamo ofrece 40 veces el rendimiento de fábrica de IA de NVIDIA Hopper, y “la inferencia será una de las cargas de trabajo más importantes en la próxima década a medida que ampliamos la IA”.

    En tercer lugar, NVIDIA tiene un ritmo anual de hojas de ruta, lo que permite a todo el mundo planificar su infraestructura de IA. NVIDIA está construyendo tres infraestructuras de IA: una para la nube, otra para la empresa y una tercera para robots.

    Cuenta regresiva para la presentación principal en GTC 

    El SAP Center despierta, bañado por un relajante resplandor púrpura. Un mar de asistentes —desarrolladores, investigadores, líderes empresariales— llena el espacio con una carga de anticipación.

    En la pantalla grande: el pre-show con los presentadores del podcast Acquired, Ben Gilbert y David Rosenthal, quienes entrevistan a figuras de la industria desde la sala de exposiciones de GTC. Hoy mismo, incluso contaron con la presencia del fundador y CEO de NVIDIA, Jensen Huang.

    Ya casi es la hora.

    A las 10:00 a. m. (hora del Pacífico), Huang sube al escenario, marcando la pauta de todo lo que sucederá en el GTC. El público en el estadio lo sentirá: el movimiento de los recién llegados, el brillo de las pantallas de los teléfonos.

    Quienes se conecten a distancia no se perderán ni un momento. Vean la conferencia magistral en vivo . El futuro de la IA, la computación acelerada y todo lo demás está a punto de revelarse.

    Quédate con nosotros: apenas estamos empezando.

    Keynote de hoy: Sintoniza con anticipación para el preshow con Acquired

    La emoción comienza mucho antes de que Jensen Huang, fundador y CEO de NVIDIA, suba al escenario. No te pierdas la transmisión “En directo desde NVIDIA GTC con Acquired”, con ponentes de renombre que ofrecerán fascinantes perspectivas sobre la extraordinaria trayectoria de NVIDIA en las últimas tres décadas.

    Estado del arte de la IA: Cómo los artistas incorporan la IA y los robots al proceso creativo

    Artistas a lo largo de milenios han creado con todos los medios disponibles: tintes de frutas y verduras, bloques de mármol, pinturas acrílicas, cámaras, software de renderizado, impresoras 3D. Ahora aprovechan la IA y la robótica para crear experiencias inmersivas que reflejan cómo las personas responden e interactúan con la tecnología.

    En un panel de discusión de GTC organizado hoy por Heather Schoell, directora creativa de estrategia de IA en NVIDIA, cuatro artistas compartieron cómo utilizan la IA y la robótica en sus procesos creativos.

    La integración de la robótica en el arte “es una continuación muy lógica en lo que es un espectro muy largo de los humanos y nuestra relación con nuestras herramientas”, dijo la panelista Catie Cuan, fundadora de la empresa de inteligencia artificial de consumo Zenie y posdoctora en la Universidad de Stanford, donde lidera los esfuerzos de arte y robótica en el Centro de Robótica de Stanford.

    Cuan, un ex bailarín profesional, tiene entre sus obras un dueto de ocho horas con un brazo robótico y una sinfonía de robots danzantes que reproducían sonidos mientras se movían.

    Otro panelista, Alexander Reben, fue el primer artista residente de OpenAI. Utilizó modelos de lenguaje de gran tamaño , modelos visuales de IA generativa y NeRF para crear esculturas 3D .

    En la entrada principal de GTC se exhibe el arte interactivo de dos de los panelistas: Zolty, un artista cinético y robótico conocido como BREAKFAST, y Emanuel Gollob, investigador doctoral de la Universidad de Artes de Linz, Austria.

    BREAKFAST trabaja con datos en tiempo real para crear grandes esculturas de arte cinético que se exhiben a bordo de un crucero de Royal Caribbean y en el hotel Fontainebleau de Las Vegas. La pieza del estudio en GTC, titulada “Consumo”, funciona con una GPU NVIDIA RTX y presenta arcos robóticos que se mueven en respuesta a datos en tiempo real sobre el consumo de agua, incluyendo precipitaciones, embalses, niveles freáticos y suministros municipales.

    La instalación robótica de Gollob, llamada “Doing Nothing With AI”, utiliza control robótico generativo, mediciones de ondas cerebrales y aprendizaje de refuerzo para moverse de una manera que guía a un participante que usa una diadema EEG a no hacer nada y disfrutar de un momento de inacción.

    Los panelistas debaten sobre la eficiencia energética en la era de la IA generativa

    Ante una sala repleta de asistentes, los panelistas mantuvieron hoy en GTC un enriquecedor debate sobre IA, energía y cuestiones climáticas. Josh Parker, director sénior de sostenibilidad corporativa de NVIDIA, estuvo acompañado por Lauren Risi, del Wilson Center; David Sandalow, de la Universidad de Columbia; y Bernhard Lorentz, de Deloitte.

    “En el mundo del cambio climático, la IA puede hacer muchísimo”, dijo Sandalow. “¿Cómo se pueden utilizar las herramientas de IA para mitigar el cambio climático?”

    Los expertos de la industria abordaron las preocupaciones sobre la eficiencia energética con el auge de la IA generativa y el aumento de los centros de datos.

    “Las GPU NVIDIA han proporcionado una eficiencia energética 100.000 veces mejor durante la última década”, afirmó Parker, resumiendo las mejoras en eficiencia energética de las GPU NVIDIA.

    BMW Group presenta colaboración 3D para fábricas de ensamblaje de baterías

    BMW Group presentó hoy en GTC las últimas actualizaciones de su 3D AppStore.

    La AppStore 3D, el servicio de streaming en la nube de BMW para visualización de alta gama, ahora permite respaldar el proceso de ensamblaje de baterías del fabricante de automóviles en diversas plantas de todo el mundo. Permite a ingenieros, diseñadores y otros profesionales trabajar de forma colaborativa en el entorno digital.

    “Con los avatares, ven la escena de la fábrica y pueden estar allí juntos, y luego básicamente puedes preguntar qué está sucediendo aquí, y la IA te da una descripción detallada de lo que está haciendo la estación aquí”, dijo Xaver Freiherr Loeffelholz von Colberg, propietario de producto de 3D AppStore en BMW Group.

    Ofreciendo una visión del futuro del diseño y la fabricación de automóviles, BMW tendrá dos sesiones más de conferencias el jueves 20 de marzo.

    Explicando los tokens: el lenguaje y la moneda de la IA

    Es probable que los asistentes a GTC escuchen mucho sobre tokens: el lenguaje y la moneda de la IA.

    Los tokens son unidades de datos que procesan los modelos de IA durante el entrenamiento y la inferencia, lo que permite la predicción, la generación y el razonamiento. Cuanto más rápido se procesen los tokens, más rápido podrán aprender y responder los modelos de IA.

    Infórmese sobre los tokens, la tokenización y las formas en que las empresas pueden aumentar sus ingresos al reducir el costo por token en nuestro artículo explicativo .

    GTC 2025: IA real, problemas reales, soluciones reales

    La IA se enfrenta directamente a los desafíos más difíciles de la humanidad. Véalo en acción la próxima semana en la conferencia NVIDIA GTC en San José, California.

    Desde sesiones de atención médica transformadoras como ” Revolucionando el análisis y diagnóstico de resonancia magnética cardíaca con IA ” y ” Diseñando el futuro: ingeniería de proteínas, IA e innovación responsable ” hasta avances ambientales en ” Sistemas autónomos y teledetección para obtener mejores datos de la Tierra “, ” El papel de la IA y la computación acelerada en la comprensión y mitigación del cambio climático urbano ” y ” Mejora de la predicción de energía fotovoltaica con pronósticos meteorológicos de alta resolución de NVIDIA Earth-2 “, el impacto es tangible y global.

    El futuro llega a San José

    Cualquiera que haya estado en el centro de San José últimamente lo ha visto. Las pancartas están colgadas. Las calles están cambiando. Toda la ciudad se está renovando con el verde de NVIDIA.

    Del 17 al 21 de marzo, San José se convertirá en un punto de encuentro para pensadores, inventores y verdaderos entusiastas de la IA, la robótica y la computación acelerada. Las conversaciones serán intensas, dinámicas y, a veces, improbables, pero ese es el punto.

    ¿En el centro de todo? La conferencia principal de Jensen Huang , fundador y CEO de NVIDIA , ofrece una visión del futuro. Tendrá lugar en el SAP Center el martes 18 de marzo a las 10:00 a. m. (hora del Pacífico). Se esperan grandes ideas, algunas sorpresas, carcajadas y algún que otro momento que deje a la sala en silencio.

    Pero GTC no se limita a lo que ocurre en el escenario. Es una conferencia que se niega a quedarse en casa. Se extiende a sesiones en el Centro de Convenciones McEnery, demostraciones prácticas en el Museo Interactivo de Tecnología, charlas nocturnas en el mercado nocturno de la Plaza de César Chávez y mucho más. San José no solo alberga GTC. Se está convirtiendo en eso.

    Fuente.

    Envidia (2025, 20 de marzo).  GTC 2025- Anuncios y actualizaciones en directo. Recuperado el 24 de marzo de 2025, de: https://blogs.nvidia.com/blog/nvidia-keynote-at-gtc-2025-ai-news-live-updates/?utm_source=VentureBeat&utm_campaign=c5a182567e-VB-3-24&utm_medium=email&utm_term=0_-4e77a05d82-36335086&mc_cid=c5a182567e&mc_eid=4341a15e8c

  • Menos es más: UC Berkeley y Google liberan el potencial de LLM a través de un muestreo simple

    Un nuevo artículo de investigadores de Google Research y la Universidad de California, Berkeley, demuestra que un enfoque sorprendentemente sencillo de escalamiento en tiempo de prueba puede potenciar la capacidad de razonamiento de los modelos de lenguaje grandes (LLM). ¿La clave? Ampliar la búsqueda basada en muestreo, una técnica que se basa en la generación de múltiples respuestas y el uso del propio modelo para verificarlas. 

    El hallazgo principal es que incluso una implementación minimalista de búsqueda basada en muestreo, mediante muestreo aleatorio y autoverificación, puede mejorar el rendimiento de razonamiento de modelos como Gemini 1.5 Pro por encima del de o1-Preview en benchmarks populares. Estos hallazgos pueden tener implicaciones importantes para las aplicaciones empresariales y cuestionar la suposición de que un entrenamiento altamente especializado o arquitecturas complejas siempre son necesarios para lograr un rendimiento de primer nivel.

    Los límites del escalamiento computacional en tiempo de prueba actual

    El método popular actual para el escalamiento del tiempo de prueba en LLM consiste en entrenar el modelo mediante aprendizaje por refuerzo para generar respuestas más largas con trazas de cadena de pensamiento (CoT). Este enfoque se utiliza en modelos como OpenAI o1 y DeepSeek-R1 . Si bien son beneficiosos, estos métodos suelen requerir una inversión considerable en la fase de entrenamiento.

    Otro método de escalamiento en tiempo de prueba es la autoconsistencia, donde el modelo genera múltiples respuestas a la consulta y elige la que aparece con mayor frecuencia. La autoconsistencia alcanza sus límites al gestionar problemas complejos, ya que en estos casos la respuesta más repetida no es necesariamente la correcta.

    La búsqueda basada en muestreo ofrece una alternativa más sencilla y altamente escalable al escalado en tiempo de prueba: permite que el modelo genere múltiples respuestas y seleccione la mejor mediante un mecanismo de verificación. La búsqueda basada en muestreo puede complementar otras estrategias de escalado computacional en tiempo de prueba y, como escriben los investigadores en su artículo, «también tiene la ventaja única de ser vergonzosamente paralela y permitir un escalado arbitrario: simplemente se muestrean más respuestas».

    Más importante aún, la búsqueda basada en muestreo se puede aplicar a cualquier LLM, incluidos aquellos que no han sido entrenados explícitamente para el razonamiento.

    Cómo funciona la búsqueda basada en muestreo

    Los investigadores se centran en una implementación minimalista de la búsqueda basada en muestreo, utilizando un modelo de lenguaje para generar respuestas candidatas y verificarlas. Se trata de un proceso de autoverificación, en el que el modelo evalúa sus propios resultados sin depender de respuestas externas de verdad fundamental ni de sistemas de verificación simbólica.

    El algoritmo funciona en unos sencillos pasos: 

    1—El algoritmo comienza generando un conjunto de posibles soluciones al problema dado mediante un modelo de lenguaje. Esto se logra presentando al modelo la misma instrucción varias veces y utilizando una configuración de temperatura distinta de cero para crear un conjunto diverso de respuestas.

    2—La respuesta de cada candidato se somete a un proceso de verificación en el que se le solicita al LLM varias veces que determine si la respuesta es correcta. Los resultados de la verificación se promedian para obtener la puntuación final de verificación de la respuesta.

    3— El algoritmo selecciona la respuesta con la puntuación más alta como respuesta final. Si hay varios candidatos con una distancia muy cercana, el LLM debe compararlos por pares y elegir el mejor. La respuesta que obtenga más comparaciones por pares se elige como respuesta final.

    Los investigadores consideraron dos ejes clave para escalar el tiempo de prueba:

    Muestreo: El número de respuestas que el modelo genera para cada problema de entrada.

    Verificación: La cantidad de puntajes de verificación calculados para cada solución generada

    Cómo se compara la búsqueda basada en muestreo con otras técnicas

    El estudio reveló que el rendimiento del razonamiento continúa mejorando con la búsqueda basada en muestreo, incluso cuando el cómputo en tiempo de prueba se escala mucho más allá del punto donde la autoconsistencia se satura. 

    A una escala suficiente, esta implementación minimalista mejora significativamente la precisión del razonamiento en pruebas de razonamiento como AIME y MATH. Por ejemplo, el rendimiento de Gemini 1.5 Pro superó al de o1-Preview, que se entrenó explícitamente en problemas de razonamiento, y Gemini 1.5 Flash superó a Gemini 1.5 Pro.

    “Esto no solo resalta la importancia de la búsqueda basada en muestreo para la capacidad de escalamiento, sino que también sugiere la utilidad de la búsqueda basada en muestreo como una línea de base simple sobre la cual comparar otras estrategias de escalamiento computacional en tiempo de prueba y medir mejoras genuinas en las capacidades de búsqueda de los modelos”, escriben los investigadores.

    Cabe destacar que, si bien los resultados del muestreo basado en búsqueda son impresionantes, los costos también pueden resultar prohibitivos. Por ejemplo, con 200 muestras y 50 pasos de verificación por muestra, una consulta de AIME generará alrededor de 130 millones de tokens, lo que cuesta $650 con Gemini 1.5 Pro. Sin embargo, este es un enfoque muy minimalista para la búsqueda basada en muestreo y es compatible con las técnicas de optimización propuestas en otros estudios. Con métodos de muestreo y verificación más inteligentes, los costos de inferencia pueden reducirse considerablemente mediante el uso de modelos más pequeños y la generación de menos tokens . Por ejemplo, al usar Gemini 1.5 Flash para realizar la verificación, los costos se reducen a $12 por pregunta.

    Estrategias eficaces de autoverificación

    Existe un debate en curso sobre si los LLM pueden verificar sus propias respuestas. Los investigadores identificaron dos estrategias clave para mejorar la autoverificación mediante el uso de cómputo en tiempo de prueba:

    Comparación directa de las respuestas candidatas: Las discrepancias entre las soluciones candidatas son un claro indicio de posibles errores. Al proporcionar al verificador múltiples respuestas para comparar, el modelo puede identificar mejor los errores y las alucinaciones, lo que soluciona una debilidad fundamental de los LLM. Los investigadores describen esto como un ejemplo de «escalamiento implícito».

    Reescritura específica de la tarea: Los investigadores proponen que el estilo óptimo de salida de un LLM depende de la tarea. La cadena de pensamiento es eficaz para resolver tareas de razonamiento, pero las respuestas son más fáciles de verificar cuando se redactan en un estilo más formal y matemáticamente convencional. Los verificadores pueden reescribir las respuestas de los candidatos en un formato más estructurado (p. ej., prueba de teoremas y lemas) antes de la evaluación.

    “Prevemos que las capacidades de autoverificación de los modelos mejorarán rápidamente a corto plazo, a medida que los modelos aprendan a aprovechar los principios de escalamiento implícito y la idoneidad del estilo de salida, e impulsen tasas de escalamiento mejoradas para la búsqueda basada en muestreo”, escriben los investigadores.

    Implicaciones para aplicaciones en el mundo real

    El estudio demuestra que una técnica relativamente simple puede lograr resultados impresionantes, reduciendo potencialmente la necesidad de arquitecturas de modelos o regímenes de entrenamiento complejos y costosos.

    Esta técnica también es escalable, lo que permite a las empresas aumentar el rendimiento al asignar más recursos computacionales al muestreo y la verificación. Además, permite a los desarrolladores llevar los modelos de lenguaje de vanguardia más allá de sus limitaciones en tareas complejas.

    “Dado que complementa otras estrategias de escalamiento computacional en tiempo de prueba, es paralelizable y permite escalamiento arbitrario, y admite implementaciones simples que son demostrablemente efectivas, esperamos que la búsqueda basada en muestreo desempeñe un papel crucial a medida que los modelos de lenguaje se encargan de resolver problemas cada vez más complejos con presupuestos computacionales cada vez mayores”, escriben los investigadores. 

    Fuente.

    VentureBeat (2025, 21 de marzo). Menos es más: UC Berkeley y Google liberan el potencial de LLM a través de un muestreo simple. Recuperado el 24 de marzo de 2025, de: https://venturebeat.com/ai/less-is-more-uc-berkeley-and-google-unlock-llm-potential-through-simple-sampling/

  • China ordenará etiquetar contenido creado con Inteligencia Artificial

    China ordenará etiquetar contenido creado con Inteligencia Artificial

    El gobierno de China obligará a que el contenido generado con Inteligencia Artificial (IA) Generativa sea etiquetado para que las personas identifiquen que se trata de información hecha a través de dicha tecnología.

    De acuerdo con el gobierno chino, dicha medida entrará en vigor el próximo 1° de septiembre de 2025, ya que el objetivo es “promover el desarrollo saludable de la Inteligencia Artificial“.

    La regulación está alineada con las iniciativas que han adoptado tanto la Unión Europea como Estados Unidos en materia de transparencia en el uso de la IA, con el fin de combatir la desinformación en el entorno digital.

    La Administración del Ciberespacio de China (CAC, por sus siglas en inglés), en colaboración con otros organismos estatales, desarrolló esta normativa con el objetivo de garantizar la transparencia en el uso de la IA en la generación de contenido digital.

    De acuerdo con la CAC, la Ley de Etiquetado ayudará a los usuarios a identificar la desinformación y responsabilizará a los proveedores de servicios por la correcta identificación de su contenido.

    Además, la institución insistió en que esta medida busca minimizar el uso indebido de material generado por IA y proporcionar a los usuarios herramientas para discernir entre contenido real y sintético.

    “La Ley ayudará a los usuarios a identificar la desinformación y responsabilizará a los proveedores de servicios por la correcta identificación de su contenido”, aseguró la CAC.

    La nueva normativa establece que las tiendas de aplicaciones deberán verificar con los desarrolladores si sus productos incluyen funciones de generación de contenido mediante IA y revisar sus mecanismos de etiquetado.

    De acuerdo con el gobierno chino, aunque las plataformas aún podrán ofrecer contenido generado por IA sin etiquetas en ciertos casos, deberán cumplir con regulaciones específicas y proporcionar estos servicios únicamente bajo demanda del usuario.

    Otros organismos gubernamentales, como el Ministerio de Industria y Tecnología de la Información, el Ministerio de Seguridad Pública y la Administración Nacional de Radio, Cine y Televisión, también participan en la implementación y supervisión de estas regulaciones.

    Fuente.

    DPL News (2025, 14 de marzo). China ordenará etiquetar contenido creado con Inteligencia Artificial. Recuperado el 24 de marzo de 2025, de: https://dplnews.com/china-etiquetara-contenido-inteligencia-artificial/

  • La tecnología permitiría un control de enjambres robóticos similar a un videojuego

    La tecnología permitiría un control de enjambres robóticos similar a un videojuego

    Los jóvenes emprendedores tecnológicos ucranianos creen que una combinación de robots y lecciones aprendidas en juegos de guerra podría cambiar el rumbo de la guerra contra Rusia . Están desarrollando un sistema operativo inteligente que permite a un solo controlador operar remotamente enjambres de drones interconectados y robots terrestres equipados con cañones . Esta tecnología, afirman, podría ayudar a Ucrania a afrontar la ventaja numérica de Rusia.

    La startup Ark Robotics, con sede en Kiev , está realizando pruebas con un embrión de dicho sistema en colaboración con una de las brigadas de las fuerzas terrestres ucranianas. La empresa surgió hace aproximadamente un año, cuando un grupo de jóvenes expertos en robótica escuchó un discurso de uno de los comandantes ucranianos que detallaba los desafíos en el frente.

    “En aquel entonces, construíamos vehículos terrestres no tripulados [UGV]”, comentó uno de esos expertos en robótica, ahora ingeniero en Ark Robotics . “Pero nos enteramos de que lo que ofrecíamos no era suficiente. Dijeron que necesitaban algo más”. Habló con IEEE Spectrum en el marco del Foro de Innovaciones en Tecnología de Defensa Brave 1, celebrado en Kiev el mes pasado. IEEE Spectrum lo identifica únicamente como Anatoly, para cumplir con su solicitud de confidencialidad durante una guerra.

    Desde el inicio de la guerra, ha surgido en Ucrania un vibrante ecosistema de innovación en tecnología de defensa, que comenzó con modestos inicios modificando drones DJI MAVIC  de fabricación china para compensar la falta de artillería. Hoy, Ucrania es una potencia en la fabricación de drones. Decenas de startups están desarrollando tecnología más nueva y mejorada , perfeccionándola rápidamente para mejorar la efectividad de las tropas de la asediada nación. Los drones con vista en primera persona se han convertido en un símbolo de esta guerra, pero desde el año pasado se han empezado a complementar con vehículos terrestres no tripulados (UGV), que ayudan sobre el terreno con la logística, la evacuación de heridos y también actúan como un nuevo medio de ataque.

    El nuevo enfoque permite a los ucranianos mantener a sus soldados lejos del campo de batalla durante períodos más largos, pero no borra el hecho de que Ucrania tiene muchos menos soldados que Rusia.

    “Cada dron necesita un operador; los drones complejos necesitan dos o tres, y no tenemos tantos”, declaró Serhii Kupriienko, director ejecutivo y fundador de Swarmer , durante un panel en el evento de Kiev. Swarmer es una startup con sede en Kiev que desarrolla tecnologías que permiten que grupos de drones operen como un enjambre autocoordinado.

    Ark Robotics está intentando llevar esta idea un paso más allá. El sistema operativo Frontier de la compañía aspira a convertirse en una interfaz unificadora que permita que drones y vehículos terrestres no tripulados (UGV) de diversos fabricantes colaboren bajo el control de operadores ubicados en salas de control a kilómetros de la acción.

    Un controlador para muchos drones y robots

    “Tenemos muchos tipos de drones que utilizan diferentes controles e interfaces, y es muy difícil lograr la cohesión”, afirma Anatoly. “Para avanzar, necesitamos un sistema que nos permita controlar múltiples tipos de vehículos de forma cohesionada en operaciones complejas”.

    Anatoly, un entusiasta de los videojuegos, está entusiasmado con el progreso de Ark Robotics. Podría ser revolucionario, afirma, una nueva tecnología fundamental para la defensa. Haría que Ucrania fuera como los protoss , la nación tecnológicamente avanzada del juego de estrategia de ciencia ficción militar StarCraft .

    Pero lo que lo impulsa es mucho más que su frikismo juvenil. Consolidar el dominio tecnológico de Ucrania es una misión alimentada por el dolor y la indignación.

    “No quiero perder más amigos”, comenta en un momento dado, visiblemente emocionado. “No queremos morir en las trincheras, pero necesitamos ser capaces de defender nuestro país y, dado que las matemáticas sociales no nos favorecen, necesitamos hacer nuestras propias matemáticas para ganar”.

    La magnitud del desafío no le pasa desapercibida. Hasta ahora, la empresa ha construido una unidad de computación vehicular que sirve como centro de control y tablero de control para diversos vehículos no tripulados, incluyendo drones, vehículos terrestres no tripulados (UGV) e incluso vehículos marinos.

    “Estamos desarrollando esta solución que permite la integración de varios equipos de desarrollo y software, lo que nos permite extraer los mejores componentes y escalarlos rápidamente”, explica Anatoly. “Este sistema combina un módulo informático de alto rendimiento con una placa de interfaz que proporciona múltiples conexiones para los sistemas del vehículo.

    La plataforma permite que un solo operador guíe remotamente una bandada de robots, pero en el futuro también incorporará navegación autónoma y ejecución de tareas, según Anatoly. Hasta el momento, el equipo ha probado la tecnología en ejercicios logísticos sencillos. Sin embargo, para que esta visión global funcione, el mayor desafío será mantener enlaces de comunicación fiables entre el controlador y la flota robótica, así como entre los robots y los drones.

    Las pruebas en los campos de batalla de Ucrania comenzarán pronto

    “No hablamos de comunicaciones en un entorno relativamente seguro cuando se cuenta con una red LTE con suficiente ancho de banda para miles de teléfonos”, señala Anatoly. “En primera línea, todo se ve afectado por la guerra electrónica , por lo que es necesario poder alternar entre diferentes soluciones, como satélite, radio digital y radio en malla, para que, incluso si se pierde la conexión con el servidor, se mantenga la conexión entre los drones y los robots, de modo que puedan moverse juntos y mantener cierto nivel de control mutuo”.

    Anatoly espera que la brigada socia de Ark Robotics en las fuerzas armadas ucranianas pruebe la versión preliminar de la tecnología en una situación real en los próximos meses. Sus jóvenes amigos operadores de drones están entusiasmados, dice. ¿Y cómo no estarlo? La tecnología promete convertir la guerra en una especie de videojuego real. La nueva generación de operadores multidron probablemente provendrá de aficionados a los videojuegos.

    “Si podemos tomar a los mejores pilotos y darles herramientas para combinar las operaciones, podríamos obtener una gran ventaja”, dice Anatoly. “Es como en StarCraft. Hay gente que simplemente juega bien y aniquila a sus oponentes en minutos, incluso partiendo de las mismas condiciones básicas”.

    En su intervención en el Foro de Innovaciones en Tecnología de Defensa Brave 1, el coronel Andrii Lebedenko, subcomandante en jefe de las Fuerzas Armadas de Ucrania, reconoció que las batallas terrestres han sido hasta la fecha el punto más débil de Ucrania. Afirmó que el objetivo a corto plazo de Ucrania es reemplazar a los humanos por robots en la medida de lo posible y expresó su confianza en que las próximas tecnologías otorgarán mayor autonomía a los enjambres de robots .

    Sin embargo, algunos expertos en robótica se muestran más escépticos ante la posibilidad de que enjambres de robots autónomos se dispersen masivamente por los campos de batalla del este de Ucrania en un futuro próximo. «El enjambre es sin duda un objetivo que deberíamos alcanzar, pero es mucho más fácil con drones FPV que con robots terrestres», declaró a Spectrum Ivan Movchan, director ejecutivo de Ukrainian Scale Company, fabricante de robots con sede en Járkov .

    «La navegación terrestre es más difícil simplemente por los obstáculos», añade. «Pero preveo que los UGV se volverán muy comunes en Ucrania durante el próximo año».

    Fuente.
  • Si la tecnología no funciona, la ciberseguridad tampoco

    Si la tecnología no funciona, la ciberseguridad tampoco

    Muchos directivos ven la ciberseguridad como un escudo contra amenazas externas, pero la realidad es que, si la tecnología en la empresa no funciona bien, la ciberseguridad tampoco lo hará.

    Un CEO me preguntó recientemente: “Si sé que tengo problemas con la tecnología y ciberseguridad en mi empresa, ¿por dónde empiezo?”

    Mi respuesta fue clara y quizás inesperada: por la tecnología.

    Aunque me dedico a ciberseguridad y sé lo crítica que es, si la infraestructura tecnológica de la empresa no está bien gestionada, la ciberseguridad simplemente no tiene dónde sostenerse. No se puede proteger lo que no opera correctamente.

    Muchos directivos ven la ciberseguridad como un escudo contra amenazas externas, pero la realidad es que, si la tecnología en la empresa no funciona bien, la ciberseguridad tampoco lo hará. Puedes invertir en las mejores soluciones, pero si la red está mal configurada, los sistemas están desactualizados o los procesos de TI no están alineados con el negocio, la ciberseguridad será solo un intento de tapar problemas más profundos.

    La tecnología (TI) es el pilar sobre el cual se construye la ciberseguridad. Una infraestructura mal administrada no solo afecta la operación, sino que también deja abierta la puerta a riesgos que ninguna solución de ciberseguridad podrá mitigar por completo.

    No se trata de elegir entre TI o ciberseguridad, sino de entender el orden lógico: primero garantizar que la tecnología de la empresa funcione correctamente y después protegerla de amenazas.

    Cuando la infraestructura tecnológica es sólida, surge un reto adicional: ¿quién es responsable de qué entre TI y ciberseguridad? TI se enfoca en garantizar la operatividad y continuidad del negocio, mientras que ciberseguridad evalúa y mitiga los riesgos. Si no existe claridad en sus funciones, pueden generarse fricciones que afecten la estrategia global de la organización.

    Aquí es donde entra en juego el gobierno de tecnología y ciberseguridad. Un modelo de gobierno bien definido establece roles y responsabilidades claras, evitando que ambas áreas trabajen en direcciones opuestas. Además, garantiza que la ciberseguridad no sea vista como un obstáculo, sino como un habilitador estratégico que protege la continuidad del negocio.

    Este dilema no es exclusivo de empresas pequeñas. Incluso en grandes organizaciones con modelos de gobierno estructurados, la pregunta sigue siendo válida: ¿nuestra tecnología está lista para soportar una estrategia de ciberseguridad efectiva? Tener procesos bien definidos no garantiza que la infraestructura no esté llena de soluciones improvisadas que resuelven problemas momentáneamente, pero generan riesgos a largo plazo.

    Uno de los errores más comunes es construir la estrategia tecnológica sobre una base de parches y soluciones temporales en lugar de una planificación clara. En estos casos, la transformación digital puede convertirse en un arma de doble filo: en lugar de reducir riesgos, puede introducir nuevos si no se ejecuta correctamente. Un claro ejemplo es la dependencia de sistemas legados, que aunque siguen operando, pueden representar vulnerabilidades críticas.

    Si la empresa crece sin una estrategia tecnológica clara, empieza a acumular soluciones que, aunque funcionan a corto plazo, generan problemas en el largo plazo. Arquitecturas improvisadas, integración deficiente entre sistemas y una falta de alineación entre tecnología y negocio pueden hacer que incluso los mejores esfuerzos en ciberseguridad sean insuficientes.

    La alta administración juega un papel clave en este proceso. No basta con delegar estas responsabilidades a TI y ciberseguridad sin compartir una visión clara del negocio. Ambas áreas deben alinearse a los objetivos estratégicos de la organización para asegurar que la tecnología no solo soporte la operación, sino que también impulse su crecimiento de manera segura. Sin esta dirección, TI puede enfocarse en optimizar procesos sin considerar los riesgos, mientras que ciberseguridad puede implementar restricciones excesivas que dificulten la agilidad del negocio.

    La verdadera pregunta que deberían hacerse los directivos no es solo “cuánto estamos invirtiendo en ciberseguridad”, sino “nuestra infraestructura tecnológica está preparada para soportar una estrategia de ciberseguridad efectiva?” Y si la respuesta es sí, entonces la siguiente pregunta debe ser: ¿existe un modelo de gobierno claro que garantice que TI y ciberseguridad trabajen juntos para proteger realmente al negocio?

    Solo cuando estas preguntas se responden con claridad, la empresa puede estar segura de que su inversión en tecnología y ciberseguridad realmente está sumando valor y no simplemente apagando fuegos.

    Fuente.

    Forbes México (2025, 19 de marzo). Si la tecnología no funciona, la ciberseguridad tampoco. Recuperado el 20 de marzo de 2025, de: https://otech.uaeh.edu.mx/noti/wp-admin/post-new.php

  • Periódico italiano crea una edición completamente generada por IA

    Periódico italiano crea una edición completamente generada por IA

    ¿Es un periódico generado por inteligencia artificial o un obituario?

    Un periódico italiano afirma haber creado el primer número del mundo generado íntegramente con IA, en el que los periodistas se limitan a hacer preguntas a un chatbot y leer las respuestas antes de insertarlas. The Guardian informó anteriormente sobre la iniciativa de Il Foglio , un periódico italiano de tendencia liberal conservadora.

    Claudio Cerasa, editor de Il Foglio , dijo que el experimento sirve como prueba de cómo la IA podría funcionar “en la práctica” en una sala de redacción y obliga a los periodistas a plantear preguntas difíciles sobre lo que significa la tecnología para el periodismo del futuro.

    “Será el primer diario del mundo en quioscos creado íntegramente con inteligencia artificial”, dijo Cerasa. “Por todo. Por la redacción, los titulares, las citas, los resúmenes. Y, a veces, incluso por la ironía”.

    “Il Fogolio AI”, de cuatro páginas, se insertó en la edición más grande del martes y también puede verse en línea .

    Tal vez no sea el primer periódico del mundo generado con inteligencia artificial, ya que un periódico sueco llamado Nöjesguiden afirma haber publicado una edición similar el verano pasado.

    Los primeros experimentos con inteligencia artificial generativa en las redacciones no han tenido mucho éxito. En 2023, CNET enfrentó críticas tras publicar discretamente artículos de asesoramiento financiero generados con IA, que resultaron contener importantes inexactitudes . Más recientemente, Los Angeles Times lanzó “Insights”, una herramienta impulsada por IA que supuestamente evaluaba el sesgo de los artículos de opinión y generaba contrapuntos automáticamente; la retiró rápidamente tras descubrirse que minimizaba al Ku Klux Klan .

    La inteligencia artificial generativa es eficaz para producir verosimilitudes de escritura genuina, algo que parece claro y fidedigno. Se han intentado mejorar el proceso de “pensamiento” de los chatbots, pero en última instancia son sistemas de autocompletado glorificados y se enfrentan al insoluble problema de simplemente inventar cosas . Los chatbots que presentan su lógica al producir una respuesta incluso a veces lo admiten. En definitiva, el problema con todos los modelos de lenguaje es que el usuario debe examinar detenidamente todo el texto generado y corregir errores si los detecta. Las redacciones, en particular, deben tener cuidado de no dañar aún más su credibilidad ante el público publicando información de mala calidad.

    Aun así, las organizaciones de noticias siguen experimentando con la tecnología a pesar de la gran preocupación de los periodistas, en particular sobre si las redacciones intentarán usar la IA para reducir su personal. Tanto The Washington Post como Bloomberg utilizan la IA para ofrecer resúmenes de artículos, por ejemplo. Patch, un sitio de noticias hiperlocal que anteriormente pertenecía a AOL, ahora depende completamente de la IA que rastrea la web para encontrar noticias para muchas de sus ediciones locales.

    El periodismo, entre comillas, “real” debería verse menos afectado, ya que la IA generativa simplemente crea texto nuevo a partir de material ya visto. El periodismo original (encontrar historias originales, entrevistar a personas) requiere producir información completamente nueva que aún no está disponible en la web. Sin embargo, el público en general no valora mucho los medios en la era digital; no se limita solo al periodismo, sino que ya no está dispuesto a pagar mucho por música o vídeo. Siendo la mano de obra el factor de mayor coste en la mayoría de las organizaciones, no es difícil ver que cada vez más medios utilizan la IA siempre que es posible. Varios sindicatos de periodistas han solicitado cláusulas que impidan su uso.

    Algún día, tendremos artículos de noticias sobre IA que citarán información de otros artículos de noticias sobre IA hasta el punto de que ya ni siquiera será posible identificar la fuente original. O historias generadas completamente a partir de comentarios de Reddit.

    Fuente.

    Gizmodo (2025, 18 de marzo). Periódico italiano crea una edición completamente generada por IA. Recuperado el 20 de marzo de 2025, de: https://gizmodo.com/italian-newspaper-creates-entirely-ai-generated-edition-2000577463

  • Microsoft anuncia nuevos centros de datos sin consumo de agua

    Microsoft anuncia nuevos centros de datos sin consumo de agua

    Mediante la implantación de soluciones de refrigeración a nivel de los chips, este nuevo diseño garantiza un control preciso de la temperatura.

    Microsoft ya no consumirá agua extra para enfriar sus centros de datos en España. La compañía anunció un diseño que no utiliza agua para la refrigeración de los mismos.

    La compañía de Redmond explicó que mediante la implantación de soluciones de refrigeración a nivel de los propios chips, este nuevo diseño garantiza un control preciso de la temperatura sin depender de la evaporación del agua.

    Explicó que estas nuevas tecnologías de refrigeración líquida recirculan el agua a través de un circuito cerrado.

    Detalló que una vez que el sistema se llena durante la construcción del centro, hace circular agua continuamente entre los servidores y los equipos de refrigeración para disipar el calor sin necesidad del suministro de más agua.

    Eoin Doherty, vicepresidente de Cloud Operations + Innovation de Microsoft EMEA, fue el encargado de anunciar la aplicación de este nuevo diseño de refrigeración a las infraestructuras de Inteligencia Artificial y Nube que Microsoft tiene previsto construir en España.

    “Nuestro diseño de centros de datos Zero-Water es un importante paso adelante en nuestro objetivo de ofrecer una Nube sostenible y de alto rendimiento que beneficie tanto a las empresas como a la ciudadanía.

    “En Microsoft trabajamos para construir y operar infraestructuras digitales que no sólo impulsen la innovación, sino que también aborden los retos sociales y beneficien a las comunidades a las que servimos”, comentó Eoin Doherty.

    Microsoft detalló que sus centros de datos operaron en todo el mundo con un WUE (Water Usage Effectiveness) medio de 0.30 L/kWh en el último año fiscal. Esto representa una mejora de 39 por ciento respecto a 2021.

    Microsoft aseveró que desde el año 2000, el WUE de sus centros de datos ha mejorado en un 80 por ciento en comparación con la primera generación de infraestructuras Cloud.

    Se espera que el despliegue de la siguiente generación de centros de datos ayude a reducir el WUE global de Microsoft a un valor prácticamente nulo para cada centro de datos que emplee la nueva tecnología de evaporación Zero-Water.

    Microsoft se ha comprometido a ser positiva en agua para 2030, lo que significa que la empresa devolverá más agua de la que consume.

    Fuente.

    DPL News (2025, 19 de marzo). Microsoft anuncia nuevos centros de datos sin consumo de agua. Recuperado el 19 de marzo de 2025, de: https://dplnews.com/microsoft-nuevos-centros-de-datos-sin-consumo-de-agua/

  • La nación que se adelante en Centros de Datos tendrá una ventaja competitiva: Carlos Barroso de Nokia

    La nación que se adelante en Centros de Datos tendrá una ventaja competitiva: Carlos Barroso de Nokia

    La infraestructura digital de México está en plena transformación con el auge de los Centros de Datos, impulsados por la creciente demanda de datos, Inteligencia Artificial y servicios en la Nube. En entrevista exclusiva, Carlos Barroso, LAT IP Business Center Leader de Nokia, destacó que el país se encuentra en una posición estratégica para convertirse en un hub de Data Centers en América Latina, con una inversión proyectada de más de 7 mil millones de dólares en los próximos años.

    “Sin Centros de Datos no hay Internet ni conectividad. Son el corazón de la digitalización y estratégicos para un país. La nación que se adelante en infraestructura de Centros de Datos tendrá una ventaja competitiva por varios años”, refirió el directivo de Nokia.

    Carlos Barroso mencionó que México cuenta con más de 160 Centros de Datos operativos y que se espera un crecimiento significativo con la adición de 70 a 75 nuevos Data Centers en los próximos cuatro años. “No sólo crece la cantidad de Centros de Datos, sino que los existentes también tienen que expandirse”, afirmó Barroso. Además, el consumo energético de estos centros podría multiplicarse por diez, hasta alcanzar los 1,000 megavatios.

    El directivo de Nokia resaltó la importancia de la estabilidad y la eficiencia de la infraestructura digital. “Los Centros de Datos han dejado de ser una aplicación de segunda importancia y ahora son el cerebro de la red.” Nokia apuesta a su experiencia en la industria de las telecomunicaciones y por la innovación en hardware y software para garantizar la confiabilidad y seguridad de estos centros.

    Barroso destacó que el software es uno de los diferenciadores clave para Nokia en la industria de los Data Center. “El 15 por ciento de los problemas en los Centros de Datos se debe a fallos en la configuración del software, lo cual provoca desperdicio de energía y reduce la eficiencia operativa. Nuestro objetivo es ofrecer soluciones que minimicen estas fallas y maximicen la estabilidad de la infraestructura digital.”

    Enfatizó que el Service Router Linux (SR-Linux) de Nokia es una de las innovaciones más importantes en el sector. Permite mayor programabilidad, estabilidad y flexibilidad para los operadores de Centros de Datos.

    Sobre los retos que enfrenta la industria, Barroso identificó la escasez de talento especializado como un cuello de botella. “Es crucial atraer nuevos profesionales y hacer que el ecosistema sea más accesible. Por ello, estamos promoviendo plataformas abiertas y colaboración con socios estratégicos para fomentar el desarrollo de la industria”.

    Respecto de la sustentabilidad, un tema clave en los Centros de Datos, destacó que Nokia ha trabajado en reducir el consumo energético de su hardware, al tiempo que permite un aumento de la capacidad sin incrementar la demanda de energía. “En muchas ciudades, los Centros de Datos son los mayores consumidores de electricidad. Nuestra meta es optimizar su eficiencia y minimizar su impacto ambiental.” Nokia tiene el objetivo de lograr el mejor consumo energético posible en los Centros de Datos, aprovechando su tecnología de última generación para hacer más con menos recursos.

    La seguridad en las redes y los Data Center es otro pilar clave para Nokia. “La protección de datos es fundamental. Contamos con tecnología de cifrado quantum-safe y soluciones avanzadas contra ataques DDoS, para asegurar que los datos estén resguardados con los más altos estándares de la industria”, además de que cumple con los estándares del National Institute of Standards and Technology (NIST) de Estados Unidos.

    Subrayó que la tecnología de Nokia es la menos vulnerable del mercado, lo cual la convierte en una opción altamente confiable para empresas que buscan robustez y estabilidad en sus Centros de Datos.

    DPL Digital Stars

    Pensamiento digital, ideas centrales y visión de Carlos Barroso acerca de Centros de Datos

    En DPL News buscamos difundir el pensamiento digital y tecnológico para promover el ejercicio de derechos fundamentales a través de las TIC.

    México como Hub digital: “México tiene una posición estratégica y una proyección de inversión en Centros de Datos de 7 mil millones de dólares en los próximos años.”

    Crecimiento exponencial de consumo de energía: “El consumo energético de los Centros de Datos en México podría crecer de 80 MW a 1,000 MW en pocos años.”

    Infraestructura crítica: “Los Centros de Datos han pasado de ser secundarios a convertirse en el cerebro y corazón de la digitalización.”

    Innovación en hardware y software: “Nokia ofrece soluciones con menor consumo energético y software más estable para garantizar operación continua.”

    Importancia del software: “El 15% de los problemas en los Centros de Datos se debe a fallos en la configuración del software, lo que genera desperdicio de energía y reduce la eficiencia operativa.”

    Escasez de talento: “Uno de los mayores retos del sector es la falta de profesionales especializados en Centros de Datos.”

    Sustentabilidad: “Reducir el consumo energético y optimizar recursos es clave en el desarrollo de los Centros de Datos.”

    Ciberseguridad: “Nuestra tecnología es la menos vulnerable del mercado, con encriptación quantum-safe y protección contra ataques masivos DDoS.”

    Descentralización y soberanía de datos: “El resguardo de datos dentro de un país es cada vez más relevante por motivos estratégicos y regulatorios.”

    Mensaje a los gobiernos: “La infraestructura digital es clave para la competitividad nacional y debe ser una prioridad en las estrategias de desarrollo económico.”

    Importancia estratégica: “Sin Centros de Datos, no hay Internet ni conectividad. Son el corazón de la digitalización y estratégicos para un país.”

    Ventaja competitiva: “El país que logre adelantarse en infraestructura de Centros de Datos tendrá una ventaja estratégica por años.”

    Fuente.

    DPL News (2025, 19 de marzo). La nación que se adelante en Centros de Datos tendrá una ventaja competitiva: Carlos Barroso de Nokia. Recuperado el 19 de marzo de 2025, de: https://dplnews.com/la-nacion-que-se-adelante-en-centros-de-datos-tendra-una-ventaja-competitiva-carlos-barroso-de-nokia/

  • xAI adquiere Hotshot, una startup de generación de video

    xAI adquiere Hotshot, una startup de generación de video

    La compañía xAI, fundada por Elon Musk, adquirió Hotshot, una startup enfocada en la generación de videos a partir de texto.

    Esta adquisición sugiere un futuro en el que la generación de videos a partir de texto podría integrarse en la plataforma X. Aunque esta funcionalidad, en un principio, podría estar limitada a los suscriptores de pago de la red social, impulsando así su modelo de negocio.

    Hotshot ha desarrollado tres modelos avanzados de generación de video: Hotshot-XL, Hotshot Act One y Hotshot. De acuerdo con Akash Sastry, director ejecutivo, “estos modelos ofrecen un adelanto del futuro en ámbitos como la educación, el entretenimiento y la comunicación. Sin embargo, con la adquisición, la plataforma ha deshabilitado la opción de generar nuevos videos y ha dado plazo hasta el 30 de marzo de 2025 para que los usuarios descarguen sus creaciones”, aseguró en su cuenta de X.

    “Nos entusiasma seguir ampliando estos esfuerzos en Colossus, el clúster más grande del mundo, como parte de xAI”, han subrayado los directivos en este escrito, donde han agradecido a desarrolladores, inversores y clientes por acompañarlos en “este viaje”.

    Por el momento no se conocen detalles del costo total de la transacción.

    Fuente.

    DPL News (2025, 18 de marzo). xAI adquiere Hotshot, una startup de generación de video. Recuperado el 19 de marzo de 2025, de: https://dplnews.com/xai-adquiere-hotshot-startup-de-generacion-de-video/