Author: admin

  • Microsoft dota a los agentes empresariales de un razonamiento profundo y presenta un agente analista de datos que supera a los competidores

    Microsoft dota a los agentes empresariales de un razonamiento profundo y presenta un agente analista de datos que supera a los competidores

    Microsoft ha creado el ecosistema de agentes de inteligencia artificial empresarial más grande y ahora está ampliando su liderazgo con nuevas y poderosas capacidades que posicionan a la empresa por delante en uno de los segmentos más emocionantes de la tecnología empresarial.

    La compañía anunció el martes por la noche dos importantes novedades en su plataforma Copilot Studio: capacidades de razonamiento profundo que permiten a los agentes abordar problemas complejos mediante un pensamiento metódico y cuidadoso, y flujos de agentes que combinan la flexibilidad de la IA con la automatización determinista de procesos de negocio. Microsoft también presentó dos agentes especializados en razonamiento profundo para Microsoft 365 Copilot: Researcher y Analyst.

    “Ya tenemos clientes con miles de agentes”, declaró Charles Lamanna, vicepresidente corporativo de negocios e industria de Microsoft, en una entrevista exclusiva con VentureBeat el lunes. “Empiezas a tener este tipo de fuerza laboral con agentes, donde, sin importar el trabajo, probablemente tengas un agente que te ayude a completarlo más rápido”.

    El agente analista distintivo de Microsoft

    Si bien el agente Researcher replica las capacidades de competidores como Deep Research de OpenAI y Google, el agente Analyst de Microsoft ofrece una oferta más diferenciada. Diseñado para funcionar como un científico de datos personal, el agente Analyst puede procesar diversas fuentes de datos, como archivos de Excel, CSV y tablas incrustadas en documentos, generando información mediante la ejecución y visualización de código.

    “Este no es un modelo básico listo para usar”, enfatizó Lamanna. “Requiere bastantes extensiones, ajustes y capacitación sobre los modelos principales”. Microsoft ha aprovechado su profundo conocimiento de los flujos de trabajo de Excel y los patrones de análisis de datos para crear un agente que se adapta a la forma en que los usuarios empresariales trabajan con los datos.

    El analista puede generar automáticamente código Python para procesar los archivos de datos cargados, crear visualizaciones y proporcionar información empresarial sin necesidad de conocimientos técnicos por parte de los usuarios. Esto lo hace especialmente valioso para análisis financieros, previsiones presupuestarias e informes operativos que suelen requerir una preparación exhaustiva de los datos.

    Razonamiento profundo: Llevando el pensamiento crítico a los agentes empresariales

    La capacidad de razonamiento profundo de Microsoft amplía las capacidades de los agentes más allá de la simple realización de tareas, abarcando juicios complejos y trabajo analítico. Al integrar modelos de razonamiento avanzado como o1 de OpenAI y conectarlos con datos empresariales, estos agentes pueden abordar problemas empresariales ambiguos de forma más metódica.

    El sistema determina dinámicamente cuándo invocar un razonamiento más profundo, ya sea implícitamente según la complejidad de la tarea o explícitamente cuando los usuarios incluyen indicaciones como “razona sobre esto” o “piensa detenidamente en esto”. Tras bambalinas, la plataforma analiza las instrucciones, evalúa el contexto y selecciona las herramientas adecuadas según los requisitos de la tarea.

    Esto permite escenarios que antes eran difíciles de automatizar. Por ejemplo, una gran empresa de telecomunicaciones utiliza agentes de razonamiento profundo para generar respuestas complejas a solicitudes de propuestas (RFP) mediante la recopilación de información de múltiples documentos internos y fuentes de conocimiento, según explicó Lamanna a VentureBeat. De igual manera, Thomson Reuters emplea estas capacidades para la debida diligencia en las revisiones de fusiones y adquisiciones, procesando documentos no estructurados para identificar información valiosa, añadió.

    Flujos de agentes: reimaginando la automatización de procesos

    Microsoft también ha introducido flujos de agentes, que evolucionan eficazmente la automatización robótica de procesos (RPA) al combinar flujos de trabajo basados ​​en reglas con razonamiento de IA. Esto responde a la demanda de los clientes de integrar lógica de negocio determinista con capacidades flexibles de IA.

    “A veces no quieren que el modelo se adapte a sus necesidades. No quieren que la IA tome sus propias decisiones. Quieren tener reglas de negocio predefinidas”, explicó Lamanna. “Otras veces sí quieren que el agente se adapte a sus necesidades y tome sus propias decisiones”.

    Este enfoque híbrido permite escenarios como la prevención inteligente de fraude, donde un flujo de agentes puede usar lógica condicional para enrutar solicitudes de reembolso de mayor valor a un agente de IA para un análisis profundo en comparación con los documentos de póliza.

    Pets at Home, una empresa británica de venta de artículos para mascotas, ya ha implementado esta tecnología para la prevención del fraude. Lamanna reveló que la empresa ha ahorrado más de un millón de libras gracias a la implementación. De igual forma, Dow Chemical ha logrado ahorrar millones de dólares en la gestión del transporte y la carga gracias a la optimización basada en agentes.

    La ventaja de Microsoft Graph

    Un elemento central de la estrategia de agentes de Microsoft es la integración de datos empresariales mediante Microsoft Graph, un mapeo completo de las relaciones laborales entre personas, documentos, correos electrónicos, eventos de calendario y datos empresariales. Esto proporciona a los agentes una comprensión contextual de la que carecen los modelos genéricos. 

    “La capacidad secreta menos conocida del gráfico de Microsoft es que podemos mejorar la relevancia en el gráfico según la interacción y la estrecha conexión de algunos archivos”, reveló Lamanna. El sistema identifica qué documentos son los más referenciados, compartidos o comentados, lo que garantiza que los agentes consulten fuentes fidedignas en lugar de copias obsoletas.

    Este enfoque otorga a Microsoft una importante ventaja competitiva sobre los proveedores de IA independientes. Si bien la competencia puede ofrecer modelos avanzados, Microsoft los combina con el contexto del entorno de trabajo y un ajuste preciso, optimizado específicamente para casos de uso empresariales y herramientas de Microsoft.

    Microsoft puede aprovechar la misma tecnología de datos y modelos web que la competencia, señaló Lamanna, «pero además tenemos todo el contenido dentro de la empresa». Esto crea un efecto de rueda de inercia donde cada nueva interacción con un agente enriquece aún más la comprensión gráfica de los patrones del lugar de trabajo.

    Adopción y accesibilidad empresarial

    Microsoft ha priorizado que estas potentes capacidades sean accesibles para organizaciones con diversos recursos técnicos, afirmó Lamanna. Los agentes se exponen directamente en Copilot, lo que permite a los usuarios interactuar mediante lenguaje natural sin necesidad de conocimientos técnicos de ingeniería.

    Mientras tanto, Copilot Studio ofrece un entorno de bajo código para el desarrollo de agentes personalizados. “Está en nuestra esencia tener una herramienta para todos, no solo para quienes pueden iniciar un SDK de Python y realizar llamadas, sino para que cualquiera pueda empezar a desarrollar estos agentes”, enfatizó Lamanna.

    Este enfoque de accesibilidad ha impulsado una rápida adopción. Microsoft reveló previamente que más de 100.000 organizaciones han utilizado Copilot Studio  y que  se crearon más de 400.000 agentes en el último trimestre .

    El panorama competitivo

    Si bien Microsoft parece liderar la implementación de agentes empresariales hoy en día, la competencia se intensifica. Google ha ampliado sus capacidades de Gemini para agentes y codificación agentística , mientras que el modelo o1 de OpenAI y el SDK de agentes ofrecen potentes herramientas de razonamiento y agentística para desarrolladores . Grandes empresas de aplicaciones empresariales como Salesforce, Oracle, ServiceNow, SAP y otras han lanzado plataformas agentísticas para sus clientes durante el último año. Además, el martes, AWS de Amazon lanzó un agente de IA, llamado Amazon Q en Quicksight, que permite a los empleados interactuar mediante lenguaje natural para realizar análisis de datos sin necesidad de habilidades especializadas.

    Los empleados pueden usar lenguaje natural para realizar análisis de datos a nivel experto, hacer preguntas hipotéticas y obtener recomendaciones prácticas, lo que les ayuda a descubrir nuevos conocimientos y tomar decisiones más rápido.

    Sin embargo, la ventaja de Microsoft reside en su enfoque más integral: una sólida colaboración con OpenAI, la empresa líder en modelos de razonamiento, que a la vez ofrece opciones de modelos, una infraestructura de nivel empresarial, una amplia integración de datos en las herramientas del entorno de trabajo y un enfoque en los resultados empresariales, en lugar de en las capacidades puras de IA. Microsoft ha creado un ecosistema que se asemeja a las mejores prácticas al combinar copilotos personales que comprenden los patrones de trabajo individuales con agentes especializados para procesos empresariales específicos.

    Para los responsables de la toma de decisiones empresariales, el mensaje es claro: la tecnología de agentes ha evolucionado más allá de la experimentación, convirtiéndose en aplicaciones empresariales prácticas con un retorno de la inversión (ROI) medible. La elección de la plataforma depende cada vez más de la integración con las herramientas y los datos existentes. En este ámbito, Microsoft cuenta con una ventaja en muchas áreas de aplicación gracias a su número de usuarios, por ejemplo, en Excel y Power Automate.

    Fuente.

    VentureBeat (2025, 25 de marzo). Microsoft dota a los agentes empresariales de un razonamiento profundo y presenta un agente analista de datos que supera a los competidores. Recuperado el 26 de marzo de 2025, de: https://venturebeat.com/ai/microsoft-infuses-enterprise-agents-with-deep-reasoning-unveils-data-analyst-agent-that-outsmarts-competitors/

  • Científica recomienda fortalecer el vínculo entre investigación e industria

    Científica recomienda fortalecer el vínculo entre investigación e industria

    Alejandra López Suárez, experta en la interacción de radiación con materia y sus aplicaciones, resaltó que comprender la mecánica cuántica es esencial para trabajar con semiconductores, ya que estos materiales dependen de principios cuánticos para su funcionamiento y me interesa modificar las propiedades de los semiconductores para hacerlos más eficientes.

    Los semiconductores, materiales que tienen una conductividad eléctrica intermedia entre los conductores y los aislantes, son la base de la tecnología moderna, desde los paneles solares hasta las computadoras.

    En entrevista, la científica mencionó que un dopaje químico es un proceso mediante el cual se introducen impurezas controladas para modificar las propiedades eléctricas de un semiconductor. Los niveles de energía y la movilidad de los electrones en un semiconductor están gobernados por principios cuánticos. Entendiendo eso, puedo modificar el material para que absorba más luz y la convierta en energía de manera más eficiente.

    Otra forma de dopar los semiconductores para modificar sus propiedades físicas es la implantación iónica. Esta técnica se caracteriza por alterar la estructura del material al impactarlo con iones positivos. La gran ventaja de esta técnica es que se tiene gran control de la zona del semiconductor que se dopará, debido a que la energía de los partículas ionizantes se relaciona de manera directa con la profundidad a la cual se depositan los iones implantados.

    Añadió que otra particularidad de la radiación ionizante, que incluye rayos X, rayos gamma, iones positivos, partículas beta y neutrones, es que poseen suficiente energía para arrancar electrones de los átomos del semiconductor o producir defectos en la estructura cristalina al interactuar con los núcleos de los átomos que forman el material.

    Aquí, la mecánica cuántica es clave porque determina cómo los electrones, los núcleos o los átomos del material responden a la radiación ionizante. En la actualidad, López Suárez analiza muestras de trióxido de tungsteno, un material electrocrómico, que cambian de color al pasar una corriente a través de ellos. Estos materiales se utilizan en ventanas o vidrios inteligentes, y funcionan de manera similar a las máscaras que aparecen en las series policiales, donde al activarlas se puede ver a través de ellas y al desactivarlas se vuelven opacas.

    Queremos ver si mediante la radiación ionizante podemos modificar la estructura del material para optimizar su funcionamiento. Aquí también está presente la mecánica cuántica, pues en este tipo de materiales se producen ciertas reacciones que modifican sus bandas de energía al interactuar con la luz visible.

    Para la científica, modificar semiconductores con radiación ionizante y con conocimientos de mecánica cuántica es similar a la repostería. Si tenemos un pastel de vainilla, pero en realidad queremos uno de chocolate, en lugar de preparar otro pastel, le implantamos pedacitos de cacao al pastel de vainilla y lo sometemos a un tratamiento térmico, u horneado, hasta que se transforme en un panqué de chocolate.

    López Suárez considera que en un futuro el gran reto es utilizar estos conocimientos para desarrollar semiconductores más eficientes, pequeños y sustentables. Pero también destaca la importancia de acercar la mecánica cuántica a más personas y fortalecer el vínculo entre la investigación básica y la industria.

    Entender la mecánica cuántica nos permite diseñar materiales con mejores propiedades, y eso tiene un impacto directo en la tecnología que usamos todos los días.

    En su cubículo del Instituto de Física de la UNAM, Alejandra López tiene un pequeño gato de trapo, el cual tomó con cuidado de su escritorio y lo colocó dentro de una caja. Ahora mismo, este gato puede estar vivo y muerto al mismo tiempo, expresó con una sonrisa, cerrando la tapa.

    La paradoja del gato de Schrödinger, ideada por el físico austriaco Erwin Schrödinger en 1935, es uno de los experimentos mentales más famosos de la física cuántica. Ilustra el fenómeno de superposición cuántica, una propiedad que desafía la intuición clásica: en el mundo cuántico, una partícula puede existir en múltiples estados a la vez hasta que es observada.

    En el Año Internacional de la Ciencia y la Tecnología Cuántica, este principio sigue desafiando nuestra comprensión del universo y allanando el camino para avances como la computación cuántica y la criptografía ultrasegura. También es fundamental en el desarrollo de tecnologías más eficientes, como los semiconductores, un campo en el que López Suárez se ha especializado.

    A lo largo de su experiencia profesional, la investigadora ha trabajado en diferentes áreas de la física. Durante su doctorado estudió cómo se absorbe el hidrógeno en metales para crear hidruros metálicos, que serán la base de las pilas de combustible a partir de hidrógeno; y cómo la radiación ionizante puede modificar estos materiales para hacerlos más eficientes.

    Fuente.

    La Jornada (2025, 26 de marzo). Científica recomienda fortalecer el vínculo entre investigación e industria. Recuperado el 26 de marzo de 2025, de: https://www.jornada.com.mx/noticia/2025/03/26/ciencias/cientifica-recomienda-fortalecer-el-vinculo-entre-investigacion-e-industria

  • Tencent afirma que su nuevo modelo de razonamiento es más rápido que DeepSeek

    Tencent afirma que su nuevo modelo de razonamiento es más rápido que DeepSeek

    Este nuevo modelo supera en velocidad de procesamiento al R1, desarrollado por su competidor DeepSeek.

    El gigante tecnológico Tencent presentó oficialmente su modelo de razonamiento T1, marcando un nuevo hito en el creciente panorama competitivo de la Inteligencia Artificial (IA) en China.

    En un anuncio hecho por su cuenta de WeChat, Tencent destacó las mejoras clave de esta versión: tiempos de respuesta más rápidos y una mayor capacidad para manejar documentos extensos con eficiencia.

    La empresa aseguró que el modelo T1 está diseñado para mantener una lógica clara en el contenido y generar textos estructurados y ordenados, todo mientras reduce significativamente la probabilidad de errores conceptuales o “alucinaciones”.

    Estas características, según Tencent, posicionan al T1 como una herramienta avanzada en el ámbito de la IA, adaptada a las crecientes demandas del mercado.

    Este lanzamiento tiene lugar en un contexto de mayor rivalidad en la industria, especialmente tras la aparición de los modelos desarrollados por DeepSeek, competidores que han demostrado rendimientos comparables o superiores a los sistemas occidentales a costes más bajos.

    Tencent había lanzado previamente una versión preliminar de su modelo T1 en diversas plataformas, incluida la aplicación de asistente de IA Yuanbao, y ahora introduce esta versión oficial con mejoras significativas.

    Se trata de Hunyuan Turbo S, que es capaz de responder a las consultas en apenas un segundo. Esto hace una gran diferencia frente a sus competidores, como DeepSeek R1 y otros modelos lanzados recientemente, pues estos tardan un poco más en responder, de acuerdo con Tencent.

    La versión definitiva del T1 funciona con la tecnología del modelo Turbo S, el cual fue revelado por Tencent en días pasados.

    Este modelo más reciente, de acuerdo con la compañía, supera en velocidad de procesamiento al R1, desarrollado por su competidor DeepSeek. Un gráfico compartido en el comunicado compara el T1 con el R1, mostrando que Tencent lidera en varios puntos de referencia relacionados con el conocimiento y el razonamiento.

    Tencent ha aumentado notablemente sus inversiones en el sector de la Inteligencia Artificial en los últimos meses.

    La compañía anunció recientemente su intención de incrementar el gasto de capital en 2025, consolidando su enfoque en esta área tras un agresivo plan de inversión en 2024.

    Con este impulso, Tencent busca mantenerse a la vanguardia en un mercado de IA cada vez más competitivo y estratégico.

    Fuente.

    DPL News (2025, 25 de marzo). Tencent afirma que su nuevo modelo de razonamiento es más rápido que DeepSeek. Recuperado el 25 de marzo de 2025, de: https://dplnews.com/tencent-modelo-de-razonamiento-mas-rapido-que-deepseek/

  • 43% de nuevos centros de datos en México estará destinado a inteligencia artificial: expertos

    43% de nuevos centros de datos en México estará destinado a inteligencia artificial: expertos

    El crecimiento de la IA impulsa la infraestructura de centros de datos en el país, lo que provocará un aumento en la demanda de ancho de banda y de la capacidad de interconexión, según miembros de la industria de centros de datos.

    El crecimiento de las cargas de trabajo de inteligencia artificial (IA) impulsa una transformación en la infraestructura de los centros de datos en México y en el mundo.

    Un estudio realizado por Ciena y Censuswide muestra que 43% de las nuevas instalaciones de centros de datos en el país tendrá que estar destinado a soportar cargas de trabajo de IA, lo que refleja una tendencia global hacia el aumento del ancho de banda y la capacidad de interconexión entre centros de datos (DCI, Data Center Interconnect).

    Crecimiento de la demanda

    La encuesta, realizada a más de 1,300 responsables de la toma de decisiones en centros de datos de 13 países, destaca que 53% de los expertos considera que la IA será la mayor fuente de demanda de infraestructura DCI en los próximos 2 a 3 años, por encima de la computación en la nube (51%) y el análisis de big data (44%).

    Según el estudio, 79% de los expertos en centros de datos en México prevé un incremento de al menos seis veces en la demanda de ancho de banda de interconexión de centros de datos en los próximos cinco años. Este crecimiento se debe a la necesidad de mayor capacidad de transmisión de datos para el entrenamiento y la inferencia de modelos de IA.

    A nivel global, 87% de los encuestados cree que necesitará un ancho de banda de 800 Gb/s o más por longitud de onda para satisfacer las crecientes exigencias de interconexión. En el caso de México, este porcentaje es idéntico, lo que indica que el país está alineado con las tendencias globales en cuanto a requerimientos de infraestructura para IA.

    Brasil

    Brasil, uno de los principales mercados de centros de datos en América Latina, muestra un crecimiento aún más acelerado en la adopción de infraestructura para IA. Según el estudio, 46% de los nuevos centros de datos en el país estarán enfocados en cargas de trabajo de IA, superando a México en tres puntos porcentuales.

    El 74% de los expertos brasileños anticipa que la demanda de ancho de banda de interconexión de centros de datos crecerá al menos seis veces en los próximos cinco años. Además, 91% cree que se necesitarán 800 Gb/s o más por longitud de onda para satisfacer las necesidades del sector.

    Desafíos para el sector

    A pesar del crecimiento del sector, la Asociación Mexicana de Data Centers (MexDC) advierte que el acceso a la energía y la falta de coordinación entre los distintos niveles de gobierno podrían comprometer futuras inversiones en centros de datos en México. La industria proyecta inversiones directas por 9,200 millones de dólares y una inversión indirecta de 27,500 millones de dólares hasta 2029. Sin embargo, para concretarlas, se requiere un suministro eléctrico adicional de al menos 1,200 megawatts.

    Actualmente, la capacidad disponible para los centros de datos en México es de 300 megawatts, aunque la industria estima que será necesario alcanzar 1,500 megawatts o 1.5 gigawatts para atender la demanda proyectada en los próximos cinco años.

    La MexDC ha reconocido los esfuerzos del gobierno mexicano para expandir la capacidad de generación y transmisión de energía, pero enfatiza la necesidad de actualizar el marco regulatorio para crear condiciones favorables a la inversión.

    Desde 2019, la industria de centros de datos ha experimentado un crecimiento significativo en México, con Querétaro y la región del Bajío como puntos clave de desarrollo. Empresas como AWS, Google y OData han invertido en esta zona, generando la concentración de al menos 15 compañías del sector en los últimos años. No obstante, el crecimiento de la demanda ha superado la capacidad de infraestructura eléctrica existente, lo que ha llevado a las empresas a solicitar permisos para aumentar la capacidad disponible.

    Para lograr la meta de 70 nuevos centros de datos hacia 2029, se estima que será necesaria una inversión en infraestructura eléctrica de al menos 8,800 millones de dólares. Sin una estrategia coordinada entre los distintos niveles de gobierno, los retrasos en la autorización de infraestructura podrían afectar el avance de estos proyectos, lo que a su vez afectaría el desarrollo de aplicaciones de Inteligencia Artificial.

    Fuente.

    El Economista (2025, 18 de marzo). 43% de nuevos centros de datos en México estará destinado a inteligencia artificial: expertos. Recuperado el 25 de marzo de 2025, de: https://www.eleconomista.com.mx/tecnologia/43-nuevos-centros-datos-mexico-estara-destinado-inteligencia-artificial-expertos-20250318-750967.html

  • Es tiempo de mujeres en ciberseguridad, romper barreras y liderar la protección: Diana González de Akamai

    Es tiempo de mujeres en ciberseguridad, romper barreras y liderar la protección: Diana González de Akamai

    En un sector tradicionalmente dominado por varones, la ciberseguridad enfrenta el reto de abrir más espacios para las mujeres y garantizar que su participación aumente e influya en la toma de decisiones estratégicas en el sector digital. En entrevista exclusiva con DPL News en el marco del 8M, Diana González, Senior Service Line Manager de Akamai Technologies para América, subrayó la necesidad de fomentar la equidad de género desde la educación temprana hasta la incorporación de mujeres en roles de liderazgo tecnológico.

    “La falta de representación femenina en posiciones de liderazgo y toma de decisiones perpetúa una cultura predominantemente masculina en la ciberseguridad porque las mujeres ocupan un menor porcentaje de los puestos directivos dentro de la industria. Es fundamental impulsar a las mujeres desde pequeñas para romper las barreras y puedan especializarse en las Tecnologías de la Información”, afirmó González.

    La especialista de Akamai destacó que la brecha de género en la ciberseguridad no se debe a la falta de talento femenino. Existe una cultura arraigada que limita las oportunidades para las mujeres en la industria. Según la experta, para desmantelar estos sesgos es fundamental visibilizar a las mujeres que ya están en el sector y generar espacios de mentoría y capacitación.

    “Debemos romper los estigmas de género respecto a las carreras especializadas en las Tecnologías de la Información y Comunicación, para lo cual es esencial visibilizar el trabajo que las mujeres han desarrollado en este campo, lo cual puede funcionar como un punto de partida para nuevas generaciones”, explicó.

    Enfatizó que las empresas, gobiernos y universidades deben adoptar estrategias para atraer y retener talento femenino en STEM (ciencia, tecnología, ingeniería y matemáticas). Entre ellas, mencionó programas de formación permanente en ciberseguridad, ambientes laborales inclusivos y procesos de selección equitativos.

    Inteligencia Artificial y género: un arma de doble filo

    Otro de los temas que preocupa a la experta es el entrenamiento de los modelos de Inteligencia Artificial (IA) y la perpetuación de desigualdades de género y la ciberseguridad. González alertó sobre cómo los algoritmos pueden amplificar sesgos existentes si no se diseñan con un enfoque de equidad.

    “El problema de los sesgos en IA radica en los datos con los que se entrenan los modelos y en los prejuicios conscientes e inconscientes de quienes los desarrollan”, advirtió. Para mitigar este riesgo, recomendó “diversificar los equipos de desarrollo de IA”, auditar algoritmos con criterios de equidad y asegurar una supervisión constante de los sesgos.

    Un mensaje para las mujeres en ciberseguridad

    Para González, la ciberseguridad necesita diversidad de pensamiento y talento, y su mensaje para las mujeres interesadas en este campo es claro:

    “No tengan miedo de llegar a roles técnicos o de liderazgo. La industria necesita su talento. Confíen en sus capacidades y busquen oportunidades de apoyo y mentoría con otras mujeres y organizaciones del sector.”

    El camino hacia la equidad en ciberseguridad sigue siendo un desafío, pero expertos como Diana González refuerzan la importancia de la inclusión y el impacto positivo de sumar más mujeres a la protección del mundo digital.

    Fuente.

    DPL News (2025, 18 de marzo). Es tiempo de mujeres en ciberseguridad, romper barreras y liderar la protección: Diana González de Akamai. Recuperado el 25 de marzo de 2025, de: https://dplnews.com/es-tiempo-de-mujeres-en-ciberseguridad-romper-barreras-y-liderar-la-proteccion-diana-gonzalez-de-akamai/

  • Chips cerebrales, el dilema de la Inteligencia Artificial en el pensamiento humano

    Un paciente con esclerosis lateral amiotrófica (ELA) logró comunicarse con un 97 por ciento de precisión utilizando sólo su mente. Se trata de Casey Harrell, un hombre de 45 años de edad que participó en un estudio de la Universidad de California en Davis (UC Davis Health). En julio de 2023, los investigadores le implantaron sensores en el cerebro que permitieron traducir sus señales cerebrales en habla, alcanzando una precisión del 97.5 por ciento y una velocidad de comunicación de 32 palabras por minuto.

    Como en el caso de Davis, la Inteligencia Artificial (IA) está redefiniendo la relación entre la tecnología y el cerebro humano. Sin embargo, mientras estas innovaciones abren nuevas posibilidades médicas y mejoran la calidad de vida de las personas, también generan profundas preocupaciones éticas y sociales si se considera la idea de tener un chip implantado en el cerebro.

    Una de las tecnologías de mayor desarrollo es la de interfaces cerebro-computadora (BCI, por sus siglas en inglés), que permite a los pacientes controlar dispositivos mediante señales cerebrales.

    Neuralink, la firma de Elon Musk, ha invertido más de mil 100 millones de dólares en implantes cerebrales, realizando ensayos en humanos para ayudar a personas con parálisis a recuperar la movilidad y la comunicación. Y recientemente anunció que su primer voluntario humano pudo mover un cursor en una pantalla con su mente.

    El hecho fue considerado un hito, debido a que acerca a la humanidad hacia un futuro en el que es posible manejar las cosas con la mente y mejorar la comunicación y la calidad de vida de personas con movilidad reducida.

    Por otro lado, si una persona sin condiciones de movilidad reducida se implementara un chip de este tipo, el impacto podría ir mucho más allá de la medicina. Esta tecnología podría mejorar la velocidad de procesamiento mental, optimizar la memoria o incluso permitir la interacción directa con dispositivos digitales sin necesidad de pantallas o teclados.

    Esta posibilidad plantea dilemas sobre si se convertiría en una herramienta exclusiva para quienes puedan pagarla, generando una brecha cognitiva entre quienes la usen y quienes no. Además, si la IA integrada en el cerebro optimiza la toma de decisiones o la creatividad, surgiría un debate sobre la autenticidad del pensamiento humano.

    Pero no es el único uso que se le da a la IA en chips biológicos. Atlas Celular, un proyecto internacional para describir todos los tipos de células del cuerpo humano, ha mapeado diversas células del humano utilizando herramientas avanzadas de IA. Esta iniciativa de biología celular podría revolucionar la medicina al ofrecer una referencia sin precedentes para el estudio de enfermedades y la personalización de tratamientos.

    “Atlas Celular te muestra detalles sobre lugares, te proporcionará detalles sobre las células y sus funciones; porque aunque cada célula de nuestro cuerpo contiene el mismo ADN, las diferentes células usan diferentes partes de este, y por eso la célula sanguínea no es nerviosa y viceversa”, explica National Geographic.

    Con herramientas de IA, los científicos analizan cantidades masivas de datos celulares con mayor precisión y agilidad. Los algoritmos avanzados pueden identificar patrones celulares y predecir el comportamiento de ciertas enfermedades a nivel molecular, facilitando la detección temprana de condiciones como el cáncer. Además, la combinación de IA con técnicas de edición genética CRISPR (Clustered Regularly Interspaced Short Palindromic Repeats), abre la posibilidad de diseñar terapias personalizadas que modifiquen células defectuosas antes de que provoquen enfermedades en las personas.

    De nuevo, si se trata de una persona con posibilidad de modificar sus células sin fines médicos, es posible que se desarrollen facultades físicas que nuevamente pueden ser inquietantes. Por ejemplo, podría optimizar su metabolismo para aumentar la resistencia física, ralentizar el envejecimiento o incluso mejorar habilidades cognitivas como la memoria y el aprendizaje, creando una nueva generación de “humanos mejorados”.

    Esta posibilidad dirige una vez más las preocupaciones hacia quiénes podrían acceder a este tipo de tecnología y quiénes no.

    Implicaciones éticas de la IA en chips cerebrales y células

    A pesar de los beneficios de la incorporación de IA en el cerebro humano, también es una posibilidad que plantea importantes cuestiones éticas.

    El neurocientífico Rafael Yuste ha advertido sobre la posibilidad de una fractura en la humanidad, donde algunos individuos tengan ventajas cognitivas gracias a implantes tecnológicos, mientras que otros no.

    Si la IA permite aumentar la memoria, la velocidad de procesamiento mental o incluso la capacidad de aprendizaje a través de neurotecnología, esto podría crear una “fractura en la humanidad”, donde unos pocos tendrían ventajas significativas sobre el resto. Este tipo de desigualdad podría generar una nueva forma de brecha social y aumentar las desigualdades económicas.

    La falta de regulación y la necesidad de principios éticos que garanticen estos avances es vital para contribuir con la mejora de la calidad de vida de las personas que lo requieren, sin generar nuevas formas de exclusión social para quienes no lo necesitan pero pueden acceder.

    Por otro lado, los chips cerebrales ponen la lupa en la importancia de la privacidad mental. A medida que la tecnología permite leer y decodificar pensamientos, surge el riesgo de que empresas y/o gobiernos puedan acceder a información altamente sensible.

    La Organización de las Naciones Unidas (ONU) ha expresado su inquietud sobre la falta de regulaciones para proteger los derechos de las personas ante estos avances e insta a la creación de marcos internacionales que impidan su uso indebido.

    -Promoción de sistemas de Inteligencia Artificial seguros y fiables que beneficien al desarrollo sostenible para todos. La resolución insta a los Estados miembros y partes interesadas a abstenerse de utilizar sistemas de IA que no puedan operar conforme a las normas internacionales de derechos humanos o que representen riesgos indebidos para el disfrute de estos derechos y subraya que los mismos derechos que tienen las personas fuera de línea deben protegerse también en línea, incluso durante todo el ciclo de vida de los sistemas de la IA-, Asamblea General de la ONU.

    A estos derechos se debe incorporar el consentimiento informado, un proceso que permite a un paciente o participante de una investigación aceptar un procedimiento o intervención médica o científica con total conocimiento del procedimiento y los posibles efectos adversos.

    A esto se adhiere la integración IA en chips cerebrales y células que pueden enviar y recibir información directamente desde y hacia el cerebro, lo que abre la posibilidad de que sean vulnerables a hackeos. Un atacante podría interceptar, manipular o incluso borrar pensamientos, recuerdos o habilidades cognitivas adquiridas a través del implante.

    Además, si estas interfaces dependen de conexiones inalámbricas para actualizarse o comunicarse con otros dispositivos, podrían convertirse en objetivos de ciberataques masivos.

    La posibilidad de que una persona pierda el control de su propio implante debido a una vulnerabilidad de seguridad no sólo genera riesgos individuales, sino que también podría desencadenar crisis sociales si se utilizan fuera de marcos éticos o en entornos militares, políticos o empresariales sin regulación.

    En un mundo donde la tecnología avanza más rápido que las leyes, es crucial garantizar que los pacientes y posibles usuarios comprendan plenamente las implicaciones de integrar IA en su biología y cuestionar hasta qué punto un individuo puede decidir sobre modificaciones cerebrales que podrían alterar su personalidad o percepción del mundo.

    Fuente.

    DPL News (2025, 24 de marzo). Chips cerebrales, el dilema de la Inteligencia Artificial en el pensamiento humano. Recuperado el 25 de marzo de 2025, de: https://dplnews.com/chips-cerebrales-dilema-ia-en-el-pensamiento-humano/

  • GTC 2025- Anuncios y actualizaciones en directo

    GTC 2025- Anuncios y actualizaciones en directo

    Todas las noticias de la reunión más grande de NVIDIA del año, incluidos nuevos servicios y hardware, demostraciones de tecnología y lo que viene a continuación en IA.

    Lo que viene en IA está en GTC 2025. No solo la tecnología, sino también las personas y las ideas que impulsan la IA, creando nuevas oportunidades, soluciones innovadoras y formas de pensar completamente nuevas. Para todo eso, este es el lugar.

    Aquí encontrará las noticias, escuchar los debates, ver los robots y reflexionar sobre lo alucinante. Desde la conferencia principal hasta la sesión final, vuelva a visitarnos para ver la cobertura en vivo desde San José, California.

    Día Cuántico: El CEO de NVIDIA anuncia el Laboratorio de Computación Cuántica y NVIDIA Tech es clave para impulsar las innovaciones cuánticas, afirman los líderes de la industria 

    NVIDIA está profundizando en la computación cuántica con planes de abrir un laboratorio de investigación dedicado en Boston , anunció el jueves el fundador y director ejecutivo Jensen Huang al iniciar una serie de paneles en GTC con líderes de la industria.

    “Probablemente será el laboratorio de investigación de computación cuántica híbrida y acelerada más avanzado del mundo”, afirmó Huang.

    Los paneles del Día Cuántico inaugural de GTC destacaron el papel fundamental que desempeñará la computación acelerada en el avance de la tecnología naciente.

    Si bien las tecnologías y los enfoques del desarrollo cuántico varían, los panelistas coincidieron en que las GPU y los sistemas cuánticos trabajarán de la mano para lograr nuevos avances.

    El nuevo laboratorio de NVIDIA servirá como centro de colaboración con investigadores líderes de instituciones como la Universidad de Harvard y el Instituto Tecnológico de Massachusetts, entre otros.

    La instalación tiene como objetivo acelerar la innovación en la computación cuántica, un campo con enorme potencial para revolucionar industrias desde la criptografía hasta la ciencia de los materiales.

    El evento, moderado por Huang, incluyó tres paneles y una larga lista de empresas que desarrollan sistemas cuánticos. Entre los invitados se encontraban:

    • Alan Baratz, director ejecutivo de D-Wave
    • Ben Bloom, fundador y director ejecutivo de Atom Computing
    • John Levy, cofundador y director ejecutivo de SEEQC
    • Krysta Svore, miembro técnico de Microsoft
    • Loïc Henriet, director general de Pasqal
    • Matthew Kinsella, director ejecutivo de Infleqtion
    • Mikhail Lukin, profesor universitario Joshua y Beth Friedman en la Universidad de Harvard y cofundador de QuEra Computing
    • Pete Shadbolt, cofundador y director científico de PsiQuantum
    • Peter Chapman, presidente ejecutivo de IonQ
    • Rajeeb Hazra, presidente y director ejecutivo de Quantinuum
    • Rob Schoelkopf, cofundador y científico jefe de Quantum Circuits
    • Simone Severini, director general de tecnologías cuánticas en AWS
    • Subodh Kulkarni, director ejecutivo de Rigetti
    • Théau Peronnin, cofundador y director ejecutivo de Alice & Bob

    Hablaron sobre los avances de la computación cuántica para alcanzar números de dos dígitos de qubits lógicos, así como sobre los desafíos, como la necesidad de alcanzar qubits de tres dígitos para aplicaciones prácticas y escalar a millones de qubits en los próximos años.

    La IA está cambiando el juego, literalmente

    La IA está revolucionando los deportes en vivo, desbloqueando nuevas formas de involucrar a los fanáticos, optimizar las operaciones y mejorar el rendimiento de los jugadores, dijeron los líderes de la industria del deporte en un panel en GTC.

    “La IA ha estado presente en los deportes durante muchos años, pero [la industria] continúa siendo una de las primeras en adoptar las últimas innovaciones”, afirmó Sepi Motamedi, gerente sénior de marketing de productos de NVIDIA.

    Para la Liga Nacional de Hockey y LaLiga, la principal liga de fútbol de España, la IA no es solo una herramienta, sino un factor decisivo. LaLiga cuenta con cámaras en todos sus estadios, que recopilan más de 3 millones de puntos de datos por partido, según Javier Gil Fernández, responsable de implementación y desarrollo de IA en la liga.

    Mientras tanto, la NHL está probando el seguimiento óptico para capturar los movimientos esqueléticos de los jugadores. «La cantidad de datos es increíble y seguirá creciendo», afirmó Dave Lehanski, vicepresidente ejecutivo de desarrollo empresarial e innovación de la NHL.

    Más allá de los datos, la IA está transformando la experiencia de los fans. “¿No sería fantástico si la IA presentara automáticamente las historias de los partidos en tiempo real?”, preguntó Lehanski.

    El análisis de video impulsado por inteligencia artificial permitirá a los fanáticos buscar, resumir y revivir instantáneamente momentos clave.

    A medida que se profundiza la integración de la IA, la industria del deporte se enfrenta a desafíos, desde obstáculos legales hasta regulaciones. Pero algo está claro: «Si la industria comprende la IA y puede aprovecharla al máximo, estaremos listos para empezar», afirmó Fernández. El futuro del deporte es rápido, inteligente y está impulsado por la IA.

    Un miembro del Parlamento británico comparte la visión de la IA soberana del Reino Unido 

    La IA soberana (la capacidad de una nación para desarrollar e implementar IA utilizando infraestructura, conjuntos de datos y fuerza laboral nacionales) fue un tema clave en GTC, destacado en una cumbre de medio día encabezada por líderes gubernamentales y de la industria de países como Brasil, Dinamarca, India, Japón, Tailandia y el Reino Unido.

    En décadas y siglos pasados, la disponibilidad de recursos como el carbón, el petróleo y la electricidad “definía qué gobiernos y países crecían y cuáles no”, afirmó Peter Kyle, miembro del Parlamento británico y secretario de Estado de Ciencia, Innovación y Tecnología, en la cumbre. “Hoy nos encontramos en medio de otro cambio trascendental. Quién sobrevive y quién se hunde dependerá de la computación”.

    Kyle describió el Plan de Acción de Oportunidades de IA del Reino Unido, que apunta a expandir la capacidad computacional para la investigación de IA al menos 30 veces para 2030 y transformará instalaciones y terrenos actualmente no utilizados para desarrollar centros de datos para construir modelos de IA entrenados en los ricos conjuntos de datos del país en atención médica y otros dominios.

    La supercomputadora Isambard-AI del gobierno del Reino Unido, que cuenta con 5448 superchips NVIDIA GH200 Grace Hopper para ofrecer un impresionante rendimiento de IA de 21 exaflops , representa el progreso ya alcanzado hacia los objetivos soberanos de IA del país. Con la aparición de la nueva ley de escalado en tiempo de prueba para el desarrollo de la IA, señaló Kyle, hay mucho más por delante.

    “La computadora es tan buena como las personas que la usan y los datos que se introducen en ella”, dijo Kyle. “Abordar los grandes desafíos que definirán el siglo venidero requerirá algo más que capacidad bruta. Construir computadoras más grandes o más rápidas simplemente no es suficiente; en la era de la computación, los estados también deben construir de forma más inteligente”.

    Máquinas lunares impulsadas por NVIDIA Omniverse para explorar la superficie lunar

    A lo largo del accidentado y accidentado paisaje de la luna, una flota coordinada de máquinas autónomas (drones, excavadoras y transportadores) navega sin problemas por el duro vacío del espacio, trabajando en sincronía para mapear, extraer y transportar recursos valiosos.

    Este concepto para el futuro de la exploración lunar fue expuesto por Lutz Richter, un experto en robótica espacial, en una cautivadora presentación en GTC.

    Richter, en representación de SoftServe, proveedor líder de consultoría de TI y servicios digitales, describió cómo su equipo ayudó a simular y modelar este sistema multirrobot utilizando la plataforma NVIDIA Omniverse para IA física. «Creemos que el espacio se beneficiará enormemente de las herramientas avanzadas de simulación y modelado que ofrece Omniverse», afirmó Richter.

    Los drones rastrearían la superficie lunar, utilizando sensores de alta resolución para identificar regiones de interés para la extracción de hielo. La excavadora terrestre excavaría meticulosamente en el regolito, con la avanzada simulación de mecánica de suelos de SoftServe optimizando el proceso de desenterrar los depósitos de hielo. Una vez cargada, el vehículo de transporte transportaría la carga de vuelta al puesto lunar.

    Richter también presentó el trabajo de SoftServe, que simula la capacidad de los drones para explorar cuevas lunares. Los drones utilizan localización y mapeo visual simultáneo en tiempo real para navegar por el complejo terreno y cartografiar las posibles reservas de hielo ocultas en su interior.

    Al integrar la robótica con las poderosas herramientas de simulación y colaboración de Omniverse, SoftServe impulsa un enfoque innovador para la exploración de recursos lunares.

    En el Pabellón XR, ubicado en el centro de ciencia y tecnología Tech Interactive, los asistentes a GTC exploraron demostraciones inmersivas de gemelos digitales, renderizado 3D y experiencias de realidad virtual. Si las frecuentes sonrisas y exclamaciones de “¡Guau!” son un indicio de hacia dónde se dirigen estas tecnologías de IA visual, hay mucho que esperar.

    Expertos en robótica debaten sobre las perspectivas para los humanoides

    Dirigiéndose a una multitud en el Centro Cívico de San José, un panel de ejecutivos de la industria robótica analizaron el desarrollo de robots humanoides y lo que depara el futuro para convertirlos en realidad para los consumidores.

    Los panelistas discutieron el papel de los modelos de lenguaje de gran tamaño, la simulación y las mejoras en el hardware robótico para ayudar al desarrollo de robots humanoides especializados.

    “Contamos con algunos de los fundadores más extraordinarios en algunos de los mejores hardware robóticos que he visto”, afirmó Jim Fan, científico investigador principal y gerente sénior de investigación de NVIDIA. “Creo que el hardware se ha vuelto mucho mejor y mucho más económico”.

    Aaron Saunders, director de tecnología de Boston Dynamics, afirmó que las simulaciones basadas en la física han sido pioneras en el campo de la robótica. «Cerrar la brecha entre la simulación y la realidad es un gran logro», afirmó.

    El aprendizaje basado en la experiencia es el principal cambio que se ha producido en la robótica, señaló Deepak Pathak, cofundador y director ejecutivo de Skild AI. «Lo que ha cambiado por completo es cómo abordamos la robótica», afirmó.

    Los panelistas también hablaron sobre la importancia de las fuentes de datos en el entrenamiento de modelos. «Ahora obtenemos estos datos globales como si fuera internet, y podemos resolver todos los problemas actuales; lo único que necesitamos son muchas más GPU», afirmó Bernt Børnich, fundador y director ejecutivo de 1X.

    Robots en abundancia en el área de exhibición

    Desde humanoides útiles hasta brazos robóticos que apoyan cirugías, partos y procesos industriales, los avances de la IA física se exhiben en su totalidad con demostraciones interactivas en GTC.

    Cómo los microscopios autónomos y de bajo coste pueden transformar la salud pública

    Manu Prakash tiene la misión de empoderar a los trabajadores de salud comunitarios y a los científicos ciudadanos de todo el mundo con microscopios impulsados ​​por inteligencia artificial que ayudan a detectar la malaria y otras enfermedades.

    Prakash es cofundador de la empresa de microscopía Cephla y profesor asociado del Instituto Woods para el Medio Ambiente de la Universidad de Stanford. Está integrando IA en microscopios de bajo coste que pueden implementarse en entornos sanitarios locales para la monitorización de enfermedades en tiempo real a gran escala.

    “Esta es la primera máquina que puede hacer algo así en tiempo real”, dijo, demostrando en vivo cómo Octopi, la plataforma modular de microscopía robótica de Cephla, puede analizar rápidamente los glóbulos rojos para detectar parásitos de la malaria. “Uno de los aspectos fenomenales de esto es que podemos entrenarla no solo para la malaria, sino para cualquier enfermedad”.

    Prakash y su equipo descubrieron que la implementación de su canalización en el módulo NVIDIA Jetson Nano aceleró el procesamiento de imágenes cinco veces en comparación con el uso de computadoras de escritorio, lo que les permitió examinar alrededor de 3 millones de glóbulos rojos por minuto.

    Al permitir la detección rápida y de bajo costo de enfermedades que pueda ser utilizada por los trabajadores de salud comunitarios, Prakash espera mejorar las capacidades de las organizaciones de salud pública globales para enfrentar mejor desafíos como la aparición de cepas de enfermedades resistentes a los antibióticos.

    Más allá de la malaria, su equipo ha colaborado con investigadores para adaptar su sistema de IA a otras enfermedades. Una organización logró entrenar un sistema de IA para detectar cuatro tipos de anemia falciforme en tan solo seis meses. Otra entrenó un sistema para detectar si las personas están propagando activamente la tuberculosis.

    “A veces, los instrumentos con un poco de inteligencia pueden alcanzar distancias astronómicas”, dijo Prakash.

    Cómo la IA está abriendo una nueva era de creatividad en el cine

    La IA está haciendo que la producción cinematográfica sea más accesible y cambiando la forma en que los cineastas dan vida a sus visiones.

    En GTC, Haohong Wang, gerente general de TCL, compartió cómo las herramientas impulsadas por IA como Runway, Sora y MineStudio están desbloqueando flujos de trabajo más rápidos, nuevas posibilidades artísticas y un futuro más accesible para la creación de contenido.

    La IA se une a la creatividad: La producción cinematográfica tradicional puede ser lenta y costosa. Wang predice que los presupuestos para contenido generado por IA podrían permitir la creación de contenido cinematográfico a menos del 10 % de los costos actuales, poniendo a disposición de más cineastas una narrativa de alta calidad.

    Pero no se trata solo de ahorro. La IA permite a los artistas experimentar con nuevos estilos visuales en tiempo real, permitiéndoles generar escenas completas al instante, explorar nuevas técnicas narrativas y romper las barreras de la producción tradicional.

    Dirigir con IA: La producción cinematográfica con IA aún tiene dificultades con la consistencia, el control de la cámara y el movimiento humano, señaló Wang. Muchos directores sienten que les falta el mismo control que la producción cinematográfica tradicional. La solución: un flujo de trabajo 3D estructurado. Al digitalizar los recursos generados por IA (personajes, entornos y animaciones), los cineastas pueden combinar lo mejor de la IA con las técnicas tradicionales, garantizando un control preciso de la cinematografía y la consistencia visual.

    Volante de contenido: Wang describió la producción cinematográfica con IA como un “modelo de volante”, donde la creación de contenido más sencilla impulsa el crecimiento de la audiencia, atrae anunciantes e impulsa la demanda de más trabajo creativo.

    “Como pueden ver, existe un ciclo que permite que el dinero de la publicidad eventualmente regrese a la comunidad creativa”, explicó Wang. “Una vez que se presente esta oportunidad, cada vez más creativos se unirán para usar la IA para producir más contenido original y atraer más audiencias y anunciantes”.

    Aunque algunos en Hollywood siguen siendo escépticos, Wang cree que la creciente adopción hará de la IA una herramienta estándar para los cineastas, tal como lo es ahora la CGI.

    Un adelanto: Para demostrar ese potencial, Wang mostró fragmentos de “Next Stop Paris”, un cortometraje híbrido de acción real e IA. La historia sigue a dos desconocidos en una aventura, y un giro revela que la IA ha estado moldeando la narrativa desde el principio.

    La vicepresidenta de salud, Kimberly Powell, destaca los avances en ciencias biológicas

    Ayer, al dirigirse a una multitud reunida en el Teatro Montgomery, Kimberly Powell, vicepresidenta de atención médica y ciencias biológicas de NVIDIA, destacó no menos de nueve anuncios de GTC que ofrecen avances en la industria.

    Las noticias incluyeron la nueva supercomputadora de inteligencia artificial NVIDIA DGX Spark, NVIDIA AgentIQ, el marco de agente y multimodal MONAI, NVIDIA Holoscan 3.0, NVIDIA Isaac for Healthcare y movimientos de socios de Sapio Sciences, Cadence y Epic, que está acelerando la inteligencia artificial con NVIDIA NIM en Microsoft Azure.

    Y estos fueron sólo algunos de los momentos más destacados.

    “Muchos de ustedes han decidido presentar algunos de sus avances más importantes aquí en GTC, con varias docenas de anuncios de nuevos productos y avances cruciales”, afirmó Powell.

    Se analizó el papel de la computación acelerada en las imágenes médicas y la genómica, así como la introducción del modelo de base biológica más grande del mundo, Evo 2 , entrenado con 9 billones de nucleótidos, los componentes básicos del ARN y el ADN.

    Powell dijo que la biología representa un problema no resuelto que ahora está posicionado para beneficiarse de los avances de la IA.

    “Estamos empezando a experimentar algunos niveles exponenciales de inteligencia biológica al poder representar la biología en una computadora”, dijo.

    Powell también analizó el papel de la IA en el descubrimiento de fármacos, el desarrollo de agentes de IA para su uso en ensayos clínicos y la introducción de IA física para dispositivos médicos.

    “Estamos en esta próxima frontera donde no solo tendremos agentes digitales, sino que también tendremos agentes físicos donde incorporaremos IA en cosas físicas”, dijo Powell.

    Desbloquea el máximo rendimiento de la IA con NVIDIA DGX Cloud Benchmarking

    Alcanzar el máximo rendimiento de la IA requiere más que un hardware potente. Comprender cómo el hardware y el software impactan el rendimiento de la carga de trabajo de IA es crucial para la validación técnica y la planificación empresarial.

    Para ayudar a las organizaciones a tomar decisiones basadas en datos y maximizar el uso de la GPU, NVIDIA lanzó NVIDIA DGX Cloud Benchmarking , un conjunto de herramientas que permite a los usuarios optimizar su carga de trabajo de IA y sus inversiones en infraestructura de manera efectiva.

    DGX Cloud Benchmarking incluye tres componentes clave:

    • Recetas de rendimiento: scripts de referencia estandarizados y resultados de referencia que permiten la validación del rendimiento de la plataforma de IA en un conjunto diverso de cargas de trabajo de IA.
    • Performance Explorer: una herramienta interactiva que proporciona datos de rendimiento en todas las cargas de trabajo de IA.
    • Orientación de expertos y mejores prácticas: trabaje con NVIDIA para simplificar el proceso de optimización.

    Al proporcionar puntos de referencia estandarizados y conocimientos prácticos, DGX Cloud Benchmarking ayuda a los equipos de IA a optimizar sus cargas de trabajo, reducir costos y acelerar la innovación.

    NVIDIA colabora con proveedores de servicios en la nube para diseñar conjuntamente y optimizar el rendimiento de toda la pila y ofrecer plataformas de IA de alto rendimiento. Esto garantiza que las optimizaciones se basen en escenarios reales, lo que genera mejoras significativas en el rendimiento con el tiempo.

    DGX Cloud Benchmarking está diseñado para evolucionar con la industria de la IA, incorporando nuevos modelos, plataformas de hardware y optimizaciones de software para garantizar que los clientes tengan acceso a los últimos conocimientos de rendimiento.

    Ya sea que se trate de un equipo de desarrollo de IA, un equipo de TI o un proveedor de servicios en la nube que valida el rendimiento de la infraestructura, DGX Cloud Benchmarking proporciona las herramientas necesarias para desbloquear el máximo rendimiento de la IA.

    NVIDIA amplía los beneficios para las startups

    Como parte de una importante expansión de los beneficios para los miembros del programa NVIDIA Inception para empresas emergentes de vanguardia, NVIDIA ofrece a los miembros calificados hasta $100,000 en créditos NVIDIA DGX Cloud para capacidad de GPU NVIDIA H100 dedicada.

    Los miembros aprobados para este beneficio también tendrán acceso a horas de oficina con expertos que les brindarán orientación y soporte técnico. Con DGX Cloud, una plataforma unificada de IA, los miembros de Inception pueden usar el software, los servicios y la experiencia en IA de NVIDIA para crear, personalizar e implementar aplicaciones en su nube preferida.

    Otros beneficios nuevos y mejorados, que abarcan casi $300,000 en créditos y descuentos, ofrecen acceso inigualable a tecnología de vanguardia de NVIDIA Cloud Partners (NCP), proveedores de software independientes (ISV) de la Red de Socios de NVIDIA y miembros selectos de Inception. Estas ofertas pueden ayudar a las startups de Inception y a los miembros del programa NVIDIA Connect para ISV a desarrollar y expandir sus negocios, impulsando la innovación y el crecimiento en diversos sectores.

    Ofertas y beneficios adicionales del NCP

    NCP como Nebius, Scaleway y Lintasarta ofrecen créditos de nube gratuitos a los miembros elegibles de Inception, lo que les ayuda a reducir costos y fomentar la innovación. Yotta y Lambda proporcionan créditos de nube a los miembros de Inception y Connect para impulsar la escalabilidad y acelerar el tiempo de comercialización.

    Las empresas que adopten los servicios NCP se beneficiarán de un soporte local mejorado, una mayor asignación y acceso a GPU, capacidades técnicas avanzadas y asistencia práctica, acceso a centros de datos locales y precios y facturación flexibles para satisfacer las distintas necesidades de las empresas pequeñas y en crecimiento.

    Las colaboraciones nuevas y ampliadas de NCP incluirán incorporación y soporte técnico a través de capacitaciones y seminarios web, así como acceso a eventos regionales y oportunidades de soporte para la comercialización.

    Los miembros de Inception también obtendrán acceso a las mejores herramientas y software de empresas como AI21, Beamr, Bria, DeepChecks, Lightning AI, RGo Robotics, Tabnine y Weights & Biases.

    Los miembros del programa NVIDIA Connect para ISV también obtendrán acceso a beneficios selectos, disponibles solo a través del catálogo de beneficios para miembros Inception y Connect.

    Únete a los programas NVIDIA Inception y NVIDIA Connect . Se añadirán nuevos socios y ofertas exclusivas periódicamente.

    Las empresas que utilizan y muestran la tecnología NVIDIA para crear herramientas y servicios atractivos para el público emergente y desarrollador pueden obtener más información sobre los programas y completar una propuesta de beneficios para socios .

    Los gigantes de la investigación Bill Dally y Yann LeCun comparten el escenario en GTC

    Dos luminarias en la investigación de IA, Bill Dally, científico jefe de NVIDIA, y Yann LeCun, científico jefe de IA en Meta y profesor de la Universidad de Nueva York, subieron al escenario hoy en el auditorio San Jose Civic para compartir su visión sobre el futuro del campo.

    Dally le pidió a LeCun que compartiera sus pensamientos sobre la inteligencia artificial general, el impacto de la IA en la investigación científica, su trabajo actual en modelos mundiales y las cualidades necesarias para fomentar la innovación.

    LeCun predijo que la inteligencia artificial general, o AGI (que él prefiere llamar inteligencia artificial avanzada, porque “la inteligencia humana es superespecializada, por lo que llamarla general es un nombre inapropiado”) será viable en tres a cinco años.

    Destacó la importancia de los proyectos de código abierto para apoyar el desarrollo de diversos asistentes de IA.

    “Necesitamos asistentes extremadamente diversos”, dijo. “Necesitamos hablar todos los idiomas, comprender todas las culturas, todos los sistemas de valores, todos los sectores de interés. Por lo tanto, necesitamos una plataforma que cualquiera pueda usar para desarrollar esos asistentes, una población diversa de asistentes, y actualmente eso solo se puede lograr a través de plataformas de código abierto”.

    LeCun también habló sobre su trabajo en Meta para desarrollar modelos mundiales que puedan comprender, razonar y planificar en torno a entornos físicos.

    “Lo que se necesita es un predictor que, dado el estado del mundo y una acción imaginada, pueda predecir el próximo estado del mundo”, dijo. “Y si se tiene un sistema así, se puede planificar una secuencia de acciones para llegar a un resultado específico”.

    Dally señaló que construir modelos mundiales como estos requerirá una importante infraestructura de IA impulsada por GPU NVIDIA.

    “Que sigan haciéndolo”, bromeó LeCun. “Vamos a necesitar toda la computación posible”.

    Resumen: Puntos clave de la conferencia magistral de GTC

    Estos son los puntos principales que el fundador y director ejecutivo de NVIDIA, Jensen Huang, trató en su discurso inaugural:

    • Nos encontramos en un punto de inflexión de un billón de dólares en computación. La demanda de IA se está acelerando rápidamente, impulsada por el auge de la IA racional y la IA agente. La escala y la complejidad de las cargas de trabajo de IA están transformando las inversiones en centros de datos a nivel mundial.
    • NVIDIA Blackwell está en plena producción y ofrece un rendimiento 40 veces superior al de Hopper. La arquitectura Blackwell mejora significativamente el entrenamiento y la inferencia de modelos de IA, lo que permite aplicaciones de IA más eficientes y escalables. La próxima evolución de la plataforma de fábrica de IA NVIDIA Blackwell, Blackwell Ultra, estará disponible en los sistemas en el segundo semestre de este año.
    • NVIDIA seguirá un ritmo anual para el desarrollo de su infraestructura de IA. Cada año, incorporará nuevas GPU, CPU y avances en computación acelerada, incluyendo la próxima arquitectura NVIDIA Vera Rubin, diseñada para impulsar mejoras de rendimiento y eficiencia en los centros de datos de IA.
    • La infraestructura de IA, que incluye la fotónica y el almacenamiento optimizado para IA, revolucionará la industria. Las soluciones avanzadas de redes y almacenamiento mejorarán la escalabilidad, la eficiencia y el consumo energético de la IA en centros de datos a gran escala.
    • La IA física para la industria y la robótica representa una oportunidad de 50 billones de dólares. La robótica y la automatización impulsadas por IA están llamadas a transformar la manufactura, la logística, la atención médica y otras industrias, con las plataformas NVIDIA Isaac y Cosmos a la cabeza.

    Lea más detalles sobre la conferencia principal a continuación y permanezca atento para obtener más información y sesiones durante la conferencia, que se desarrollará hasta el viernes 21 de marzo.

    Sumérgete: discurso de apertura del fundador y director ejecutivo de NVIDIA, Jensen Huang, en GTC

    Bienvenido a NVIDIA

    Huang inauguró la conferencia introduciendo al público en la sede de NVIDIA, con una impactante imagen de su vestíbulo, que parecía acoger a todos. Empezó hablando de los inicios de NVIDIA hace 25 años, con las GPU. Describió el crecimiento de la IA en la última década, incluyendo la aparición de la IA agéntica , capaz de razonar para resolver un problema, planificar y actuar.

    La IA en un punto de inflexión

    Huang describió el desarrollo de la IA capaz de razonar paso a paso y analizó cómo la demanda de inferencia y aprendizaje por refuerzo impulsa la demanda de computación con IA. La demanda de GPU de los cuatro principales proveedores de servicios en la nube está en auge, ya que la IA atraviesa un punto de inflexión. Huang afirmó que prevé que el valor de la construcción de centros de datos alcance el billón de dólares.

    Ecosistema NVIDIA CUDA

    Las bibliotecas y microservicios acelerados por GPU NVIDIA CUDA-X ya están al servicio de todos los sectores, explicó Huang. En el futuro, añadió, cada empresa tendrá dos fábricas: una para lo que desarrolla y otra para la IA. Repasando una muestra del papel de NVIDIA en diversas iniciativas, anunció que NVIDIA lanzará al público su plataforma de optimización de decisiones cuOpt. La base instalada de CUDA está ahora “en todas partes”, afirmó. “Hemos alcanzado el punto de inflexión de la computación acelerada: CUDA lo ha hecho posible”.

    General Motors y NVIDIA colaboran en IA

    La IA necesita infraestructura, explicó Huang. La IA ahora se está extendiendo “al resto del mundo”, en robótica y autos autónomos, fábricas y redes inalámbricas. Una de las primeras industrias en las que la IA entró fue la de los vehículos autónomos, dijo Huang. “Desarrollamos tecnología que casi todas las compañías de autos autónomos usan”, agregó, ya sea en el centro de datos o en el auto. Huang anunció el siguiente paso en ese viaje: GM, el mayor fabricante de automóviles de EE. UU., está adoptando la IA, la simulación y la computación acelerada de NVIDIA para desarrollar vehículos, fábricas y robots de próxima generación. También anunció NVIDIA Halos , un sistema de seguridad integral que reúne la línea de soluciones de seguridad de hardware y software automotriz de NVIDIA con su investigación de IA de vanguardia en seguridad de AV.

    Centros de datos e inferencia

    A continuación, Huang habló sobre los centros de datos. Informó que la plataforma NVIDIA Blackwell está en plena producción y compartió una muestra de los sistemas de una amplia gama de socios de la industria. “¿Cómo no va a ser esto hermoso?”, dijo Huang.

    Describió cómo Blackwell apoya la ampliación extrema. «Queríamos hacer esto para resolver un problema extremo», dijo Huang, «y se llama inferencia».

    La inferencia, explicó Huang, es la generación de tokens , lo cual será crucial para las empresas. Las fábricas de IA que generan estos tokens deben construirse con una eficiencia y un rendimiento extremos. Y la demanda de tokens seguirá creciendo, con la última generación de modelos de razonamiento capaces de analizar y resolver problemas cada vez más complejos.

    Para acelerar aún más la inferencia a gran escala, Huang anunció NVIDIA Dynamo , un software de código abierto para acelerar y escalar los modelos de razonamiento de IA en fábricas de IA. «Es esencialmente el sistema operativo de una fábrica de IA», afirmó Huang.

    NVIDIA Blackwell Ultra

    Huang describió cómo Blackwell ofrece un gran salto en el rendimiento de inferencia. “Hay que asegurarse de tener la arquitectura más eficiente energéticamente posible”, dijo Huang, mostrando cómo Blackwell realiza más trabajo con menos energía que la generación anterior. “Cuanto más compras, más ahorras”, dijo Huang, provocando risas entre el público. “Es incluso mejor: cuanto más compras, más ganas”.

    Luego, Huang grabó un video que muestra cómo un nuevo NVIDIA Omniverse Blueprint puede ayudar a planificar una fábrica de IA de 1 gigavatio, permitiendo a los ingenieros diseñar, probar y optimizar una nueva generación de centros de datos de fabricación de inteligencia utilizando gemelos digitales. 

    Posteriormente, anunció la próxima evolución de la plataforma de fábrica de IA NVIDIA Blackwell, NVIDIA Blackwell Ultra , que estará disponible en sistemas durante el segundo semestre de este año. NVIDIA Blackwell Ultra potencia la inferencia de escalado en tiempo de entrenamiento y prueba (el arte de aplicar más cómputo durante la inferencia para mejorar la precisión) para que las organizaciones de todo el mundo puedan acelerar aplicaciones como el razonamiento de IA, la IA agéntica y la IA física.

    NVIDIA Vera Rubin

    Rindiendo homenaje a la astrónoma Vera Rubin, Huang describió una hoja de ruta que ofrecerá mejoras en el rendimiento de los centros de datos durante los próximos años. Huang ofreció nuevos detalles sobre las arquitecturas de GPU NVIDIA Rubin Ultra y CPU NVIDIA Vera de próxima generación, repletas de innovaciones. “Básicamente, todo es completamente nuevo, excepto el chasis”, afirmó Huang. Los sistemas basados ​​en Rubin Ultra, incluyendo el Vera Rubin NVL 144, llegarán en la segunda mitad del próximo año. Y, para la segunda mitad de 2027, se espera que lleguen los sistemas basados ​​en Rubin Ultra. “Se puede ver que Rubin va a reducir drásticamente los costos”, concluyó Huang.

    Fotónica NVIDIA

    Huang pasó a analizar cómo NVIDIA ayudará a los clientes a escalar a sistemas cada vez más grandes. La clave para ello reside en la estrecha integración de la fotónica (tecnologías de red que se basan en la transmisión de datos mediante luz en lugar de señales eléctricas) en la infraestructura de computación acelerada. Al permitir que las fábricas de IA conecten millones de GPU en diferentes ubicaciones, a la vez que reducen el consumo de energía y los costes operativos, los conmutadores de red fotónica de silicio NVIDIA Spectrum-X y NVIDIA Quantum-X fusionan circuitos electrónicos y comunicaciones ópticas. «Esta tecnología es realmente increíble», afirmó Huang. Los conmutadores fotónicos de NVIDIA integran innovaciones ópticas con 4 veces menos láseres para ofrecer una eficiencia energética 3,5 veces superior, una integridad de señal 63 veces superior, una resiliencia de red a escala 10 veces superior y una implementación 1,3 veces más rápida en comparación con los métodos tradicionales.

    DGX Spark y DGX Station

    Para que desarrolladores, investigadores, científicos de datos y estudiantes de IA puedan prototipar, perfeccionar e inferir modelos de gran tamaño en ordenadores de escritorio, NVIDIA presentó las supercomputadoras personales de IA DGX, impulsadas por la plataforma NVIDIA Grace Blackwell. Describiéndolas como el regalo de Navidad perfecto, Huang anunció DGX Spark (anteriormente Project DIGITS) y DGX Station, una nueva supercomputadora de escritorio NVIDIA Grace Blackwell de alto rendimiento, impulsada por la plataforma NVIDIA Blackwell Ultra, que lleva la potencia de la arquitectura Grace Blackwell al escritorio. Los usuarios pueden ejecutar estos modelos localmente o implementarlos en NVIDIA DGX Cloud o en cualquier otra infraestructura acelerada de nube o centro de datos. «Esta es la computadora de la era de la IA», afirmó Huang.

    IA con agentes . Al abordar el futuro de la IA con agentes, Huang anunció la familia abierta de modelos Llama Nemotron con capacidades de razonamiento, diseñada para brindar a desarrolladores y empresas una base empresarial para crear agentes de IA avanzados que puedan trabajar de forma independiente o en equipos conectados para resolver tareas complejas. Basada en los modelos Llama, la familia de razonamiento NVIDIA Llama Nemotron ofrece capacidades de razonamiento de IA bajo demanda. NVIDIA mejoró la nueva familia de modelos de razonamiento durante el postentrenamiento para optimizar las matemáticas multipaso, la codificación, el razonamiento y la toma de decisiones complejas.

    IA física y robótica

    Al describir la robótica como la próxima industria de 10 billones de dólares, Huang afirmó que, para finales de esta década, el mundo tendrá un déficit de al menos 50 millones de trabajadores. NVIDIA ofrece un conjunto completo de tecnologías para entrenar, implementar, simular y probar la robótica de próxima generación.

    En un video, Huang anunció la disponibilidad de NVIDIA Isaac GR00T N1 , el primer modelo de base abierto y totalmente personalizable del mundo para el razonamiento y las habilidades humanoides generalizadas.

    NVIDIA también anunció un importante lanzamiento de los nuevos modelos de base mundial NVIDIA Cosmos , que presentan un modelo de razonamiento abierto y totalmente personalizable para el desarrollo de IA física y brindan a los desarrolladores un control sin precedentes sobre la generación del mundo.

    “Usar Omniverse para condicionar Cosmos, y Cosmos para generar un número infinito de entornos, nos permite crear datos fundamentados, controlados por nosotros y, sin embargo, sistemáticamente infinitos al mismo tiempo”, dijo Huang.

    También presentó el motor de física de código abierto Newton para simulación robótica , en desarrollo con Google DeepMind y Disney Research, antes de que se le uniera en el escenario un robot azul que emergió de una escotilla en el suelo, pitando y balbuceando hacia Huang.

    ‘Terminemos’

    Huang concluyó su charla enfatizando varios temas importantes.

    En primer lugar, Blackwell está en plena producción: «y el ritmo de desarrollo es increíble, la demanda de los clientes es increíble», informó Huang. «Y con razón, dado que la IA está en un punto de inflexión, la cantidad de computación que debemos realizar es mucho mayor gracias a la IA de razonamiento y al entrenamiento de sistemas de IA de razonamiento y sistemas agénticos». 

    En segundo lugar, Blackwell NVL72 con Dynamo ofrece 40 veces el rendimiento de fábrica de IA de NVIDIA Hopper, y “la inferencia será una de las cargas de trabajo más importantes en la próxima década a medida que ampliamos la IA”.

    En tercer lugar, NVIDIA tiene un ritmo anual de hojas de ruta, lo que permite a todo el mundo planificar su infraestructura de IA. NVIDIA está construyendo tres infraestructuras de IA: una para la nube, otra para la empresa y una tercera para robots.

    Cuenta regresiva para la presentación principal en GTC 

    El SAP Center despierta, bañado por un relajante resplandor púrpura. Un mar de asistentes —desarrolladores, investigadores, líderes empresariales— llena el espacio con una carga de anticipación.

    En la pantalla grande: el pre-show con los presentadores del podcast Acquired, Ben Gilbert y David Rosenthal, quienes entrevistan a figuras de la industria desde la sala de exposiciones de GTC. Hoy mismo, incluso contaron con la presencia del fundador y CEO de NVIDIA, Jensen Huang.

    Ya casi es la hora.

    A las 10:00 a. m. (hora del Pacífico), Huang sube al escenario, marcando la pauta de todo lo que sucederá en el GTC. El público en el estadio lo sentirá: el movimiento de los recién llegados, el brillo de las pantallas de los teléfonos.

    Quienes se conecten a distancia no se perderán ni un momento. Vean la conferencia magistral en vivo . El futuro de la IA, la computación acelerada y todo lo demás está a punto de revelarse.

    Quédate con nosotros: apenas estamos empezando.

    Keynote de hoy: Sintoniza con anticipación para el preshow con Acquired

    La emoción comienza mucho antes de que Jensen Huang, fundador y CEO de NVIDIA, suba al escenario. No te pierdas la transmisión “En directo desde NVIDIA GTC con Acquired”, con ponentes de renombre que ofrecerán fascinantes perspectivas sobre la extraordinaria trayectoria de NVIDIA en las últimas tres décadas.

    Estado del arte de la IA: Cómo los artistas incorporan la IA y los robots al proceso creativo

    Artistas a lo largo de milenios han creado con todos los medios disponibles: tintes de frutas y verduras, bloques de mármol, pinturas acrílicas, cámaras, software de renderizado, impresoras 3D. Ahora aprovechan la IA y la robótica para crear experiencias inmersivas que reflejan cómo las personas responden e interactúan con la tecnología.

    En un panel de discusión de GTC organizado hoy por Heather Schoell, directora creativa de estrategia de IA en NVIDIA, cuatro artistas compartieron cómo utilizan la IA y la robótica en sus procesos creativos.

    La integración de la robótica en el arte “es una continuación muy lógica en lo que es un espectro muy largo de los humanos y nuestra relación con nuestras herramientas”, dijo la panelista Catie Cuan, fundadora de la empresa de inteligencia artificial de consumo Zenie y posdoctora en la Universidad de Stanford, donde lidera los esfuerzos de arte y robótica en el Centro de Robótica de Stanford.

    Cuan, un ex bailarín profesional, tiene entre sus obras un dueto de ocho horas con un brazo robótico y una sinfonía de robots danzantes que reproducían sonidos mientras se movían.

    Otro panelista, Alexander Reben, fue el primer artista residente de OpenAI. Utilizó modelos de lenguaje de gran tamaño , modelos visuales de IA generativa y NeRF para crear esculturas 3D .

    En la entrada principal de GTC se exhibe el arte interactivo de dos de los panelistas: Zolty, un artista cinético y robótico conocido como BREAKFAST, y Emanuel Gollob, investigador doctoral de la Universidad de Artes de Linz, Austria.

    BREAKFAST trabaja con datos en tiempo real para crear grandes esculturas de arte cinético que se exhiben a bordo de un crucero de Royal Caribbean y en el hotel Fontainebleau de Las Vegas. La pieza del estudio en GTC, titulada “Consumo”, funciona con una GPU NVIDIA RTX y presenta arcos robóticos que se mueven en respuesta a datos en tiempo real sobre el consumo de agua, incluyendo precipitaciones, embalses, niveles freáticos y suministros municipales.

    La instalación robótica de Gollob, llamada “Doing Nothing With AI”, utiliza control robótico generativo, mediciones de ondas cerebrales y aprendizaje de refuerzo para moverse de una manera que guía a un participante que usa una diadema EEG a no hacer nada y disfrutar de un momento de inacción.

    Los panelistas debaten sobre la eficiencia energética en la era de la IA generativa

    Ante una sala repleta de asistentes, los panelistas mantuvieron hoy en GTC un enriquecedor debate sobre IA, energía y cuestiones climáticas. Josh Parker, director sénior de sostenibilidad corporativa de NVIDIA, estuvo acompañado por Lauren Risi, del Wilson Center; David Sandalow, de la Universidad de Columbia; y Bernhard Lorentz, de Deloitte.

    “En el mundo del cambio climático, la IA puede hacer muchísimo”, dijo Sandalow. “¿Cómo se pueden utilizar las herramientas de IA para mitigar el cambio climático?”

    Los expertos de la industria abordaron las preocupaciones sobre la eficiencia energética con el auge de la IA generativa y el aumento de los centros de datos.

    “Las GPU NVIDIA han proporcionado una eficiencia energética 100.000 veces mejor durante la última década”, afirmó Parker, resumiendo las mejoras en eficiencia energética de las GPU NVIDIA.

    BMW Group presenta colaboración 3D para fábricas de ensamblaje de baterías

    BMW Group presentó hoy en GTC las últimas actualizaciones de su 3D AppStore.

    La AppStore 3D, el servicio de streaming en la nube de BMW para visualización de alta gama, ahora permite respaldar el proceso de ensamblaje de baterías del fabricante de automóviles en diversas plantas de todo el mundo. Permite a ingenieros, diseñadores y otros profesionales trabajar de forma colaborativa en el entorno digital.

    “Con los avatares, ven la escena de la fábrica y pueden estar allí juntos, y luego básicamente puedes preguntar qué está sucediendo aquí, y la IA te da una descripción detallada de lo que está haciendo la estación aquí”, dijo Xaver Freiherr Loeffelholz von Colberg, propietario de producto de 3D AppStore en BMW Group.

    Ofreciendo una visión del futuro del diseño y la fabricación de automóviles, BMW tendrá dos sesiones más de conferencias el jueves 20 de marzo.

    Explicando los tokens: el lenguaje y la moneda de la IA

    Es probable que los asistentes a GTC escuchen mucho sobre tokens: el lenguaje y la moneda de la IA.

    Los tokens son unidades de datos que procesan los modelos de IA durante el entrenamiento y la inferencia, lo que permite la predicción, la generación y el razonamiento. Cuanto más rápido se procesen los tokens, más rápido podrán aprender y responder los modelos de IA.

    Infórmese sobre los tokens, la tokenización y las formas en que las empresas pueden aumentar sus ingresos al reducir el costo por token en nuestro artículo explicativo .

    GTC 2025: IA real, problemas reales, soluciones reales

    La IA se enfrenta directamente a los desafíos más difíciles de la humanidad. Véalo en acción la próxima semana en la conferencia NVIDIA GTC en San José, California.

    Desde sesiones de atención médica transformadoras como ” Revolucionando el análisis y diagnóstico de resonancia magnética cardíaca con IA ” y ” Diseñando el futuro: ingeniería de proteínas, IA e innovación responsable ” hasta avances ambientales en ” Sistemas autónomos y teledetección para obtener mejores datos de la Tierra “, ” El papel de la IA y la computación acelerada en la comprensión y mitigación del cambio climático urbano ” y ” Mejora de la predicción de energía fotovoltaica con pronósticos meteorológicos de alta resolución de NVIDIA Earth-2 “, el impacto es tangible y global.

    El futuro llega a San José

    Cualquiera que haya estado en el centro de San José últimamente lo ha visto. Las pancartas están colgadas. Las calles están cambiando. Toda la ciudad se está renovando con el verde de NVIDIA.

    Del 17 al 21 de marzo, San José se convertirá en un punto de encuentro para pensadores, inventores y verdaderos entusiastas de la IA, la robótica y la computación acelerada. Las conversaciones serán intensas, dinámicas y, a veces, improbables, pero ese es el punto.

    ¿En el centro de todo? La conferencia principal de Jensen Huang , fundador y CEO de NVIDIA , ofrece una visión del futuro. Tendrá lugar en el SAP Center el martes 18 de marzo a las 10:00 a. m. (hora del Pacífico). Se esperan grandes ideas, algunas sorpresas, carcajadas y algún que otro momento que deje a la sala en silencio.

    Pero GTC no se limita a lo que ocurre en el escenario. Es una conferencia que se niega a quedarse en casa. Se extiende a sesiones en el Centro de Convenciones McEnery, demostraciones prácticas en el Museo Interactivo de Tecnología, charlas nocturnas en el mercado nocturno de la Plaza de César Chávez y mucho más. San José no solo alberga GTC. Se está convirtiendo en eso.

    Fuente.

    Envidia (2025, 20 de marzo).  GTC 2025- Anuncios y actualizaciones en directo. Recuperado el 24 de marzo de 2025, de: https://blogs.nvidia.com/blog/nvidia-keynote-at-gtc-2025-ai-news-live-updates/?utm_source=VentureBeat&utm_campaign=c5a182567e-VB-3-24&utm_medium=email&utm_term=0_-4e77a05d82-36335086&mc_cid=c5a182567e&mc_eid=4341a15e8c

  • Menos es más: UC Berkeley y Google liberan el potencial de LLM a través de un muestreo simple

    Un nuevo artículo de investigadores de Google Research y la Universidad de California, Berkeley, demuestra que un enfoque sorprendentemente sencillo de escalamiento en tiempo de prueba puede potenciar la capacidad de razonamiento de los modelos de lenguaje grandes (LLM). ¿La clave? Ampliar la búsqueda basada en muestreo, una técnica que se basa en la generación de múltiples respuestas y el uso del propio modelo para verificarlas. 

    El hallazgo principal es que incluso una implementación minimalista de búsqueda basada en muestreo, mediante muestreo aleatorio y autoverificación, puede mejorar el rendimiento de razonamiento de modelos como Gemini 1.5 Pro por encima del de o1-Preview en benchmarks populares. Estos hallazgos pueden tener implicaciones importantes para las aplicaciones empresariales y cuestionar la suposición de que un entrenamiento altamente especializado o arquitecturas complejas siempre son necesarios para lograr un rendimiento de primer nivel.

    Los límites del escalamiento computacional en tiempo de prueba actual

    El método popular actual para el escalamiento del tiempo de prueba en LLM consiste en entrenar el modelo mediante aprendizaje por refuerzo para generar respuestas más largas con trazas de cadena de pensamiento (CoT). Este enfoque se utiliza en modelos como OpenAI o1 y DeepSeek-R1 . Si bien son beneficiosos, estos métodos suelen requerir una inversión considerable en la fase de entrenamiento.

    Otro método de escalamiento en tiempo de prueba es la autoconsistencia, donde el modelo genera múltiples respuestas a la consulta y elige la que aparece con mayor frecuencia. La autoconsistencia alcanza sus límites al gestionar problemas complejos, ya que en estos casos la respuesta más repetida no es necesariamente la correcta.

    La búsqueda basada en muestreo ofrece una alternativa más sencilla y altamente escalable al escalado en tiempo de prueba: permite que el modelo genere múltiples respuestas y seleccione la mejor mediante un mecanismo de verificación. La búsqueda basada en muestreo puede complementar otras estrategias de escalado computacional en tiempo de prueba y, como escriben los investigadores en su artículo, «también tiene la ventaja única de ser vergonzosamente paralela y permitir un escalado arbitrario: simplemente se muestrean más respuestas».

    Más importante aún, la búsqueda basada en muestreo se puede aplicar a cualquier LLM, incluidos aquellos que no han sido entrenados explícitamente para el razonamiento.

    Cómo funciona la búsqueda basada en muestreo

    Los investigadores se centran en una implementación minimalista de la búsqueda basada en muestreo, utilizando un modelo de lenguaje para generar respuestas candidatas y verificarlas. Se trata de un proceso de autoverificación, en el que el modelo evalúa sus propios resultados sin depender de respuestas externas de verdad fundamental ni de sistemas de verificación simbólica.

    El algoritmo funciona en unos sencillos pasos: 

    1—El algoritmo comienza generando un conjunto de posibles soluciones al problema dado mediante un modelo de lenguaje. Esto se logra presentando al modelo la misma instrucción varias veces y utilizando una configuración de temperatura distinta de cero para crear un conjunto diverso de respuestas.

    2—La respuesta de cada candidato se somete a un proceso de verificación en el que se le solicita al LLM varias veces que determine si la respuesta es correcta. Los resultados de la verificación se promedian para obtener la puntuación final de verificación de la respuesta.

    3— El algoritmo selecciona la respuesta con la puntuación más alta como respuesta final. Si hay varios candidatos con una distancia muy cercana, el LLM debe compararlos por pares y elegir el mejor. La respuesta que obtenga más comparaciones por pares se elige como respuesta final.

    Los investigadores consideraron dos ejes clave para escalar el tiempo de prueba:

    Muestreo: El número de respuestas que el modelo genera para cada problema de entrada.

    Verificación: La cantidad de puntajes de verificación calculados para cada solución generada

    Cómo se compara la búsqueda basada en muestreo con otras técnicas

    El estudio reveló que el rendimiento del razonamiento continúa mejorando con la búsqueda basada en muestreo, incluso cuando el cómputo en tiempo de prueba se escala mucho más allá del punto donde la autoconsistencia se satura. 

    A una escala suficiente, esta implementación minimalista mejora significativamente la precisión del razonamiento en pruebas de razonamiento como AIME y MATH. Por ejemplo, el rendimiento de Gemini 1.5 Pro superó al de o1-Preview, que se entrenó explícitamente en problemas de razonamiento, y Gemini 1.5 Flash superó a Gemini 1.5 Pro.

    “Esto no solo resalta la importancia de la búsqueda basada en muestreo para la capacidad de escalamiento, sino que también sugiere la utilidad de la búsqueda basada en muestreo como una línea de base simple sobre la cual comparar otras estrategias de escalamiento computacional en tiempo de prueba y medir mejoras genuinas en las capacidades de búsqueda de los modelos”, escriben los investigadores.

    Cabe destacar que, si bien los resultados del muestreo basado en búsqueda son impresionantes, los costos también pueden resultar prohibitivos. Por ejemplo, con 200 muestras y 50 pasos de verificación por muestra, una consulta de AIME generará alrededor de 130 millones de tokens, lo que cuesta $650 con Gemini 1.5 Pro. Sin embargo, este es un enfoque muy minimalista para la búsqueda basada en muestreo y es compatible con las técnicas de optimización propuestas en otros estudios. Con métodos de muestreo y verificación más inteligentes, los costos de inferencia pueden reducirse considerablemente mediante el uso de modelos más pequeños y la generación de menos tokens . Por ejemplo, al usar Gemini 1.5 Flash para realizar la verificación, los costos se reducen a $12 por pregunta.

    Estrategias eficaces de autoverificación

    Existe un debate en curso sobre si los LLM pueden verificar sus propias respuestas. Los investigadores identificaron dos estrategias clave para mejorar la autoverificación mediante el uso de cómputo en tiempo de prueba:

    Comparación directa de las respuestas candidatas: Las discrepancias entre las soluciones candidatas son un claro indicio de posibles errores. Al proporcionar al verificador múltiples respuestas para comparar, el modelo puede identificar mejor los errores y las alucinaciones, lo que soluciona una debilidad fundamental de los LLM. Los investigadores describen esto como un ejemplo de «escalamiento implícito».

    Reescritura específica de la tarea: Los investigadores proponen que el estilo óptimo de salida de un LLM depende de la tarea. La cadena de pensamiento es eficaz para resolver tareas de razonamiento, pero las respuestas son más fáciles de verificar cuando se redactan en un estilo más formal y matemáticamente convencional. Los verificadores pueden reescribir las respuestas de los candidatos en un formato más estructurado (p. ej., prueba de teoremas y lemas) antes de la evaluación.

    “Prevemos que las capacidades de autoverificación de los modelos mejorarán rápidamente a corto plazo, a medida que los modelos aprendan a aprovechar los principios de escalamiento implícito y la idoneidad del estilo de salida, e impulsen tasas de escalamiento mejoradas para la búsqueda basada en muestreo”, escriben los investigadores.

    Implicaciones para aplicaciones en el mundo real

    El estudio demuestra que una técnica relativamente simple puede lograr resultados impresionantes, reduciendo potencialmente la necesidad de arquitecturas de modelos o regímenes de entrenamiento complejos y costosos.

    Esta técnica también es escalable, lo que permite a las empresas aumentar el rendimiento al asignar más recursos computacionales al muestreo y la verificación. Además, permite a los desarrolladores llevar los modelos de lenguaje de vanguardia más allá de sus limitaciones en tareas complejas.

    “Dado que complementa otras estrategias de escalamiento computacional en tiempo de prueba, es paralelizable y permite escalamiento arbitrario, y admite implementaciones simples que son demostrablemente efectivas, esperamos que la búsqueda basada en muestreo desempeñe un papel crucial a medida que los modelos de lenguaje se encargan de resolver problemas cada vez más complejos con presupuestos computacionales cada vez mayores”, escriben los investigadores. 

    Fuente.

    VentureBeat (2025, 21 de marzo). Menos es más: UC Berkeley y Google liberan el potencial de LLM a través de un muestreo simple. Recuperado el 24 de marzo de 2025, de: https://venturebeat.com/ai/less-is-more-uc-berkeley-and-google-unlock-llm-potential-through-simple-sampling/

  • China ordenará etiquetar contenido creado con Inteligencia Artificial

    China ordenará etiquetar contenido creado con Inteligencia Artificial

    El gobierno de China obligará a que el contenido generado con Inteligencia Artificial (IA) Generativa sea etiquetado para que las personas identifiquen que se trata de información hecha a través de dicha tecnología.

    De acuerdo con el gobierno chino, dicha medida entrará en vigor el próximo 1° de septiembre de 2025, ya que el objetivo es “promover el desarrollo saludable de la Inteligencia Artificial“.

    La regulación está alineada con las iniciativas que han adoptado tanto la Unión Europea como Estados Unidos en materia de transparencia en el uso de la IA, con el fin de combatir la desinformación en el entorno digital.

    La Administración del Ciberespacio de China (CAC, por sus siglas en inglés), en colaboración con otros organismos estatales, desarrolló esta normativa con el objetivo de garantizar la transparencia en el uso de la IA en la generación de contenido digital.

    De acuerdo con la CAC, la Ley de Etiquetado ayudará a los usuarios a identificar la desinformación y responsabilizará a los proveedores de servicios por la correcta identificación de su contenido.

    Además, la institución insistió en que esta medida busca minimizar el uso indebido de material generado por IA y proporcionar a los usuarios herramientas para discernir entre contenido real y sintético.

    “La Ley ayudará a los usuarios a identificar la desinformación y responsabilizará a los proveedores de servicios por la correcta identificación de su contenido”, aseguró la CAC.

    La nueva normativa establece que las tiendas de aplicaciones deberán verificar con los desarrolladores si sus productos incluyen funciones de generación de contenido mediante IA y revisar sus mecanismos de etiquetado.

    De acuerdo con el gobierno chino, aunque las plataformas aún podrán ofrecer contenido generado por IA sin etiquetas en ciertos casos, deberán cumplir con regulaciones específicas y proporcionar estos servicios únicamente bajo demanda del usuario.

    Otros organismos gubernamentales, como el Ministerio de Industria y Tecnología de la Información, el Ministerio de Seguridad Pública y la Administración Nacional de Radio, Cine y Televisión, también participan en la implementación y supervisión de estas regulaciones.

    Fuente.

    DPL News (2025, 14 de marzo). China ordenará etiquetar contenido creado con Inteligencia Artificial. Recuperado el 24 de marzo de 2025, de: https://dplnews.com/china-etiquetara-contenido-inteligencia-artificial/

  • La tecnología permitiría un control de enjambres robóticos similar a un videojuego

    La tecnología permitiría un control de enjambres robóticos similar a un videojuego

    Los jóvenes emprendedores tecnológicos ucranianos creen que una combinación de robots y lecciones aprendidas en juegos de guerra podría cambiar el rumbo de la guerra contra Rusia . Están desarrollando un sistema operativo inteligente que permite a un solo controlador operar remotamente enjambres de drones interconectados y robots terrestres equipados con cañones . Esta tecnología, afirman, podría ayudar a Ucrania a afrontar la ventaja numérica de Rusia.

    La startup Ark Robotics, con sede en Kiev , está realizando pruebas con un embrión de dicho sistema en colaboración con una de las brigadas de las fuerzas terrestres ucranianas. La empresa surgió hace aproximadamente un año, cuando un grupo de jóvenes expertos en robótica escuchó un discurso de uno de los comandantes ucranianos que detallaba los desafíos en el frente.

    “En aquel entonces, construíamos vehículos terrestres no tripulados [UGV]”, comentó uno de esos expertos en robótica, ahora ingeniero en Ark Robotics . “Pero nos enteramos de que lo que ofrecíamos no era suficiente. Dijeron que necesitaban algo más”. Habló con IEEE Spectrum en el marco del Foro de Innovaciones en Tecnología de Defensa Brave 1, celebrado en Kiev el mes pasado. IEEE Spectrum lo identifica únicamente como Anatoly, para cumplir con su solicitud de confidencialidad durante una guerra.

    Desde el inicio de la guerra, ha surgido en Ucrania un vibrante ecosistema de innovación en tecnología de defensa, que comenzó con modestos inicios modificando drones DJI MAVIC  de fabricación china para compensar la falta de artillería. Hoy, Ucrania es una potencia en la fabricación de drones. Decenas de startups están desarrollando tecnología más nueva y mejorada , perfeccionándola rápidamente para mejorar la efectividad de las tropas de la asediada nación. Los drones con vista en primera persona se han convertido en un símbolo de esta guerra, pero desde el año pasado se han empezado a complementar con vehículos terrestres no tripulados (UGV), que ayudan sobre el terreno con la logística, la evacuación de heridos y también actúan como un nuevo medio de ataque.

    El nuevo enfoque permite a los ucranianos mantener a sus soldados lejos del campo de batalla durante períodos más largos, pero no borra el hecho de que Ucrania tiene muchos menos soldados que Rusia.

    “Cada dron necesita un operador; los drones complejos necesitan dos o tres, y no tenemos tantos”, declaró Serhii Kupriienko, director ejecutivo y fundador de Swarmer , durante un panel en el evento de Kiev. Swarmer es una startup con sede en Kiev que desarrolla tecnologías que permiten que grupos de drones operen como un enjambre autocoordinado.

    Ark Robotics está intentando llevar esta idea un paso más allá. El sistema operativo Frontier de la compañía aspira a convertirse en una interfaz unificadora que permita que drones y vehículos terrestres no tripulados (UGV) de diversos fabricantes colaboren bajo el control de operadores ubicados en salas de control a kilómetros de la acción.

    Un controlador para muchos drones y robots

    “Tenemos muchos tipos de drones que utilizan diferentes controles e interfaces, y es muy difícil lograr la cohesión”, afirma Anatoly. “Para avanzar, necesitamos un sistema que nos permita controlar múltiples tipos de vehículos de forma cohesionada en operaciones complejas”.

    Anatoly, un entusiasta de los videojuegos, está entusiasmado con el progreso de Ark Robotics. Podría ser revolucionario, afirma, una nueva tecnología fundamental para la defensa. Haría que Ucrania fuera como los protoss , la nación tecnológicamente avanzada del juego de estrategia de ciencia ficción militar StarCraft .

    Pero lo que lo impulsa es mucho más que su frikismo juvenil. Consolidar el dominio tecnológico de Ucrania es una misión alimentada por el dolor y la indignación.

    “No quiero perder más amigos”, comenta en un momento dado, visiblemente emocionado. “No queremos morir en las trincheras, pero necesitamos ser capaces de defender nuestro país y, dado que las matemáticas sociales no nos favorecen, necesitamos hacer nuestras propias matemáticas para ganar”.

    La magnitud del desafío no le pasa desapercibida. Hasta ahora, la empresa ha construido una unidad de computación vehicular que sirve como centro de control y tablero de control para diversos vehículos no tripulados, incluyendo drones, vehículos terrestres no tripulados (UGV) e incluso vehículos marinos.

    “Estamos desarrollando esta solución que permite la integración de varios equipos de desarrollo y software, lo que nos permite extraer los mejores componentes y escalarlos rápidamente”, explica Anatoly. “Este sistema combina un módulo informático de alto rendimiento con una placa de interfaz que proporciona múltiples conexiones para los sistemas del vehículo.

    La plataforma permite que un solo operador guíe remotamente una bandada de robots, pero en el futuro también incorporará navegación autónoma y ejecución de tareas, según Anatoly. Hasta el momento, el equipo ha probado la tecnología en ejercicios logísticos sencillos. Sin embargo, para que esta visión global funcione, el mayor desafío será mantener enlaces de comunicación fiables entre el controlador y la flota robótica, así como entre los robots y los drones.

    Las pruebas en los campos de batalla de Ucrania comenzarán pronto

    “No hablamos de comunicaciones en un entorno relativamente seguro cuando se cuenta con una red LTE con suficiente ancho de banda para miles de teléfonos”, señala Anatoly. “En primera línea, todo se ve afectado por la guerra electrónica , por lo que es necesario poder alternar entre diferentes soluciones, como satélite, radio digital y radio en malla, para que, incluso si se pierde la conexión con el servidor, se mantenga la conexión entre los drones y los robots, de modo que puedan moverse juntos y mantener cierto nivel de control mutuo”.

    Anatoly espera que la brigada socia de Ark Robotics en las fuerzas armadas ucranianas pruebe la versión preliminar de la tecnología en una situación real en los próximos meses. Sus jóvenes amigos operadores de drones están entusiasmados, dice. ¿Y cómo no estarlo? La tecnología promete convertir la guerra en una especie de videojuego real. La nueva generación de operadores multidron probablemente provendrá de aficionados a los videojuegos.

    “Si podemos tomar a los mejores pilotos y darles herramientas para combinar las operaciones, podríamos obtener una gran ventaja”, dice Anatoly. “Es como en StarCraft. Hay gente que simplemente juega bien y aniquila a sus oponentes en minutos, incluso partiendo de las mismas condiciones básicas”.

    En su intervención en el Foro de Innovaciones en Tecnología de Defensa Brave 1, el coronel Andrii Lebedenko, subcomandante en jefe de las Fuerzas Armadas de Ucrania, reconoció que las batallas terrestres han sido hasta la fecha el punto más débil de Ucrania. Afirmó que el objetivo a corto plazo de Ucrania es reemplazar a los humanos por robots en la medida de lo posible y expresó su confianza en que las próximas tecnologías otorgarán mayor autonomía a los enjambres de robots .

    Sin embargo, algunos expertos en robótica se muestran más escépticos ante la posibilidad de que enjambres de robots autónomos se dispersen masivamente por los campos de batalla del este de Ucrania en un futuro próximo. «El enjambre es sin duda un objetivo que deberíamos alcanzar, pero es mucho más fácil con drones FPV que con robots terrestres», declaró a Spectrum Ivan Movchan, director ejecutivo de Ukrainian Scale Company, fabricante de robots con sede en Járkov .

    «La navegación terrestre es más difícil simplemente por los obstáculos», añade. «Pero preveo que los UGV se volverán muy comunes en Ucrania durante el próximo año».

    Fuente.