Category: Inteligencia Artificial

  • Periódico italiano crea una edición completamente generada por IA

    Periódico italiano crea una edición completamente generada por IA

    ¿Es un periódico generado por inteligencia artificial o un obituario?

    Un periódico italiano afirma haber creado el primer número del mundo generado íntegramente con IA, en el que los periodistas se limitan a hacer preguntas a un chatbot y leer las respuestas antes de insertarlas. The Guardian informó anteriormente sobre la iniciativa de Il Foglio , un periódico italiano de tendencia liberal conservadora.

    Claudio Cerasa, editor de Il Foglio , dijo que el experimento sirve como prueba de cómo la IA podría funcionar “en la práctica” en una sala de redacción y obliga a los periodistas a plantear preguntas difíciles sobre lo que significa la tecnología para el periodismo del futuro.

    “Será el primer diario del mundo en quioscos creado íntegramente con inteligencia artificial”, dijo Cerasa. “Por todo. Por la redacción, los titulares, las citas, los resúmenes. Y, a veces, incluso por la ironía”.

    “Il Fogolio AI”, de cuatro páginas, se insertó en la edición más grande del martes y también puede verse en línea .

    Tal vez no sea el primer periódico del mundo generado con inteligencia artificial, ya que un periódico sueco llamado Nöjesguiden afirma haber publicado una edición similar el verano pasado.

    Los primeros experimentos con inteligencia artificial generativa en las redacciones no han tenido mucho éxito. En 2023, CNET enfrentó críticas tras publicar discretamente artículos de asesoramiento financiero generados con IA, que resultaron contener importantes inexactitudes . Más recientemente, Los Angeles Times lanzó “Insights”, una herramienta impulsada por IA que supuestamente evaluaba el sesgo de los artículos de opinión y generaba contrapuntos automáticamente; la retiró rápidamente tras descubrirse que minimizaba al Ku Klux Klan .

    La inteligencia artificial generativa es eficaz para producir verosimilitudes de escritura genuina, algo que parece claro y fidedigno. Se han intentado mejorar el proceso de “pensamiento” de los chatbots, pero en última instancia son sistemas de autocompletado glorificados y se enfrentan al insoluble problema de simplemente inventar cosas . Los chatbots que presentan su lógica al producir una respuesta incluso a veces lo admiten. En definitiva, el problema con todos los modelos de lenguaje es que el usuario debe examinar detenidamente todo el texto generado y corregir errores si los detecta. Las redacciones, en particular, deben tener cuidado de no dañar aún más su credibilidad ante el público publicando información de mala calidad.

    Aun así, las organizaciones de noticias siguen experimentando con la tecnología a pesar de la gran preocupación de los periodistas, en particular sobre si las redacciones intentarán usar la IA para reducir su personal. Tanto The Washington Post como Bloomberg utilizan la IA para ofrecer resúmenes de artículos, por ejemplo. Patch, un sitio de noticias hiperlocal que anteriormente pertenecía a AOL, ahora depende completamente de la IA que rastrea la web para encontrar noticias para muchas de sus ediciones locales.

    El periodismo, entre comillas, “real” debería verse menos afectado, ya que la IA generativa simplemente crea texto nuevo a partir de material ya visto. El periodismo original (encontrar historias originales, entrevistar a personas) requiere producir información completamente nueva que aún no está disponible en la web. Sin embargo, el público en general no valora mucho los medios en la era digital; no se limita solo al periodismo, sino que ya no está dispuesto a pagar mucho por música o vídeo. Siendo la mano de obra el factor de mayor coste en la mayoría de las organizaciones, no es difícil ver que cada vez más medios utilizan la IA siempre que es posible. Varios sindicatos de periodistas han solicitado cláusulas que impidan su uso.

    Algún día, tendremos artículos de noticias sobre IA que citarán información de otros artículos de noticias sobre IA hasta el punto de que ya ni siquiera será posible identificar la fuente original. O historias generadas completamente a partir de comentarios de Reddit.

    Fuente.

    Gizmodo (2025, 18 de marzo). Periódico italiano crea una edición completamente generada por IA. Recuperado el 20 de marzo de 2025, de: https://gizmodo.com/italian-newspaper-creates-entirely-ai-generated-edition-2000577463

  • xAI adquiere Hotshot, una startup de generación de video

    xAI adquiere Hotshot, una startup de generación de video

    La compañía xAI, fundada por Elon Musk, adquirió Hotshot, una startup enfocada en la generación de videos a partir de texto.

    Esta adquisición sugiere un futuro en el que la generación de videos a partir de texto podría integrarse en la plataforma X. Aunque esta funcionalidad, en un principio, podría estar limitada a los suscriptores de pago de la red social, impulsando así su modelo de negocio.

    Hotshot ha desarrollado tres modelos avanzados de generación de video: Hotshot-XL, Hotshot Act One y Hotshot. De acuerdo con Akash Sastry, director ejecutivo, “estos modelos ofrecen un adelanto del futuro en ámbitos como la educación, el entretenimiento y la comunicación. Sin embargo, con la adquisición, la plataforma ha deshabilitado la opción de generar nuevos videos y ha dado plazo hasta el 30 de marzo de 2025 para que los usuarios descarguen sus creaciones”, aseguró en su cuenta de X.

    “Nos entusiasma seguir ampliando estos esfuerzos en Colossus, el clúster más grande del mundo, como parte de xAI”, han subrayado los directivos en este escrito, donde han agradecido a desarrolladores, inversores y clientes por acompañarlos en “este viaje”.

    Por el momento no se conocen detalles del costo total de la transacción.

    Fuente.

    DPL News (2025, 18 de marzo). xAI adquiere Hotshot, una startup de generación de video. Recuperado el 19 de marzo de 2025, de: https://dplnews.com/xai-adquiere-hotshot-startup-de-generacion-de-video/

  • ¿Cómo trabajar con Inteligencia Artificial? Esto opinan los expertos.

    ¿Cómo trabajar con Inteligencia Artificial? Esto opinan los expertos.

    Las habilidades más relevantes para trabajar con IA incluyen la curiosidad, la proactividad, resiliencia y la disposición para aprender constantemente, de acuerdo con especialistas.

    La inteligencia artificial (IA), sobre todo con la aparición de las interfaces conversacionales o chatbots, como ChatGPT, Copilot y Deepseek, se ha convertido en una herramienta para la innovación y la eficiencia, entender cómo integrarla en el ámbito laboral y personal es importante.

    Durante el panel Oportunidades y desafíos de la aplicabilidad de la IA en lo cotidiano, organizado por Ernst & Young, Microsoft y The Trust for the Americas, expertos en tecnología compartieron sus perspectivas sobre cómo trabajar con IA, las habilidades necesarias para trabajar en este campo y los desafíos que enfrentan las nuevas generaciones.

    En el panel participaron Sebastián Ayala, de Microsoft; Mathew Alexander y Danielle Morris, de Ernst & Young; y Rafael Ventura, también de Microsoft. Cada uno de ellos, desde su experiencia, ofreció ideas sobre cómo la inteligencia artificial está transformando industrias y cómo las personas pueden adaptarse a estos cambios.

    IA como copiloto

    Sebastián Ayala, ingeniero en sistemas computacionales y líder en el equipo de finanzas de Microsoft, dijo que la IA no debe verse como un reemplazo de las capacidades humanas, sino como una herramienta que amplía nuestras habilidades.

    “La responsabilidad sigue en nosotros, pero podemos extender nuestras capacidades con alguien que nos apoye en nuestros sentidos y razonamiento”, dijo.

    Ayala comparó el uso de la IA con un copiloto en un avión: no toma el control, pero facilita la navegación y la toma de decisiones.

    Mathew Alexander, líder de Relaciones Estratégicas de Operaciones Globales de Ernst & Young, coincidió en esta visión y compartió cómo su hijo utiliza herramientas como Microsoft Copilot para estudiar en la universidad.

    “Puedes usarla para revisar datos, escribir códigos, gestionar proyectos e incluso para mejorar tu currículum”, dijo.

    Alexander enfatizó que la clave está en hacer preguntas inteligentes y utilizar la IA como una guía para alcanzar objetivos.

    Habilidades

    Danielle Morris, gerente senior de consultoría en tecnología de Ernst & Young, advirtió a los jóvenes que las habilidades más valoradas en el ámbito de la IA no son necesariamente técnicas, sino aquellas relacionadas con la curiosidad, la proactividad y la resiliencia.

    “Buscamos personas que simplifiquen problemas complejos, que hagan preguntas y que no tengan miedo al fracaso”, afirmó.

    Morris también habló sobre la importancia de la diversidad de pensamiento, ya que las soluciones más innovadoras suelen surgir de equipos con perspectivas diferentes, dijo.

    Rafael Ventura, de Microsoft, añadió que la capacidad de aprender constantemente es fundamental.

    “No importa si no eres un ingeniero; lo importante es tener la disposición de experimentar y adaptarte”, dijo.

    Ventura compartió su propia experiencia de transición desde la ingeniería civil hacia la tecnología, lo que demuestra que los caminos profesionales no siempre son lineales.

    Danielle Morris explicó que herramientas como los chatbots pueden servir como punto de partida para proyectos artísticos o musicales y, en general, para potenciar la creatividad de quien la use.

    “Puedes pedirle a la IA que te dé ideas iniciales, lo que te permite saltar a un nivel de creatividad que quizás no habías explorado antes”, dijo.

    Rafael Ventura, por su parte, sugirió que la IA puede liberar capacidad mental para enfocarse en problemas más complejos.

    “No gastes tu creatividad en tareas que ya han sido resueltas; usa la IA para integrar soluciones existentes y enfócate en lo que realmente requiere innovación”, dijo.

    Fuente.

    El Economista (2025, 13 de marzo). ¿Cómo trabajar con Inteligencia Artificial? Esto opinan los expertos. Recuperado el 14 de marzo de 2025, de: https://www.eleconomista.com.mx/tecnologia/trabajar-inteligencia-artificial-esto-opinan-expertos-20250313-750391.html

  • Google presenta Gemma 3, nueva IA que se ejecuta en una sola GPU

    Google presenta Gemma 3, nueva IA que se ejecuta en una sola GPU

    Gemma 3 está diseñada para ejecutarse directamente en dispositivos, desde teléfonos y portátiles hasta estaciones de trabajo.

    Google presentó Gemma 3, una colección de modelos abiertos ligeros y de vanguardia, basados ​​en la misma investigación y tecnología que impulsa los modelos Gemini 2.0.

    La compañía explicó que se trata de sus modelos abiertos más avanzados, portátiles y desarrollados responsablemente hasta la fecha.

    Estos modelos están diseñados para ejecutarse rápidamente, directamente en dispositivos, desde teléfonos y portátiles hasta estaciones de trabajo, lo que ayuda a los desarrolladores a crear aplicaciones de IA dondequiera que las necesiten.

    Google explicó que Gemma 3 está disponible en varios tamaños (1B, 4B, 12B y 27B), lo que le permite elegir el modelo que mejor se adapte a sus necesidades específicas de hardware y rendimiento.

    También detalló que Gemma 3 ofrece un rendimiento de vanguardia para su tamaño, superando a Llama3-405B, DeepSeek-V3 y o3-mini en evaluaciones preliminares de preferencia humana en la tabla de clasificación de LMArena.

    Lo anterior, explicó la compañía, permite crear experiencias de usuario atractivas que se adaptan a una sola GPU o host de TPU.

    Gemma 3 ofrece soporte inmediato para más de 35 idiomas y soporte preentrenado para más de 140.

    Se enfoca también en la seguridad

    Google también dio a conocer que junto con Gemma 3, también lanzaron ShieldGemma 2, un potente verificador de seguridad de imágenes basado en Gemma 3.

    ShieldGemma 2 ofrece una solución lista para usar en la seguridad de imágenes, generando etiquetas de seguridad en tres categorías: contenido peligroso, sexualmente explícito y violencia.

    Los desarrolladores, agregó Google, pueden personalizar ShieldGemma aún más según sus necesidades de seguridad y usuarios. ShieldGemma 2 es abierto y está diseñado para brindar flexibilidad y control, aprovechando el rendimiento y la eficiencia de la arquitectura Gemma 3 para promover el desarrollo responsable de la IA.

     

    Fuente.

    DPL News (2025, 13 de marzo). Google presenta Gemma 3, nueva IA que se ejecuta en una sola GPU. Recuperado el 14 de marzo de 2025, de: https://dplnews.com/google-presenta-gemma-3-nueva-ia-que-se-ejecuta-en-una-sola-gpu/

  • Google presenta Gemini Robotics, una IA para robots que se nutre de Gemini 2.0.

    Google presenta Gemini Robotics, una IA para robots que se nutre de Gemini 2.0.

    Google ha presentado dos modelos de inteligencia artificial que conforman la familia Gemini Robotics y que aspiran a revolucionar el campo de la robótica.

    Google acaba de dar un paso significativo para revolucionar la IA aplicada a la robótica de la mano de dos nuevos modelos especializados basados en Gemini 2.0. Se trata de Gemini Robotics y Gemini Robotics-ER, tecnologías que DeepMind aspira a que se conviertan en el punto de partida de la próxima generación de “robots útiles”.

    De la mano de Gemini Robotics, Google pone el punto de mira en tres aspectos claves. En primer lugar, que la IA aplicada a los robots se pueda adaptar a las diferentes situaciones a las que son expuestos los dispositivos. Es por ello que sus nuevos modelos permiten completar todo tipo de tareas, incluso aquellas para las que no han sido entrenados.

    Otro apartado crucial para la tecnología es que sea interactiva, para que los robots sean capaces de comprender instrucciones de forma rápida y adaptarse a cualquier cambio que se produzca, ya sea en sus labores o en el entorno en el que deben concretarlas.

    Por último, Gemini Robotics se enfoca en la destreza, permitiendo que los robots completen acciones sin importar su complejidad. Esto es especialmente interesante al momento de lidiar con tareas que requieran de motricidad fina, ya que es de lo más difícil que tienen que abordar los desarrolladores de robots; sobre todo aquellos con características humanoides.

    Gemini Robotics y Gemini Robotics-ER usan Gemini 2.0 como base, pero no son exactamente lo mismo. El primero es un modelo de visión-lenguaje-acción cuya principal meta es la implementación de acciones físicas para controlar a los robots. El segundo es un modelo de visión-lenguaje que se enfoca en la comprensión espacial y en optimizar capacidades como el reconocimiento de objetos tridimensionales, entre otras características.

    Gemini Robotics, lo nuevo de Google aplicado a la robótica

    Entre tantos elementos interesantes de Gemini Robotics-ER, destaca su habilidad de completar nuevas tareas sobre la marcha. El ejemplo más práctico que ha dado Google sobre esto indica que si el robot observa una taza de café, la inteligencia artificial puede intuir de forma inmediata cómo debe agarrarla y cuál es la trayectoria segura para acercarse a ella.

    Si bien tecnologías como Gemini Robotics seguramente sean de especial utilidad para el desarrollo de robots humanoides, Google no se ha enfocado solamente en ellos. Los nuevos modelos de IA son compatibles con múltiples factores de forma, de modo que no funcionan únicamente con aparatos que tengan manos con dedos, sino también en aquellos que utilicen diferentes diseños de pinza.

    Aun así, los de Mountain View han anunciado una alianza con Apptronik, los creadores del robot bípedo Apollo, para avanzar con la creación de nuevos modelos humanoides impulsados por Gemini 2.0. Dicha compañía fue noticia en 2024 tras aliarse con Mercedes-Benz para incorporar sus desarrollos robóticos en una de sus fábricas de Hungría.

    En el apartado de seguridad, Google indica que Gemini Robotics-ER se ha puesto a disposición de varias empresas de robótica para que lo pongan a prueba. Entre ellas, Boston Dynamics.

    Fuente.

    Hipertextual (2025, 12 de marzo). Google presenta Gemini Robotics, una IA para robots que se nutre de Gemini 2.0. Recuperado el 13 de marzo de 2025, de: https://hipertextual.com/2025/03/google-presenta-gemini-robotics-su-nueva-ia-para-robots

  • Falta transparencia en el uso de Inteligencia Artificial por parte de los gobiernos en México

    Falta transparencia en el uso de Inteligencia Artificial por parte de los gobiernos en México

    Investigadores del CIDE han identificado 119 aplicaciones de IA en los tres Poderes de la Unión y en los tres niveles de Gobierno, pero obtener información clara sobre ellas ha sido un proceso marcado por la opacidad.

    El uso de la inteligencia artificial (IA) en el sector público de México es una realidad. Lo es también la falta de transparencia en su implementación dentro de las instituciones de los diferentes gobiernos en el país.

    Investigadores del Centro de Investigación y Docencia Económicas (CIDE) han identificado 119 aplicaciones de IA en los tres Poderes de la Unión y en los tres niveles de Gobierno, pero obtener información clara sobre ellas ha sido un proceso marcado por la opacidad y la resistencia de algunas instituciones a rendir cuentas.

    Repositorio de algoritmos

    Con el objetivo de fomentar la transparencia, académicos del CIDE han desarrollado un registro de algoritmos utilizados por el sector público en México. Este proyecto permite documentar las aplicaciones de IA presentes en diversas dependencias, pero también pone en evidencia los desafíos para acceder a información clave sobre su uso, regulación y objetivos.

    Para la recopilación de datos, los investigadores utilizaron cuatro métodos principales: solicitudes de transparencia, monitoreo de medios, análisis de concursos de innovación gubernamental y referencias directas obtenidas en entrevistas y foros.

    Muchas dependencias gubernamentales fueron renuentes a proporcionar información o respondieron de manera imprecisa.

    Opacidad

    Uno de los principales hallazgos del estudio fue la reticencia de diversas instituciones a reconocer el uso de IA. Se enviaron solicitudes de transparencia a aproximadamente 2,200 entidades públicas, pero en numerosos casos las respuestas omitieron información que los investigadores ya habían identificado mediante otras fuentes.

    “Muchas veces, las entidades públicas que nosotros ya sabíamos por medios o por referencias directas que tenían ciertos desarrollos no lo reportaban en las solicitudes de transparencia”, explicó César Rentería, investigador del Centro de Investigación y Docencia Económicas (CIDE) y uno de los autores del repositorio, junto con Jorge Ordelín.

    En algunos casos, las instituciones sólo reconocieron el uso de IA tras presentar recursos de revisión ante los organismos de transparencia. Sin embargo, otras mantuvieron su negativa, especialmente en el Estado de México y Nayarit, donde la falta de respuesta fue generalizada.

    “El Estado de México y Nayarit, prácticamente todos los municipios […] no contestaron las solicitudes de transparencia. Se mandó recurso de revisión y no contestaron las solicitudes nunca”, dijo Rentería en entrevista.

    Desinformación sobre la IA

    Otro problema identificado fue la falta de conocimiento dentro de las propias instituciones sobre qué constituye una aplicación de IA. En muchas respuestas a solicitudes de transparencia, las dependencias listaron herramientas de software tradicional, como suites de oficina o programas de ciberseguridad, como si se tratara de inteligencia artificial.

    En total, 223 aplicaciones reportadas no cumplían con los criterios básicos para ser consideradas Inteligencia Artificial, lo que refleja un problema de desinformación incluso en áreas de tecnología de la información dentro del gobierno.

    “Nuestra explicación es que ese tipo de respuestas son causadas por una desinformación generalizada sobre qué es la inteligencia artificial y qué no lo es”, señaló Rentería. “La desinformación incluso ocurre a nivel técnico, en los especialistas de tecnologías de la información”.

    El equipo del CIDE señaló que esta falta de claridad no solo limita la transparencia, sino que también dificulta la implementación de normativas y políticas públicas adecuadas para la regulación del uso de IA en el sector público.

    El acceso a información sobre IA en el sector público no es solo una cuestión técnica, sino también un tema de derechos ciudadanos y rendición de cuentas. La transparencia en el uso de estas tecnologías es fundamental para evitar sesgos en la toma de decisiones automatizadas, garantizar el respeto a la privacidad y prevenir posibles abusos de poder.

    Fuente.

    El Economista (2025, 11 de marzo). Falta transparencia en el uso de Inteligencia Artificial por parte de los gobiernos en México. Recuperado el 13 de marzo de 2025, de: https://www.eleconomista.com.mx/tecnologia/falta-transparencia-inteligencia-artificial-parte-gobiernos-mexico-20250311-750044.html

  • Tencent crea modelo de IA: ¿más veloz y barato que DeepSeek?

    Tencent crea modelo de IA: ¿más veloz y barato que DeepSeek?

    Tencent aseguró que su nuevo modelo de IA, Hunyuan Turbo S, es más rápido que el de DeepSeek al responder, y costó una séptima parte.

    La empresa tecnológica china Tencent liberó un nuevo modelo de Inteligencia Artificial (IA) que, afirma, puede responder a las consultas más rápido que el R1 de DeepSeek, en una última señal de que el éxito nacional e internacional de la empresa emergente está presionando a sus competidores en China.

    Se trata de Hunyuan Turbo S, que es capaz de responder a las consultas en apenas un segundo. Esto hace una gran diferencia frente a sus competidores, como DeepSeek R1 y otros modelos lanzados recientemente, pues estos tardan un poco más en responder, de acuerdo con Tencent.

    Cuando Hunyuan Turbo S se probó en campos como el conocimiento, las matemáticas y el razonamiento, las capacidades de Turbo S igualaron a las de DeepSeek-V3 y a ChatGPT de OpenAI en descargas en las tiendas de aplicaciones.

    “Supera a GPT-4o-0806, DeepSeek-V3 y modelos de código abierto en matemáticas, razonamiento y alineación, es competitivo en conocimiento, incluido MMLU-Pro”, dijo Tencent a través de X.

    El lanzamiento de DeepSeek ha hecho que otros gigantes tecnológicos reaccionen y presenten sus modelos en oleadas.

    Apenas unos días después de que DeepSeek-R1 sacudió el orden tecnológico mundial y provocó una venta masiva de acciones de IA fuera de China, el gigante del comercio electrónico Alibaba lanzó el modelo Qwen 2.5-Max, el cual, afirmó, supera a DeepSeek-V3 en todos los aspectos.

    Tencent insistió en que los costos de uso del nuevo Turbo S eran varias veces inferiores a los de sus versiones anteriores, lo que pone de manifiesto que la estrategia de código abierto y precios bajos de DeepSeek ha obligado a otras empresas chinas líderes en IA a cobrar menos a los usuarios.

    “Además funciona con 1/7 (una séptima parte) del costo de inferencia en comparación con nuestro modelo Turbo anterior”, insistió Tencent.

    La compañía china señaló que su sistema de IA mejora en temas como la evaluación basada en reglas y verificación de consistencia; retroalimentación mediante un entorno de prueba de código para mayor precisión en STEM, así como en recompensas generativas que mejoran preguntas y respuestas y su creatividad, reduciendo el “engaño de recompensas”.

    Fuente.

    DPL News (2025, 11 de marzo). Tencent crea modelo de IA: ¿más veloz y barato que DeepSeek? Recuperado el 12 de marzo de 2025, de: https://dplnews.com/tencent-crea-modelo-de-ia-mas-veloz-barato-deepseek/

  • Alibaba busca superar a DeepSeek con nuevo modelo de IA

    Alibaba busca superar a DeepSeek con nuevo modelo de IA

    La china Alibaba anunció su modelo de IA, QwQ-32B, el cual asegura que tiene capacidades robustas que podrían superar a sus competidores.

    Alibaba Group presentó un modelo de Inteligencia Artificial (IA) de razonamiento de código abierto, QwQ-32B, que de acuerdo con especialistas tiene capacidades que le permiten competir con plataformas como DeepSeek.

    QwQ-32B es una herramienta de código abierto, ya disponible en las plataformas Hugging Face y Model Scope bajo la licencia Apache 2.0, de forma gratuita.

    Además, una de sus características, que compite directamente con DeepSeek, es que tiene costos de implementación significativamente reducidos, además de que el modelo se puede implementar de forma eficiente en hardware de consumo.

    La IA presentada por Alibaba se caracteriza también por tener un modelo de razonamiento compacto con sólo 32 mil millones de parámetros, que ofrece un rendimiento comparable a otros modelos de vanguardia más grandes, que son sus competidores.

    La compañía de origen chino destacó que QwQ-32B ha destacado en diversos puntos de referencia o parámetros, incluidos el razonamiento matemático; su competencia en codificación; en la contaminación del conjunto de pruebas y evaluación objetiva; la capacidad de seguir instrucciones; así como capacidades de llamada de herramientas y funciones.

    Informó que, a pesar de contar con 32 mil millones de parámetros, una cifra relativamente modesta, el nuevo modelo de Alibaba igualó o superó al modelo R1 de DeepSeek, que tiene 671 mil millones de parámetros.

    Las acciones de Alibaba cotizaron al alza esta semana tras el anuncio de su nuevo modelo de Inteligencia Artificial. Inmediatamente después de su anuncio, que previó una mayor eficiencia que el R1 de DeepSeek, las unidades de Alibaba subieron entre el 7 y 8.4 por ciento.

    El lanzamiento del último modelo de razonamiento de Alibaba, un tipo de sistema de IA diseñado para pensar, reflexionar y autocríticar para resolver problemas complejos, se produce menos de dos meses después de que el R1 de DeepSeek sacudiera la industria tecnológica global y los mercados bursátiles en enero.

    Fuente.

    DPL News (2025, 07 de marzo). Alibaba busca superar a DeepSeek con nuevo modelo de IA. Recuperado el 10 de marzo de 2025, de: https://dplnews.com/alibaba-busca-superar-deepseek-con-nueva-ia/

  • ¿Podemos confiar en la IA? Razones para ser críticos, señalan expertos de la UNAM

    ¿Podemos confiar en la IA? Razones para ser críticos, señalan expertos de la UNAM

    Durante el ciclo “Jueves de Ciencia. Nuestra nueva realidad. Documentales y Diálogo con académicos”, organizado por Fundación UNAM y transmitido por TVUNAM, se abordaron las implicaciones de la IA en nuestras relaciones y en la sociedad en general.

    La inteligencia artificial (IA) vino a revolucionar diversos aspectos de nuestra vida cotidiana, desde la automatización de tareas hasta la personalización de servicios. Sin embargo, expertos de la Universidad Nacional Autónoma de México (UNAM) advierten sobre la necesidad de adoptar una postura crítica frente a esta tecnología emergente.

    Durante el ciclo “Jueves de Ciencia. Nuestra nueva realidad. Documentales y Diálogo con académicos”, organizado por Fundación UNAM y transmitido por TVUNAM, se abordaron las implicaciones de la IA en nuestras relaciones y en la sociedad en general.

    ¿Podemos confiar en la IA? Razones para ser críticos según la UNAM

    Carlos Ignacio Hernández Castellanos, investigador del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la UNAM, señaló que la IA ha llegado para quedarse, pero advirtió sobre los peligros de adoptarla en nuestras relaciones sentimentales. Según Hernández, esta tecnología puede adaptarse a nuestras necesidades, dándonos la razón constantemente y estando siempre atenta, lo que podría llevar a una dependencia emocional hacia sistemas artificiales. Esto plantea el riesgo de preferir interacciones virtuales sobre las reales, afectando nuestra capacidad para relacionarnos auténticamente con otras personas.

    Araxi Urrutia, investigadora del Instituto de Ecología de la UNAM, añadió que la IA podría fomentar el aislamiento de ideas y argumentos. Al interactuar principalmente con sistemas que refuerzan nuestras propias opiniones, corremos el riesgo de aislarnos de perspectivas diferentes, limitando nuestra capacidad de debate y reflexión crítica. Este fenómeno ya se observa en las redes sociales, donde los algoritmos nos muestran contenido alineado con nuestras preferencias, reduciendo la exposición a opiniones contrarias.

    Educación y pensamiento crítico en la era de la IA

    Jaime Urrutia Fucugauchi, investigador emérito de la UNAM, enfatizó la importancia de educar a las nuevas generaciones en el uso responsable de las tecnologías emergentes. La IA tiene la capacidad de influir en nuestra comprensión del entorno y en cómo establecemos nuestras relaciones personales.

    El experto señaló que si nos dejamos guiar únicamente por lo que la IA nos proporciona, podríamos perder la capacidad de definir nuestras propias necesidades y deseos.

    Por ello, es esencial fomentar la crítica y autocrítica a través de la educación, clave para seguir avanzando.

    Uso de IA, con potencial para ensanchar brechas

    Eduardo Morales, investigador del Instituto Nacional de Astrofísica Óptica y Electrónica, y experto en aprendizaje computacional y robótica, destacó que en los últimos años la inteligencia artificial ha experimentado un desarrollo acelerado con impacto en todas las áreas del conocimiento. Se espera que ello continúe, “pues tiene el potencial de brindar grandes beneficios; sin embargo, debemos asegurarnos de que lo haga bien”.

    Esta disciplina brinda la solución más probable, porque desconoce lo que es verdadero o falso, o no tiene por ahora la noción del mundo físico, por lo que debemos cambiar la mentalidad de que se trata de máquinas infalibles, que todos los cálculos lo hacen bien. Por ello se requiere fomentar el pensamiento crítico en los estudiantes, pero son necesarias políticas públicas que la incluyan y también su regulación.

    Para el científico, tiene el potencial de ensanchar la brecha entre ricos y pobresen donde la gente que tenga acceso a ella obtendrá beneficios en salud, educación, etcétera, mientras que la población que menos tiene no se verá favorecida, por lo que es necesario pensar cómo hacer que sea de beneficio global.

    Fuente.

    El Economista (2025, 09 de marzo). ¿Podemos confiar en la IA? Razones para ser críticos, señalan expertos de la UNAM. Recuperado el 10 de marzo de 2025, de: https://www.eleconomista.com.mx/tecnologia/confiar-ia-razones-criticos-senalan-expertos-unam-20250309-749687.html

  • OpenAI lanza consorcio para acelerar uso de IA en ciencia y educación

    OpenAI lanza consorcio para acelerar uso de IA en ciencia y educación

    La iniciativa presentada por OpenAI cuenta con una inversión de 50 millones de dólares en subvenciones, recursos computacionales y acceso a APIs.

    OpenAI presentó NextGenAI, un consorcio pionero que reúne a 15 instituciones de investigación del mundo con el objetivo de utilizar la Inteligencia Artificial (IA) para acelerar avances científicos y transformar la educación.

    La iniciativa cuenta con una inversión de 50 millones de dólares en subvenciones, recursos computacionales y acceso a APIs (interfaces de programación de aplicaciones) para apoyar a estudiantes, educadores e investigadores en la expansión de los límites del conocimiento en IA.

    Dentro de las instituciones miembros de NextGenAI, se encuentran Caltech, el sistema de la Universidad Estatal de California, la Universidad de Duke, la Universidad de Georgia, la Universidad de Harvard, la Universidad de Howard, el Instituto Tecnológico de Massachusetts (MIT), la Universidad de Míchigan, la Universidad de Misisipi y la Universidad Estatal de Ohio.

    También la Universidad de Oxford, Sciences Po, la Universidad Texas A&M, el Hospital Infantil de Boston y la Biblioteca Pública de Boston.

    Cada una de estas entidades está aplicando la IA para abordar desafíos de alto impacto, desde revolucionar la atención médica hasta reinventar la educación y buscarán empoderar a la próxima generación para que sea competente en IA.

    OpenAI afirmó que este consorcio también fortalece la conexión entre la academia y la industria.

    La Biblioteca Bodleiana de la Universidad de Oxford está utilizando la API de OpenAI para transcribir textos antiguos, mejorando su capacidad de búsqueda y accesibilidad. De manera similar, la Biblioteca Pública de Boston está empleando la IA para digitalizar materiales de dominio público, haciendo que la información sea más accesible para todos los usuarios.

    Este esfuerzo se basa en compromisos previos de OpenAI para apoyar la educación, incluyendo el lanzamiento de ChatGPT Edu en mayo de 2024, que amplió el acceso a ChatGPT en universidades.

    NextGenAI, en ese sentido, da un paso más al ofrecer a las instituciones financiación directa y soporte tecnológico para impulsar nuevas innovaciones.

    Con NextGenAI, OpenAI y sus socios buscan acelerar el progreso de la investigación y catalizar una nueva generación de instituciones equipadas para aprovechar el poder transformador de la IA.

    Fuente.

    DPL News (2025, 06 de marzo). Open AI lanza consorcio para acelerar uso de IA en ciencia y educación. Recuperado el 07 de marzo de 2025, de: https://dplnews.com/openai-lanza-consorcio-acelerar-uso-de-ia-en-ciencia/