{"id":30127,"date":"2025-03-24T10:55:55","date_gmt":"2025-03-24T16:55:55","guid":{"rendered":"https:\/\/otech.uaeh.edu.mx\/noti\/?p=30127"},"modified":"2025-10-24T15:08:48","modified_gmt":"2025-10-24T21:08:48","slug":"menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple","status":"publish","type":"post","link":"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/","title":{"rendered":"Menos es m\u00e1s: UC Berkeley y Google liberan el potencial de LLM a trav\u00e9s de un muestreo simple"},"content":{"rendered":"<p><span>Un\u00a0<\/span><span>nuevo art\u00edculo<\/span><span>\u00a0de investigadores de\u00a0<\/span><span>Google Research<\/span><span>\u00a0y\u00a0<\/span><span>la Universidad de California, Berkeley,<\/span><span>\u00a0demuestra que un enfoque sorprendentemente sencillo de escalamiento en tiempo de prueba puede potenciar la capacidad de razonamiento de los modelos de lenguaje grandes (LLM). \u00bfLa clave? Ampliar la b\u00fasqueda basada en muestreo, una t\u00e9cnica que se basa en la generaci\u00f3n de m\u00faltiples respuestas y el uso del propio modelo para verificarlas.\u00a0<\/span><\/p>\n<p><span>El hallazgo principal es que incluso una implementaci\u00f3n minimalista de b\u00fasqueda basada en muestreo, mediante muestreo aleatorio y autoverificaci\u00f3n, puede mejorar el rendimiento de razonamiento de modelos como Gemini 1.5 Pro por encima del de o1-Preview en benchmarks populares. Estos hallazgos pueden tener implicaciones importantes para las aplicaciones empresariales y cuestionar la suposici\u00f3n de que un entrenamiento altamente especializado o arquitecturas complejas siempre son necesarios para lograr un rendimiento de primer nivel.<\/span><\/p>\n<h2 id=\"h-the-limits-of-current-test-time-compute-scaling\" class=\"wp-block-heading\"><span>Los l\u00edmites del escalamiento computacional en tiempo de prueba actual<\/span><\/h2>\n<p><span>El m\u00e9todo popular actual para el escalamiento del tiempo de prueba en LLM consiste en entrenar el modelo mediante aprendizaje por refuerzo para generar respuestas m\u00e1s largas con trazas de cadena de pensamiento (CoT). Este enfoque se utiliza en modelos como\u00a0<\/span><span>OpenAI o1<\/span><span>\u00a0y\u00a0<\/span><span>DeepSeek-R1<\/span><span>\u00a0. Si bien son beneficiosos, estos m\u00e9todos suelen requerir una inversi\u00f3n considerable en la fase de entrenamiento.<\/span><\/p>\n<p><span>Otro m\u00e9todo de escalamiento en tiempo de prueba es la autoconsistencia, donde el modelo genera m\u00faltiples respuestas a la consulta y elige la que aparece con mayor frecuencia. La autoconsistencia alcanza sus l\u00edmites al gestionar problemas complejos, ya que en estos casos la respuesta m\u00e1s repetida no es necesariamente la correcta.<\/span><\/p>\n<p><span>La b\u00fasqueda basada en muestreo ofrece una alternativa m\u00e1s sencilla y altamente escalable al escalado en tiempo de prueba: permite que el modelo genere m\u00faltiples respuestas y seleccione la mejor mediante un mecanismo de verificaci\u00f3n. La b\u00fasqueda basada en muestreo puede complementar otras estrategias de escalado computacional en tiempo de prueba y, como escriben los investigadores en su art\u00edculo, \u00abtambi\u00e9n tiene la ventaja \u00fanica de ser vergonzosamente paralela y permitir un escalado arbitrario: simplemente se muestrean m\u00e1s respuestas\u00bb.<\/span><\/p>\n<p><span>M\u00e1s importante a\u00fan, la b\u00fasqueda basada en muestreo se puede aplicar a cualquier LLM, incluidos aquellos que no han sido entrenados expl\u00edcitamente para el razonamiento.<\/span><\/p>\n<h2 id=\"h-how-sampling-based-search-works\" class=\"wp-block-heading\"><span>C\u00f3mo funciona la b\u00fasqueda basada en muestreo<\/span><\/h2>\n<p><span>Los investigadores se centran en una implementaci\u00f3n minimalista de la b\u00fasqueda basada en muestreo, utilizando un modelo de lenguaje para generar respuestas candidatas y verificarlas. Se trata de un proceso de autoverificaci\u00f3n, en el que el modelo eval\u00faa sus propios resultados sin depender de respuestas externas de verdad fundamental ni de sistemas de verificaci\u00f3n simb\u00f3lica.<\/span><\/p>\n<p><span>El algoritmo funciona en unos sencillos pasos:\u00a0<\/span><\/p>\n<p><span>1\u2014El algoritmo comienza generando un conjunto de posibles soluciones al problema dado mediante un modelo de lenguaje. Esto se logra presentando al modelo la misma instrucci\u00f3n varias veces y utilizando una configuraci\u00f3n de temperatura distinta de cero para crear un conjunto diverso de respuestas.<\/span><\/p>\n<p><span>2\u2014La respuesta de cada candidato se somete a un proceso de verificaci\u00f3n en el que se le solicita al LLM varias veces que determine si la respuesta es correcta. Los resultados de la verificaci\u00f3n se promedian para obtener la puntuaci\u00f3n final de verificaci\u00f3n de la respuesta.<\/span><\/p>\n<p><span>3\u2014 El algoritmo selecciona la respuesta con la puntuaci\u00f3n m\u00e1s alta como respuesta final. Si hay varios candidatos con una distancia muy cercana, el LLM debe compararlos por pares y elegir el mejor. La respuesta que obtenga m\u00e1s comparaciones por pares se elige como respuesta final.<\/span><\/p>\n<p><span>Los investigadores consideraron dos ejes clave para escalar el tiempo de prueba:<\/span><\/p>\n<p><span>Muestreo: El n\u00famero de respuestas que el modelo genera para cada problema de entrada.<\/span><\/p>\n<p><span>Verificaci\u00f3n: La cantidad de puntajes de verificaci\u00f3n calculados para cada soluci\u00f3n generada<\/span><\/p>\n<h2 id=\"h-how-sampling-based-search-compares-to-other-techniques\" class=\"wp-block-heading\"><span>C\u00f3mo se compara la b\u00fasqueda basada en muestreo con otras t\u00e9cnicas<\/span><\/h2>\n<p><span>El estudio revel\u00f3 que el rendimiento del razonamiento contin\u00faa mejorando con la b\u00fasqueda basada en muestreo, incluso cuando el c\u00f3mputo en tiempo de prueba se escala mucho m\u00e1s all\u00e1 del punto donde la autoconsistencia se satura.\u00a0<\/span><\/p>\n<p>A una escala suficiente, esta implementaci\u00f3n minimalista mejora significativamente la precisi\u00f3n del razonamiento en pruebas de razonamiento como AIME y MATH. Por ejemplo, el rendimiento de Gemini 1.5 Pro super\u00f3 al de o1-Preview, que se entren\u00f3 expl\u00edcitamente en problemas de razonamiento, y Gemini 1.5 Flash super\u00f3 a Gemini 1.5 Pro.<\/p>\n<p><span>\u201cEsto no solo resalta la importancia de la b\u00fasqueda basada en muestreo para la capacidad de escalamiento, sino que tambi\u00e9n sugiere la utilidad de la b\u00fasqueda basada en muestreo como una l\u00ednea de base simple sobre la cual comparar otras estrategias de escalamiento computacional en tiempo de prueba y medir mejoras genuinas en las capacidades de b\u00fasqueda de los modelos\u201d, escriben los investigadores.<\/span><\/p>\n<p><span>Cabe destacar que, si bien los resultados del muestreo basado en b\u00fasqueda son impresionantes, los costos tambi\u00e9n pueden resultar prohibitivos. Por ejemplo, con 200 muestras y 50 pasos de verificaci\u00f3n por muestra, una consulta de AIME generar\u00e1 alrededor de 130 millones de tokens, lo que cuesta $650 con Gemini 1.5 Pro. Sin embargo, este es un enfoque muy minimalista para la b\u00fasqueda basada en muestreo y es compatible con las t\u00e9cnicas de optimizaci\u00f3n propuestas en otros estudios. Con m\u00e9todos de muestreo y verificaci\u00f3n m\u00e1s inteligentes, los costos de inferencia pueden reducirse considerablemente mediante\u00a0<\/span><span>el uso de modelos m\u00e1s peque\u00f1os<\/span><span>\u00a0y\u00a0<\/span><span>la generaci\u00f3n de menos tokens<\/span><span>\u00a0. Por ejemplo, al usar Gemini 1.5 Flash para realizar la verificaci\u00f3n, los costos se reducen a $12 por pregunta.<\/span><\/p>\n<h2 id=\"h-effective-self-verification-strategies\" class=\"wp-block-heading\"><span>Estrategias eficaces de autoverificaci\u00f3n<\/span><\/h2>\n<p><span>Existe un debate en curso sobre si los LLM pueden verificar sus propias respuestas. Los investigadores identificaron dos estrategias clave para mejorar la autoverificaci\u00f3n mediante el uso de c\u00f3mputo en tiempo de prueba:<\/span><\/p>\n<p><strong><span>Comparaci\u00f3n directa de las respuestas candidatas:<\/span><\/strong><span>\u00a0Las discrepancias entre las soluciones candidatas son un claro indicio de posibles errores. Al proporcionar al verificador m\u00faltiples respuestas para comparar, el modelo puede identificar mejor los errores y las alucinaciones, lo que soluciona una debilidad fundamental de los LLM. Los investigadores describen esto como un ejemplo de \u00abescalamiento impl\u00edcito\u00bb.<\/span><\/p>\n<p><strong><span>Reescritura espec\u00edfica de la tarea:<\/span><\/strong><span>\u00a0Los investigadores proponen que el estilo \u00f3ptimo de salida de un LLM depende de la tarea. La cadena de pensamiento es eficaz para resolver tareas de razonamiento, pero las respuestas son m\u00e1s f\u00e1ciles de verificar cuando se redactan en un estilo m\u00e1s formal y matem\u00e1ticamente convencional. Los verificadores pueden reescribir las respuestas de los candidatos en un formato m\u00e1s estructurado (p. ej., prueba de teoremas y lemas) antes de la evaluaci\u00f3n.<\/span><\/p>\n<p><span>\u201cPrevemos que las capacidades de autoverificaci\u00f3n de los modelos mejorar\u00e1n r\u00e1pidamente a corto plazo, a medida que los modelos aprendan a aprovechar los principios de escalamiento impl\u00edcito y la idoneidad del estilo de salida, e impulsen tasas de escalamiento mejoradas para la b\u00fasqueda basada en muestreo\u201d, escriben los investigadores.<\/span><\/p>\n<h2 id=\"h-implications-for-real-world-applications\" class=\"wp-block-heading\"><span>Implicaciones para aplicaciones en el mundo real<\/span><\/h2>\n<p><span>El estudio demuestra que una t\u00e9cnica relativamente simple puede lograr resultados impresionantes, reduciendo potencialmente la necesidad de arquitecturas de modelos o reg\u00edmenes de entrenamiento complejos y costosos.<\/span><\/p>\n<p><span>Esta t\u00e9cnica tambi\u00e9n es escalable, lo que permite a las empresas aumentar el rendimiento al asignar m\u00e1s recursos computacionales al muestreo y la verificaci\u00f3n. Adem\u00e1s, permite a los desarrolladores llevar los modelos de lenguaje de vanguardia m\u00e1s all\u00e1 de sus limitaciones en tareas complejas.<\/span><\/p>\n<p><span>\u201cDado que complementa otras estrategias de escalamiento computacional en tiempo de prueba, es paralelizable y permite escalamiento arbitrario, y admite implementaciones simples que son demostrablemente efectivas, esperamos que la b\u00fasqueda basada en muestreo desempe\u00f1e un papel crucial a medida que los modelos de lenguaje se encargan de resolver problemas cada vez m\u00e1s complejos con presupuestos computacionales cada vez mayores\u201d, escriben los investigadores.\u00a0<\/span><\/p>\n<p>Fuente.<\/p>\n<p>VentureBeat (2025, 21 de marzo). Menos es m\u00e1s: UC Berkeley y Google liberan el potencial de LLM a trav\u00e9s de un muestreo simple. Recuperado el 24 de marzo de 2025, de: <a href=\"https:\/\/venturebeat.com\/ai\/less-is-more-uc-berkeley-and-google-unlock-llm-potential-through-simple-sampling\/\">https:\/\/venturebeat.com\/ai\/less-is-more-uc-berkeley-and-google-unlock-llm-potential-through-simple-sampling\/<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Un\u00a0nuevo art\u00edculo\u00a0de investigadores de\u00a0Google Research\u00a0y\u00a0la Universidad de California, Berkeley,\u00a0demuestra que un enfoque sorprendentemente sencillo de escalamiento en tiempo de prueba puede potenciar la capacidad de razonamiento de los modelos de lenguaje grandes (LLM). \u00bfLa clave? Ampliar la b\u00fasqueda basada en muestreo, una t\u00e9cnica que se basa en la generaci\u00f3n de m\u00faltiples respuestas y el uso [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-30127","post","type-post","status-publish","format-standard","hentry","category-tech"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.7 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Menos es m\u00e1s: UC Berkeley y Google liberan el potencial de LLM a trav\u00e9s de un muestreo simple - Observatorio Tecnol\u00f3gico de Hidalgo<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Menos es m\u00e1s: UC Berkeley y Google liberan el potencial de LLM a trav\u00e9s de un muestreo simple - Observatorio Tecnol\u00f3gico de Hidalgo\" \/>\n<meta property=\"og:description\" content=\"Un\u00a0nuevo art\u00edculo\u00a0de investigadores de\u00a0Google Research\u00a0y\u00a0la Universidad de California, Berkeley,\u00a0demuestra que un enfoque sorprendentemente sencillo de escalamiento en tiempo de prueba puede potenciar la capacidad de razonamiento de los modelos de lenguaje grandes (LLM). \u00bfLa clave? Ampliar la b\u00fasqueda basada en muestreo, una t\u00e9cnica que se basa en la generaci\u00f3n de m\u00faltiples respuestas y el uso [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/\" \/>\n<meta property=\"og:site_name\" content=\"Observatorio Tecnol\u00f3gico de Hidalgo\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/observatoriouaeh\" \/>\n<meta property=\"article:published_time\" content=\"2025-03-24T16:55:55+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2025-10-24T21:08:48+00:00\" \/>\n<meta name=\"author\" content=\"admin\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@OBSERVATORIOEH\" \/>\n<meta name=\"twitter:site\" content=\"@OBSERVATORIOEH\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"admin\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/\"},\"author\":{\"name\":\"admin\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/person\/95263d004158ffabcd98137e1d0abc1c\"},\"headline\":\"Menos es m\u00e1s: UC Berkeley y Google liberan el potencial de LLM a trav\u00e9s de un muestreo simple\",\"datePublished\":\"2025-03-24T16:55:55+00:00\",\"dateModified\":\"2025-10-24T21:08:48+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/\"},\"wordCount\":1401,\"commentCount\":0,\"publisher\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#organization\"},\"articleSection\":[\"Tecnolog\u00eda\"],\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"CommentAction\",\"name\":\"Comment\",\"target\":[\"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/#respond\"]}]},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/\",\"url\":\"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/\",\"name\":\"Menos es m\u00e1s: UC Berkeley y Google liberan el potencial de LLM a trav\u00e9s de un muestreo simple - Observatorio Tecnol\u00f3gico de Hidalgo\",\"isPartOf\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#website\"},\"datePublished\":\"2025-03-24T16:55:55+00:00\",\"dateModified\":\"2025-10-24T21:08:48+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Inicio\",\"item\":\"https:\/\/otech.uaeh.edu.mx\/noti\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Menos es m\u00e1s: UC Berkeley y Google liberan el potencial de LLM a trav\u00e9s de un muestreo simple\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#website\",\"url\":\"https:\/\/otech.uaeh.edu.mx\/noti\/\",\"name\":\"Observatorio Tecnol\u00f3gico de Hidalgo\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/otech.uaeh.edu.mx\/noti\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#organization\",\"name\":\"Observatorio Tecnol\u00f3gico de Hidalgo\",\"url\":\"https:\/\/otech.uaeh.edu.mx\/noti\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2025\/11\/Logo-circulo.png\",\"contentUrl\":\"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2025\/11\/Logo-circulo.png\",\"width\":250,\"height\":250,\"caption\":\"Observatorio Tecnol\u00f3gico de Hidalgo\"},\"image\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.facebook.com\/observatoriouaeh\",\"https:\/\/x.com\/OBSERVATORIOEH\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/person\/95263d004158ffabcd98137e1d0abc1c\",\"name\":\"admin\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/08dd17208ee6a9e87c5a01c0a5f4c96c8ed24bf05e625630929b5b6a7c1ffa5f?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/08dd17208ee6a9e87c5a01c0a5f4c96c8ed24bf05e625630929b5b6a7c1ffa5f?s=96&d=mm&r=g\",\"caption\":\"admin\"},\"url\":\"https:\/\/otech.uaeh.edu.mx\/noti\/author\/admin\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Menos es m\u00e1s: UC Berkeley y Google liberan el potencial de LLM a trav\u00e9s de un muestreo simple - Observatorio Tecnol\u00f3gico de Hidalgo","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/","og_locale":"en_US","og_type":"article","og_title":"Menos es m\u00e1s: UC Berkeley y Google liberan el potencial de LLM a trav\u00e9s de un muestreo simple - Observatorio Tecnol\u00f3gico de Hidalgo","og_description":"Un\u00a0nuevo art\u00edculo\u00a0de investigadores de\u00a0Google Research\u00a0y\u00a0la Universidad de California, Berkeley,\u00a0demuestra que un enfoque sorprendentemente sencillo de escalamiento en tiempo de prueba puede potenciar la capacidad de razonamiento de los modelos de lenguaje grandes (LLM). \u00bfLa clave? Ampliar la b\u00fasqueda basada en muestreo, una t\u00e9cnica que se basa en la generaci\u00f3n de m\u00faltiples respuestas y el uso [&hellip;]","og_url":"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/","og_site_name":"Observatorio Tecnol\u00f3gico de Hidalgo","article_publisher":"https:\/\/www.facebook.com\/observatoriouaeh","article_published_time":"2025-03-24T16:55:55+00:00","article_modified_time":"2025-10-24T21:08:48+00:00","author":"admin","twitter_card":"summary_large_image","twitter_creator":"@OBSERVATORIOEH","twitter_site":"@OBSERVATORIOEH","twitter_misc":{"Written by":"admin","Est. reading time":"7 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/#article","isPartOf":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/"},"author":{"name":"admin","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/person\/95263d004158ffabcd98137e1d0abc1c"},"headline":"Menos es m\u00e1s: UC Berkeley y Google liberan el potencial de LLM a trav\u00e9s de un muestreo simple","datePublished":"2025-03-24T16:55:55+00:00","dateModified":"2025-10-24T21:08:48+00:00","mainEntityOfPage":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/"},"wordCount":1401,"commentCount":0,"publisher":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#organization"},"articleSection":["Tecnolog\u00eda"],"inLanguage":"en-US","potentialAction":[{"@type":"CommentAction","name":"Comment","target":["https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/#respond"]}]},{"@type":"WebPage","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/","url":"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/","name":"Menos es m\u00e1s: UC Berkeley y Google liberan el potencial de LLM a trav\u00e9s de un muestreo simple - Observatorio Tecnol\u00f3gico de Hidalgo","isPartOf":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#website"},"datePublished":"2025-03-24T16:55:55+00:00","dateModified":"2025-10-24T21:08:48+00:00","breadcrumb":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/tech\/menos-es-mas-uc-berkeley-y-google-liberan-el-potencial-de-llm-a-traves-de-un-muestreo-simple\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Inicio","item":"https:\/\/otech.uaeh.edu.mx\/noti\/"},{"@type":"ListItem","position":2,"name":"Menos es m\u00e1s: UC Berkeley y Google liberan el potencial de LLM a trav\u00e9s de un muestreo simple"}]},{"@type":"WebSite","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#website","url":"https:\/\/otech.uaeh.edu.mx\/noti\/","name":"Observatorio Tecnol\u00f3gico de Hidalgo","description":"","publisher":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/otech.uaeh.edu.mx\/noti\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Organization","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#organization","name":"Observatorio Tecnol\u00f3gico de Hidalgo","url":"https:\/\/otech.uaeh.edu.mx\/noti\/","logo":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/logo\/image\/","url":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2025\/11\/Logo-circulo.png","contentUrl":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2025\/11\/Logo-circulo.png","width":250,"height":250,"caption":"Observatorio Tecnol\u00f3gico de Hidalgo"},"image":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/observatoriouaeh","https:\/\/x.com\/OBSERVATORIOEH"]},{"@type":"Person","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/person\/95263d004158ffabcd98137e1d0abc1c","name":"admin","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/08dd17208ee6a9e87c5a01c0a5f4c96c8ed24bf05e625630929b5b6a7c1ffa5f?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/08dd17208ee6a9e87c5a01c0a5f4c96c8ed24bf05e625630929b5b6a7c1ffa5f?s=96&d=mm&r=g","caption":"admin"},"url":"https:\/\/otech.uaeh.edu.mx\/noti\/author\/admin\/"}]}},"_links":{"self":[{"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/posts\/30127","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/comments?post=30127"}],"version-history":[{"count":2,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/posts\/30127\/revisions"}],"predecessor-version":[{"id":30865,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/posts\/30127\/revisions\/30865"}],"wp:attachment":[{"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/media?parent=30127"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/categories?post=30127"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/tags?post=30127"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}