{"id":28686,"date":"2023-04-11T11:00:56","date_gmt":"2023-04-11T17:00:56","guid":{"rendered":"https:\/\/otech.uaeh.edu.mx\/noti\/?p=28686"},"modified":"2023-04-11T11:00:56","modified_gmt":"2023-04-11T17:00:56","slug":"la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto","status":"publish","type":"post","link":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/","title":{"rendered":"La nueva IA de Meta puede seleccionar y cortar cualquier objeto en una imagen, incluso los que nunca antes se hab\u00edan visto"},"content":{"rendered":"<p style=\"text-align: justify;\" align=\"left\"><span style=\"color: #000000;\">Seleccionar objetos separados en una escena visual nos parece intuitivo, pero las m\u00e1quinas luchan con esta tarea.\u00a0Ahora, un nuevo modelo de IA de Meta ha desarrollado una idea amplia de lo que es un objeto, lo que le permite separar objetos incluso si nunca antes los hab\u00eda visto.<!--more--><\/span><\/p>\n<p style=\"text-align: justify;\" align=\"left\"><span style=\"color: #000000;\">Puede parecer una tarea de visi\u00f3n por computadora bastante prosaica, pero ser capaz de analizar una imagen y determinar d\u00f3nde termina un objeto y comienza otro es una habilidad bastante fundamental, sin la cual una gran cantidad de tareas m\u00e1s complicadas ser\u00edan irresolubles.<\/span><\/p>\n<p style=\"text-align: justify;\" align=\"left\"><span style=\"color: #000000;\">La &#8220;segmentaci\u00f3n de objetos&#8221; no es nada nuevo;\u00a0Los investigadores de IA han trabajado en ello durante a\u00f1os.\u00a0Pero, por lo general, la construcci\u00f3n de estos modelos ha sido un proceso lento que requiere mucha anotaci\u00f3n humana de im\u00e1genes y recursos inform\u00e1ticos considerables.\u00a0Y, por lo general, los modelos resultantes estaban altamente especializados para casos de uso particulares.<\/span><\/p>\n<p style=\"text-align: justify;\" align=\"left\"><span style=\"color: #000000;\">Ahora, sin embargo, los investigadores de Meta han presentado el Segment Anything Model (SAM), que puede cortar cualquier objeto en cualquier escena, independientemente de si se ha visto algo as\u00ed antes.\u00a0El modelo tambi\u00e9n puede hacer esto en respuesta a una variedad de indicaciones diferentes, desde la descripci\u00f3n del texto hasta los clics del mouse o incluso los datos de seguimiento ocular.<\/span><\/p>\n<p style=\"text-align: justify;\" align=\"left\"><span style=\"color: #000000;\">\u201cSAM ha aprendido una noci\u00f3n general de qu\u00e9 son los objetos y puede generar m\u00e1scaras para cualquier objeto en cualquier imagen o video\u201d, escribieron los investigadores en\u00a0<span lang=\"zxx\"><a style=\"color: #000000;\" href=\"https:\/\/ai.facebook.com\/blog\/segment-anything-foundation-model-image-segmentation\/\">una<\/a>\u00a0<\/span><span lang=\"zxx\">publicaci\u00f3n<\/span>\u00a0de blog .\u00a0\u201cCreemos que las posibilidades son amplias y estamos entusiasmados con los muchos casos de uso potenciales que ni siquiera hemos imaginado todav\u00eda\u201d.<\/span><\/p>\n<p style=\"text-align: justify;\" align=\"left\"><span style=\"color: #000000;\">La clave para el desarrollo del modelo fue un nuevo conjunto de datos masivo de 1100 millones de m\u00e1scaras de segmentaci\u00f3n, que se refiere a regiones de una imagen que han sido aisladas y anotadas para indicar que contienen un objeto en particular.\u00a0Fue creado a trav\u00e9s de una combinaci\u00f3n de anotaci\u00f3n humana manual de im\u00e1genes y procesos automatizados, y es, con mucho, la colecci\u00f3n m\u00e1s grande de este tipo reunida hasta la fecha.<\/span><\/p>\n<p style=\"text-align: justify;\" align=\"left\"><span style=\"color: #000000;\">Al entrenar en un conjunto de datos tan masivo, los investigadores de Meta dicen que ha desarrollado un concepto general de lo que es un objeto, lo que le permite segmentar cosas que ni siquiera ha visto antes.\u00a0Esta capacidad de generalizaci\u00f3n llev\u00f3 a los investigadores a denominar a SAM como un &#8220;modelo b\u00e1sico&#8221;, un\u00a0<span lang=\"zxx\"><a style=\"color: #000000;\" href=\"https:\/\/www.wired.com\/story\/stanford-proposal-ai-foundations-ignites-debate\/\">t\u00e9rmino controvertido<\/a><\/span>\u00a0utilizado para describir otros modelos masivos preentrenados, como la serie\u00a0<a style=\"color: #000000;\" href=\"https:\/\/singularityhub.com\/2023\/03\/19\/openai-says-gpt-4-is-better-in-nearly-every-way-what-matters-more-is-that-millions-will-use-it\/\">GPT de OpenAI<\/a>\u00a0, cuyas capacidades son supuestamente tan generales que pueden usarse como base para un host. de aplicaciones<\/span><\/p>\n<p style=\"text-align: justify;\" align=\"left\"><span style=\"color: #000000;\">La segmentaci\u00f3n de im\u00e1genes es definitivamente un ingrediente clave en una amplia gama de tareas de visi\u00f3n artificial.\u00a0Si no puede separar los diferentes componentes de una escena, es dif\u00edcil hacer algo m\u00e1s complicado con ella.\u00a0En su blog, los investigadores dicen que podr\u00eda resultar invaluable en la edici\u00f3n de videos e im\u00e1genes, o ayudar con el an\u00e1lisis de im\u00e1genes cient\u00edficas.<\/span><\/p>\n<p style=\"text-align: justify;\" align=\"left\"><span style=\"color: #000000;\">Quiz\u00e1s m\u00e1s pertinente para las ambiciones de metaverso de la compa\u00f1\u00eda, brindan una demostraci\u00f3n de c\u00f3mo podr\u00eda usarse junto con un casco de realidad virtual para seleccionar objetos espec\u00edficos en funci\u00f3n de la mirada del usuario.\u00a0Tambi\u00e9n dicen que potencialmente podr\u00eda combinarse con un modelo de lenguaje grande para crear un sistema multimodal capaz de comprender tanto el contenido visual como el textual de una p\u00e1gina web.<\/span><\/p>\n<p style=\"text-align: justify;\" align=\"left\"><span style=\"color: #000000;\">La capacidad de manejar una amplia gama de avisos hace que el sistema sea particularmente flexible.\u00a0En una\u00a0<span lang=\"zxx\"><a style=\"color: #000000;\" href=\"https:\/\/segment-anything.com\/\">p\u00e1gina web<\/a><\/span>\u00a0que muestra el nuevo modelo, la compa\u00f1\u00eda muestra que despu\u00e9s de analizar una imagen, se le puede pedir que separe objetos espec\u00edficos simplemente haciendo clic en ellos con el cursor del mouse, escribiendo qu\u00e9 es lo que desea segmentar o simplemente dividiendo. toda la imagen en objetos separados.<\/span><\/p>\n<p style=\"text-align: justify;\" align=\"left\"><span style=\"color: #000000;\">Y lo que es m\u00e1s importante, la empresa est\u00e1 abriendo tanto el modelo como el conjunto de datos con fines de investigaci\u00f3n para que otros puedan desarrollar su trabajo.\u00a0Este es el mismo enfoque que tom\u00f3 la compa\u00f1\u00eda con su modelo de lenguaje grande LLaMA, lo que llev\u00f3 a que se filtrara r\u00e1pidamente\u00a0<span lang=\"zxx\"><a style=\"color: #000000;\" href=\"https:\/\/www.theverge.com\/2023\/3\/8\/23629362\/meta-ai-language-model-llama-leak-online-misuse\">en l\u00ednea<\/a><\/span>\u00a0y provocara una\u00a0<span lang=\"zxx\"><a style=\"color: #000000;\" href=\"https:\/\/arstechnica.com\/information-technology\/2023\/03\/you-can-now-run-a-gpt-3-level-ai-model-on-your-laptop-phone-and-raspberry-pi\/\">ola de experimentaci\u00f3n<\/a><\/span>\u00a0por parte de aficionados y piratas inform\u00e1ticos.<\/span><\/p>\n<p style=\"text-align: justify;\" align=\"left\"><span style=\"color: #000000;\">Queda por ver si suceder\u00e1 lo mismo con SAM, pero de cualquier manera es un regalo para la comunidad de investigaci\u00f3n de IA que podr\u00eda acelerar el progreso en una serie de problemas importantes de visi\u00f3n por computadora.<\/span><\/p>\n<p style=\"text-align: justify;\" align=\"left\"><span style=\"color: #000000;\"><em>Cr\u00e9dito de la imagen:\u00a0<a style=\"color: #000000;\" href=\"https:\/\/segment-anything.com\/\">Meta IA<\/a><\/em><\/span><\/p>\n<p>Bastero, M. (2023c, abril 11). <i>Top unicornios: las startups m\u00e1s valiosas del mundo (2023)<\/i>. Marketing 4 Ecommerce &#8211; Tu revista de marketing online para e-commerce. https:\/\/marketing4ecommerce.mx\/top-startups-mas-valiosas-mundo-ranking\/<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Seleccionar objetos separados en una escena visual nos parece intuitivo, pero las m\u00e1quinas luchan con esta tarea.\u00a0Ahora, un nuevo modelo de IA de Meta ha desarrollado una idea amplia de lo que es un objeto, lo que le permite separar objetos incluso si nunca antes los hab\u00eda visto.<\/p>\n","protected":false},"author":1,"featured_media":28687,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[361],"tags":[],"class_list":["post-28686","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ia"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.7 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>La nueva IA de Meta puede seleccionar y cortar cualquier objeto en una imagen, incluso los que nunca antes se hab\u00edan visto - Observatorio Tecnol\u00f3gico de Hidalgo<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"La nueva IA de Meta puede seleccionar y cortar cualquier objeto en una imagen, incluso los que nunca antes se hab\u00edan visto - Observatorio Tecnol\u00f3gico de Hidalgo\" \/>\n<meta property=\"og:description\" content=\"Seleccionar objetos separados en una escena visual nos parece intuitivo, pero las m\u00e1quinas luchan con esta tarea.\u00a0Ahora, un nuevo modelo de IA de Meta ha desarrollado una idea amplia de lo que es un objeto, lo que le permite separar objetos incluso si nunca antes los hab\u00eda visto.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/\" \/>\n<meta property=\"og:site_name\" content=\"Observatorio Tecnol\u00f3gico de Hidalgo\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/observatoriouaeh\" \/>\n<meta property=\"article:published_time\" content=\"2023-04-11T17:00:56+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2023\/04\/Captura-de-Pantalla-2023-04-11-a-las-11.00.04.png\" \/>\n\t<meta property=\"og:image:width\" content=\"770\" \/>\n\t<meta property=\"og:image:height\" content=\"434\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"admin\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@OBSERVATORIOEH\" \/>\n<meta name=\"twitter:site\" content=\"@OBSERVATORIOEH\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"admin\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/\"},\"author\":{\"name\":\"admin\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/person\/95263d004158ffabcd98137e1d0abc1c\"},\"headline\":\"La nueva IA de Meta puede seleccionar y cortar cualquier objeto en una imagen, incluso los que nunca antes se hab\u00edan visto\",\"datePublished\":\"2023-04-11T17:00:56+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/\"},\"wordCount\":849,\"commentCount\":0,\"publisher\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#organization\"},\"image\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2023\/04\/Captura-de-Pantalla-2023-04-11-a-las-11.00.04.png\",\"articleSection\":[\"Inteligencia Artificial\"],\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"CommentAction\",\"name\":\"Comment\",\"target\":[\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#respond\"]}]},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/\",\"url\":\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/\",\"name\":\"La nueva IA de Meta puede seleccionar y cortar cualquier objeto en una imagen, incluso los que nunca antes se hab\u00edan visto - Observatorio Tecnol\u00f3gico de Hidalgo\",\"isPartOf\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2023\/04\/Captura-de-Pantalla-2023-04-11-a-las-11.00.04.png\",\"datePublished\":\"2023-04-11T17:00:56+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#primaryimage\",\"url\":\"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2023\/04\/Captura-de-Pantalla-2023-04-11-a-las-11.00.04.png\",\"contentUrl\":\"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2023\/04\/Captura-de-Pantalla-2023-04-11-a-las-11.00.04.png\",\"width\":770,\"height\":434},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Inicio\",\"item\":\"https:\/\/otech.uaeh.edu.mx\/noti\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"La nueva IA de Meta puede seleccionar y cortar cualquier objeto en una imagen, incluso los que nunca antes se hab\u00edan visto\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#website\",\"url\":\"https:\/\/otech.uaeh.edu.mx\/noti\/\",\"name\":\"Observatorio Tecnol\u00f3gico de Hidalgo\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/otech.uaeh.edu.mx\/noti\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#organization\",\"name\":\"Observatorio Tecnol\u00f3gico de Hidalgo\",\"url\":\"https:\/\/otech.uaeh.edu.mx\/noti\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2025\/11\/Logo-circulo.png\",\"contentUrl\":\"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2025\/11\/Logo-circulo.png\",\"width\":250,\"height\":250,\"caption\":\"Observatorio Tecnol\u00f3gico de Hidalgo\"},\"image\":{\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.facebook.com\/observatoriouaeh\",\"https:\/\/x.com\/OBSERVATORIOEH\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/person\/95263d004158ffabcd98137e1d0abc1c\",\"name\":\"admin\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/08dd17208ee6a9e87c5a01c0a5f4c96c8ed24bf05e625630929b5b6a7c1ffa5f?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/08dd17208ee6a9e87c5a01c0a5f4c96c8ed24bf05e625630929b5b6a7c1ffa5f?s=96&d=mm&r=g\",\"caption\":\"admin\"},\"url\":\"https:\/\/otech.uaeh.edu.mx\/noti\/author\/admin\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"La nueva IA de Meta puede seleccionar y cortar cualquier objeto en una imagen, incluso los que nunca antes se hab\u00edan visto - Observatorio Tecnol\u00f3gico de Hidalgo","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/","og_locale":"en_US","og_type":"article","og_title":"La nueva IA de Meta puede seleccionar y cortar cualquier objeto en una imagen, incluso los que nunca antes se hab\u00edan visto - Observatorio Tecnol\u00f3gico de Hidalgo","og_description":"Seleccionar objetos separados en una escena visual nos parece intuitivo, pero las m\u00e1quinas luchan con esta tarea.\u00a0Ahora, un nuevo modelo de IA de Meta ha desarrollado una idea amplia de lo que es un objeto, lo que le permite separar objetos incluso si nunca antes los hab\u00eda visto.","og_url":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/","og_site_name":"Observatorio Tecnol\u00f3gico de Hidalgo","article_publisher":"https:\/\/www.facebook.com\/observatoriouaeh","article_published_time":"2023-04-11T17:00:56+00:00","og_image":[{"width":770,"height":434,"url":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2023\/04\/Captura-de-Pantalla-2023-04-11-a-las-11.00.04.png","type":"image\/png"}],"author":"admin","twitter_card":"summary_large_image","twitter_creator":"@OBSERVATORIOEH","twitter_site":"@OBSERVATORIOEH","twitter_misc":{"Written by":"admin","Est. reading time":"4 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#article","isPartOf":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/"},"author":{"name":"admin","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/person\/95263d004158ffabcd98137e1d0abc1c"},"headline":"La nueva IA de Meta puede seleccionar y cortar cualquier objeto en una imagen, incluso los que nunca antes se hab\u00edan visto","datePublished":"2023-04-11T17:00:56+00:00","mainEntityOfPage":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/"},"wordCount":849,"commentCount":0,"publisher":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#organization"},"image":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#primaryimage"},"thumbnailUrl":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2023\/04\/Captura-de-Pantalla-2023-04-11-a-las-11.00.04.png","articleSection":["Inteligencia Artificial"],"inLanguage":"en-US","potentialAction":[{"@type":"CommentAction","name":"Comment","target":["https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#respond"]}]},{"@type":"WebPage","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/","url":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/","name":"La nueva IA de Meta puede seleccionar y cortar cualquier objeto en una imagen, incluso los que nunca antes se hab\u00edan visto - Observatorio Tecnol\u00f3gico de Hidalgo","isPartOf":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#website"},"primaryImageOfPage":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#primaryimage"},"image":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#primaryimage"},"thumbnailUrl":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2023\/04\/Captura-de-Pantalla-2023-04-11-a-las-11.00.04.png","datePublished":"2023-04-11T17:00:56+00:00","breadcrumb":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#primaryimage","url":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2023\/04\/Captura-de-Pantalla-2023-04-11-a-las-11.00.04.png","contentUrl":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2023\/04\/Captura-de-Pantalla-2023-04-11-a-las-11.00.04.png","width":770,"height":434},{"@type":"BreadcrumbList","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/la-nueva-ia-de-meta-puede-seleccionar-y-cortar-cualquier-objeto-en-una-imagen-incluso-los-que-nunca-antes-se-habian-visto\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Inicio","item":"https:\/\/otech.uaeh.edu.mx\/noti\/"},{"@type":"ListItem","position":2,"name":"La nueva IA de Meta puede seleccionar y cortar cualquier objeto en una imagen, incluso los que nunca antes se hab\u00edan visto"}]},{"@type":"WebSite","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#website","url":"https:\/\/otech.uaeh.edu.mx\/noti\/","name":"Observatorio Tecnol\u00f3gico de Hidalgo","description":"","publisher":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/otech.uaeh.edu.mx\/noti\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Organization","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#organization","name":"Observatorio Tecnol\u00f3gico de Hidalgo","url":"https:\/\/otech.uaeh.edu.mx\/noti\/","logo":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/logo\/image\/","url":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2025\/11\/Logo-circulo.png","contentUrl":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-content\/uploads\/2025\/11\/Logo-circulo.png","width":250,"height":250,"caption":"Observatorio Tecnol\u00f3gico de Hidalgo"},"image":{"@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/observatoriouaeh","https:\/\/x.com\/OBSERVATORIOEH"]},{"@type":"Person","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/person\/95263d004158ffabcd98137e1d0abc1c","name":"admin","image":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/otech.uaeh.edu.mx\/noti\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/08dd17208ee6a9e87c5a01c0a5f4c96c8ed24bf05e625630929b5b6a7c1ffa5f?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/08dd17208ee6a9e87c5a01c0a5f4c96c8ed24bf05e625630929b5b6a7c1ffa5f?s=96&d=mm&r=g","caption":"admin"},"url":"https:\/\/otech.uaeh.edu.mx\/noti\/author\/admin\/"}]}},"_links":{"self":[{"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/posts\/28686","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/comments?post=28686"}],"version-history":[{"count":1,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/posts\/28686\/revisions"}],"predecessor-version":[{"id":28688,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/posts\/28686\/revisions\/28688"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/media\/28687"}],"wp:attachment":[{"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/media?parent=28686"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/categories?post=28686"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/tags?post=28686"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}