{"id":6373,"date":"2017-07-19T08:29:35","date_gmt":"2017-07-19T14:29:35","guid":{"rendered":"http:\/\/otech.uaeh.edu.mx\/noti\/?p=6373"},"modified":"2017-07-19T08:29:35","modified_gmt":"2017-07-19T14:29:35","slug":"traer-redes-neuronales-a-telefonos-celulares","status":"publish","type":"post","link":"https:\/\/otech.uaeh.edu.mx\/noti\/ia\/traer-redes-neuronales-a-telefonos-celulares\/","title":{"rendered":"Traer redes neuronales a tel\u00e9fonos celulares"},"content":{"rendered":"

El m\u00e9todo para modelar el consumo de energ\u00eda de las redes neuronales podr\u00eda ayudar a que los sistemas sean port\u00e1tiles.<\/p>\n

En los \u00faltimos a\u00f1os, los sistemas de inteligencia artificial de mayor rendimiento -en \u00e1reas como la conducci\u00f3n aut\u00f3noma, el reconocimiento del habla, la visi\u00f3n por computadora y la traducci\u00f3n autom\u00e1tica- han llegado por cortes\u00eda de los sistemas de software conocidos como\u00a0redes neuronales<\/a>\u00a0.<\/p>\n

Pero las redes neuronales ocupan mucha memoria y consumen mucha energ\u00eda, por lo que usualmente se ejecutan en servidores de la nube, que reciben datos de dispositivos de escritorio o m\u00f3viles y luego env\u00edan sus an\u00e1lisis.<\/p>\n

El a\u00f1o pasado, la profesora asociada de ingenier\u00eda el\u00e9ctrica y inform\u00e1tica del MIT, Vivienne Sze y sus colegas, presentaron un nuevo chip de computadora con eficiencia energ\u00e9tica optimizado para redes neuronales, lo que permitir\u00eda que los poderosos sistemas de inteligencia artificial funcionaran localmente en dispositivos m\u00f3viles.<\/p>\n

Ahora, Sze y sus colegas han abordado el mismo problema desde la direcci\u00f3n opuesta, con una bater\u00eda de t\u00e9cnicas para dise\u00f1ar redes neuronales m\u00e1s eficientes desde el punto de vista energ\u00e9tico.\u00a0En primer lugar, se desarroll\u00f3 un m\u00e9todo anal\u00edtico que puede determinar la cantidad de energ\u00eda de una red neuronal se consumen cuando se ejecutan en un tipo particular de hardware.\u00a0Luego utilizaron el m\u00e9todo para evaluar nuevas t\u00e9cnicas para reducir las redes neuronales para que funcionen de manera m\u00e1s eficiente en dispositivos port\u00e1tiles.<\/p>\n

Los investigadores describen el trabajo en un documento que presentar\u00e1n la pr\u00f3xima semana en la Conferencia de Visi\u00f3n y Reconocimiento de Patrones.\u00a0En el documento, informan que los m\u00e9todos ofrecidos tanto como una reducci\u00f3n del 73 por ciento en el consumo de energ\u00eda sobre la implantaci\u00f3n est\u00e1ndar de redes neuronales, y tanto como una reducci\u00f3n del 43 por ciento sobre el mejor m\u00e9todo anterior para paring las redes hacia abajo.<\/p>\n

Evaluador de energ\u00eda<\/strong><\/p>\n

Basadas en la anatom\u00eda del cerebro, las redes neuronales consisten en miles o incluso millones de nodos de procesamiento de informaci\u00f3n sencillos pero densamente interconectados, normalmente organizados en capas.\u00a0Los diferentes tipos de redes var\u00edan seg\u00fan el n\u00famero de capas, el n\u00famero de conexiones entre los nodos y el n\u00famero de nodos en cada capa.<\/p>\n

Las conexiones entre los nodos tienen “pesos” asociados con ellos, que determinan cu\u00e1nto contribuir\u00e1 la producci\u00f3n de un nodo dado al c\u00e1lculo del siguiente nodo.\u00a0Durante el entrenamiento, en el que la red se presenta con ejemplos de la computaci\u00f3n que est\u00e1 aprendiendo a realizar, esos pesos se reajustan continuamente, hasta que la salida de la \u00faltima capa de la red se corresponda consistentemente con el resultado de la computaci\u00f3n.<\/p>\n

“Lo primero que hicimos fue desarrollar una herramienta de modelado de energ\u00eda que explique el movimiento de datos, las transacciones y el flujo de datos”, dice Sze.\u00a0“Si le das una arquitectura de red y el valor de sus pesos, te dir\u00e1 la cantidad de energ\u00eda que esta red neuronal tomar\u00e1.\u00a0Una de las preguntas que la gente ten\u00eda es: \u00bfEs m\u00e1s eficiente la energ\u00eda tener una red superficial y m\u00e1s pesos o una red m\u00e1s profunda con menos pesos?\u00a0Esta herramienta nos da una mejor intuici\u00f3n en cuanto a d\u00f3nde va la energ\u00eda, para que un dise\u00f1ador de algoritmos podr\u00eda tener una mejor comprensi\u00f3n y utilizar esto como retroalimentaci\u00f3n.\u00a0La segunda cosa que hicimos es que, ahora que sabemos d\u00f3nde est\u00e1 la energ\u00eda realmente va, comenzamos a usar este modelo para impulsar nuestro dise\u00f1o de redes de energ\u00eda eficientes.<\/p>\n

En el pasado, explica Sze, los investigadores que intentan reducir el consumo de energ\u00eda de las redes neuronales utilizan una t\u00e9cnica llamada “poda”. Las conexiones de bajo peso entre nodos contribuyen muy poco a la salida final de una red neuronal, Podado<\/p>\n

Poda de principios<\/strong><\/p>\n

Con la ayuda de su modelo energ\u00e9tico, Sze y sus colegas -el primer autor Tien-Ju Yang y Yu-Hsin Chen, ambos estudiantes graduados en ingenier\u00eda el\u00e9ctrica e inform\u00e1tica- variaron este enfoque.\u00a0Aunque cortar incluso un gran n\u00famero de conexiones de bajo peso puede tener poco efecto en la salida de una red neural, cortando todas ellas probablemente, por lo que las t\u00e9cnicas de poda deben tener alg\u00fan mecanismo para decidir cu\u00e1ndo parar.<\/p>\n

Los investigadores del MIT comienzan as\u00ed a podar las capas de la red que consumen m\u00e1s energ\u00eda.\u00a0De esta manera, los cortes se traducen en el mayor ahorro de energ\u00eda posible.\u00a0Ellos llaman a este m\u00e9todo “poda energ\u00e9tica”.<\/p>\n

Los pesos en una red neuronal pueden ser positivos o negativos, por lo que el m\u00e9todo de los investigadores tambi\u00e9n busca casos en los que las conexiones con pesos de signo opuesto tienden a cancelarse mutuamente.\u00a0Las entradas de un nodo dado son las salidas de los nodos de la capa inferior, multiplicadas por los pesos de sus conexiones.\u00a0Por lo tanto, el m\u00e9todo de los investigadores no s\u00f3lo se centra en los pesos sino tambi\u00e9n en la forma en que los nodos asociados manejan los datos de entrenamiento.\u00a0S\u00f3lo si los grupos de conexiones con pesos positivos y negativos consistentemente se compensan entre s\u00ed se pueden cortar con seguridad.\u00a0Esto lleva a redes m\u00e1s eficientes con menos conexiones que los m\u00e9todos de poda anteriores.<\/p>\n

“Recientemente, mucha actividad en la comunidad de aprendizaje profundo se ha dirigido hacia el desarrollo de arquitecturas eficaces de redes neuronales para plataformas computacionalmente limitadas”, dice Hartwig Adam, l\u00edder del equipo de visi\u00f3n m\u00f3vil en Google. “Sin embargo, la mayor parte de esta investigaci\u00f3n se centra Ya sea en la reducci\u00f3n del tama\u00f1o del modelo o de la computaci\u00f3n, mientras que para los tel\u00e9fonos inteligentes y muchos otros dispositivos de consumo de energ\u00eda es de suma importancia debido a la utilizaci\u00f3n de la bater\u00eda y las restricciones de calor.Este trabajo est\u00e1 tomando un enfoque innovador CNN [optimizaci\u00f3n de la arquitectura neuronal convolucional] Minimizaci\u00f3n del consumo de energ\u00eda utilizando una sofisticada herramienta de estimaci\u00f3n de nueva energ\u00eda, y demuestra grandes ganancias de rendimiento sobre los m\u00e9todos centrados en el c\u00e1lculo.Espero que otros investigadores en el campo sigan el ejemplo y adopten esta metodolog\u00eda general para el dise\u00f1o de arquitectura de modelo de red neural “.<\/p>\n

Fuente: MIT News<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"

El m\u00e9todo para modelar el consumo de energ\u00eda de las redes neuronales podr\u00eda ayudar a que los sistemas sean port\u00e1tiles.<\/p>\n","protected":false},"author":1,"featured_media":6374,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[361],"tags":[],"class_list":["post-6373","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ia"],"_links":{"self":[{"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/posts\/6373"}],"collection":[{"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/comments?post=6373"}],"version-history":[{"count":1,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/posts\/6373\/revisions"}],"predecessor-version":[{"id":6375,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/posts\/6373\/revisions\/6375"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/media\/6374"}],"wp:attachment":[{"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/media?parent=6373"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/categories?post=6373"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/otech.uaeh.edu.mx\/noti\/wp-json\/wp\/v2\/tags?post=6373"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}