Investigadores de Israel han desarrollado una plataforma capaz de acelerar el proceso de aprendizaje de los sistemas de(IA) en 1000 veces. Una razón mas de porque Israel se perfila como líder en inteligencia artificial.
El profesor Shahar Kvatinsky y la estudiante de doctorado Tzofnat Greenberg-Toledo, del Technion, publicaron recientemente su investigación en la revista IEEE Transactions on Circuits and Systems. La misma es publicada por el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE).
En los últimos años, ha habido un gran avance en el mundo de la inteligencia artificial. Principalmente debido a los modelos de redes neuronales profundas (DNN). Estos son redes de algoritmos inspirados en el cerebro humano y diseñados para reconocer patrones.
Israel es líder en inteligencia artificial.
Inspirados en los métodos de aprendizaje humano, estos DNN han tenido un éxito sin precedentes. Se usan por ejemplo al tratar con tareas complejas como la conducción autónoma. Otras aplicaciones son el procesamiento del lenguaje natural, el reconocimiento de imágenes. Se cuentan también el desarrollo de tratamientos médicos innovadores que se logran a través del auto aprendizaje de la máquina a partir de una amplia gama de ejemplos. A menudo representado por imágenes.
Esta tecnología se está desarrollando rápidamente en grupos de investigación académica. Empresas líderes como Facebook y Google lo están utilizando para sus necesidades específicas.
El aprendizaje mediante el ejemplo requiere una gran capacidad de computación a gran escala. Por lo tanto, se lleva a cabo en computadoras que tienen unidades de procesamiento gráfico (GPU) adecuadas para la tarea.
Sin embargo, estas unidades consumen cantidades considerables de energía. Ademas su velocidad es más lenta que la velocidad de aprendizaje requerida de las redes neuronales. Esto dificulta el proceso de aprendizaje.
“De hecho, estamos tratando con hardware originalmente creado principalmente para fines gráficos y no puede mantenerse al día con la actividad acelerada de las redes neuronales”, explica Kvatinsky.
“Para resolver este problema, necesitamos diseñar hardware que sea compatible con redes neuronales profundas”.
El profesor Kvatinsky y su grupo de investigación han desarrollado un sistema de hardware diseñado específicamente para trabajar con estas redes. De este modo permiten a la red neuronal realizar la fase de aprendizaje con mayor velocidad y menos consumo de energía.
“En comparación con las GPU, la velocidad de cálculo del nuevo hardware es 1.000 veces más rápida y reduce el consumo de energía en un 80%”.
Este nuevo hardware representa un cambio conceptual. En lugar de centrarse en mejorar los procesadores existentes, Kvatinsky y su equipo decidieron desarrollar la estructura de una máquina de computación tridimensional que integra la memoria.
“En lugar de tratar las unidades que realizan cálculos y la memoria responsable de almacenar información, realizamos ambas tareas dentro del memristor. Esto es, un componente de memoria con capacidades de cálculo mejoradas para trabajar con redes neuronales profundas”.
Aunque su investigación aún se encuentra en su etapa teórica, ya han demostrado la implementación a través de la simulación.
“Actualmente, nuestro desarrollo está destinado a trabajar con los algoritmos de aprendizaje de impulso. Pero nuestra intención es continuar desarrollando el hardware para que sea compatible con otros algoritmos de aprendizaje también.
Podemos ser capaces de desarrollar hardware dinámico y multiuso que se pueda adaptar a varios algoritmos, en lugar de tener varios componentes de hardware diferentes”, agregó Kvatinsky.
Fuente: Hebreos