Cuando se trata de computación cerebral, el tiempo lo es todo. Así es como las neuronas se conectan a los circuitos. Es la forma en que estos circuitos procesan datos altamente complejos, lo que lleva a acciones que pueden significar vida o muerte. Así es como nuestros cerebros pueden tomar decisiones en una fracción de segundo, incluso cuando se enfrentan a circunstancias completamente nuevas. Y lo hacemos sin freír el cerebro por un consumo energético excesivo.
Parafraseando, el cerebro es un excelente ejemplo de una computadora extremadamente poderosa para imitar, y los científicos e ingenieros informáticos han dado los primeros pasos para lograrlo. El campo de la computación neuromórfica busca recrear la arquitectura del cerebro y las capacidades de procesamiento de datos con nuevos chips de hardware y algoritmos de software. Puede ser un camino hacia la verdadera inteligencia artificial .
Pero falta un elemento crucial. La mayoría de los algoritmos que alimentan chips neuromórficos solo se preocupan por la contribución de cada neurona artificial, es decir, con qué fuerza se conectan entre sí, lo que se denomina “peso sináptico”. Lo que falta, pero equivalente al funcionamiento interno de nuestro cerebro, es el tiempo.
Este mes, un equipo afiliado al Human Brain Project, el esfuerzo insignia de la neurociencia de big data de la Unión Europea, agregó el elemento del tiempo a un algoritmo neuromórfico. Luego, los resultados se implementaron en hardware físico, la plataforma neuromórfica BrainScaleS-2, y se compararon con las GPU de última generación y las soluciones neuromórficas convencionales.
“En comparación con las redes neuronales abstractas utilizadas en el aprendizaje profundo, los arquetipos más biológicos … todavía se quedan atrás en términos de rendimiento y escalabilidad” debido a su complejidad inherente, dijeron los autores.
En varias pruebas, el algoritmo se comparó “favorablemente, en términos de precisión, latencia y eficiencia energética” en una prueba de referencia estándar, dijo la Dra. Charlotte Frenkel de la Universidad de Zurich y ETH Zurich en Suiza, que no participó en el estudio. . Al agregar un componente temporal a la computación neuromórfica, podríamos marcar el comienzo de una nueva era de IA altamente eficiente que pasa de las tareas de datos estáticos, por ejemplo, el reconocimiento de imágenes, a una que encapsula mejor el tiempo. Piense en videos, bioseñales o habla de cerebro a computadora.
Para el autor principal, el Dr. Mihai Petrovici, el potencial va en ambos sentidos. “Nuestro trabajo no solo es interesante para la computación neuromórfica y el hardware de inspiración biológica. También reconoce la demanda … de transferir los llamados enfoques de aprendizaje profundo a la neurociencia y, por lo tanto, develar aún más los secretos del cerebro humano ”, dijo .
Hablemos de picos
En la raíz del nuevo algoritmo se encuentra un principio fundamental en la computación cerebral: los picos.
Echemos un vistazo a una neurona sumamente abstraída. Es como un rollo de tootsie, con una sección central bulbosa flanqueada por dos envoltorios que se extienden hacia afuera. Un lado es la entrada: un árbol intrincado que recibe señales de una neurona anterior. La otra es la salida, que envía señales a otras neuronas mediante naves con forma de burbujas llenas de sustancias químicas, que a su vez desencadenan una respuesta eléctrica en el extremo receptor.
Aquí está el quid: para que ocurra toda esta secuencia, la neurona tiene que “dispararse”. Si, y solo si, la neurona recibe un nivel de entrada lo suficientemente alto (un mecanismo de reducción de ruido muy bien incorporado), la parte bulbosa generará un pico que recorre los canales de salida para alertar a la siguiente neurona.
Pero las neuronas no solo usan un pico para transmitir información. Más bien, aumentan en una secuencia de tiempo. Piense en ello como en el código Morse: el momento en que se produce una explosión eléctrica conlleva una gran cantidad de datos. Es la base para que las neuronas se conecten a circuitos y jerarquías, lo que permite un procesamiento de alta eficiencia energética.
Entonces, ¿por qué no adoptar la misma estrategia para las computadoras neuromórficas?
Un chip espartano parecido a un cerebro
En lugar de trazar un mapa de los picos de una sola neurona artificial, una tarea hercúlea, el equipo se centró en una única métrica: cuánto tiempo tarda una neurona en activarse.
La idea detrás del código de “tiempo hasta el primer pico” es simple: cuanto más tarda una neurona en dispararse, más bajos son sus niveles de actividad. En comparación con el recuento de picos, es una forma extremadamente escasa de codificar la actividad de una neurona, pero tiene ventajas. Debido a que solo la latencia hasta la primera vez que se activa una neurona se usa para codificar la activación, captura la capacidad de respuesta de la neurona sin abrumar a una computadora con demasiados puntos de datos. En otras palabras, es rápido, energéticamente eficiente y fácil.
A continuación, el equipo codificó el algoritmo en un chip neuromórfico, el BrainScaleS-2 , que emula a grandes rasgos “neuronas” simples dentro de su estructura, pero que corre más de 1.000 veces más rápido que nuestros cerebros biológicos. La plataforma tiene más de 500 neuronas artificiales físicas, cada una capaz de recibir 256 entradas a través de sinapsis configurables, donde las neuronas biológicas intercambian, procesan y almacenan información.
La configuración es híbrida. El “aprendizaje” se logra en un chip que implementa el algoritmo dependiente del tiempo. Sin embargo, cualquier actualización del circuito neuronal, es decir, la fuerza con la que una neurona se conecta a otra, se logra a través de una estación de trabajo externa, algo que se denomina “entrenamiento in-the-loop”.
En una primera prueba, el algoritmo fue desafiado con la tarea “Yin-Yang”, que requiere que el algoritmo analice diferentes áreas en el símbolo oriental tradicional. El algoritmo se destacó, con un promedio de 95 por ciento de precisión.
A continuación, el equipo desafió la configuración con una tarea clásica de aprendizaje profundo: MNIST , un conjunto de datos de números escritos a mano que revolucionó la visión por computadora. El algoritmo volvió a sobresalir, con una precisión de casi el 97 por ciento. Aún más impresionante, el sistema BrainScaleS-2 tardó menos de un segundo en clasificar 10,000 muestras de prueba, con un consumo de energía relativo extremadamente bajo.
Al poner estos resultados en contexto, el equipo comparó a continuación el rendimiento de BrainScaleS-2, armado con el nuevo algoritmo, con plataformas comerciales y otras plataformas neuromórficas. Tome SpiNNaker , una arquitectura masiva distribuida en paralelo que también imita la computación neuronal y los picos. El nuevo algoritmo fue más de 100 veces más rápido en el reconocimiento de imágenes y consumió solo una fracción de la energía que consume SpiNNaker. Se observaron resultados similares con True North, el chip neuromórfico precursor de IBM.
¿Qué sigue?
Las dos funciones informáticas más valiosas del cerebro, la eficiencia energética y el procesamiento en paralelo, están inspirando ahora en gran medida a la próxima generación de chips informáticos. ¿La meta? Construya máquinas que sean tan flexibles y adaptables como nuestros propios cerebros utilizando solo una fracción de la energía necesaria para nuestros chips actuales basados en silicio.
Sin embargo, en comparación con el aprendizaje profundo, que se basa en redes neuronales artificiales, las que son biológicamente plausibles han languidecido. Parte de esto, explicó Frenkel, es la dificultad de “actualizar” estos circuitos a través del aprendizaje. Sin embargo, con BrainScaleS-2 y un toque de datos de tiempo, ahora es posible.
Al mismo tiempo, tener un árbitro “externo” para actualizar las conexiones sinápticas le da a todo el sistema algo de tiempo para respirar. El hardware neuromórfico, similar al desorden de los cálculos de nuestro cerebro, está plagado de desajustes y errores. Con el chip y un árbitro externo, todo el sistema puede aprender a adaptarse a esta variabilidad y eventualmente compensar, o incluso explotar, sus peculiaridades para un aprendizaje más rápido y flexible.
Para Frenkel, el poder del algoritmo radica en su escasez. El cerebro, explicó, funciona con códigos escasos que “podrían explicar los tiempos de reacción rápidos … como el procesamiento visual”. En lugar de activar regiones cerebrales enteras, solo se necesitan unas pocas redes neuronales, como correr por carreteras vacías en lugar de quedarse atascado en el tráfico de la hora punta.
A pesar de su poder, el algoritmo todavía tiene contratiempos. Tiene dificultades para interpretar datos estáticos, aunque sobresale con las secuencias de tiempo, por ejemplo, el habla o las bioseñales. Pero para Frenkel, es el comienzo de un nuevo marco: la información importante puede codificarse con una métrica flexible pero simple, y generalizarse para enriquecer el procesamiento de datos basado en el cerebro y la inteligencia artificial con una fracción de los costos tradicionales de energía.
“[Es] … puede ser un trampolín importante para aumentar el hardware neuromórfico para finalmente demostrar una ventaja competitiva sobre los enfoques de redes neuronales convencionales”, dijo.
Crédito de imagen: Clasificación de puntos de datos en el conjunto de datos Yin-Yang, por Göltz y Kriener et al. (Heidelberg / Berna)