Después de resolver un desafío fundamental en biología ( predecir la estructura de las proteínas ) y desentrañar las matemáticas de la teoría de nudos , se apunta a un proceso informático fundamental integrado en miles de aplicaciones cotidianas. Desde analizar imágenes hasta modelar el clima o incluso probar el funcionamiento interno de las redes neuronales artificiales, la IA teóricamente podría acelerar los cálculos en una variedad de campos, aumentando la eficiencia y reduciendo el uso de energía y los costos.
Pero lo más impresionante es cómo lo hicieron. El algoritmo récord, denominado AlphaTensor, es un derivado de AlphaZero , que derrotó a los jugadores humanos en ajedrez y Go.
“Los algoritmos se han utilizado en todas las civilizaciones del mundo para realizar operaciones fundamentales durante miles de años”, escribieron los coautores, los Dres. Matej Balog y Alhussein Fawzi en DeepMind. “Sin embargo, descubrir algoritmos es un gran desafío”.
AlphaTensor abre el camino hacia un nuevo mundo donde la IA diseña programas que superan cualquier cosa que los humanos ingenien, al tiempo que mejora su propio “cerebro” de máquina.
“Este trabajo se adentra en un territorio desconocido mediante el uso de IA para un problema de optimización en el que la gente ha trabajado durante décadas… las soluciones que encuentra se pueden desarrollar de inmediato para mejorar los tiempos de ejecución computacional”, dijo el Dr. Federico Levi, editor senior de Nature . que publicó el estudio.
Ingrese la multiplicación de matrices
El problema al que se enfrenta AlphaTensor es la multiplicación de matrices. Si de repente está imaginando filas y columnas de números verdes desplazándose hacia abajo en su pantalla, no está solo. En términos generales, una matriz es algo así: una cuadrícula de números que representa digitalmente los datos de su elección. Podrían ser píxeles en una imagen, las frecuencias de un clip de sonido o la apariencia y las acciones de los personajes en los videojuegos.
La multiplicación de matrices toma dos cuadrículas de números y multiplica uno por el otro. Es un cálculo que a menudo se enseña en la escuela secundaria, pero también es fundamental para los sistemas informáticos. Aquí, las filas de números en una matriz se multiplican con columnas en otra. Los resultados generan un resultado, por ejemplo, un comando para acercar o inclinar la vista de la escena de un videojuego. Aunque estos cálculos funcionan bajo el capó, cualquiera que use un teléfono o una computadora depende de sus resultados todos los días.
Puede ver cómo el problema puede volverse extremadamente difícil, extremadamente rápido. La multiplicación de matrices grandes consume mucha energía y tiempo. Cada par de números debe multiplicarse individualmente para construir una nueva matriz. A medida que crecen las matrices, el problema rápidamente se vuelve insostenible, incluso más que predecir los mejores movimientos de ajedrez o Go. Algunos expertos estiman que hay más formas de resolver la multiplicación de matrices que el número de átomos en el universo.
En 1969, Volker Strassen, un matemático alemán, demostró que hay formas de reducir gastos, recortando una ronda de multiplicación de matrices de dos por dos de un total de ocho a siete . Puede que no suene impresionante, pero el método de Strassen demostró que es posible superar los estándares de operaciones establecidos durante mucho tiempo, es decir, los algoritmos, para la multiplicación de matrices. Su enfoque, el algoritmo de Strassen, ha reinado como el enfoque más eficiente durante más de 50 años.
Pero, ¿y si existen métodos aún más eficientes? “Nadie conoce el mejor algoritmo para resolverlo”, dijo a MIT Technology Review el Dr. François Le Gall de la Universidad de Nagoya en Japón, que no participó en el trabajo . “Es uno de los mayores problemas abiertos en la informática”.
Algoritmos de persecución de IA
Si la intuición humana está fallando, ¿por qué no aprovechar una mente mecánica?
En el nuevo estudio, el equipo de DeepMind convirtió la multiplicación de matrices en un juego. Al igual que su predecesor AlphaZero, AlphaTensor utiliza el aprendizaje de refuerzo profundo, un método de aprendizaje automático inspirado en la forma en que aprenden los cerebros biológicos. Aquí, un agente de IA (a menudo una red neuronal artificial) interactúa con su entorno para resolver un problema de varios pasos. Si tiene éxito, obtiene una “recompensa”, es decir, los parámetros de red de la IA se actualizan, por lo que es más probable que vuelva a tener éxito en el futuro.
Es como aprender a voltear un panqueque. Inicialmente, muchos caerán al suelo, pero eventualmente sus redes neuronales aprenderán los movimientos del brazo y la mano para una voltereta perfecta.
El campo de entrenamiento de AlphaTensor es una especie de juego de mesa en 3D. Es esencialmente un rompecabezas de un jugador más o menos similar a Sudoku. La IA debe multiplicar cuadrículas de números en la menor cantidad de pasos posible, mientras elige entre una miríada de movimientos permitidos, más de un billón de ellos.
Estos movimientos permitidos se diseñaron meticulosamente en AlphaTensor. En una conferencia de prensa, el coautor, el Dr. Hussain Fawzi, explicó: “Formular el espacio del descubrimiento algorítmico es muy complicado… aún más difícil es, cómo podemos navegar en este espacio”.
En otras palabras, cuando nos enfrentamos a una variedad alucinante de opciones, ¿cómo podemos reducirlas para mejorar nuestras posibilidades de encontrar la aguja en el pajar? ¿Y cuál es la mejor estrategia para llegar a la aguja sin tener que buscar en todo el pajar?
Un truco que el equipo incorporó en AlphaTensor es un método llamado búsqueda de árbol. En lugar de, metafóricamente hablando, cavar al azar en el pajar, aquí la IA explora “caminos” que podrían conducir a un mejor resultado. Los aprendizajes intermedios luego ayudan a la IA a planificar su próximo movimiento para aumentar las posibilidades de éxito. El equipo también mostró muestras de algoritmos de juegos exitosos, como enseñarle a un niño los movimientos iniciales del ajedrez. Finalmente, una vez que la IA descubrió movimientos valiosos, el equipo le permitió reordenar esas operaciones para un aprendizaje más personalizado en busca de un mejor resultado.
Abriendo nuevos caminos
AlphaTensor jugó bien. En una serie de pruebas, el equipo desafió a la IA a encontrar las soluciones más efectivas para matrices de hasta cinco por cinco, es decir, con cinco números cada una en una fila o columna.
El algoritmo redescubrió rápidamente el truco original de Strassen, pero luego superó todas las soluciones previamente ideadas por la mente humana. Al probar la IA con diferentes tamaños de matrices, AlphaTensor encontró soluciones más eficientes para más de 70. “De hecho, AlphaTensor generalmente descubre miles de algoritmos para cada tamaño de matriz”, dijo el equipo. “Es alucinante”.
En un caso, al multiplicar una matriz de cinco por cinco con una de cuatro por cinco, la IA redujo el récord anterior de 80 multiplicaciones individuales a solo 76. También brilló en matrices más grandes, reduciendo la cantidad de cálculos necesarios para dos matrices de once por once de 919 a 896.
Con la prueba de concepto en la mano, el equipo recurrió al uso práctico. Los chips de computadora a menudo están diseñados para optimizar diferentes cálculos (GPU para gráficos, por ejemplo, o chips de IA para aprendizaje automático) y hacer coincidir un algoritmo con el hardware más adecuado aumenta la eficiencia.
Aquí, el equipo usó AlphaTensor para encontrar algoritmos para dos chips populares en el aprendizaje automático: la GPU NVIDIA V100 y la TPU de Google. En conjunto, los algoritmos desarrollados por IA aumentaron la velocidad computacional hasta en un 20 por ciento.
Es difícil decir si la IA también puede acelerar los teléfonos inteligentes, las computadoras portátiles u otros dispositivos cotidianos. Sin embargo, “este desarrollo sería muy emocionante si pudiera usarse en la práctica”, dijo la Dra. Virginia Williams del MIT. “Un aumento en el rendimiento mejoraría muchas aplicaciones”.
La mente de una IA
A pesar de que AlphaTensor superó el último récord humano de multiplicación de matrices, el equipo de DeepMind aún no puede explicar por qué.
“Tiene una intuición increíble al jugar estos juegos”, dijo el científico y coautor de DeepMind, el Dr. Pushmeet Kohli, en una rueda de prensa.
Los algoritmos en evolución tampoco tienen que ser hombres contra máquinas.
Si bien AlphaTensor es un trampolín hacia algoritmos más rápidos, podrían existir otros aún más rápidos. “Debido a que necesita restringir su búsqueda a algoritmos de una forma específica, podría pasar por alto otros tipos de algoritmos que podrían ser más eficientes”, escribieron Balog y Fawzi.
Quizás un camino aún más intrigante combinaría la intuición humana y la de la máquina. “Sería bueno averiguar si este nuevo método en realidad subsume todos los anteriores, o si puede combinarlos y obtener algo aún mejor”, dijo Williams. Otros expertos están de acuerdo. Con una gran cantidad de algoritmos a su disposición, los científicos pueden comenzar a diseccionarlos en busca de pistas sobre lo que hizo funcionar las soluciones de AlphaTensor, allanando el camino para el próximo avance.
Crédito de la imagen: DeepMind
Fan, S. (2022a, octubre 11). DeepMind AI One-Ups Mathematicians at a Calculation Crucial to Computing. Singularity Hub. https://singularityhub.com/2022/10/11/deepmind-ai-one-ups-mathematicians-at-a-calculation-crucial-to-computing/