En una conferencia reciente en San Francisco, Gary Dickerson subió al escenario e hizo una predicción audaz. El director ejecutivo de Applied Materials, que es un gran proveedor para la industria de semiconductores, advirtió que, en ausencia de una innovación significativa en materiales, fabricación y diseño de chips, las cargas de trabajo de inteligencia artificial de los centros de datos podrían representar una décima parte del consumo mundial de electricidad para 2025 .
Hoy en día, los millones de centros de datos en todo el mundo absorben un poco menos del 2%, y esa estadística abarca todo tipo de cargas de trabajo manejadas en sus vastas matrices de servidores. Applied Materials estima que los servidores que ejecutan IA actualmente representan solo el 0.1% del consumo mundial de electricidad.
Otros ejecutivos de tecnología también están haciendo sonar una alarma. Anders Andrae, de Huawei, cree que los centros de datos podrían terminar consumiendo una décima parte de la electricidad del mundo para 2025, aunque su estimación cubre todos sus usos, no solo la inteligencia artificial .
Jonathan Koomey, asesor especial del científico principal del Instituto Rocky Mountain , es más optimista. Él espera que el consumo de energía del centro de datos se mantenga relativamente estable en los próximos años, a pesar de un aumento en la actividad relacionada con la IA.
Estas predicciones ampliamente divergentes resaltan la incertidumbre sobre el impacto de la IA en el futuro de la informática a gran escala y las implicaciones finales para la demanda de energía.
Imágenes más grandes
La IA ciertamente tiene hambre de poder. Entrenar y ejecutar cosas como los modelos de aprendizaje profundo implica procesar grandes cantidades de datos, lo que grava la memoria y los procesadores. Un estudio realizado por el grupo de investigación OpenAI dice que la cantidad de potencia informática necesaria para conducir grandes modelos de IA ya se duplica cada tres meses y medio.
El pronóstico de Applied Materials es, por su propia admisión, el peor de los casos diseñado para resaltar lo que podría suceder en ausencia de nuevas ideas en hardware y software. Sundeep Bajikar, jefe de estrategia corporativa e inteligencia de mercado de la compañía, dice que asume que habrá un cambio en el tiempo en la combinación de información que se usa para entrenar modelos de IA, con videos y otras imágenes que representan un porcentaje creciente del total en relación con Información de texto y audio. Los datos visuales son más computacionalmente intensivos y, por lo tanto, requieren más energía.
También habrá más información para que los modelos crujen gracias al aumento de cosas como vehículos autónomos y sensores integrados en otros dispositivos inteligentes. Y la extensión de la conectividad inalámbrica 5G súper rápida hará que sea aún más fácil transportar datos hacia y desde los centros de datos.
Bajikar dice que estas y otras tendencias subrayan la necesidad urgente de lo que su compañía llama “un nuevo libro de jugadas” en materiales y fabricación para la era de la IA. Algunos investigadores creen que la sed de energía de la IA podría incluso convertirse en un gran dolor de cabeza para el medio ambiente: un equipo de la Universidad de Massachusetts, Amherst, publicó recientemente un estudio que muestra que entrenar varios modelos de IA populares y grandes produce casi cinco veces las emisiones de vida media del estadounidense promedio coche.
Apuesta por lo básico
Pero los pronósticos pesimistas ignoran varios desarrollos importantes que podrían limitar la toma de poder de AI. Uno de ellos es el aumento de los centros de datos “hiperescala” promovidos por compañías como Facebook y Amazon.
Estos usan grandes matrices de servidores básicos diseñados para tareas específicas. Las máquinas son más eficientes energéticamente que los servidores en centros convencionales que tienen que hacer malabares con una gama más amplia de funciones. Un cambio continuo hacia la hiperescala, junto con los avances en refrigeración y otras tecnologías, es una gran razón por la cual el consumo de energía de los nuevos centros de datos ha sido básicamente cancelado por las mejoras de eficiencia en los últimos años.
También ayudarán los nuevos tipos de microchips. El pronóstico de Materiales Aplicados supone que las cargas de trabajo de IA continuarán ejecutándose en el hardware existente cuya eficiencia mejora gradualmente en los próximos años. Pero una gran cantidad de nuevas empresas, así como grandes empresas como Intel y AMD, están desarrollando semiconductores que aprovechan tecnologías como la fotónica para alimentar redes neuronales y otras herramientas de inteligencia artificial que utilizan mucha menos energía.
Koomey dice que las proyecciones alarmistas también ignoran el hecho de que para algunos tipos de tareas de IA, como el reconocimiento de patrones, son suficientes los resultados aproximados de los modelos. Eso significa que no es necesario gastar energía calculando resultados a cientos de decimales.
Irónicamente, el mayor control sobre el consumo de energía de la IA podría ser la propia IA. Google ya está utilizando tecnología desarrollada por DeepMind, una compañía que adquirió en 2014, para enfriar sus centros de datos de manera más eficiente. La IA ya había ayudado a la empresa a reducir su factura de enfriamiento en un 40% al hacer recomendaciones a los operadores humanos; ahora está ejecutando efectivamente sistemas de enfriamiento en los centros por sí mismo.
La IA también se utilizará para optimizar otros aspectos de las operaciones de los centros de datos. Y, como el triunfo de enfriamiento de Google, esto beneficiará a todo tipo de cargas de trabajo. Eso no significa que los centros de datos no terminen consumiendo significativamente más energía debido a la creciente demanda de la magia de AI, pero es otra razón por la que hacer pronósticos aquí es tan difícil.
Fuente:
Martin Giles, M. G. (2019, 29 julio). Is AI the next big climate-change threat? We haven’t a clue. Recuperado 29 julio, 2019, de https://www.technologyreview.com/s/614005/ai-computing-cloud-computing-microchips/