Adicción a la energía: próximo gran reto de la IA

17 agosto 2023
5 min read

Los inversores en acciones deben analizar detenidamente las empresas que ayudan a crear ecosistemas de IA que ofrezcan mayor eficiencia energética.

Existe un gran revuelo en torno a la inteligencia artificial (IA) y su potencial para cambiar el mundo. Sin embargo, apenas se ha hablado de su huella energética. Las empresas que ayuden a resolver el problema del consumo energético podrían hacer posible un futuro sostenible para esta tecnología floreciente y crear oportunidades para los inversores en renta variable.

Lo que se conoce como IA «generativa» utiliza aprendizaje automático para generar contenido, en particular, texto, audio, vídeo e imágenes. ChatGPT, el popular producto de OpenIA, quizás sea el ejemplo más conocido. Existen innumerables aplicaciones para la IA generativa, desde trabajos académicos y edición de audio y vídeo, hasta investigación científica. Las empresas de todo el mundo han salido a la caza de aplicaciones de IA que puedan mejorar la productividad y generar beneficios empresariales en sectores que van desde la atención sanitaria hasta la gestión de inversiones.

Pero hay un problema: la IA requiere una enorme capacidad de computación para entrenar modelos, y esto plantea una cuestión espinosa: el impacto energético de la IA.

La IA generativa necesita demasiada energía

¿A qué se debe la magia del aprendizaje automático? Existen dos etapas principales. La primera es el entrenamiento, para lo que se requiere recopilar información a fin de lograr que las máquinas aprendan todo lo posible para crear un modelo. La segunda etapa es la inferencia, que permite a la máquina utilizar ese modelo para generar contenido, analizar nuevos datos y generar resultados procesables.

Todo ello requiere energía. Cuanto más poderoso y complejo es un modelo de IA, mayor es el tiempo de entrenamiento y la energía necesaria (Gráfico).

La complejidad computacional de los modelos de IA requiere una gran cantidad de energía
Tiempo de entrenamiento de los modelos de IA en petaFLOP/-días*
La complejidad computacional de los modelos de IA requiere una gran cantidad de energía

El análisis histórico no garantiza los resultados futuros.
*Los FLOP (operaciones de coma flotante por segundo) son una medida de rendimiento computacional utilizada en modelos de aprendizaje profundo que requieren operaciones de coma flotante. PetaFLOP/día representa el número de días necesarios para entrenar un modelo concreto, suponiendo que la máquina que entrena el modelo ha realizado un número fijo de operaciones de computación (1.015 operaciones neuronales netas por segundo en un día completo). 
Datos de 30 de junio de 2023 
Fuente: Bank of America, NVIDIA y AllianceBernstein (AB)

El modelo GPT-3 de OpenAI es ilustrativo. La energía necesaria para entrenar a GPT-3 podría abastecer a un hogar norteamericano medio durante más de 120 años, según un informe de la Universidad de Stanford. Por otro lado, NVIDIA, fabricante de chips con sede en el área de la Bahía de San Francisco, señala que las necesidades energéticas para entrenar modelos que incluyan transformadores  —una forma de arquitectura de aprendizaje profundo— se multiplican por 275 cada dos años.

Las numerosas procedencias del consumo energético

El consumo energético de la IA tendrá numerosos orígenes. Además de entrenar y ejecutar grandes modelos, la proliferación de productos asistidos por IA, incluidos los relativos a las búsquedas y los chatbots, provocará un consumo desmedido de teravatios.

A su vez, unos modelos cada vez más complejos requerirán el uso de hardware más especializado, como, por ejemplo, las unidades de procesamiento gráfico (GPU). La buena noticia es que las GPU ofrecen un rendimiento por vatio muy superior al de las unidades de procesamiento central (CPU) tradicionales, y esto podría reducir la cantidad global de energía necesaria para entrenar y ejecutar modelos de IA.

En última instancia, estos elementos que impulsan el consumo energético acelerarán la construcción de centros de datos cuyo funcionamiento requiere grandes volúmenes de energía y que ya representan casi el 1% del consumo energético mundial, según la Agencia Internacional de la Energía. Incluso antes de que despegara la IA, los estudios predecían un incremento drástico en la construcción de centros de datos, impulsado por las necesidades energéticas de las nuevas tecnologías.

Las emisiones son otro problema que debe tenerse en cuenta. A este respecto, los inversores están presionando a las empresas para que midan las emisiones de alcance 3: emisiones en fases anteriores y posteriores de la cadena de valor que son difíciles de cuantificar. Conforme aumenta el uso de la IA, las emisiones de alcance 3 de todos usuarios de datos —incluidas las empresas que tradicionalmente tienen unas huellas de carbono reducidas— probablemente se incrementarán de manera proporcional.

¿De qué modo las empresas están abordando el problema del consumo energético de la IA?

Afortunadamente, las empresas están empezando a hacer frente al enorme reto que supone el consumo energético de la IA. Entre ellas figuran aquellas que tienen un papel central para la IA y otras que se sitúan en la periferia de esta tecnología. Creemos que los inversores deben prestar atención a tres áreas fundamentales:

Hardware y Software:
Para reducir el consumo energético relacionado con la IA se necesitarán nuevas arquitecturas de procesadores. Los fabricantes de semiconductores, como AMD y NVIDIA, se centran en ofrecer un rendimiento más energéticamente eficiente. De hecho, AMD ha definido el objetivo de multiplicar por 30 la eficiencia energética de sus procesadores y aceleradores empleados en el entrenamiento de la IA y la computación de alto rendimiento en un período de cinco años. Según NVIDIA, los servidores con GPU que se utilizan en algunas aplicaciones, como, por ejemplo, el entrenamiento de grandes modelos de lenguaje, utilizan 25 veces menos energía que los servidores con CPU. A medida que las GPU de AMD, NVIDIA y otros fabricantes vayan teniendo mayor presencia en los centros de datos, cabe prever que la eficiencia energética aumente incluso más.

El ahorro energético también requiere técnicas avanzadas de encapsulado de microchips. Se necesitarán tecnologías como el escalado dinámico voltaje-frecuencia y la gestión térmica para producir un aprendizaje automático más eficiente. Creemos que las empresas que operan en el ámbito de la producción y la inspección de chips semiconductores, como el fabricante de chips taiwanés TSMC y la empresa neerlandesa ASML, tendrán un papel preponderante a la hora de lanzar al mercado estas nuevas innovaciones.

Los inversores también escucharán hablar más de los semiconductores de potencia, que ayudan a mejorar la gestión energética de los servidores y centros de datos que se utilizan para la IA. Los semiconductores de potencia regulan la corriente y pueden reducir el consumo energético global integrando más funcionalidad en menos espacio.  Empresas como Kirkland, Monolothic Power Systems, con sede en Washington, y el fabricante alemán de semiconductores Infineon Technologies se sitúan a la vanguardia en el desarrollo de estos productos.

Mejoras en el diseño de los centros de datos:
Conforme la adopción de la IA vaya obligando a incrementar la capacidad de los centros de datos, las empresas que suministran componentes para estas infraestructuras podrían salir beneficiadas. Entre los componentes esenciales figuran suministros eléctricos, equipos ópticos de conexiones en red, sistemas de memoria y cableado. Las compañías tecnológicas que utilizan centros de datos para sus propias operaciones —por ejemplo, Amazon.com, Google y Microsoft— también tienen un fuerte incentivo para seguir mejorando el diseño de estas instalaciones y reducir el consumo energético.

Cerrando el círculo, la propia IA se utiliza para optimizar las operaciones de los centros de datos. En 2022, Google DeepMind publicó los resultados de un experimento de tres meses que consistía en entrenar un agente de aprendizaje llamado BCOOLER para optimizar los procedimientos de refrigeración de los centros de datos de Google. Resultado: BCOOLER consiguió un ahorro energético de casi el 13%, dato que pone de manifiesto la mejora de la eficiencia energética en los centros de datos a pesar de que estos sean más numerosos.

Energía renovable:
Según la Energy Information Administration de Estados Unidos, en 2022, la energía renovable representaba el 21,5% de la generación eléctrica del país. Dado que el 80% de la energía que se genera es no renovable, cabe prever que, a corto plazo, la electricidad provenga de combustibles fósiles tradicionales.

No obstante, conforme pase el tiempo, la demanda de IA podría dar paso a un mayor uso de energía renovable,  Sobre todo teniendo en cuenta que los centros de datos de IA estarán operados por empresas como Microsoft y Alphabet, Inc., la matriz de Google, cuyas políticas de cero emisiones se sitúan entre las mejores del sector. En consecuencia, prevemos que la adopción acelerada de la IA podría mejorar las perspectivas de inversión para el conjunto del ecosistema de energías renovables.

Invertir en soluciones energéticas

Creemos que, en todas estas áreas, los inversores deben buscar empresas de calidad con ventajas tecnológicas, un poder constante de fijación de precios, una buena generación de flujos de caja libres y modelos de negocio resilientes. Las empresas con fundamentales sólidos, que participen y se beneficien del aumento de la demanda de capacidad de IA energéticamente eficiente, podrían ofrecer oportunidades interesantes a los inversores en renta variable centrados en la sostenibilidad y también a aquellos con un mandato de rentabilidad absoluta.

Conforme se acelere la adopción de la IA y los motores de búsqueda sean sustituidos por chatbots, el impacto energético de esta forma revolucionaria de aprendizaje automático no debería pasarse por alto. Puede que las iniciativas destinadas a crear un ecosistema de IA más eficiente desde el punto de vista energético no sean ahora objeto de atención, pero podrían facilitar un atractivo potencial de rentabilidad para aquellos inversores capaces de reconocer pronto las posibles soluciones.

Claire Walter, Analista de Renta Variable Temática, ha contribuido a este análisis.  

Las opiniones expresadas en este documento no constituyen análisis, asesoramiento de inversión ni recomendación de negociación y no representan necesariamente las opiniones de todos los equipos de gestión de carteras de AB. Las opiniones pueden cambiar a lo largo del tiempo.

Las referencias a valores concretos no deben considerarse recomendaciones de AllianceBernstein L.P.