Hoher Energieverbrauch: Die nächste große Herausforderung für KI

17. August 2023
5 min read

Unternehmen, die dazu beitragen, ein energieeffizienteres Umfeld für Künstliche Intelligenz zu schaffen, können lohnende Ziele für Aktienanleger sein.

Die Künstliche Intelligenz (KI) und ihr Potenzial, die Welt zu verändern, ist in aller Munde. Über den Energie-Fußabdruck dieser Technologie wird jedoch viel weniger gesprochen. Unternehmen, die zur Lösung dieses Energieproblems beitragen, könnten eine nachhaltige Zukunft für diese aufkeimende Technologie ermöglichen – und Chancen für Aktienanleger schaffen. 

Die sogenannte „generative“ KI nutzt maschinelles Lernen, um Inhalte zu generieren – darunter Text, Audio, Video und Bilder. Das beliebteste Beispiel ist wohl ChatGPT von OpenAI. Es gibt unzählige Anwendungen für „generative“ KI, vom wissenschaftlichen Schreiben über Audio- und Videobearbeitung bis hin zur Forschungsarbeit. Unternehmen auf der ganzen Welt sind auf der Suche nach KI-Anwendungen, die die Produktivität steigern und Geschäftsvorteile in Branchen wie dem Gesundheitswesen oder der Vermögensverwaltung schaffen können. 

Der Haken an der Sache ist jedoch, dass Künstliche Intelligenz eine enorme Rechenleistung erfordert, um Modelle zu trainieren. Und das wirft ein heikles Problem auf, nämlich die Auswirkungen der KI auf den Energieverbrauch.

Generative Künstliche Intelligenz ist ein Energiefresser

Was ist das Geheimnis des maschinellen Lernens? Es gibt zwei Hauptphasen. Die erste ist das Training, bei dem Informationen gesammelt werden, damit die Maschinen alles Mögliche lernen können, um ein Modell zu erstellen. Die zweite ist die Inferenz, bei der die Maschine dieses Modell verwendet, um Inhalte zu generieren, neue Daten zu analysieren und umsetzbare Ergebnisse zu erzielen. 

All das kostet Energie. Je leistungsfähiger und komplexer das KI-Modell ist, desto mehr Trainingszeit und Energie ist erforderlich (Abbildung).

Die Berechnungskomplexität von KI-Modellen erfordert enorme Leistungsreserven
Trainingszeit für KI-Modelle in petaFLOP/s-Tagen*
Die Berechnungskomplexität von KI-Modellen erfordert enorme Leistungsreserven

Historische Analysen sind keine Garantie für zukünftige Ergebnisse.
* FLOPs (Gleitkommaoperationen pro Sekunde) ist ein Maß für die Rechenleistung von Deep-Learning-Modellen, die Gleitkommaoperationen erfordern. PetaFLOP/s-Tage stellt die Anzahl der Tage dar, die für das Training eines bestimmten Modells erforderlich sind, wobei angenommen wird, dass die Maschine, die das Modell trainiert, eine feste Menge an Berechnungen durchführt (1.015 neuronale Netzoperationen pro Sekunde für einen ganzen Tag). 
Stand: 30. Juni 2023 
Quelle: Bank of America, NVIDIA und AllianceBernstein (AB)

Das GPT-3-Modell von OpenAI ist ein Beispiel dafür. Einem Bericht der Stanford University zufolge könnte die für das Training von GPT-3 benötigte Energie das Haus eines durchschnittlichen Amerikaners mehr als 120 Jahre lang mit Strom versorgen. Der US-Chip-Hersteller NVIDIA stellt fest, dass der Energiebedarf für das Training von Modellen, die Transformatoren – eine Form von Deep-Learning-Architektur – enthalten, alle zwei Jahre um das 275-Fache gestiegen ist.

Die zahlreichen Quellen des Energieverbrauchs

Der Energieverbrauch der KI kommt aus vielen Bereichen. Neben dem Training und dem Betrieb großer Modelle wird auch die Verbreitung von KI-gestützten Produkten, einschließlich KI-Suche und Chatbots, mehrere Terawatt verschlingen. 

Immer komplexere Modelle werden wiederum den Einsatz speziellerer Hardware erfordern wie etwa Grafikprozessoren (GPUs). Die gute Nachricht ist, dass GPUs eine viel höhere Leistung pro Watt bieten als herkömmliche Zentraleinheiten (CPUs), was den Gesamtstrombedarf für das Training und die Ausführung von KI-Modellen ausgleichen könnte. 

Letztendlich werden diese Treiber des Energieverbrauchs den Bau von stromfressenden Rechenzentren beschleunigen, die nach Angaben der Internationalen Energieagentur bereits fast 1 % des weltweiten Energieverbrauchs ausmachen. Schon bevor die Künstliche Intelligenz ihren Siegeszug antrat, sagten Studien einen starken Anstieg beim Bau von Rechenzentren voraus, der durch den Energiebedarf der neuen Technologien bedingt ist. 

Auch die Frage der Emissionen ist zu berücksichtigen. Insbesondere Anleger drängen Unternehmen dazu, die vor- und nachgelagerten Emissionen (Scope 3) zu messen, deren Quantifizierung schwierig sein kann. Mit dem zunehmenden Einsatz von KI werden die Scope-3-Emissionen aller Datennutzer – einschließlich Unternehmen, die traditionell einen niedrigen CO2-Fußabdruck haben – wahrscheinlich entsprechend ansteigen.

Wie gehen Unternehmen mit dem KI-Energieproblem um?

Erfreulicherweise beginnen Unternehmen, sich mit der enormen Energieherausforderung durch Künstliche Intelligenz zu befassen. Dazu gehören Unternehmen, die im Zentrum der KI stehen, und solche, die nur in der Peripherie kreisen. Unserer Meinung nach sollten Anleger auf drei Schlüsselbereiche achten:

Hardware und Software: Die Senkung des KI-bedingten Energieverbrauchs wird neue Prozessorarchitekturen erfordern. US-Halbleiterhersteller wie AMD und NVIDIA konzentrieren sich darauf, eine energieeffizientere Leistung zu liefern. AMD hat sich zum Ziel gesetzt, die Energieeffizienz seiner Prozessoren und Beschleuniger, die für KI-Training und High-Performance-Computing eingesetzt werden, innerhalb von fünf Jahren um das 30-Fache zu steigern. Nach Angaben von NVIDIA verbrauchen deren GPU-basierte Server in einigen Anwendungen, beispielsweise beim Training großer Sprachmodelle, 25-mal weniger Energie als CPU-basierte Alternativen. Da die Grafikprozessoren von AMD, NVIDIA und anderen die CPUs in den Rechenzentren ablösen, dürfte die Energieeffizienz noch weiter steigen. 

Um Energie zu sparen, sind auch fortschrittliche Transistor-Packaging-Techniken erforderlich. Technologien wie dynamische Spannungsfrequenzskalierung und Wärmemanagement werden erforderlich sein, um effizienteres maschinelles Lernen zu ermöglichen. Wir glauben, dass Unternehmen, die an der Produktion und Inspektion von Halbleiterchips beteiligt sind, darunter der taiwanesische Chiphersteller TSMC und das niederländische Unternehmen ASML, eine wichtige Rolle dabei spielen werden, diese neuen Innovationen auf den Markt zu bringen. 

Anleger werden auch mehr über Stromversorgungs-Halbleiter hören, die dazu beitragen, das Energiemanagement von KI-Servern und Rechenzentren zu verbessern. Diese Komponenten regulieren den aktuellen Strom und können den Gesamtenergieverbrauch senken, indem sie mehr Funktionen auf kleinerem Raum integrieren. Unternehmen wie Monolithic Power Systems aus den USA und der deutsche Halbleiterhersteller Infineon Technologies stehen unserer Meinung nach an der Spitze dieser Entwicklung.

Verbesserungen im Design von Rechenzentren: Da die Einführung von Künstlicher Intelligenz den Ausbau der Rechenzentrumskapazität vorantreibt, könnten Unternehmen, die Komponenten für Rechenzentren liefern, davon profitieren. Zu den Schlüsselkomponenten gehören Netzteile, optische Netzwerke, Speichersysteme und Verkabelung. Technologieunternehmen, die die Rechenzentren selbst nutzen – man denke an Amazon.com, Google und Microsoft –, haben ebenfalls einen starken Anreiz, das Design und den Energieverbrauch von Rechenzentren weiter zu verbessern. 

Hier schließt sich der Kreis: KI selbst wird zur Optimierung des Betriebs von Rechenzentren eingesetzt. Im Jahr 2022 veröffentlichte Google DeepMind die Ergebnisse eines dreimonatigen Experiments, bei dem ein lernfähiger Agent namens BCOOLER darauf trainiert wurde, die Kühlverfahren des Google-Rechenzentrums zu optimieren. Das Ergebnis: BCOOLER erzielte eine Energieeinsparung von rund 13 % – ein Beleg dafür, dass die Energieeffizienz in Rechenzentren trotz ihrer wachsenden Zahl immer besser wird.

Erneuerbare Energie: Nach Angaben der US-Energiebehörde betrug der Anteil der erneuerbaren Energien an der US-Stromerzeugung im Jahr 2022 nur 21,5 %. Doch mit der Zeit könnte die Nachfrage nach KI den Weg für eine stärkere Nutzung erneuerbarer Energien ebnen. Das gilt vor allem, wenn man bedenkt, dass KI-Rechenzentren von Unternehmen wie Microsoft und der Google-Muttergesellschaft Alphabet Inc. betrieben werden, deren Klimaneutralitätsmaßnahmen zu den besten der Branche gehören. Infolgedessen erwarten wir, dass eine beschleunigte Einführung von KI die Investitionschancen des gesamten Ökostrommarktes verbessern könnte.

In Energielösungen investieren

In all diesen Bereichen sollten Anleger unserer Meinung nach hochwertige Unternehmen mit einem technologischen Vorsprung, einer anhaltenden Preissetzungsmacht, einer gesunden Free-Cash-Flow-Generierung und robusten Geschäftsmodellen suchen. Unternehmen mit soliden Fundamentaldaten, die in der Lage sind, von der steigenden Nachfrage nach energieeffizienten KI-Funktionen zu profitieren, könnten attraktive Chancen für Aktienanleger mit nachhaltigem Fokus bieten. 

Da sich Künstliche Intelligenz immer schneller durchsetzt und Suchmaschinen durch Chatbots ersetzt werden, sollten die energetischen Auswirkungen dieser revolutionären Form des maschinellen Lernens nicht übersehen werden. Initiativen, die darauf abzielen, ein energieeffizienteres KI-Ökosystem zu schaffen, stehen vielleicht noch nicht im Rampenlicht, aber sie könnten Anlegern, die potenzielle Lösungen frühzeitig erkennen, ein attraktives Ertragspotenzial eröffnen.

In diesem Dokument zum Ausdruck gebrachte Meinungen stellen keine Analysen, Anlageberatungen oder Handelsempfehlungen dar, spiegeln nicht unbedingt die Ansichten aller Portfoliomanagementteams bei AB wider und können von Zeit zu Zeit überarbeitet werden. 

Verweise auf bestimmte besprochene Wertpapiere stellen keine Anlageempfehlungen von AllianceBernstein L.P. dar.