WASHINGTON/BERLIN – Jeder spricht von KI, aber niemand davon, dass eine KI-Anfrage etwa zehn Mal so viel Energie verbraucht, wie eine google-Anfrage. Der Stromverbrauch durch KI wird also in den nächsten Jahren rasant steigen, während die Altparteien Kraftwerke stilllegen!
.
.
Rechenzentren verzeichnen seit Jahrzehnten ein kontinuierliches Wachstum, aber das Ausmaß des Wachstums in der noch jungen Ära großer Sprachmodelle war außergewöhnlich. KI erfordert viel mehr Rechen- und Datenspeicherressourcen als das Wachstum von Rechenzentren vor der KI möglich war.
Der Energieverbrauch ist ein zentrales Thema für Rechenzentren. Der Stromverbrauch reicht von einigen kW für ein Server-Rack in einem Schrank bis zu mehreren zehn MW für große Anlagen. Einige Anlagen haben eine Leistungsdichte, die mehr als 100-mal so hoch ist wie die eines typischen Bürogebäudes. Bei Anlagen mit höherer Leistungsdichte sind die Stromkosten ein dominierender Betriebskostenfaktor und machen über 10 % der Gesamtbetriebskosten (TCO) eines Rechenzentrums aus.
Im Jahr 2020 verbrauchten Rechenzentren (ohne Kryptowährungs-Mining) und Datenübertragung jeweils etwa 1 % des weltweiten Stroms. Obwohl ein Teil dieses Stroms kohlenstoffarm war, forderte die IEA mehr „Anstrengungen von Regierung und Industrie in Bezug auf Energieeffizienz, Beschaffung erneuerbarer Energien und F&E“, da einige Rechenzentren immer noch Strom aus fossilen Brennstoffen verwenden. Sie sagten auch, dass die Emissionen über den gesamten Lebenszyklus berücksichtigt werden sollten, d. h. einschließlich der verkörperten Emissionen, wie z. B. in Gebäuden. Schätzungen zufolge waren Rechenzentren im Jahr 2018 für 0,5 % der US-Treibhausgasemissionen verantwortlich. Einige chinesische Unternehmen wie Tencent haben sich verpflichtet, bis 2030 kohlenstoffneutral zu sein, während andere wie Alibaba von Greenpeace dafür kritisiert wurden, dass sie sich nicht dazu verpflichtet haben, kohlenstoffneutral zu werden. Google und Microsoft verbrauchen mittlerweile jeweils mehr Strom als einige ziemlich große Länder und übertreffen den Verbrauch von mehr als 100 Ländern.
.
Ein bisher völlig unbeachtetes Problem
Der Datenwissenschaftler Alex de Vries von der VU Amsterdam School of Business and Economics hat im Rahmen einer Studie einen Weg gefunden abzuschätzen, wie viel Strom „Künstliche Intelligenz“ in Zukunft benötigen wird. er hat einfach die Anzahl der KI-Chips genommen, die nur der Marktführer Nvidia voraussichtlich bis zum Jahr 2027 verkauft haben wird. Nvidia liefert jedenfalls rund 95 Prozent der für KI-Modelle benötigten Chips. Da auch der Stromverbrauch eines dieser Chips bekannt ist, kann man den Stromverbrauch den „Künstliche Intelligenz“ bis 2027 benötigen wird, bei ca. 85 bis 134 Terawattstunden (TWh) Strom pro Jahr ansetzen. Das kommt grob auf den jährlichen Energieverbrauch eines kleinen Landes. Setzt man den oberen Wert an, dann wäre das der Energieverbrauch Vietnams und fast Polens, die nur wenig mehr benötigen. Wäre KI ein eigenes Land, wäre man bei der oberen Grenze immerhin auf Platz 26 der Top-Energieverbraucher der Erde.
Nimmt man hingegen einen Mittelwert, so ist es noch immer der Wert eines bedeutenden EU-Landes!
.
KI treibt die CO2-Bilanz der Tec-Konzerne ins Negative
Der Boom der künstlichen Intelligenz hatte so tiefgreifende Auswirkungen auf die großen Technologieunternehmen, dass ihr Energieverbrauch und damit auch ihre CO2-Emissionen, signifikant gestiegen sind.
.
KI-Anfrage kostet ca. 10Mal so viel Strom, wie Google-Anfrage
Erfolge wie das Sprachmodell ChatGPT hat zu diesem Anstieg des Energiebedarfs stark beigetragen. So benötigt eine ChatGPT-Anfrage etwa 10-mal so viel Energie wie eine n0rmale Google-Suchanfragen, hat das Electric Power Research Institute, ermittelt. Man kann davon ausgehen, daß KI bei Audio- und Videoerzeugung noch viel mehr Energiebedarf benötigen wird.
Dieser Zusatzbedarf stellt die bisherigen Kalkulationen der Energieunternehmen auf den Kopf. In den USA wird inzwischen sogar darüber nachgedacht, die Wiederinbetriebnahme eines Kernreaktors im ehemals havarierten Kraftwerk Three Mile Island ins Auge zu fassen.
.
Ein unterdimensioniertes Stromnetz
Und es gibt noch ein weiteres Problem: die bestehenden Stromnetze sind für diese benötigten Mengen nicht ausgelegt. Bereits jetzt sind die Stromnetze vielerorts schon an ihrer Kapazitätsgrenze. Der Bau von Rechenzentren dauert etwa ein bis zwei Jahre, während die Planung zur Einspeisung neuer Energie in das Netz international ca. vier Jahre benötigt. Hieraus ergibt sich eine erhebliche Verzögerung zwischen dem Computerwachstum und dem Netzwachstum.
Hinzu kommt, daß durch permanente Neueinspeisungen das Netz instabil wird. Damit wird die gesamte Stromversorgung anfällig für Stabilitätsprobleme.
Das Problem der Dekarbonisierungsziele
Neben der Notwendigkeit, die Stromerzeugung zu erhöhen, um dieses Wachstum aufrechtzuerhalten, haben fast alle Länder Dekarbonisierungsziele. Das bedeutet, dass sie bestrebt sind, mehr erneuerbare Energiequellen ins Netz einspeisen. Erneuerbare Energien wie Wind und Sonne sind aber unregelmäßig: Der Wind weht nicht immer und die Sonne scheint nicht immer. Mangel an billiger, grüner und skalierbarer Energiespeicherung bedeutet, dass das Netz vor einem noch größeren Problem steht, Angebot und Nachfrage in Einklang zu bringen.
Das Problem des Wasserverbrauchs
Weitere Herausforderungen für das Wachstum von Rechenzentren sind zunehmender Einsatz von Wasserkühlung zur Steigerung der Effizienz, was die begrenzten Süßwasserquellen belastet. Infolgedessen wehren sich einige Gemeinden inzwischen sogar gegen neue Investitionen in Rechenzentren.
.
Lösungsansätze
Bisher wurden jedoch keine wirklich innovativen Lösungen für diese Probleme gefunden:
Bessere Technik
Die Industrie begegnet dieser Energiekrise auf verschiedene Weise. Ein Parameter ist die Computerhardware. diese wird in Bezug auf die ausgeführten Operationen pro verbrauchtem Watt immer energieeffizienter. So gelang es die Energieeffizienz von Rechenzentren, das ist eine Kennzahl, die das Verhältnis des Stromverbrauchs für Computer in einen Vergleich zu Kühlung und anderer Infrastruktur legt, konnte auf inzwischen 1.5 im Durchschnitt reduziert werden, wobei moderne Einrichtungen sogar einen Wert von 1.2. erreichen können. Neue Rechenzentren verfügen über eine effizientere Kühlung durch Wasserkühlung und externe Kühlluft, sofern verfügbar.
Leider wird Effizienz allein das Nachhaltigkeitsproblem nicht lösen. Jevons Paradox zeigt, wie Effizienz zu einer Anstieg des Energieverbrauchs auf lange Sicht. Darüber hinaus haben Effizienzgewinne bei der Hardware deutlich verlangsamt, da die Branche an die Grenzen der Skalierung der Chip-Technologie gestoßen ist.
Um die Effizienz weiter zu verbessern, entwickeln Forscher aktuell
- Spezialhardware wie Beschleuniger,
- neue Integrationstechnologien wie 3D-Chips, und
- neue Techniken zur Chipkühlung.
Ebenso untersuchen und entwickeln Forscher zunehmend Kühltechnologien für Rechenzentren. Der bereits zitierte Bericht des Electric Power Research Institute bestätigt, daß neue Kühlmethoden, wie
- luftunterstützte Flüssigkeitskühlung und
- Immersionskühlung
in der Entwicklung sind. Während die Flüssigkeitskühlung bereits in erste Rechenzentren Einzug gehalten hat, haben bisher erst wenige neue Rechenzentren die noch in der Entwicklung befindliche Immersionskühlung umgesetzt.
Schlechtere Qualität
Ein weiterer Ansatz ist, daß die Betreiber von Rechenzentren diese ineffizient betreiben: Die Grundidee besteht darin, mehr zu rechnen, wenn Strom billiger, verfügbarer und umweltfreundlicher ist, und weniger, wenn er teurer, knapper und umweltschädlicher ist. Das heißt: die Betreiber nutzen aus Strommangel freiwillig die Kapazität ihrer Rechenzentren nicht aus!
Ein noch weiterer Ansatz ist, daß Betreiber von Rechenzentren ihre Anlagen derart umrüsten, daß diese eine variable Belastung für das Netzes darstellen. Hochschulen und Energieerzeuger haben erste Beispiele für eine solche variable Nachfragereaktion für Rechenzentren geliefert, bei denen Rechenzentren ihre Leistung je nach Bedarf des Stromnetzes regulieren. Das heißt ebenfalls: die Betreiber nutzen erneut aus Strommangel freiwillig die Kapazität ihrer Rechenzentren nicht aus! Oder als Schönsprech: bestimmte Rechenaufgaben können in Zeiten mit geringerer Auslastung gelegt werden.
Ein dritter Vorschlag lautet, daß Rechenzentren ihre Genauigkeit reduzieren, um den Arbeitsaufwand beim Trainieren von KI-Modellen zu verringern. Das heißt wiederum: Die Antworten der KI werden weniger präzise, die KI wird also dümmer!
Und der vierte Vorschlag lautet, doch das Problem einfach der KI zur Lösung überlassen: Das Electric Power Research Institute Initiative zur Lastprognose umfasst Aktivitäten zur Unterstützung der Netzplanung und des Netzbetriebs. Umfassende Überwachung und intelligente Analysen – möglicherweise auf Basis künstlicher Intelligenz – sowohl für Rechenzentren als auch für das Netz sind für genaue Prognosen unerlässlich.
Eine dieser „Lösungen“ dürfte letztendlich wirklich überzeugen. Oder mit anderen Worten: Dieses Problem ist bisher ungelöst! Vermutlich wird es so sein, daß BigTech die Altparteien zwingen wird in Deutschland, neue Kernkraftwerke zu bauen