Direkt zum Inhalt

Stromverbrauch: Der große Nachteil der Digitalisierung

Informationstechnologie und neuerdings KI durchdringen immer mehr unseren Alltag – und benötigen dafür enorm viel Strom. Doch es gibt Wege, die erforderlichen Ressourcen zu schonen.
Stromtrasse; im Vordergrund sind Einsen und Nullen
Die Daten, die wir Tag für Tag rund um den Globus versenden, haben einen Fußabdruck.

In den letzten 50 Jahren waren wir Zeugen einer explosionsartigen technologischen Entwicklung. Seit die ersten Mikroprozessoren Anfang der 1970er Jahre die digitale Revolution eingeläutet haben, verdoppelt sich alle ein bis zwei Jahre ihre Leistungsfähigkeit. Als Ergebnis trägt heute fast jeder ein Smartphone bei sich und verfügt damit über mehr Rechenleistung, als nötig war, um mit einer Apollo-Rakete zum Mond zu fliegen. Hinzu kommen Internet, die Omnipräsenz sozialer Medien, Kryptowährungen und nicht zuletzt künstliche Intelligenz. Auch wenn vieles davon die Menschheit bereichert, haben all diese Errungenschaften ein gemeinsames Problem: Sie brauchen Strom – und zwar nicht wenig.

Einer Schätzung der Internationalen Energieagentur (IEA) zufolge verbrauchten Datenzentren allein im Jahr 2022 insgesamt 460 Terawattstunden an elektrischem Strom – das sind etwa zwei Prozent des globalen Bedarfs. Bis 2026 soll sich der Wert den Prognosen zufolge verdoppeln. Dabei wurde nicht einmal der Strom für die Datenübertragung mitgezählt, noch der für die Endgeräte und schon gar nicht der Energie- und Ressourcenaufwand für die Herstellung der Hardware.

»Im Grunde ist IT eine Branche wie jede andere und sollte dementsprechend ihren Beitrag zum Klimaschutz und dem Erreichen von Nachhaltigkeitszielen leisten«, sagt Stefan Naumann, Professor für Nachhaltigkeitsinformatik am Umwelt-Campus Birkenfeld der Hochschule Trier. »Allerdings scheinen viele immer noch das Gefühl zu haben, dass da nur Daten hin und her geschoben werden und das Ganze keine großen Auswirkungen auf die Umwelt hat.« Schließlich würde im Elektronikmarkt oder beim Internetanbieter kaum jemand fragen, ob ein Produkt auch ökologisch verträglich hergestellt wurde oder ein Umweltlabel hat. »Der ökologische Fußabdruck von IT ist für den Endnutzer einfach nicht so offensichtlich wie bei einem dicken Diesel-LKW, der eine stinkende Abgaswolke aus dem Auspuff bläst«, meint Naumann.

Praktische Tipps für den Alltag

Im IT-Bereich dreht sich nach wie vor alles um Funktionalität und Sicherheit. »Deshalb halte ich es für wichtig, zunächst einmal ganz neutral für Transparenz zu sorgen«, rät Naumann. Als einfachen Tipp für die Endnutzer nennt der Forscher etwa das Vermeiden von Mobilfunkverbindungen. Denn die Daten werden dabei nicht wie bei einer Kabelverbindung direkt an den Empfänger gesendet, sondern vom Sendemasten in einen breiten Bereich ausgestrahlt. Alles, was den Empfänger verfehlt, ist verlorene Energie. »Das effizienteste ist natürlich, den Laptop direkt an ein LAN-Kabel zu stecken. Wenn man mit dem Smartphone unterwegs ist, kann freies WLAN eine gute Alternative ein.«

Wer eine eigene Website betreibt, dem empfiehlt der Informatiker, darauf zu achten, ob der Provider mit Ökostrom arbeitet. Außerdem lässt sich der ökologische Fußabdruck des eigenen Internetauftritts ganz einfach mit Tools wie Ecograder bestimmen. »Wenn man sich den mit dem Aufruf einer Website verbundenen CO2-Ausstoß einmal bewusst gemacht hat, gibt es eine Vielzahl von Möglichkeiten, ihn zu optimieren«, erklärt Naumann. So könne man auf eine unnötig hohe Auflösung bei Bildern verzichten oder mit Caching arbeiten, da sonst Daten mehrmals heruntergeladen werden, selbst wenn es gar nichts Neues gibt. Auch Adblocker können den Datenfluss und damit den Stromverbrauch reduzieren. »Das ist allerdings etwas zweischneidig, weil die Betreiber der Seiten ja auch von etwas leben müssen«, sagt Naumann.

Beim beliebten Videostreaming kann der Forscher trotz des hohen Stromverbrauchs positive Trends erkennen. So seien Netflix und Co zunehmend darauf bedacht, ihre Server näher an die Endkunden heranzubringen, um den Aufwand für die Datenübertragung zu verringern. Grund dafür ist nicht nur Klimabewusstsein: Es lässt sich eine Menge Geld sparen, wenn man Daten einmal auf einen Server in der Nähe kopiert, anstatt sie für jede einzelne Anfrage um die halbe Welt zu verschicken.

Allerdings warnt Naumann vor dem gefürchteten, aber fast unvermeidlich erscheinenden »Rebound-Effekt«. Der tritt immer dann auf, wenn eine Technologie zwar effizienter wird, dadurch aber öfter zum Einsatz kommt. »Wenn der Server näher an mir dran ist, dann gibt es weniger Unterbrechungen und die Filme ruckeln vielleicht auch nicht mehr so oft wie früher«, erläutert Naumann. »Und da das so gut funktioniert, haben viele das Gefühl, sie könnten das jetzt einfach so laufen lassen und den Energieverbrauch ausblenden.«

Je kleiner ein Gerät ist und je weniger Strom es während der Nutzung verbraucht, desto mehr schlägt die Produktion zu Buche

Neben dem unmittelbaren Stromverbrauch von IT-Anwendungen trägt die Herstellung der Hardware, auf der die Anwendungen laufen, zum ökologischen Fußabdruck bei. »Das Ziel muss sein, dass die Hardware selbst ökologischer wird, sowohl in der Herstellung als auch in der Entsorgung«, sagt Naumann. Um die Technik möglichst lange nutzen zu können, muss sie einerseits möglichst lange halten und darf andererseits nicht wegen mangelnder Sicherheitsupdates vorzeitig ausscheiden.

Allgemein gilt: Je kleiner ein Gerät ist und je weniger Strom es während der Nutzung verbraucht, desto mehr schlägt die Produktion zu Buche. »Bei einem Server, der 500 Watt Leistungsaufnahme hat, lohnt es sich, früher eine neuere Generation zu kaufen, um Strom zu sparen«, stellt Naumann fest. »Bei einem Smartphone lohnt es sich aus ökologischer Sicht dagegen fast nie.« Eine nachhaltigere Alternative zu herkömmlichen Handys könnten modular aufgebaute Geräte wie Fairphone oder Shiftphone sein, die sich leichter reparieren lassen, weil einzelne Teile austauschbar sind.

Das Internet der Dinge

Zusätzlich zu den offensichtlichen IT-Anwendungen mit Computer, Smartphone und Internet schleicht sich inzwischen eine neue Generation von Geräten in unser Leben, die ebenfalls unentwegt Daten sammeln, verarbeiten und übertragen. Im Internet of Things (IoT) vernetzen sich Autos, überwachen Kühlschränke ihren Inhalt oder messen Sensoren Raumtemperaturen, um Heizungen zu steuern. Die kleinen Endgeräte, die dafür zum Einsatz kommen, haben für sich zwar nur einen geringen Stromverbrauch – doch ihre Anzahl nimmt mittlerweile stark zu.

»In dem Bereich tut sich eine Menge, wenn auch noch weitgehend unbemerkt«, sagt Naumann. Vor allem das Thema Dateneffizienz spielt dabei eine entscheidende Rolle. »Jedes Bit ist ein Stromimpuls«, mahnt Naumann. Jede Informationseinheit in einem Sensor wird verschickt, verarbeitet und gespeichert und benötigt dabei Strom.

»Die beste nachhaltige IT ist die, die selbst möglichst effizient ist und gleichzeitig einen Nutzen für die Umwelt hat«Stefan Naumann, Professor für Nachhaltigkeitsinformatik

Trotz des eigenen Stromverbrauchs kann sich das IoT aber positiv auf die Energieeffizienz auswirken. Vor allem im Bereich von »Smarthomes« tragen vernetzte Sensoren und intelligente Steuerungen schon jetzt dazu bei, Energie zu sparen, etwa beim Heizen. Abseits vom IoT können digitale Technologien unter anderem im Bereich der Mobilität für mehr Nachhaltigkeit sorgen. Zum Beispiel lassen sich auf diese Weise die kürzesten Routen finden, wodurch wesentlich mehr Energie eingespart wird, als die Technologie selbst verbraucht. »Die beste nachhaltige IT ist die, die selbst möglichst effizient ist und gleichzeitig einen Nutzen für die Umwelt hat«, sagt Naumann.

KI, der Stromfresser

Dem geringen Energieverbrauch und potenziellen Nutzen von IoT-Anwendungen steht der horrende Energiehunger von künstlicher Intelligenz gegenüber. Vor allem große Sprachmodelle wie ChatGPT sind in jüngster Zeit ins Visier der Nachhaltigkeitsforschung geraten. Deren beeindruckende Sprachfähigkeiten fußen auf künstlichen neuronalen Netzen mit Milliarden von Parametern, deren Training Unmengen an Ressourcen verschlingt. Alleine das Training von GPT-3, das hinter ChatGPT steckt, hat 1287 Megawattstunden an elektrischer Energie erfordert, was in etwa der Menge entspricht, die ein mittleres Atomkraftwerk in einer Stunde produziert.

Zudem steigt die Zahl der Chatbot-Nutzer rasant an und damit auch der Stromverbrauch. So hatte ChatGPT bereits in den ersten zwei Monaten nach seiner Einführung 100 Millionen Nutzer gefunden und benötigte Schätzungen zufolge täglich 564 Megawattstunden an elektrischer Energie, um seinen Dienst aufrechtzuerhalten.

»Wenn man den wachsenden Bedarf an KI-Diensten betrachtet, erscheint es sehr wahrscheinlich, dass der Energieverbrauch in den kommenden Jahren signifikant steigen wird«, sagt der Datenwissenschaftler Alex de Vries von der Vrije Universiteit Amsterdam. Er hat in einer viel beachteten Veröffentlichung im renommierten Fachjournal »Joule« den Energieverbrauch der Sprachmodelle unter die Lupe genommen. Besonders alarmierend ist ein von de Vries zitiertes Gedankenexperiment, bei dem jede der rund neun Milliarden täglichen Googleanfragen von einem Chatbot beantwortet wird. Google hat selbst bereits darauf hingewiesen, dass eine solche Umstellung den Stromverbrauch wohl verzehnfachen würde. Der pessimistischsten Annahme im Paper zufolge würde er sich aber sogar verdreißigfachen – und damit in Summe etwa den Energiebedarf von Irland erreichen.

»Das potenzielle Wachstum zeigt, dass wir sehr genau darauf achten sollten, wofür wir KI einsetzen«Alex de Vries, Datenwissenschaftler

Zum Glück ist ein derart extremes Szenario aktuell allein schon aus wirtschaftlichen Gründen unrealistisch. Die Anschaffung der zusätzlich benötigten Hardware sowie der zu erwartende horrende Zuwachs an Stromkosten würde de Vries zufolge den von Google erwirtschafteten Gewinn fast vollständig auffressen. Dennoch warnt der Datenwissenschaftler vor einem leichtfertigen Umgang mit künstlicher Intelligenz: »Das potenzielle Wachstum zeigt, dass wir sehr genau darauf achten sollten, wofür wir KI einsetzen. Sie ist energieintensiv und deshalb sollten wir sie nicht einfach in alle möglichen Dinge einbauen, in denen wir sie vielleicht gar nicht wirklich brauchen.« Dennoch setzt auch Google inzwischen immer mehr auf KI: Die Suchmaschine spielt künftig neben den bisherigen Suchergebnissen außerdem Antworten eines Sprachmodells aus.

Der Energiebedarf der Forschung

Nicht nur kommerzielle Anwendungen lassen Rechenzentren heiß laufen, sondern auch die Forschung. So fallen etwa am Höchstleistungsrechenzentrum in Stuttgart (HLRS) jährlich Stromkosten in Höhe von mehreren Millionen Euro an, unter anderem für hochkomplexe physikalische Simulationen. Zwar ist wissenschaftliche Forschung wichtiger als das Streamen von Videos oder das Plaudern mit einem Chatbot, dennoch sind die Fachleute des HLRS ebenfalls angehalten, ihren ökologischen Fußabdruck möglichst zu minimieren.

Im Pilotprojekt WindHPC verbinden die Stuttgarter deshalb erstmals Computer, die sich direkt in einem Windpark befinden, mit einem Rechenzentrum. »Wenn viel Wind weht, produzieren diese Anlagen oft mehr Strom, als sie abgeben können«, sagt Christoph Niethammer, der als wissenschaftlicher Mitarbeiter mit der Umsetzung des Projekts betraut ist. Um solche Schwankungen auszugleichen, könnten beispielsweise Teile einer Rechenaufgabe vom Großrechner zum kleineren Cluster im Windpark verschoben werden. »Das bietet sich vor allem in solchen Fällen an, bei denen der Zeitfaktor nicht allzu kritisch ist«, erklärt Niethammer. Denn dann ist es kein Problem, auf Wind und die damit verbundene Überproduktion von Strom zu warten.

Ein weiterer Vorteil dieses Vorgehens ist, dass Leitungsverluste für die Stromversorgung wegfallen. »Würde man den Windstrom aus dem Norden nach Stuttgart transportieren, müsste man mit Verlusten von fünf bis zehn Prozent rechnen«, bilanziert Niethammer. »Und der Kamineffekt in den Türmen der Windräder würde sich eigentlich auch für die Kühlung der Rechner anbieten.« Dazu müssten sie allerdings erst noch umgebaut oder die Abwärme bei einer Neukonstruktion gleich mitberücksichtigt werden.

Platz sei in den Türmen jedenfalls genug vorhanden, denn die etwa zehn Quadratmeter großen Grundflächen sind normalerweise völlig leer. Allerdings kann ein solcher externer Rechner nicht die gleichen Ausmaße wie das HLRS annehmen, dem in etwa die Fläche einer Sporthalle zur Verfügung steht. »Ein Rechner, der in so einem Windradturm Platz findet, benötigt eine Stromversorgung in der Größenordnung von 100 Kilowatt«, sagt Niethammer, »also nur einen Bruchteil der bis zu sechs Megawatt, die eine große Windenergieanlage erzeugt.« Das Kraftwerk betreibt also im Bedarfsfall nicht nur den Rechner, sondern liefert auch weiterhin Strom für die Haushalte in der Umgebung, die natürlich immer Vorrang haben.

Simulationen | Auf den Rechnern des HLRS werden hauptsächlich komplexe physikalische Vorgänge simuliert, wie Strömungen von Flüssigkeiten oder Entwicklungen des Klimas. Für solche Modelle unterteilen Fachleute den Raum meist in kleine, dreidimensionale Segmente und stellen für jedes davon physikalische Gleichungen auf. Da alle Segmente miteinander verbunden sind, entsteht dadurch ein gigantisches Gleichungssystem. Solche Aufgaben lassen sich auf Supercomputern ausführen, indem man die Probleme »parallelisiert«: Sie werden in kleine Teilaufgaben zerlegt, die jeweils ein Rechenkern löst. Dabei kommuniziert jeder Prozessor über das Netzwerk mit seinen Nachbarn und tauscht die berechneten Werte aus, um zu einer Gesamtlösung zu kommen.

Im großen Rechenzentrum in Stuttgart ist man dagegen bemüht, zumindest die Kühlung der Rechner so effizient wie möglich zu gestalten und wenigstens einen Teil dieser unvermeidlichen Abwärme sinnvoll zu nutzen. Schließlich fließt dort in etwa die gleiche Menge an Strom wie in einer Stadt mit 18 000 Einwohnern – und die wird von den Computern vollständig in Wärme umgewandelt.

»Um diese Wärme aus dem Rechenzentrum rauszubekommen, sollte die Temperatur des Kühlwassers höher sein als die Außentemperatur«, erklärt Norbert Conrad, stellvertretender Direktor des HLRS. »Früher wurde das fast ausschließlich mit Kältemaschinen erreicht, also im Grunde riesigen Kühlschränken, die die Wärme nach draußen pumpen.« So eine Kältemaschine benötigt allerdings für jede Kilowattstunde, die sie abtransportiert, etwa 0,25 bis 0,33 Kilowattstunden an zusätzlicher Energie. Freie Kühlung dagegen, bei der die Temperatur des Kühlwassers von vornherein hoch genug ist, um die Wärme direkt an die Umgebung abzugeben, braucht fast gar keinen Strom. »Unser Ziel ist deshalb, möglichst warmes Kühlwasser zu haben«, sagt Conrad. Die Rechner sollten also bei möglichst hohen Temperaturen arbeiten.

Das stellt die Beteiligten allerdings vor ein Dilemma, denn die Leistungsfähigkeit der Rechner sinkt mit steigender Temperatur. »Deshalb haben wir im Projekt DEGREE das gesamte Kühlsystem simuliert und berücksichtigen die Außentemperatur, also das Wetter, und den aktuellen Betriebszustand des Rechners, also die Aufgaben, an denen er gerade arbeitet«, erläutert Conrad. »Diese Simulation sagt uns dann, wie wir die Kühlung betreiben müssen, um ihren Energiebedarf zu minimieren.« Allerdings wird die nächste Generation von Rechnern voraussichtlich ohnehin mit wärmerem Kühlwasser laufen, weil sie es näher an die Wärmequellen im Chip heranführt. So kann das Wasser auch bei einer geringeren Temperaturdifferenz zum Chip dieselbe Kühlleistung entfalten.

Noch besser als eine effiziente Kühlung wäre es, die unvermeidliche Abwärme für andere Zwecke zu nutzen. »Aktuell verwenden wir die Wärme schon für unsere eigene Gebäudeheizung«, sagt Conrad. »Allerdings brauchen wir dafür bisher nur etwa hundert Kilowatt, während der Rechner drei Megawatt abgibt.« Bis 2027 soll die gesamte Abwärme die Universität Stuttgart versorgen. Im Winter könnte das die Hälfte der insgesamt notwendigen Heizenergie liefern. Und auch im Sommer gibt es Conrad zufolge eine ganze Reihe von Systemen in den Labors und Werkstätten der Universität, deren Wärmebedarf sich zu 100 Prozent mit der Abwärme des Computers decken ließe.

Wie man einen grünen Code schreibt

Um von vornherein möglichst wenig Abwärme zu erzeugen, sollten schon die Programmcodes möglichst effizient gestaltet sein. In einem Rechenzentrum wie dem HLRS gibt es üblicherweise viele verschiedene Nutzende aus unterschiedlichen wissenschaftlichen Institutionen, die ihre Programme auf die Computer schieben. In der Regel wird jedem Nutzer eine bestimmte Rechenzeit zur Verfügung gestellt. Ist sie abgelaufen, folgt die Ablösung durch das nächste Forschungsprojekt. Das Zentrum ist also ständig mit neuen Bedingungen konfrontiert, da sich die Zusammensetzung der Berechnungen ständig verändert.

Um die Energieeffizienz eines Programms zu beurteilen, orientieren sich die Betreiber eines Rechenzentrums an Metriken wie der Lastverteilung, also der Zuweisung der Rechenleistung auf die einzelnen Prozessorkerne eines Großrechners. Wenn die Lastverteilung ungleichmäßig ist, kann das dazu führen, dass viele Programme auf ein einzelnes warten müssen, um die Berechnung zu beenden. Da das System in dieser Wartezeit ebenfalls Strom verbraucht, verschwendet es dabei sowohl Energie als auch wertvolle Zeit.

Programme, die seit vielen Jahren von Forschenden entwickelt werden, haben in der Regel eine bessere Lastverteilung als neue Algorithmen, die noch nicht so gut optimiert sind. Bei letzteren kann es sich lohnen, etwas mehr Arbeitszeit zu investieren und das Programm zu optimieren. Statistische Abschätzungen prognostizieren in solchen Fällen ein Potenzial für Effizienzsteigerungen im Bereich von etwa zehn Prozent.

Selbstverständlich setzen neben dem HLRS auch andere Rechenzentren in Deutschland auf Nachhaltigkeit. So verwendet das Leibniz-Rechenzentrum (LRZ) eigenen Angaben zufolge ausschließlich Strom aus erneuerbaren Quellen und drosselt den Verbrauch ebenfalls durch Warmwasserkühlung und smarte Steuerungen.

Ob Rechenzentrum oder Smartphone, ob kommerzielle KI oder wissenschaftliche Simulationen: Angesichts der nahenden Klimakatastrophe rücken die Ideen einer grünen Informationstechnik überall in den Fokus. Das Credo lautet, Hardware, Software und Datenverbindungen in Zukunft nicht nur in Hinblick auf Funktionalität und Sicherheit zu optimieren, sondern auch aus einer ökologischen Perspektive heraus zu verbessern. Denn letztlich wird es auf lange Sicht kaum gelingen, den Stromverbrauch des Digitalen erheblich zu senken. Wichtig ist es daher, saubere Energiequellen für die Anwendungen zu erschließen sowie deren Nutzen dem Energieverbrauch gegenüberzustellen und abzuwägen, ob es das wert ist.

WEITERLESEN MIT SPEKTRUM - DIE WOCHE

Im Abo erhalten Sie exklusiven Zugang zu allen »spektrum.de« Artikeln sowie wöchentlich »Spektrum - Die Woche« als PDF- und App-Ausgabe. Genießen Sie uneingeschränkten Zugang und wählen Sie aus unseren Angeboten.

Zum Angebot

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Quellen
De Vries, A.: The growing energy footprint of artificial intelligence. Joule 7, 2023

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.