Springers Einwürfe: Digitaler Energiehunger
Vor Jahrzehnten, als die umfassende Digitalisierung noch Zukunftsmusik war, sahen Trendforscher in ihr die Lösung der meisten Energie-, Verkehrs- und Umweltprobleme. In der schönen neuen Welt der Bits und Bytes würde das meiste im weltweiten Netz, elektronisch und virtuell ablaufen. Industrieroboter würden menschenleere Fabriken bevölkern, die Arbeiter an Bildschirmen von Weitem die Produktion überwachen. Die Angestellten müssten nicht mehr täglich zu großen Bürogebäuden pendeln, sondern blieben daheim in ihrem Homeoffice. Politiker und Manager bräuchten nicht mehr zu internationalen Tagungen anzureisen, sondern würden sich durch Videokonferenzen kostspielige und umweltbelastende Flüge sparen.
Nun, da die Digitalisierung tatsächlich Fahrt aufnimmt, kommen ihre Gestehungskosten ins Bild. Die globale Vernetzung verlangt eine wachsende Anzahl riesiger Rechenzentren, die Unmengen an Daten sammeln, speichern und versenden – und entsprechend viel Energie benötigen. Experten schätzen, dass der weltweite Strombedarf solcher Anlagen zwischen 2005 und 2010 von gut 150 Terawattstunden (TWh) auf rund 250 TWh pro Jahr wuchs (das entspricht dem Verbrauch von mehr als einer halben Milliarde 50-Watt-Birnen, die ununterbrochen leuchten). Die ungebremste Fortsetzung dieses steilen Trends würde das strahlende Image der Digitalisierung merklich trüben.
Gewiss werden künftig, während Mobilfunk, selbstfahrender Verkehr und künstliche Intelligenz den Globus umfassen, die zu verarbeitenden Datenmengen rapide wachsen. Aber muss zugleich die Digitalisierung energetisch komplett aus dem Ruder laufen?
Nicht unbedingt, beruhigen US-Ingenieure um Eric Masanet von der Northwestern University in Evanston (Illinois). Der Fortschritt der Datenverarbeitungstechnik habe seit 2010 die Energieeffizienz so drastisch verbessert, dass der einschlägige Stromverbrauch bis 2018 nur um sechs Prozent zugenommen habe, obgleich sich im selben Zeitraum die Menge der in globalen Datenzentren bewältigten Rechenschritte mehr als verfünffacht habe. Offenbar sei es gelungen, das Wachstum des digitalen Energiehungers weitgehend vom anfallenden Datenvolumen zu entkoppeln (Science 367, S. 984–986, 2020).
Das nährt die Hoffnung, dass die Digitalisierung in den kommenden Jahrzehnten nicht überproportional viel Energie verschlingen wird, sondern weiterhin »nur« ein bis zwei Prozent des – allerdings stark wachsenden – weltweiten Strombedarfs. Freilich, so die Autoren der Studie, dürfe sich die Daten verarbeitende Industrie nicht auf ihren Lorbeeren ausruhen: In den nächsten drei oder vier Jahren werde sich das Volumen der Clouds verdoppeln.
Ist die kurzfristig beruhigende Prognose auf lange Sicht allzu optimistisch? Der datentechnische Fortschritt wird wohl noch weitere Energieeinsparungen bringen, gewiss aber auch neue Verfahren, die verschwenderischen Aufwand erfordern. Angenommen, Quantencomputer erweisen sich wie erhofft als der letzte Schrei und erobern allmählich die Datenzentren: Damit etabliert sich eine äußerst empfindliche Technik, die extreme Tiefkühlung und fast totale Abschirmung von der Umwelt erfordert.
Oder was wäre, wenn sich die vorderhand nur punktuell eingesetzten Blockchain-Verfahren breit durchsetzten, die für ihre besonders hohe Datensicherheit den Preis dezentraler und entsprechend energieaufwändiger Verarbeitung verlangen? Der energetische Preis der Digitalisierung wird vielleicht nicht so exorbitant steigen wie zunächst befürchtet – aber wachsen wird er in jedem Fall.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.