Energie: "Kernfusion ist die beste Energiequelle"
Seit Langem träumen Physiker und Energieunternehmer davon, auf der Erde eine kleine Sonne zu entzünden, die billig und massenhaft Energie liefert. Der Weg dahin ist aber steinig und von Rückschlägen gezeichnet. spektrumdirekt sprach deshalb mit dem Greifswalder Physiker Thomas Klinger, dem Leiter des deutschen Kernfusionsprojekts in Greifswald, über die Zukunft der Technologie.
Herr Professor Klinger, ist die Kernfusion die Antwort auf das Energieproblem der Menschheit?
Ja, wir halten sie für eine Lösung. Die Energiedichte des Deuterium-Tritium-Gemischs, das als Brennstoff zum Einsatz kommt, ist atemberaubend gut. Mit nur einem Gramm Brennstoff im Reaktor lässt sich ein Kraftwerk mit 3000 Megawatt thermischer Leistung realisieren – so viel wie ein riesiges Braunkohlekraftwerk. Dass die Fusion die richtige Wahl ist, zeigt uns ja auch die Natur selbst. Wenn man an die Genesis glaubt, dann hat der liebe Gott nicht ohne Grund als Heizung für das Weltall die Kernfusion genommen. Sie ist einfach die beste Energiequelle.
Allerdings auch die, die am schwersten zu verwirklichen ist. Heute heißt es, dass man in 50 Jahren ein Kraftwerk damit betreiben kann. Hat man das nicht auch schon vor 50 Jahren gesagt?
Welche Erklärung hat man dafür gefunden?
Man hatte einen wichtigen Aspekt übersehen: Turbulenzen. Ein Plasma verhält sich – obwohl es ein elektrisch geladenes Gas ist – in vielerlei Hinsicht wie eine Flüssigkeit. Wie sie neigt auch das Plasma zu Verwirbelungen, die sich vor allem am Rand des Plasmas ausbilden, wo die Temperatur oder die Dichte steil abfällt. Dadurch wird viel Wärme transportiert. Man hat versucht, dem zu begegnen, indem man die Maschinen immer größer gebaut hat.
Was bringt das?
Das Verhältnis von Volumen zu Oberfläche verändert sich. Je größer das ist, desto weniger Wärme geht verloren. Ich nenne dies das "Spitzmausprinzip". Denn auch bei Säugetieren geht der Wärmeverlust durch die Oberfläche beziehungsweise die Haut. Deswegen gibt es ja auch eine Minimalgröße für ein Säugetier – die der Spitzmaus.
Wie hat man diese Instabilitäten in den Griff bekommen?
Man hat natürlich alle möglichen Tricks versucht. Aber Turbulenzen sind ein nichtlineares Phänomen, das sehr schwierig zu berechnen ist. Das geht nur mit Supercomputern und sehr mühsamem Experimentieren. Letztendlich hat die Natur geholfen. Ein ganz wichtiger Schritt war 1984 die Entdeckung der H-Mode (High-Confinement-Mode, ein Plasmazustand mit verbessertem Energieeinschluss bei starker Heizung, Anm. d. Red.) in Garching. Man hat dort festgestellt, dass sich in einem auf spezielle Art und Weise präparierten Tokamak diese Turbulenzen plötzlich selbst abwürgen. Heute werden alle Tokamaks mit der entsprechenden Geometrie gebaut, die die H-Mode auch sicher herstellt.
Das größte Fusionsprojekt von allen, ITER, entsteht gerade unter internationaler Beteiligung in Südfrankreich. Er soll zehnmal mehr Energie erzeugen, als sein Plasma an Heizenergie verschluckt. Ist es ausgeschlossen, dass man mit ITER wieder auf ein fundamentales Problem stößt?
Ausschließen kann man das nie, sonst wäre es keine Wissenschaft. Dieses brennende Plasma ist ein unbekanntes Ding, und ja, es kann neue Instabilitäten auslösen. Wir haben da eine gewisse Vielfalt von Vorhersagen. Es sieht nirgends richtig schlecht aus, aber es muss alles verifiziert werden. Doch das gesamte Verständnis von einem Hochtemperaturplasma in einem Magnetfeld, das hat schon gewaltig zugenommen. Mich würde sehr wundern, wenn man etwas ganz Fundamentales übersehen hätte.
ITER soll auch klären, ob man in der Hülle des Reaktors das für die Reaktion nötige Wasserstoffisotop Tritium in ausreichenden Mengen erbrüten kann. Kritiker sagen, dass das ein großes Problem werden könnte, zumal es Tritium auf der Erde praktisch nicht gibt. Kann das Projekt Kernfusion daran womöglich scheitern?
Zu jedem Thema gibt es Euphoriker und Kritiker. Die größten Skeptiker der Fusion machen sich Sorgen um die Effizienz der Reaktorhülle. Das hat durchaus auch seine Basis. Bei diesem Brütprozess trifft ein Neutron auf einen Lithiumkern und erzeugt dann das Tritium und das Helium. Dabei entsteht auch wieder ein Neutron. Das hört sich simpel an. Aber die Energie des Neutrons ist nach der Reaktion mitunter zu gering. Mit jedem Neutron erzeugt man also bloß immer einen Tritiumkern. Damit bräuchte man aber eine hundertprozentige Trefferrate – die man nicht hat. Man braucht also einen Neutronenmultiplikator, zum Beispiel Blei. Das mischt man dem Tritium bei, so dass man viel mehr Neutronen erhält. Aber ob das funktioniert, muss sich noch zeigen.
Ein anderes Problem betrifft den Dauerbetrieb – ITER wäre dazu nicht fähig, sondern würde in 500 Sekunden langen Pulsen arbeiten. Ist ein Fusionskraftwerk, das nur gepulst betrieben werden kann, überhaupt sinnvoll?
Ein Kraftwerk ohne Dauerbetrieb ist natürlich nicht optimal. Man kann aber auch den Pulsbetrieb ingenieurstechnisch auffangen, etwa durch einen Dampferzeuger. Aber es ist sehr schlecht für das Material, wenn die Temperatur ständig so stark schwankt, denn dann kommt es schneller zu thermischen Ermüdungen.
In Greifswald arbeiten Sie an einer Alternative zum Tokamak: dem so genannten Stellarator-Ansatz, der dieses Puls-Problem nicht hat und im Dauerbetrieb arbeiten würde. Der weltgrößte Testreaktor dieser Art, der 16 Meter messende Wendelstein 7-X, soll 2014 in Greifswald in Betrieb gehen. Was möchten Sie damit zeigen?
Erstens, dass der Stellarator dem Tokamak ebenbürtig ist, dass er also das Zeug zum Kraftwerk hat. Zweitens wollen wir das erste Mal auf der Welt den Dauerbetrieb von einem fusionsfähigen Plasma zeigen. Für eine Zündung des Plasmas ist er aber noch zu klein. Dafür müsste man seinen Durchmesser auf etwa 40 Meter vergrößern. Wendelstein 7-X hat man gerade so groß gemacht, dass sich die Dichte, Temperatur und Einschlusszeit des Plasmas mühelos auf Kraftwerksgröße extrapolieren lassen. In dem Sinne ist es ein Schlüsselexperiment. Noch ist der Stellarator eine lahme Ente. Bei der Formel-1 wäre er ein Fahrzeug, das immer hinten fährt. Aber wir haben das Gefühl, wir holen jetzt auf. Wir haben den Motor getuned, und jetzt rollen wir das Feld von hinten auf.
Inwieweit unterscheiden sich denn die heutigen Stellaratoren von den früheren, die man vor 50 oder 60 Jahren gebaut hat und die man schließlich zu Gunsten des Tokamak-Ansatzes hintangestellt hat?
Man hat das Magnetfeld und die Form der Spulen basierend auf numerischer Mathematik optimiert. Das geht nur mit Supercomputern, wie sie seit den 1980er Jahren verfügbar sind. Diese Optimierung muss man mit einer Eselsgeduld durchführen und anschließend Teile davon in Experimenten verifizieren. Das haben wir mit dem Vorgänger von Wendelstein 7-X in Garching gemacht. Es hat sich gezeigt: Wenn man Stellaratoren anständig baut, funktionieren sie besser als erwartet. Gescheitert sind nur die Prototypen, die schlecht konstruiert wurden. Man braucht eben Supercomputer, sonst kommt man der Sache nicht auf die Spur.
Was muss passieren, damit ITERs Nachfolger DEMO, der 2050 entstehen soll, ein Stellarator wird?
Vor dem Hintergrund des Drucks, der wegen der Energieproblematik auf die Welt zukommt, sollte man nicht einen DEMO bauen, sondern gleich fünf – einen für jede Nation, die über die Technologie verfügt: China, USA, Deutschland, Japan, Südkorea. In einer solchen Typenvielfalt würde ich auch Platz für den Stellarator sehen.
Ich halte es für zu kurz gesprungen, dass man irgendwann an einen Entscheidungspunkt kommt, ab dem man den einen oder anderen Ansatz nur noch ausschließlich vorantreibt. Beide Konzepte haben ja ihren Reiz. Zur Analogie verweise ich auf den Otto- und den Dieselmotor. Otto und Diesel haben sich auch nicht eines Tages getroffen und sich für einen Ansatz entschieden. Sondern da hat jeder sein Prinzip vorangetrieben und siehe da: Beide werden bis heute verwendet.
Die Kernfusion ist der vernünftige Ersatz für die Kernspaltung. Wenn man weltweit massiv auf Spaltkraftwerke setzen würde, dann bräuchte man die Fusion nicht. Aber wenn man das nicht möchte, steht man in der zweiten Hälfte dieses Jahrhunderts blank da. Bis 2100 kriegen wir etwa eine Versechsfachung des Bedarfs an elektrischer Energie. Wenn Gas, Öl und Kohle für die Bereitstellung der Grundlast wegfallen, reichen die erneuerbaren Energien selbst bei sehr konsequentem Ausbau nicht, um das zu decken. Fusionskraftwerke mit 1000 Megawatt Leistung hingegen, die immer durchlaufen und gut regelbar sind, wären die perfekte Ergänzung.
Könnten nicht auch Energiespeicher diesen Part übernehmen?
Wenn man das allein mit Pumpspeicherkraftwerken in Stauseen machen wollte, müsste man wahrscheinlich sämtliche Gebirge der Welt überfluten. Und ohne das wird es sehr eng. Einfach weil der Energiehunger durch die Weltbevölkerung immer weiter ansteigen wird. Diese netten Ideen, die ganze Gesellschaft umzustellen und nur dann Strom zu verbrauchen, wenn Strom da ist – ich hab meine Zweifel, ob das funktioniert. Wenn man es vernünftig aufbauen will, braucht man irgendein Grundlastkraftwerk.
Wie hat sich denn die Akzeptanz der Fusionsforschung seit Fukushima verändert?
Alles Radioaktive ist nach Fukushima sehr hysterisch betrachtet worden und wird bisweilen auch politisch instrumentalisiert. Da wird auch die Kernfusion manchmal mit in einen Sack gesteckt und draufgehauen. Das ist eine Perspektive, die macht uns natürlich Kummer. Zum anderen herrscht eine ausgeprägte Skepsis gegenüber Großtechnologien, gemäß der Argumentationskette: Eine Großtechnologie braucht großes Kapital, großes Kapital bringen nur große Konzerne auf, und große Konzerne erzeugen großen Ärger. Das ist dann eher bürgerrechtlicher Widerspruch, der da entsteht.
Was entgegnen Sie auf solche Kritik?
Man muss sich damit anfreunden, dass die Kernfusion eine Nukleartechnologie ist – sonst brauchen wir gar nicht weiter zu diskutieren. Technologie birgt immer auch Gefahren. Man muss Regeln befolgen, sonst ist es gesundheitsschädlich. Wenn man diese in einem Chemiewerk nicht beachtet, ist es ebenfalls sehr gesundheitsschädlich. Und bei der Fusion ist die Gefahr noch verhältnismäßig klein: Tritium hat eine Halbwertszeit von 12,3 Jahren, und es sind nur wenige Gramm davon im Reaktor – gegenüber vielen hundert Tonnen Spaltmaterial in einem herkömmlichen Kernkraftwerk. Auch der Rest der Anlage ist nach 100 Jahren abgeklungen. Somit gibt es kein Endlagerproblem wie bei der Kernspaltung.
Und wäre unter irgendeinem Szenario ein Unglück wie in Tschernobyl oder Fukushima denkbar?
Das Fusionsfeuer ist wie eine Kerzenflamme. Sobald Sie irgendeinen falschen Knopf drücken, geht es einfach aus. Es gibt keine mühsam ausgebremste Kettenreaktion. Auch die Restwärme in den Wänden – die nuklear aktiviert sind – reicht bei Weitem nicht aus, um irgendetwas zum Schmelzen zu bringen. Solche Vorgänge wie in Fukushima können also nicht passieren.
Sind denn an der Fusionsforschung schon Stromkonzerne beteiligt? Wir haben einen Diskussionskreis mit Spitzen der Industrie, die sich immer wieder über den Fortschritt informieren. Aber sie investieren noch nicht. Technologiekonzerne wie Siemens gucken sich das hochinteressiert an, aber sagen: Der Moment, für uns zu investieren, ist noch nicht gekommen – es handelt sich vorerst um Grundlagenforschung.
Aber Sie arbeiten doch ganz klar auf eine Anwendung zu und motivieren damit Ihre Forschungsgelder?
Die Fusionsforschung ist Grundlagenforschung, allerdings keine, die allein von der Neugierde getrieben wird, wie die Welt funktioniert. Die Fusionsforschung ist eher ein Hybrid. Natürlich spielt da auch die Neugier, das Verständnis dieses Materiezustands Plasma eine wichtige Rolle. Aber wir würden uns nicht in diese Ecke der Plasmaphysik begeben, wenn es dort nicht diese Anwendungsperspektive gäbe. So gesehen betreiben wir Vorsorgeforschung.
Mit einem ersten Fusionskraftwerk ist – wenn alles gut geht – frühstens 2060 zu rechnen, in Anschluss an das Demonstrationskraftwerk DEMO. Könnte man diese Zeitspanne verkürzen?
Man könnte es so machen wie beim Apollo-Programm. Da war man auch unglaublich kühn und hat das Projekt massiv vorangetrieben. Der Unterschied zwischen der Fusionsfoschung und zwischen den Mondlandungen ist: Bei Apollo hat man unglaublich viel parallel gemacht. Bei der Fusion hingegen wird viel diskutiert, bevor das Nächste gemacht wird – und dann ist es ein ganz großer Skandal, wenn es teurer wird. Darum hat sich niemand gekümmert, als die NASA Menschen auf den Mond bringen wollte. Wenn eines Tages die Gesellschaft zur Überzeugung kommt, dass wir die Fusion wirklich brauchen, dann kann ich mir vorstellen, dass wir losstürmen. Die Menschheit ist dazu in der Lage. Das ist ein Willensakt, und diesen kann man der Gesellschaft natürlich nicht abnehmen. Wissenschaftler können immer nur Lösungsvorschläge anbieten.
Herr Klinger, wir danken Ihnen für das Gespräch.
Ja, wir halten sie für eine Lösung. Die Energiedichte des Deuterium-Tritium-Gemischs, das als Brennstoff zum Einsatz kommt, ist atemberaubend gut. Mit nur einem Gramm Brennstoff im Reaktor lässt sich ein Kraftwerk mit 3000 Megawatt thermischer Leistung realisieren – so viel wie ein riesiges Braunkohlekraftwerk. Dass die Fusion die richtige Wahl ist, zeigt uns ja auch die Natur selbst. Wenn man an die Genesis glaubt, dann hat der liebe Gott nicht ohne Grund als Heizung für das Weltall die Kernfusion genommen. Sie ist einfach die beste Energiequelle.
Allerdings auch die, die am schwersten zu verwirklichen ist. Heute heißt es, dass man in 50 Jahren ein Kraftwerk damit betreiben kann. Hat man das nicht auch schon vor 50 Jahren gesagt?
Wir wissen jetzt viel mehr als früher. Die heutigen Vorhersagen stehen auf sehr soliden Füßen. In den 1950er und 1960er Jahren war das eher so ein Bauchgefühl. Dann gab es insbesondere während der 1970er Jahre ein paar wirklich böse Überraschungen. Das betraf vor allem die Wärmeisolation des heißen Plasmas gegen die kalte Wand. Sie klappte nicht so, wie man sich das am Anfang gedacht hatte. Man ging davon aus, das sei wie bei einem Eisenstab, den man auf einer Seite heiß macht und dessen Wärme sich zum kalten Ende hin ausbreitet. Nach dieser Berechnung hätte die Wärmeisolation des Plasmas bei hohen Temperaturen immer besser werden sollen. Aber dann stellte man im Experiment fest, dass die Wärmeisolation immer schlechter wird, je heißer man es macht.
Welche Erklärung hat man dafür gefunden?
Man hatte einen wichtigen Aspekt übersehen: Turbulenzen. Ein Plasma verhält sich – obwohl es ein elektrisch geladenes Gas ist – in vielerlei Hinsicht wie eine Flüssigkeit. Wie sie neigt auch das Plasma zu Verwirbelungen, die sich vor allem am Rand des Plasmas ausbilden, wo die Temperatur oder die Dichte steil abfällt. Dadurch wird viel Wärme transportiert. Man hat versucht, dem zu begegnen, indem man die Maschinen immer größer gebaut hat.
Was bringt das?
Das Verhältnis von Volumen zu Oberfläche verändert sich. Je größer das ist, desto weniger Wärme geht verloren. Ich nenne dies das "Spitzmausprinzip". Denn auch bei Säugetieren geht der Wärmeverlust durch die Oberfläche beziehungsweise die Haut. Deswegen gibt es ja auch eine Minimalgröße für ein Säugetier – die der Spitzmaus.
Wie hat man diese Instabilitäten in den Griff bekommen?
Man hat natürlich alle möglichen Tricks versucht. Aber Turbulenzen sind ein nichtlineares Phänomen, das sehr schwierig zu berechnen ist. Das geht nur mit Supercomputern und sehr mühsamem Experimentieren. Letztendlich hat die Natur geholfen. Ein ganz wichtiger Schritt war 1984 die Entdeckung der H-Mode (High-Confinement-Mode, ein Plasmazustand mit verbessertem Energieeinschluss bei starker Heizung, Anm. d. Red.) in Garching. Man hat dort festgestellt, dass sich in einem auf spezielle Art und Weise präparierten Tokamak diese Turbulenzen plötzlich selbst abwürgen. Heute werden alle Tokamaks mit der entsprechenden Geometrie gebaut, die die H-Mode auch sicher herstellt.
Das größte Fusionsprojekt von allen, ITER, entsteht gerade unter internationaler Beteiligung in Südfrankreich. Er soll zehnmal mehr Energie erzeugen, als sein Plasma an Heizenergie verschluckt. Ist es ausgeschlossen, dass man mit ITER wieder auf ein fundamentales Problem stößt?
Ausschließen kann man das nie, sonst wäre es keine Wissenschaft. Dieses brennende Plasma ist ein unbekanntes Ding, und ja, es kann neue Instabilitäten auslösen. Wir haben da eine gewisse Vielfalt von Vorhersagen. Es sieht nirgends richtig schlecht aus, aber es muss alles verifiziert werden. Doch das gesamte Verständnis von einem Hochtemperaturplasma in einem Magnetfeld, das hat schon gewaltig zugenommen. Mich würde sehr wundern, wenn man etwas ganz Fundamentales übersehen hätte.
ITER soll auch klären, ob man in der Hülle des Reaktors das für die Reaktion nötige Wasserstoffisotop Tritium in ausreichenden Mengen erbrüten kann. Kritiker sagen, dass das ein großes Problem werden könnte, zumal es Tritium auf der Erde praktisch nicht gibt. Kann das Projekt Kernfusion daran womöglich scheitern?
Zu jedem Thema gibt es Euphoriker und Kritiker. Die größten Skeptiker der Fusion machen sich Sorgen um die Effizienz der Reaktorhülle. Das hat durchaus auch seine Basis. Bei diesem Brütprozess trifft ein Neutron auf einen Lithiumkern und erzeugt dann das Tritium und das Helium. Dabei entsteht auch wieder ein Neutron. Das hört sich simpel an. Aber die Energie des Neutrons ist nach der Reaktion mitunter zu gering. Mit jedem Neutron erzeugt man also bloß immer einen Tritiumkern. Damit bräuchte man aber eine hundertprozentige Trefferrate – die man nicht hat. Man braucht also einen Neutronenmultiplikator, zum Beispiel Blei. Das mischt man dem Tritium bei, so dass man viel mehr Neutronen erhält. Aber ob das funktioniert, muss sich noch zeigen.
Ein anderes Problem betrifft den Dauerbetrieb – ITER wäre dazu nicht fähig, sondern würde in 500 Sekunden langen Pulsen arbeiten. Ist ein Fusionskraftwerk, das nur gepulst betrieben werden kann, überhaupt sinnvoll?
Ein Kraftwerk ohne Dauerbetrieb ist natürlich nicht optimal. Man kann aber auch den Pulsbetrieb ingenieurstechnisch auffangen, etwa durch einen Dampferzeuger. Aber es ist sehr schlecht für das Material, wenn die Temperatur ständig so stark schwankt, denn dann kommt es schneller zu thermischen Ermüdungen.
In Greifswald arbeiten Sie an einer Alternative zum Tokamak: dem so genannten Stellarator-Ansatz, der dieses Puls-Problem nicht hat und im Dauerbetrieb arbeiten würde. Der weltgrößte Testreaktor dieser Art, der 16 Meter messende Wendelstein 7-X, soll 2014 in Greifswald in Betrieb gehen. Was möchten Sie damit zeigen?
Erstens, dass der Stellarator dem Tokamak ebenbürtig ist, dass er also das Zeug zum Kraftwerk hat. Zweitens wollen wir das erste Mal auf der Welt den Dauerbetrieb von einem fusionsfähigen Plasma zeigen. Für eine Zündung des Plasmas ist er aber noch zu klein. Dafür müsste man seinen Durchmesser auf etwa 40 Meter vergrößern. Wendelstein 7-X hat man gerade so groß gemacht, dass sich die Dichte, Temperatur und Einschlusszeit des Plasmas mühelos auf Kraftwerksgröße extrapolieren lassen. In dem Sinne ist es ein Schlüsselexperiment. Noch ist der Stellarator eine lahme Ente. Bei der Formel-1 wäre er ein Fahrzeug, das immer hinten fährt. Aber wir haben das Gefühl, wir holen jetzt auf. Wir haben den Motor getuned, und jetzt rollen wir das Feld von hinten auf.
Inwieweit unterscheiden sich denn die heutigen Stellaratoren von den früheren, die man vor 50 oder 60 Jahren gebaut hat und die man schließlich zu Gunsten des Tokamak-Ansatzes hintangestellt hat?
Man hat das Magnetfeld und die Form der Spulen basierend auf numerischer Mathematik optimiert. Das geht nur mit Supercomputern, wie sie seit den 1980er Jahren verfügbar sind. Diese Optimierung muss man mit einer Eselsgeduld durchführen und anschließend Teile davon in Experimenten verifizieren. Das haben wir mit dem Vorgänger von Wendelstein 7-X in Garching gemacht. Es hat sich gezeigt: Wenn man Stellaratoren anständig baut, funktionieren sie besser als erwartet. Gescheitert sind nur die Prototypen, die schlecht konstruiert wurden. Man braucht eben Supercomputer, sonst kommt man der Sache nicht auf die Spur.
Was muss passieren, damit ITERs Nachfolger DEMO, der 2050 entstehen soll, ein Stellarator wird?
Vor dem Hintergrund des Drucks, der wegen der Energieproblematik auf die Welt zukommt, sollte man nicht einen DEMO bauen, sondern gleich fünf – einen für jede Nation, die über die Technologie verfügt: China, USA, Deutschland, Japan, Südkorea. In einer solchen Typenvielfalt würde ich auch Platz für den Stellarator sehen.
Ich halte es für zu kurz gesprungen, dass man irgendwann an einen Entscheidungspunkt kommt, ab dem man den einen oder anderen Ansatz nur noch ausschließlich vorantreibt. Beide Konzepte haben ja ihren Reiz. Zur Analogie verweise ich auf den Otto- und den Dieselmotor. Otto und Diesel haben sich auch nicht eines Tages getroffen und sich für einen Ansatz entschieden. Sondern da hat jeder sein Prinzip vorangetrieben und siehe da: Beide werden bis heute verwendet.
Das Büro für Technikfolgenabschätzung beim Deutschen Bundestag schätzt, dass man noch mindestens 80 Milliarden Euro bis zum ersten Fusionskraftwerk investieren muss. Warum sollte die Gesellschaft diesen Weg gehen und mit dem Geld nicht lieber die erneuerbaren Energien fördern?
Die Kernfusion ist der vernünftige Ersatz für die Kernspaltung. Wenn man weltweit massiv auf Spaltkraftwerke setzen würde, dann bräuchte man die Fusion nicht. Aber wenn man das nicht möchte, steht man in der zweiten Hälfte dieses Jahrhunderts blank da. Bis 2100 kriegen wir etwa eine Versechsfachung des Bedarfs an elektrischer Energie. Wenn Gas, Öl und Kohle für die Bereitstellung der Grundlast wegfallen, reichen die erneuerbaren Energien selbst bei sehr konsequentem Ausbau nicht, um das zu decken. Fusionskraftwerke mit 1000 Megawatt Leistung hingegen, die immer durchlaufen und gut regelbar sind, wären die perfekte Ergänzung.
Könnten nicht auch Energiespeicher diesen Part übernehmen?
Wenn man das allein mit Pumpspeicherkraftwerken in Stauseen machen wollte, müsste man wahrscheinlich sämtliche Gebirge der Welt überfluten. Und ohne das wird es sehr eng. Einfach weil der Energiehunger durch die Weltbevölkerung immer weiter ansteigen wird. Diese netten Ideen, die ganze Gesellschaft umzustellen und nur dann Strom zu verbrauchen, wenn Strom da ist – ich hab meine Zweifel, ob das funktioniert. Wenn man es vernünftig aufbauen will, braucht man irgendein Grundlastkraftwerk.
Wie hat sich denn die Akzeptanz der Fusionsforschung seit Fukushima verändert?
Alles Radioaktive ist nach Fukushima sehr hysterisch betrachtet worden und wird bisweilen auch politisch instrumentalisiert. Da wird auch die Kernfusion manchmal mit in einen Sack gesteckt und draufgehauen. Das ist eine Perspektive, die macht uns natürlich Kummer. Zum anderen herrscht eine ausgeprägte Skepsis gegenüber Großtechnologien, gemäß der Argumentationskette: Eine Großtechnologie braucht großes Kapital, großes Kapital bringen nur große Konzerne auf, und große Konzerne erzeugen großen Ärger. Das ist dann eher bürgerrechtlicher Widerspruch, der da entsteht.
Was entgegnen Sie auf solche Kritik?
Man muss sich damit anfreunden, dass die Kernfusion eine Nukleartechnologie ist – sonst brauchen wir gar nicht weiter zu diskutieren. Technologie birgt immer auch Gefahren. Man muss Regeln befolgen, sonst ist es gesundheitsschädlich. Wenn man diese in einem Chemiewerk nicht beachtet, ist es ebenfalls sehr gesundheitsschädlich. Und bei der Fusion ist die Gefahr noch verhältnismäßig klein: Tritium hat eine Halbwertszeit von 12,3 Jahren, und es sind nur wenige Gramm davon im Reaktor – gegenüber vielen hundert Tonnen Spaltmaterial in einem herkömmlichen Kernkraftwerk. Auch der Rest der Anlage ist nach 100 Jahren abgeklungen. Somit gibt es kein Endlagerproblem wie bei der Kernspaltung.
Und wäre unter irgendeinem Szenario ein Unglück wie in Tschernobyl oder Fukushima denkbar?
Das Fusionsfeuer ist wie eine Kerzenflamme. Sobald Sie irgendeinen falschen Knopf drücken, geht es einfach aus. Es gibt keine mühsam ausgebremste Kettenreaktion. Auch die Restwärme in den Wänden – die nuklear aktiviert sind – reicht bei Weitem nicht aus, um irgendetwas zum Schmelzen zu bringen. Solche Vorgänge wie in Fukushima können also nicht passieren.
Sind denn an der Fusionsforschung schon Stromkonzerne beteiligt? Wir haben einen Diskussionskreis mit Spitzen der Industrie, die sich immer wieder über den Fortschritt informieren. Aber sie investieren noch nicht. Technologiekonzerne wie Siemens gucken sich das hochinteressiert an, aber sagen: Der Moment, für uns zu investieren, ist noch nicht gekommen – es handelt sich vorerst um Grundlagenforschung.
Aber Sie arbeiten doch ganz klar auf eine Anwendung zu und motivieren damit Ihre Forschungsgelder?
Die Fusionsforschung ist Grundlagenforschung, allerdings keine, die allein von der Neugierde getrieben wird, wie die Welt funktioniert. Die Fusionsforschung ist eher ein Hybrid. Natürlich spielt da auch die Neugier, das Verständnis dieses Materiezustands Plasma eine wichtige Rolle. Aber wir würden uns nicht in diese Ecke der Plasmaphysik begeben, wenn es dort nicht diese Anwendungsperspektive gäbe. So gesehen betreiben wir Vorsorgeforschung.
Mit einem ersten Fusionskraftwerk ist – wenn alles gut geht – frühstens 2060 zu rechnen, in Anschluss an das Demonstrationskraftwerk DEMO. Könnte man diese Zeitspanne verkürzen?
Man könnte es so machen wie beim Apollo-Programm. Da war man auch unglaublich kühn und hat das Projekt massiv vorangetrieben. Der Unterschied zwischen der Fusionsfoschung und zwischen den Mondlandungen ist: Bei Apollo hat man unglaublich viel parallel gemacht. Bei der Fusion hingegen wird viel diskutiert, bevor das Nächste gemacht wird – und dann ist es ein ganz großer Skandal, wenn es teurer wird. Darum hat sich niemand gekümmert, als die NASA Menschen auf den Mond bringen wollte. Wenn eines Tages die Gesellschaft zur Überzeugung kommt, dass wir die Fusion wirklich brauchen, dann kann ich mir vorstellen, dass wir losstürmen. Die Menschheit ist dazu in der Lage. Das ist ein Willensakt, und diesen kann man der Gesellschaft natürlich nicht abnehmen. Wissenschaftler können immer nur Lösungsvorschläge anbieten.
Herr Klinger, wir danken Ihnen für das Gespräch.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.