Die Zähmung der Bombe: Unaufhaltsam steigende Kosten

R Schleicher-Tappeser
9 min readSep 9, 2022

--

Die Technikgeschichte zeigt: Kernkraft für die Energieversorgung ist eine hoffnungslos überholte Technologie / Folge 2

Photo by Nicolas HIPPERT on Unsplash

In der ersten Folge dieser 12-teiligen Serie ging es um die stürmische Entwicklung der Naturwissenschaften am Anfang des letzten Jahrhunderts bis zur Entdeckung der Kernspaltung. In meiner energiepolitisch motivierten Revue der Wissenschafts- und Technikgeschichte geht es hier weiter mit den Anfängen der friedlichen Nutzung der Kernenergie, den auftretenden grundlegenden Problemen und der abnehmenden Bedeutung dieser Energiequelle in den letzten dreißig Jahren.

Mit dem zweiten Weltkrieg verlagerte sich der Schwerpunkt der wissenschaftlichen Entwicklung von Europa nach Amerika. Viele europäische Wissenschaftler flohen vor den Nationalsozialisten und emigrierten in die USA. Sie spielten eine entscheidende Rolle bei der Entwicklung des amerikanischen Atomprogramms.

Atombombe und Kernenergie

Der ungarische Physiker Leó Szillárd bewegte Albert Einstein dazu, im August 1939 einen Brief an US-Präsident Roosevelt zu schreiben, in dem er davor warnte, dass die Deutschen möglicherweise eine Atombombe bauen könnten. Nach zunächst zaghaften Anfängen startete 1942 das „Manhattan-Projekt“ zum Bau von Atombomben, in dem bis 1945 unter strengster Geheimhaltung mehr als 150.000 Menschen arbeiteten. Am 2. Dezember 1942 wurde in Chicago der erste Kernreaktor zum ersten Mal „kritisch“, d.h. die Kettenreaktion der Kernspaltung konnte sich selbst erhalten (ohne abzunehmen oder zu explodieren). Der Forschungsreaktor war aber mit einer Wärme-Leistung von maximal 200 Watt nicht für die Energieproduktion optimiert. Das Ziel war die Herstellung von waffenfähigem Material. Dafür wurden auch aufwändige Anlagen zur Anreicherung von Uranisotopen und zur Abscheidung von Plutonium entwickelt.

Nach dem ersten erfolgreichen Test einer Atombombe in New Mexico am 16. Juli 1945 wurden die ersten Kernwaffen am 6. und 9. August 1945 in Hiroshima und Nagasaki eingesetzt und töteten insgesamt 200‘000 Menschen, die Hälfe davon in den ersten vier Monaten nach dem Abwurf. Die Sowjetunion zündete eine erste eigene Atombombe 1949, Großbritannien 1952 und Frankreich 1960 — alles in oberirdischen Tests. China zündete seinen ersten Kernwaffentest 1964 mit sowjetischer Technik. Während die ersten Kernwaffen auf der Spaltung von schweren Atomkernen (Uran oder Plutonium) beruhten, suchte man bald noch größere Energien durch die Fusion von leichten Atomkernen zu erreichen. Die USA zündeten 1952 ihre erste Wasserstoffbombe, die Sowjetunion folgte 1953, Großbritannien 1957, China 1967, Frankreich 1968.

Erst im Dezember 1952 wurde zum ersten Mal mit Hilfe eines Kernreaktors Strom erzeugt. Der Forschungsreaktor EBR-1 lieferte Wärme für den Betrieb einer konventionellen Dampfturbine, die einen Generator antrieb, der kaum mehr als den Eigenbedarf der Anlage abdeckte. Das erste Kernkraftwerk zur kommerziellen Stromerzeugung ging 1954 in Obninsk bei Moskau mit einer elektrischen Leistung von 5 MW in Betrieb.

Ein Jahr nach der erfolgreichen ersten Stromproduktion mit dem EBR-1 verkündete US-Präsident Eisenhower am 8. Dezember 1953 das international angelegte Programm „Atoms for Peace“. Damit wurde das bisher unter strengster Geheimhaltung stehende Atomprogramm für die zivile Zusammenarbeit international geöffnet. Die Initiative Eisenhowers war eine wirksame Propagandamaßnahme im kalten Krieg: Die forcierte nukleare Aufrüstung der USA zur Kompensation der sowjetischen zahlenmäßigen Überlegenheit bei konventionellen Waffen wurde mit einer Exportoffensive zum zivilen Nutzen der Menschheit kombiniert. In den folgenden Jahren wurde in verschiedenen Ländern intensiv darum gerungen, welche Reaktortechnologie sich durchsetzen sollte. Dabei spielten militär-strategische Überlegungen eine nicht zu unterschätzende Rolle.

In der Begeisterung über die bahnbrechenden Erkenntnisse der Kernphysik wurde, vor allem in der Folge der internationalen Genfer Atomkonferenz 1955, ein glückliches „Atomzeitalter“ ausgemalt. Schiffe, Autos und Flugzeuge mit Nuklearantrieb, Minireaktoren für Gebäudeheizung und Industrieanlagen, eine durch Strahlenchemie revolutionierte Chemieindustrie, die Bewässerung von Wüsten, die Erschließung der Arktis und die nukleare Sprengung von neuen Schifffahrts-Kanälen sollten für schier unerschöpflichen Wohlstand sorgen. Strom werde bald „too cheap to meter“, erklärte 1954 US-Admiral Lewis L. Strauss, Vorsitzender der Atomic Energy Commission, die die Entwicklung sowohl der militärischen als auch der zivilen Atomtechnik koordinierte.

Ich kann mich gut an diese Aufbruchsstimmung der sechziger Jahre erinnern. Mein Vater zog 1960 als junger Physiker mit Frau und vier Kindern aus dem deprimierenden Nachkriegsdeutschland nach Italien, um im EURATOM-Forschungszentrum mit der Entwicklung der Kernenergie zum Aufbau eines vereinigten Europas beizutragen. Allerdings geriet das europäische Reaktor-Projekt nach wenigen Jahren zwischen die Mühlsteine nationaler Interessen, in denen militärische Ambitionen keine unbedeutende Rolle spielten — doch das ist eine andere Geschichte.

Die neuartige Kraft bringt zwei neuartige Probleme

Ende der sechziger Jahre blieben von diesen Erwartungen nur große Kernkraftwerke zur Stromerzeugung übrig. Unter verschiedenen konkurrierenden Konstruktionsprinzipien hatte sich für die Reaktoren die „Leichtwasser“-Technologie durchgesetzt, bei der gering angereichertes Uran und normales Wasser als Kühlmittel eingesetzt wurde. (In natürlichem Uran beträgt den Anteil des Uran-Isotops 235 0,7%, für gering angereichertes Uran muss er auf 3 bis 5% angehoben werden, für Bomben sind über 20% erforderlich). Andere Reaktortypen wurden noch jahrzehntelang als „Zukunftstechnologien“ weiterentwickelt, aber dann nach und nach aufgegeben. Bis heute ist es beim Kernkraftwerk mit Leichtwasserreaktoren geblieben. Der Kernreaktor wird zur Erhitzung von Wasser eingesetzt, das dann mit konventionellen Dampfturbinen und angeschlossenen Generatoren zur Stromerzeugung verwendet wird. Mehrstufige Dampfturbinen waren aufgrund eines seit dem Altertum bekannten Prinzips ab dem Ende des 19. Jahrhunderts perfektioniert worden. In Kernkraftwerken geht rund die Hälfte der vom Reaktorkern freigesetzten Energie über die Kühlung verloren.

Im Gegensatz zur militärischen Nutzung musste man bei der zivilen Nutzung der enormen Energien, die bei der Spaltung (oder Fusion) von Atomkernen freigesetzt werden, zwei neuartige Probleme in den Griff bekommen:

  • Erstens die dauerhafte Abschirmung intensiver radioaktiver Strahlung in großem Maßstab.
  • Zweitens die stabile Aufrechterhaltung und gleichzeitige Begrenzung einer potenziell explosiven Kettenreaktion, deren Schadenspotential alle bisherigen Vorstellungen überstieg.

Eine Kettenreaktion der Fusion kontrollierbar aufrechtzuerhalten, hat man bis heute nicht geschafft. Erst nach und nach wurde deutlich, wie die beiden Problemkomplexe sich gegenseitig verstärken.

Three Miles Island Nuclear Power Plant. © Wikimedia Commons

Die Nobelpreisträgerin Marie Curie entdeckte Anfang des zwanzigsten Jahrhunderts eine Reihe natürlich vorkommender radioaktiv strahlender Elemente und starb schließlich an den Strahlenfolgen. Erst im Laufe der Jahrzehnte wurde das Ausmaß der Gefährlichkeit radioaktiver Strahlen und die Notwendigkeit umfangreicher Schutzvorkehrungen bei der Verwendung radioaktiver Stoffe deutlich. Maries Tochter Irène Joliot-Curie bekam ihrerseits einen Nobel-Preis für die Schaffung neuer, oft intensiv radioaktiv strahlender Isotopen, die auf der Erde nicht vorkommen. Mit der industriellen Nutzung der Kernenergie begann man für die Urangewinnung große Mengen schwach strahlender radioaktiver Materialien aus dem Boden zu holen. Vor allem aber produzierte und produziert man in den Reaktoren beträchtliche Mengen natürlich nicht vorkommender radioaktiver Isotope. Und das nicht nur im eigentlichen „Kernbrennstoff“. Durch die Strahlung im Reaktor werden auch konventionelle Bauteile durch Kernumwandlung radioaktiv und können dadurch ihre Eigenschaften ändern. Damit entsteht nicht nur zusätzlicher radioaktiver Abfall. Das macht auch häufigere und sehr viel aufwändigere Inspektionen und Reparaturen nötig, die man im konventionellen Anlagenbau nicht kennt. Die anfängliche Hoffnung, das im Betriebsverlauf entstehende hochradioaktive Material durch weitere Kernumwandlungen unschädlich zu machen, ließ sich mit vertretbarem Aufwand nicht realisieren. So muss radioaktiver Abfall für hunderttausende von Jahren so gelagert werden, dass weder Strahlen noch radioaktive Substanzen austreten können und er zudem vor unbefugtem menschlichem Zugriff geschützt ist — bis heute gibt es keine Lösung dafür.

Unaufhaltsam steigende Kosten

Je mehr man über die Schädlichkeit von radioaktiven Strahlen wusste, desto größer wurde der Aufwand für Abschirmungen, hintereinandergeschaltete Kühlkreisläufe und Messungen. Gleichzeitig stieg damit das Bewusstsein, welche Gefahr eine unkontrollierbare Kettenreaktion mit großer Hitzeentwicklung und Freisetzung des radioaktiven Inventars darstellte. Während die Vorrichtungen zum Steuern, Abschalten und Notkühlen bei den ersten kleinen Versuchsreaktoren noch rudimentär waren, wurde mit der Zeit immer neue Schwachstellen entdeckt — und so wurden immer aufwändigere Sicherheitsmechanismen entwickelt: mehrfach ausgelegte Systeme zum Abbremsen der Kettenreaktion, zur Kühlung des Reaktorkerns, auch lange nach dem Herunterfahren, zum Zurückhalten aus dem eigentlichen Reaktor entwichener radioaktiver Gase und Flüssigkeiten, zur Vermeidung zufälliger oder böswilliger Einwirkungen von außen, zur Überwachung der Anlagen und der Angestellten… Die möglichen Kettenreaktionen von Schadensfällen beschäftigten die Kernphysiker bald mehr als die nuklearen Kettenreaktionen. Tausende von hochqualifizierten Forschern beschäftigten sich ihr ganzes Berufsleben mit diesen Sicherheitsfragen — mit dem Niedergang der Kernenergie wurde es immer schwieriger, hochmotivierte, gute Spezialisten für die Beherrschung der verbleibenden Risiken zu finden. (Als Physiker in den Siebzigerjahren selber an der Aufdeckung von viel zu optimistischen Annahmen beteiligt, fand ich bald, dass es wichtiger sei, sich mit Alternativen zu befassen.)

Um bei diesen immer aufwändigeren Sicherheitseinrichtungen Kosten zu sparen, wurden immer größere Einheiten gebaut, was wiederum die Größe des möglichen Schadens und die Anforderungen an die Materialien erhöhte. Durch die Größe der Kraftwerke war es auch nicht möglich, die Abwärme in nennenswertem Ausmaß kommerziell zu nutzen. Je mehr man wusste, desto teurer wurden die Kernkraftwerke. In den meisten Ländern stiegen die Baukosten im Laufe der Zeit erheblich, lediglich in Korea konnten die Kosten in den letzten Jahren vor dem Unfall in Fukushima durch Standardisierung und ein „stetiges regulatorisches Umfeld“ leicht gesenkt werden. Mit dem Rückbau liegen wegen der notwendigen langen Abklingzeit erst wenige Erfahrungen vor. Bei allen abgeschlossenen Projekten überstiegen die Rückbaukosten, soweit bekannt, die Baukosten. Weil trotz aller Bemühungen die Risiken eines Reaktorunfalls durch das extreme Schadensausmaß bei geringer Eintrittswahrscheinlichkeit kaum kalkulierbar bleiben, wurde das Haftungsrisiko der Betreiber durch spezielle internationale Konventionen und nationale Gesetze stark begrenzt. (In Deutschland sind die Kernkraftwerksbetreiber nur für Schäden bis zu 2,5 Mrd. Euro versichert. In den USA mussten die Betreiber von Kernkraftwerken, Stand 2011, eine auf 375 Mio. USD begrenzte Haftung übernehmen, die durch einen Branchenfonds um 112 Mio. USD ergänzt wurde. Im Vergleich dazu schätzt die japanische Regierung die Kosten des Fukushima-Unfalls auf über 75 Mrd. EUR).

Dabei ist ein wesentlicher Kostenfaktor, der Umgang mit dem radioaktiven Abfall, noch gar nicht eingepreist. Lange setzte man auf die chemische „Wiederaufbereitung“ von abgebrannten Brennelementen. In den sechziger Jahren hatte man noch angenommen, dass durch Abtrennung sowohl von nicht genutztem und als auch neu durch Kernumwandlung „erbrütetem“ Kernbrennstoff die Kosten von Wiederaufbereitung und Endlagerung gedeckt werden könnten. Entwickelt wurden die ersten Aufbereitungsanlagen für die Gewinnung von Plutonium für die Bombenproduktion. Doch die Verarbeitung hochradioaktiver Substanzen erwies sich als tückisch und teuer. Heute betreiben — außer Japan — nur Länder, die auch Kernwaffen entwickeln, noch derartige Anlagen (Frankreich, Großbritannien, USA, Russland, Indien, Japan, Nordkorea). Zwar lässt sich durch Wiederaufbereitung die Menge hochradioaktiven Atommülls deutlich reduzieren, dafür steigt aber die (ohnehin größere) Menge schwach radioaktiven Abfalls auf ein Vielfaches. Wie hoch die Kosten für die dauerhafte Einlagerung sein werden, ist kaum abzuschätzen, denn das Problem ist weiterhin ungelöst. Um einen zuverlässigen Umgang mit den strahlenden Abfällen zu gewährleisten, hat in den meisten Ländern der Staat die Verantwortung und die finanzielle Haftung dafür übernommen.

Zweifel an der Wirtschaftlichkeit der Kernenergie kamen ab den siebziger Jahren auf. Seit der Kernschmelze im Kraftwerk Three Miles Island 1979 wurden reihenweise Projekte aufgegeben. Am Ende einer Studie über die wirtschaftlichen Aspekte der Atomenergie kam ich 1984 zum Schluss: „Das Projekt Kernenergie ist heute gescheitert“, und zitierte S. David Freeman, einen Direktor der TVA, der größten Stromversorgungsgesellschaft der USA, der 1982 nach der Aufgabe der meisten seiner Kernkraftwerksprojekte sagte: „Die Kosten der Kernenergie sind nicht einfach hoch, sie sind unvorhersagbar. Kein Kapitalist, der bei Verstand ist, wird etwas bauen, für das er keine Kosten-Nutzen-Rechnung aufstellen kann, weil die Kosten unbekannt sind.“

Zunehmendes Risikobewusstsein in freien Gesellschaften

Obwohl ich in dieser Serie beim schnellen Ritt durch die Technikgeschichte vor allem die oft vernachlässigten wissenschaftlich-technischen Zusammenhänge beleuchten möchte, darf nicht unerwähnt bleiben, dass die erheblichen — und kostspieligen — Verbesserungen der Sicherheit der Kerntechnik kaum so weit getrieben worden wären, wenn es nicht in den freiheitlicheren westlichen Ländern eine starke Anti-Atom-Bewegung und eine breite gesellschaftspolitische Debatte um die Folgen des Einsatzes dieser Technik gegeben hätte. Alvin Weinberg, Erfinder des Druckwasserreaktors, hochrangiger Wissenschaftsmanager und einflussreicher US-Regierungsberater, schrieb 1972, „we, the nuclear people“ hätten mit der Gesellschaft einen „Faustischen Pakt“ geschlossen und schlug vor, die radioaktiven Abfälle über Tausende von Jahren durch eine „militärische Priesterschaft“ zu sichern. Was Weinberg noch als positive Vision im Sinne der von ihm befürworteten technologischen Lösungen für gesellschaftliche Probleme propagierte, war für viele eine Horrorvorstellung — so für Robert Jungk, der untern anderem mit seinem Buch „der Atomstaat“ (1977) beträchtlichen Einfluss in der internationalen Friedens- und Umweltbewegung hatte. Der Soziologe Ulrich Beck traf mit seinem Begriff der „Risikogesellschaft“ den Nerv der Zeit — die Reaktorkatastrophe von Tschernobyl lieferte ihm das aktuelle Stichwort zum Vorwort seiner 1986 erschienenen, vielzitierten Gesellschaftsanalyse. Damit entwickelte sich auch über die Atomenergie hinaus eine grundsätzliche Debatte um zentrale und dezentrale Technikkonzeptionen, um wirtschaftliche Interessen, Gesellschaftsmodelle sowie um ideologische und psychologische Beweggründe.

Vor diesem Hintergrund mag im Nachhinein erstaunen, in welchem Ausmaß die Entwicklung der Atomenergie nicht rational geplant war und sich auch die Entscheidungen von Politik und Wirtschaft nur teilweise mit politischen, wirtschaftlichen oder militärischen Interessen erklären lassen. Dass es sich vielfach um Entscheidungsprozesse hoher Komplexität mit heute vergessenen Eigendynamiken handelte, lässt sich im Detail in drei technikgeschichtlich hochinteressanten Büchern nachlesen: Irvin C. Bupp und Jean-Claude Derian, zwei hochrangige Akteure der Nuklearpolitik in den USA und Frankreich, legten schon 1978 mit „Light Water — How the Nuclear Dream Dissolved“ ihre enttäuschte Sicht dar. Unterstützt vom Reaktorsicherheitsexperten Lothar Hahn legte der Historiker Joachim Radkau 2013 eine aktualisierte Fassung seiner 1983 vielbeachteten Dissertation über „Aufstieg und Fall der deutschen Atomwirtschaft“ vor. Die heute in Stanford lehrende Technikhistorikerin Gabrielle Hecht beschrieb 1998 in „The Radiance of France: Nuclear Power and National Identity after World War II“ aufgrund ausgedehnter Interviews mit Zeitzeugen die Atomgeschichte in Frankreich.

--

--

R Schleicher-Tappeser

SUSTAINABLE STRATEGIES. Writes about Technology and Society: Based in Berlin. Five decades of experience in energy, transport, climate, innovation policies.