Wo die sinnliche Erfahrung versagt: Neue Methoden erlauben die Entdeckung von Nano-Welten

Die Technikgeschichte zeigt: Kernkraft für die Energieversorgung ist eine hoffnungslos überholte Technologie / Folge 4/12

R Schleicher-Tappeser
7 min readSep 23, 2022
Electron microscope Siemens Elmiskop 1, made 1945–1955,© (CC) BY-NC-SA, Science Museum

Die ersten drei Folgen dieser Serie beschäftigten sich mit der Geschichte der Kernenergie, die nach der Entwicklung des Leichtwasserreaktors nicht mehr viel Neues brachte. Aber nach dem zweiten Weltkrieg ging die Entdeckung neuer Welten erst richtig los. Parallel zu den Umwälzungen in der Physik, die am Anfang des letzten Jahrhunderts zu einem neuen Verständnis von Materie und Energie geführt hatten (siehe Folge 1), begann die Entwicklung neuer Methoden, die es erlaubten, Strukturen von der Größe von Atomen und Molekülen näher zu untersuchen. Wie immer in den Wissenschaften entwickelten sich die Untersuchungsmethoden mit neuen Entdeckungen laufend weiter.

Elektrizität als Schlüssel zu neuen Welten

Voraussetzung der Entwicklung dieser neuen Methoden war die intensive Beschäftigung dem rätselhaften Phänomen der Elektrizität. Mit Alessandro Volta‘s Zink-Kupfer-Batterie stand seit 1800 eine Gleichspannungsquelle zur Verfügung, mit deren Hilfe die Gesetze der Elektrizität systematisch erforscht werden konnten. Gleich im selben Jahr wurde die Elektrolyse erfunden. 1820 entdeckte Hans Christian Ørsted, dass Strom magnetische Felder erzeugen kann, Michael Faraday zeigte dann, dass auch umgekehrt wechselnde magnetische Felder Strom erzeugen können. In der Folge wurden in den zwanziger und dreißiger Jahren zunehmend tauglichere Elektromotoren und Generatoren entwickelt. Der erste industriell genutzte Wechselstromgenerator wurde 1849 gebaut. Angeschlossen an Wasserräder und Dampfmaschinen, die noch auf Prinzipien beruhen, die uns aufgrund makroskopischer Erfahrungen im Alltag verständlich sind, stand damit neben der mechanischen Energie und der Wärmeenergie eine neue Energieform zur Verfügung, die ganz neuartige Anwendungen ermöglichte. Auf der Grundlage von Faradays umfassenden Untersuchungen formulierte Maxwell 1864 mit den Maxwell‘schen Gleichungen eine umfassende Theorie der Elektrodynamik, die alle bislang bekannten elektrischen und magnetischen Phänomene und auch die Natur des Lichtes mit der Beschreibung von „Feldern“ und „Wellen“ erklärte. Licht war demnach eine elektromagnetische Strahlung. Damit war das Fundament für die Ausdifferenzierung und den Siegeszug der klassischen Elektrotechnik gelegt.

Von der Entdeckung des Elektrons zum Massenspektrometer

In der zweiten Hälfte des 19. Jahrhunderts experimentierte man dann ausführlich mit elektrischen Entladungsvorgängen in gasgefüllten und luftleeren Röhren, dabei ließen sich je nach Versuchsaufbau verschiedenartige Strahlen erzeugen. Vor allem interessierten die Kathodenstrahlen, die aus einer (vorzugsweise glühenden) Kathode in Richtung zu einer ihr gegenüber positiv geladenen Anode strahlten und durch geeignete Fenster auch außerhalb der Röhre nachweisbar waren (das geschah üblicherweise mit photographischen Platten oder fluoreszierenden Flächen). Gegen 1890 entdeckte man, dass der Strahl durch elektrische Spannung an zusätzlichen Elektroden in der Kathodenstrahlröhre abgelenkt werden kann. Joseph J. Thomson wies 1897 nach, dass es sich dabei um Elektronen handelte – negative Teilchen, die andere bereits vorausgesagt hatten. Für diese Entdeckung des ersten subatomaren Teilchens bekam er den Nobelpreis.

Ferdinand Braun nutzte dann 1889 die Ablenkung der Kathodenstrahlen durch elektrische Spannung für die Entwicklung der Braun’schen Röhre – der Grundlage für optische Darstellungen auf elektronischen Bildschirmen, die in Fernsehgeräten, allen möglichen Messgeräten und später auch Computern zu einem zentralen Instrument der Mensch-Maschine-Interaktion wurden, bis sie ab 2000 durch halbleiterbasierte Flachbildschirme verdrängt wurden. Die damit mögliche Übersetzung von Messresultaten auf der atomaren Ebene in sinnlich erfassbare Bilder war eine wichtige Voraussetzung für die schnellen Fortschritte in den Nanowissenschaften.

Thomson berechnete die Ablenkungsbahnen, experimentierte weiter mit positiv geladenen Teilchenstrahlen aus verschiedenen Kathodenmaterialien („Kanalstrahlen“), und entwickelte damit die Grundlagen für das Massenspektrometer. Arthur Jeffrey Dempster baute 1918 das erste hochempfindliche Gerät dieser Art, mit dem die Masse von Atomen und Molekülen sehr präzise gemessen und die Zusammensetzung von Stoffgemischen analysiert werden kann (indem sie in die Gasphase überführt, ionisiert, beschleunigt und dann mit Hilfe von Magnetfeldern sortiert werden). Damit gelang ihm 1935 die Identifizierung des Uranisotops 235.

Vom Licht- zum Elektronenmikroskop

Ernst Karl Abbe hatte schon 1873 nachgewiesen, dass die Vergrößerung mit herkömmlichen Lichtmikroskopen, die seit etwa 1600 perfektioniert wurden, durch die Wellenlänge des Lichtes begrenzt ist, und sich damit nur Objekte erkennen lassen, die größer als etwa 200 nm (Nanometer = ein Tausendstel Millimeter) sind, der Dimension einer typischen Körperzelle. Damit stellte sich die Frage, ob es elektromagnetische Strahlung mit kürzeren Wellenlängen gibt, mit denen sich kleinere Strukturen erkennen lassen.

1895 wies Conrad Röntgen nach, dass bei Aufprall der Kathodenstrahlen (Elektronen) auf eine Metallanode eine sekundäre Strahlung emittiert wird, die Materialien durchdringen kann, die für Licht nicht durchlässig sind. Er erkannte das große Potential dieser X-rays, deutsch Röntgen-Strahlen, für Untersuchungen in der Medizin und der Festkörperphysik. Mit der Röntgenmikrokopie lassen sich heute zehnmal feinere Strukturen untersuchen als mit der Lichtmikroskopie, zudem liefert die andersartige Interaktion der Strahlen mit den untersuchten Materialien zusätzliche Erkenntnisse.

Ein weiterer Sprung wurde erst möglich, nachdem die Entwicklung der Quantentheorie zwischen 1900 bis 1930 gezeigt hatte, dass subatomare Teilchen und elektromagnetische Strahlung lediglich zwei unterschiedliche Darstellungsweisen derselben Einheiten sind, und Elektronenstrahlen auch als elektromagnetische Wellen verstanden werden können (siehe Teil 1 dieses Blogbeitrags). Daraufhin bauten Ernst Ruska und Max Knoll 1931 das erste Elektronenmikroskop. Mit einem kommerziellen Gerät von Siemens konnten 1938 zum ersten Mal Viren fotografiert werden. Mit heutigen Elektronenmikroskopen kann man Strukturen von 0,1 nm erkennen – der Größenordnung von Atomen.

Vom Prisma zum MRT

Neben Mikroskopen, die es erlauben, Bilder von Strukturen zu erzeugen, ermöglichen vor allem verschiedene Varianten der Spektroskopie, bei denen Strahlen in ein Spektrum von Frequenzen aufgefächert werden, Auskunft über Eigenschaften, Feinstruktur und Zusammensetzung von Materialien zu bekommen. Dazu gehört nicht nur die oben schon erwähnte Massenspektrometrie, sondern auch die spektrale Analyse elektromagnetischer Strahlen. Schon im 17. Jahrhundert zeigte Newton, dass weißes Sonnenlicht aus einem Spektrum von Licht verschiedener Farben zusammengesetzt ist, indem er es durch ein Prisma auffächerte. Kirchhoff und Bunsen entdeckten 1859, dass jedes Element im glühenden gasförmigen Zustand charakteristische Spektrallinien zeigt, d.h. Licht ganz bestimmter Wellenlängen aussendet. Das ermöglichte in der Folge, einzelne Elemente zu identifizieren und auch die quantitative Zusammensetzung von Gemischen zu messen. Das Phänomen scharfer Spektrallinien führte zur Erkenntnis, dass in Atomen nur ganz bestimmte Energiezustände möglich sind und schließlich zur Entwicklung der Quantentheorie.

Das Verständnis grundlegender Prinzipien des Aufbaus und der inneren Dynamik von Atomkernen, Atomen und Molekülen führte ab 1930 und erst recht ab 1950 zu einer regelrechten Explosion spektrographischer Verfahren für die Analyse von Materie. Nach und nach entdeckte man, dass die Spektralanalyse aller möglichen Strahlungen mit unterschiedlichen Anregungsmethoden detaillierte Auskunft über Zusammensetzung, Struktur und Dynamiken von Materie geben kann – von Zuständen in Atomkernen bis hin zur Detail-Struktur großer Moleküle. Allein bei Wikipedia findet man heute Einträge zu rund vierzig verschiedenen Verfahren.

Außer dem zunehmenden Wissen über die Dynamiken in der Nano-Welt und die untersuchbaren Phänomene führten auch die Mikroelektronik und die digitale Datenverarbeitung ab den sechziger Jahren zu vorher nicht vorstellbaren Verbesserungen der Untersuchungsmethoden.

Four chamber cardiovascular magnetic resonance imaging.gif © Wikimedia Commons

Das kann man etwa am Beispiel der Kernspinresonanzspektroskopie nachvollziehen, die heute als MRT-Untersuchung (MagnetResonanzTomographie) in der Medizin fast jedem bekannt ist. 1896 wurde entdeckt, dass Spektrallinien sich in einem Magnetfeld weiter aufspalten (Feinstruktur), was bald darauf zurückgeführt wurde, dass ein Atom einen Kreisel darstellt, in dem sich elektrische Ladungen drehen, die ein Magnetfeld erzeugen. Die Quantentheorie zeigte, dass auch dieses Magnetfeld nur bestimmte Zustände (Energieniveaus) annehmen kann. Ende der 1920er Jahre entdeckte man, dass die Kerne der Atome ebenfalls eine solche magnetisch wirksame Drehung (Kernspin) aufweisen, deren Energie aber 1000mal kleiner ist als die der ganzen Atome. 1946 zeigten E.M. Purcell und Felix Bloch unabhängig voneinander, dass man in einem starken Magnetfeld durch Resonanz zwischen einem externen Wechselfeld und dem Kernspin Energie übertragen kann. Das erste kommerzielle Kernspin-Resonanz-Spektrometer wurde 1952 in Palo Alto gebaut. Mit immer stärkeren Magneten — heute mit Hilfe supraleitender Spulen — konnte die Messgenauigkeit sowohl des Kernspins als auch des Einflusses durch die Molekülstruktur, in der sich der Kern befindet, um viele Kommastellen gesteigert werden. Weitere deutliche Verbesserungen brachten die Verwendung von gepulster Anregung und neue computermathematische Verfahren. Damit wurde die Kernspin-Spektrometrie zu einem wesentlichen Instrument der chemischen Strukturanalyse. In den 70er und 80er Jahren wurde die Methode dann mit Hilfe von inhomogenen Magnetfeldern zur Magnetresonanztomographieweiterentwickelt, die 3-dimensionale Untersuchungen, die Berechnung bildlicher Darstellungen und die Untersuchung von Fließvorgängen ermöglicht. Damit war der Durchbruch für routinemäßige Anwendungen in der Medizin, in der organischen Chemie, der Biochemie und in der Materialwissenschaft vorgegeben, der dann vor allem durch weitere Verbesserungen der Computertechnik und der Supraleitung möglich wurde.

Der wachsende Werkzeugkasten zum Erkunden der Nanowelt erlaubt neue Anwendungen, deren Ursprung uns meist nicht bewusst ist

Diese Beispiele zeigen, dass in der Folge der Revolution des Verständnisses von Energie und Materie in der ersten Hälfte des letzten Jahrhunderts, seit dem zweiten Weltkrieg ganz neue Untersuchungsmethoden zur Verfügung standen, die eine breite Erforschung der neu erschlossenen Nano-Welt ermöglichten.

Nach der Entdeckung der Kernspaltung war die militärische und zivile Nutzung der Kernenergie nur eine erste, heute recht grobschlächtig wirkende Anwendung beim Vordringen in die neue und für unser Alltagsverständnis ganz und gar nicht anschauliche Nano-Welt. Seit der Mitte des letzten Jahrhunderts sind mit den neuen Untersuchungsmethoden viele Entwicklungen möglich geworden, deren Herkunft und Vielfalt wir im Alltag kaum überschauen. Ihre grundlegend neuen Potentiale und Gefahren für die Entwicklung der Menschheit sind der Öffentlichkeit nur in Einzelfällen bewusst.

In dieser Serie interessiert das vor allem in Bezug auf die Energieversorgung. In der ersten Hälfte des letzten Jahrhunderts beschäftigte sich die Naturwissenschaft vorrangig mit der Beziehung zwischen Energie und Materie. Nach dem zweiten Weltkrieg rückte die Bedeutung von Information immer mehr in den Vordergrund. Manchmal drohen wir zu vergessen, dass alle drei eng verknüpft sind, dass bei aller Faszination der Beschäftigung mit Information der Umgang mit Energie und Materie lebenswichtig bleibt.

Nächste Folge 5/12:
Virtuelle Welten auf Siliziumbasis: Nanowissenschaften revolutionieren die Informationstechnik

Bisherige Folgen

--

--

R Schleicher-Tappeser

SUSTAINABLE STRATEGIES. Writes about Technology and Society: Based in Berlin. Five decades of experience in energy, transport, climate, innovation policies.