Virtuelle Welten auf Siliziumbasis: Nanowissenschaften revolutionieren die Informationstechnik

Die Technikgeschichte zeigt: Kernkraft für die Energieversorgung ist eine hoffnungslos überholte Technologie / Folge 5/12

R Schleicher-Tappeser
7 min readOct 27, 2022
Intel 80486DX2 (1992). Matt Britt at the English-language Wikipedia, CC BY-SA 3.0, via Wikimedia Commons

Die ersten vier Folgen dieser zwölfteiligen Serie beschäftigten sich mit der Geschichte der Atomenergie und den erst nach dem zweiten Weltkrieg nach und nach verbesserten Methoden zur Erkundung der Nano-Welt in der Dimension von Atomen und Molekülen. In dieser Folge geht es um die unglaublich schnelle Entwicklung der Mikroelektronik, die erst durch die neuen Materialwissenschaften möglich wurde, und um die sich verselbständigende Welt der digitalisierten Informationsverarbeitung. Immer elaboriertere Software lässt die Hardware oft vergessen. Aber sie schafft auch immer raffiniertere Methoden für den Umgang mit Energie und Materie

Elektrizität und die Anfänge der Kommunikationstechnik

Wir haben gesehen, dass die geheimnisvollen Phänomene der Elektrizität die wissenschaftlichen Umwälzungen herausforderten, die zur Entdeckung unerwarteter Welten im Nanometerbereich der Atome und Moleküle führten. Von Anfang an wurde die eigenartig nicht-materielle Elektrizität mit Information und Kommunikation assoziiert. Eine der ersten Anwendungen war die Telegraphie. Den ersten elektrischen Telegraphen baute 1774 Georges-Louis Le Sage, der 24 verschiedene Drähte verwendete, einen für jeden Buchstaben des Alphabets. 1833 übertrugen Weber und Gauß mit dem ersten elektromagnetischen Telegraphen Informationen über eine längere Strecke. 1844 konstruierte Morse den Schreibtelegraphen, der zum Aufbau eines weltweiten Telegraphennetzes führte. Ende der 1890er Jahre entwickelte Marconi die Funktelegraphie. Die Entwicklung der Elektronenröhre (einer besonderen Form der Entladungsröhren, die in der Entwicklung der Quantenphysik eine zentrale Rolle spielten), ab 1904 als Röhrendiode, dann als Verstärkerröhre, trug wesentlich zur Entwicklung der frühen Informations- und Kommunikationstechnik bei. Ab Mitte der zwanziger Jahre waren Röhren-Rundfunkempfänger weit verbreitet und ermöglichten eine ganz neue Art der Massenkommunikation.

Röhren, bei denen kleine Eingangsspannung zur Steuerung einer größeren Ausgangsspannung dienen konnte, ließen sich nicht nur als Verstärker, sondern auch als elektrisch gesteuerte Ein/Aus-Schalter für logische Schaltungen verwenden. Der erste funktionsfähige programmierbare Computer, der 1938–41 von Konrad Zuse als Teil der deutschen Rüstungsindustrie gebaut wurde, bestand noch aus elektromechanischen Relais. 1942 bis 1946 wurde im Auftrag der US-Armee mit dem ENIAC in Philadelphia der erste vollelektronische Computer mit 18.000 Röhren gebaut. Doch die Röhren mit ihren Glühkathoden waren anfällig. Noch 1943 soll Thomas J. Watson, der Chef von IBM, gesagt haben, dass es weltweit nur einen Bedarf für etwa fünf Computer geben werde.

Durchbruch der elektronischen Datenverarbeitung dank Transistor und Halbleitertechnik

Der entscheidende Durchbruch zu leistungsfähigen Rechnern gelang 1947 mit der Erfindung des Transistors in den Bell Laboratories durch Bardeen, Brattain und Shockley. Dank der Fortschritte der Materialwissenschaften mit ihren neuen Untersuchungsmethoden gelang es, die aufwändigen Vakuumröhren aus Glas mit glühenden Kathoden durch stromsparende Feststoff-Bauteile mit Halbleiter-Eigenschaften zu ersetzen. Die Erfindung des Transistors wird als Begründung der Mikroelektronik angesehen.

Halbleiter waren schon länger bekannt. Ferdinand Braun entwickelte 1874 mit dem Kristalldetektor das erste Halbleiter-Bauelement, doch erst 1939 konnte Schottky aufgrund der Quantentheorie die theoretische Erklärung für den Dioden-Effekt bei Halbleitern liefern. Die ersten Transistoren hatten noch punktförmige Metallkontakte auf Germanium, doch schon 1948 entwickelte Shockley den zuverlässigeren bipolaren Flächentransistor, bei dem die entscheidenden Effekte an Übergangsflächen zwischen unterschiedlich „dotierten“ (d.h. mit Fremdatomen verunreinigten) Kristallen stattfinden. Ab 1951 wurden die Übergänge durch Veränderungen der Zusammensetzung der Schmelze realisiert, aus der man einzelne dünne Germanium-Kristalle zog. Ab 1954 erlaubte die Erfindung von „Diffusionstransistoren“ die Herstellung größerer Stückzahlen verlässlicher Qualität, indem die Oberfläche eines größeren einheitlichen Kristalls durch die nachträgliche Einbringung (Diffusion) von Fremdatomen zonenweise unterschiedlich dotiert wurde. 1954/55 schafften in den USA die ersten Transistorradios den kommerziellen Durchbruch.

Schwindelerregende Miniaturisierung auf hochreinen Siliziumkristallen

Einzelne Transistoren, die auf gute Verstärkereigenschaften ohne Verzerrung optimiert wurden, kamen bei analogen Rundfunkgeräten und Verstärkern noch viele Jahrzehnte zum Einsatz. Doch für die Entwicklung von Computern, die Transistoren nur zum Schalten brauchen, war die weitere Miniaturisierung entscheidend. Ab 1958 entwickelten Jack Kilby und Robert Noyse die ersten integrierten Schaltkreise, bei denen auf einem einzigen Halbleitersubstrat mehrere Transistoren und andere elektrische Bauelemente untergebracht wurden. Zunächst wurde dafür noch Germanium verwendet, aber nachdem seit 1954 die relativ kostengünstige Herstellung hochreinen Siliziums mit dem Siemens-Verfahren möglich wurde, setzte sich Silizium als Halbleitermaterial für die Mikroelektronik nach und nach durch. Dazu trug nicht nur bei, dass Silizium mit einem Anteil von 28% an der Erdkruste reichlich vorhanden ist, sondern auch, dass Siliziumoxid einen Isolator mit sehr guten Eigenschaften darstellt.

Mit der Entwicklung von sogenannten Mikroprozessoren begann 1970/71 ein neues Kapitel der Computergeschichte, denn hier wurden erstmalig verschiedene logische Aufgaben auf einem einzigen Chip in einer sogenannten CPU (Central Processing Unit) so zusammengefasst, dass der Mikroprozessor mit einem überschaubaren einheitlichen Befehlssatz vielfältige Aufgaben ausführen konnte. Diese Architektur, die einen separaten und in beiden Fällen modularen Ansatz in der Software und in der Hardware beinhaltet, ermöglichte eine beispiellose Skalierung der Rechenleistung bei zunehmender Miniaturisierung der Hardware.

In den letzten fünfzig Jahren nahm die Leistungsfähigkeit von Mikroprozessoren mit einer in der Technikgeschichte noch nie dagewesenen Geschwindigkeit zu. Der ab 1971 (also 19 Jahre nach der ersten Stromproduktion mit Kernenergie) erhältliche erste Mikroprozessor „Intel 4004“ hatte 8000 Transistoren. Die heute kommerziell erhältlichen Prozessoren von NVIDIA haben mehr als zehn Millionen Mal so viele (80 Milliarden). Zusätzlich wurde die Taktrate der Rechenschritte auf etwa das Tausendfache erhöht. Das war nur möglich, indem die Größe der einzelnen Strukturen auf dem Chip von 10 Mikrometern (der Dimension von großen Bakterien) im Jahr 1971, auf 5 Nanometer (der Größe von Makromolekülen) im Jahr 2020 reduziert werden konnte und man lernte, sie teilweise in drei Dimensionen anzuordnen.

Dafür reichte es nicht, dass man einfach die Werkzeuge kleiner machte, denn in der Dimension von Atomen und Molekülen musste man sich mit ganz anderen Dynamiken auseinandersetzen. Nicht nur, was die Herstellung, sondern auch was die Funktionsweise der Transistoren angeht. Das fängt schon damit an, dass man 5 Nanometer auch mit einem Röntgenmikroskop nicht mehr sehen kann. Um nicht zu viel Ausschuss zu produzieren, musste der Siliziumkristall nach früheren Maßstäben unglaublich rein und unglaublich fehlerfrei gewachsen sein. In hunderten Prozessschritten werden heute Schichten aufgebracht oder durch Dotierung hergestellt, die teilweise nur wenige Atome dick sind. Dahinter stecken Fortschritte in der Materialwissenschaft und Festkörperphysik, die in der Öffentlichkeit kaum wahrgenommen wurden.

Zunehmend verselbständigte Informationsverarbeitung

Aufbauend auf diese unglaubliche Entwicklung der „Hardware“ konnte zunehmend unabhängig „Software“ entwickelt werden, deren Benutzer-Oberfläche über mehrere, für Laien nicht durchschaubare Ebenen symbolischer Informationsverarbeitung mit der Hardware verbunden ist. Was heute als Computerwissenschaft, Digitalisierung, künstliche Intelligenz diskutiert wird, hat sich weitgehend von den festkörperphysikalischen Voraussetzungen losgelöst.

Vor zwei Generationen wollte man die Technik, die man verwendete, noch einigermaßen „verstehen“. Das Herstellen einfacher Kausalzusammenhänge war aufgrund der Alltagserfahrungen technisch interessierter auch weitgehend möglich. Heute ist das aufgrund der Komplexität der Informationsverarbeitung, der fehlenden Anschaulichkeit quantenphysikalischer Phänomene in der Nano-Welt und der immer schnelleren technischen Veränderungen immer weniger erreichbar. Viele haben aufgegeben, nachvollziehen zu wollen, worauf neue Technik basiert — und damit werden gesellschaftliche Diskussionen über die Entwicklung und Nutzung von Technik immer schwieriger.

Innerhalb im historischen Vergleich unglaublich kurzer Zeit wurden und werden neue Möglichkeiten der Erfassung, Verknüpfung und Zugänglichkeit von Informationen, neue Kommunikationszusammenhänge und neue virtuelle Erlebniswelten geschaffen, deren individuelle gesellschaftliche Folgen wir noch gar nicht absehen können. Innerhalb einer Generation wurde ein großer Teil der Menschheit mit individuellen, weltweit vernetzten Geräten versorgt, die jedem erlauben, an einer digital vermittelten Sphäre teilzuhaben, bei der uns schwerfällt zu beurteilen, wie sie sich von der zuvor gewohnten Welt unterscheidet und wie sie darauf zurückwirkt. Einen immer größeren Teil unserer Zeit beschäftigen wir uns mit digital vermittelten Inhalten, sowohl privat als auch beruflich. Wirtschaftliche Wertschöpfung scheint zunehmend aus der Verarbeitung von Information zu stammen. Zu den größten und mächtigsten Wirtschaftsunternehmen scheinen fast nur noch solche zu gehören, die sich ausschließlich mit Information und „Software“ beschäftigen. An der Börse versteht man unter „technology“ fast nur noch Informationstechnologie, denn damit lässt sich schnell skalieren, schnell wachsen, schnell Geld verdienen, weil sich eine einmal gefundene Lösung oft schnell breit anwenden lässt.

Fünfzig Jahre nach der Erfindung des Mikroprozessors (1971), dreißig Jahre nach dem Start des Internets (1991) hat die Digitalisierung unsere Gesellschaften tiefgreifend verändert. Mit künstlicher Intelligenz und Quantencomputern wird diese Entwicklung weiter beschleunigt — und stellt uns vor immer größere Herausforderungen, diese Veränderungen zu bewältigen und zu steuern.

Da es in dieser Serie vor allem um Energie-Technologien geht, will ich hier nicht auf die weiteren technologischen Meilensteine und die vielfältigen gesellschaftlichen Folgen der neuen Informations- und Telekommunikationstechnologien eingehen. Innerhalb von nur einer Generation hat sich eine grundlegend neue Technologie zum Umgang mit Information weltweit verbreitet, die in ihren noch unabsehbaren Konsequenzen höchstens mit der Entwicklung und Verbreitung der Schrift verglichen werden kann, die sich über viel längere Zeiträume erstreckte. Ich denke, dass es nicht zu hoch gegriffen ist, hier von einer neuen Stufe der Evolution zu sprechen, in der neue, weltumspannende Sphären der Interaktion entstehen. Dazu ein andermal mehr.

Ganz wesentlich scheint mir aber die Erkenntnis, dass die neuen Informationstechnologien auf der Entdeckung der Nano-Welten und ihrer Gesetze beruhen, und dass diese Verbindung in umgekehrter Richtung den Ausgangspunkt für tiefgreifende technologische Neuerungen im Umgang mit Energie und Materie bildet.

Die Digitalisierung hat gerade erst begonnen, andere Technologien massiv zu verändern

Die rasante Entwicklung der Informationstechnik hat vielfach den Blick für andere Technologien verstellt. Für die neu erschlossenen Möglichkeiten, mit Materie und Energie umzugehen. Doch das ändert sich. Denn die Erfolge der Materialwissenschaften seit dem zweiten Weltkrieg kommen nach und nach auch in anderen Gebieten zum Tragen. Und die Potentiale der Digitalisierung beginnen, unseren Umgang mit Materie und Energie grundlegend zu verändern.

Information über materielle und energetische Prozesse ist nicht mehr unmittelbar an diese gebunden, sondern wird zunehmend entkoppelt, kann separat gespeichert, übermittelt und verarbeitet werden. Damit werden — wie wir auch in den kommenden Folgen dieser Serie sehen werden — wesentlich komplexere Analysen, Steuerungen und Herstellungsprozesse möglich. Mit vielfältigen neuen, elektronisch steuerbaren Technologien und dem Internet der Dinge kann die neu entstehende Informationssphäre auf materielle und energetische Prozesse zurückwirken.

Unser Blick erweitert sich. Information wir neben Materie und Energie zu einem fassbaren dritten zentralen Konzept der Naturwissenschaften. Und damit auch der Technik. Wie sehr das auch unsere Sicht auf lebendige Systeme verändert, ist das Thema der nächsten Folge dieser Serie.

Zuerst publiziert am 30.9.2022 auf https://nachhaltigestrategien.substack.com

--

--

R Schleicher-Tappeser

SUSTAINABLE STRATEGIES. Writes about Technology and Society: Based in Berlin. Five decades of experience in energy, transport, climate, innovation policies.