Von Fröschen, die Menschen erfinden

Fabian Lang
8 min readMay 25, 2023

--

Vor kurzem habe ich mir ein Interview mit KI-Forscher Geoff Hinton (The Robot Brains Podcast) angehört. In diesem Gespräch werden nicht nur spannende KI-Themen behandelt, sondern auch relevante gesellschaftliche Aspekte aufgegriffen, von denen ich in diesem Artikel gerne einige hervorheben möchte.

Read in English 阅读中文版

Eine Person, die einen grünen Frosch in ihrer Handinnenfläche hält.
Ein Frosch wird sanft in der Hand einer Person gehalten. | Foto: Olivia Bliss

Geoff Hinton, der oft als “Godfather of AI” bezeichnet wird, ist ein renommierter Informatiker und einer der Vordenker des Deep Learnings. Kürzlich verließ er Google, um uneingeschränkter über seine Bedenken bezüglich der potenziellen Gefahren von KI sprechen zu können. Im Folgenden greife ich einige seiner Aussagen auf und steige an der ein oder anderen Stelle näher inhaltlich ein.

Menschliche vs. maschinelle Intelligenz

Auf die Frage nach seinem plötzlichen Sinneswandel direkt in den ersten Minuten des Interviews, antwortet Hinton wie folgt:

“For 50 years, I thought I was investigating how the brain might learn by making models on digital computers using artificial neural networks and trying to figure out how to make those learn. And I strongly believe that to make the digital models work better, we had to make them more like the brain. And until very recently, I believed that.

And then, a few months ago, I suddenly did a flip. I suddenly decided, actually, backpropagation running on digital computers might be a much better learning algorithm than anything the brain’s got.” (3:26)

In der Aussage bezieht sich Hinton auf den Backpropagation Algorithmus, eine grundlegende Technik zum Training künstlicher neuronaler Netzwerke. Mithilfe des Algorithmus ist es möglich die Gewichte (Modell-Parameter) eines neuronalen Netzwerks hinsichtlich des Unterschieds zwischen vorhergesagten und tatsächlichen Werten zu vergleichen, wodurch das Netzwerk seine Gewichte optimieren und sich im Laufe der Zeit verbessern kann.

Dieser Algorithmus bildet auch die Grundlage für die von Vaswani et al. (2017) entwickelten Transformer-Architektur. Dieser Durchbruch in der Machine Learning Forschung revolutionierte existierende KI-Anwendungen und führte zu zahlreichen Veränderungen insbesondere im Bereich der natürlichen Sprachverarbeitung (Natural language processing). Der Attention-Mechanismus des Modells ermöglicht es sich auf relevante Stellen des Eingabeinputs zu konzentrieren. Dadurch ist es mithilfe dieser Architektur möglich den Kontext und die Feinheiten von Sprachen (oder allgemeiner: Textsequenzen) zu verstehen und nachzumodellieren. Sie bildet unter anderem das Rückgrat von State-of-the-Art Modellen wie BERT, GPT-3 und GPT-4.

An dieser Stelle möchte ich auf den Vortrag “The A.I. Dilemma” von Tristan Harris und Aza Raskin vom Center for Humane Technology verweisen. Darin veranschaulichen die beiden welche tiefgreifenden Veränderungen diese Architektur seit ihrem Release 2017 mit sich gebracht hat.

Sogar Hinton selbst gibt im Interview zu, dass er schockiert war, als Googles Sprachmodell PaLM Witze erklären und logische Schlussfolgerung ziehen konnte.

PaLM erklärt einen Witz mithilfe eines two-shot prompts (Quelle)

Als Google PaLM vorstellte, war OpenAI’s GPT-3 schon fast zwei Jahre lang über die API verfügbar. In einem Interview mit Sam Altman im Januar dieses Jahres gab der Co-Founder von OpenAI sogar zu, dass das Modell für ChatGPT etwa 10 Monate lang in der API lag, bevor die eigentliche Benutzeroberfläche entwickelt wurde. Zu Altmans Überraschung hatte aber bis dato kein anderes Tech-Unternehmen ein vergleichbares Konversations-Tool vorgestellt oder mithilfe des in der API verfügbaren Chatmodells einen Chatbot gebaut.

Im Interview stellt Hinton weiterhin fest, dass durch das Training großer Sprachmodelle mit Backpropagation es diesen ermöglicht, ein Vielfaches mehr an Allgemeinwissen zu erlernen. Zumindest weitaus mehr, als wir es dazu in der Lage sind. Er geht davon aus, dass diese Art von Lernalgorithmus in jeglicher Hinsicht die des “Lernalgorithmus” unseres Gehirns überlegen ist und daher KI-Systeme dem Menschen in vielen Bereichen überlegen sein werden.

Insbesondere aufgrund der Möglichkeiten der Parallelisierung von Hardware Systemen können diese Modelle im Vergleich zu uns Menschen viel schneller und effizienter Wissen teilen und aneignen.

“You can have many copies of the same model running on different hardware, and when one copy learns something it can communicate that to all the other copies, by communicating the weight changes with a bandwith of 3 years of bits. Whereas when you learn something to communicate it to me, I need to try and change my weights so that I would say the same thing as you, and the bandwith of sentences is only hundreds of bits per sentence.“ (5:15)

Das führt uns auch zu unserem nächsten Thema…

Existenzielle Bedrohung des Menschen durch KI

Falls bis hierher unklar war, was dieser Text nun mit Fröschen auf sich hat, hierzu kommt von Hinton folgende Aussage:

“It may be that it’s historically inevitable, that digital intelligence is better than biological intelligence and it’s the next stage of evolution. I hope not, but that’s possible. We should certainly do everything we can to keep control.

Sometimes when I’m gloomy I think, imagine if somehow frogs had invented people, and frogs needed to keep control of people. But there’s a rather a big gap in intelligence. I don’t think it will work out well for the frogs…“ (33:35)

Diese Aussage erinnert mich stark an Yuval Noah Hararis Keynote beim Frontiers Forum mit dem Titel “AI and the future of humanity”, in der er über die Entstehung anorganischer Intelligenz inmitten von organischen Leben spricht.

Zu Beginn des Interviews meint Hinton:

“Now one thing we have on our side is that we are the result of evolution. So we come with strong goals about not damaging our bodies and getting enough to eat, and making lots of copies of ourselves. And it’s very hard to turn these goals off. These things don’t come with strong built-in goals. We made them and we get to put the goals in. So that suggests that we might be able to keep them working for our benefit, but there’s lots of possible ways that might go wrong, so one possible way is bad actors. Defense departments are going to build robot soldiers and the robot soldiers are not going to have the Asimov principles. Their first principle is not going to be whatever you do don’t harm people, it’s going to be just the opposite of that, so that’s the bad actor scenario, …” (7:08)

Ein weiteres der von Hinton genannten bad-actor Szenarien könnte sein, Menschen mithilfe von KI zu manipulieren. Computeralgorithmen haben es geschafft Weltklasse Schach- und Go-Spieler zu schlagen, und lange Zeit sind wir davon ausgegangen, dass KI-Systeme nur in der Lage sind Menschen auf dem Spielbrett zu schlagen. Mit der rasanten Entwicklung von digitalen Technologien weisen KI-Systeme jedoch mittlerweile ein weitaus breiteres Spektrum an Fähigkeiten jenseits solcher Spiele auf. Sie können massenhaft jegliche Art von große Datenmengen verarbeiten, Muster erkennen und präzise Vorhersagen treffen… und ausgerechnet jetzt preschen sie vor in eine Domäne, die seit jeher exklusiv uns Menschen vorbehalten zu sein schien: das Verstehen und Erzeugen von natürlicher Sprache.

“Now, you can’t make it safe just by not allowing it to press buttons or pull levers. […] A chatbot will have learned how to manipulate people. They would have read everything Machiavelli ever wrote and all the novels in which people manipulate other people, and it will be a master manipulator if it wants to be. And it turns out, you don’t need to be able to press buttons and pull levers. You can, for example, invade a building in Washington just by manipulating people. You can manipulate them into thinking that the only way to save democracy is to invade this building. So, a kind of air gap that doesn’t allow an AI to actually do anything other than talk to people, is insufficient. If it can talk to people, it can manipulate them. And if it can manipulate people, it can get them to do what it wants.” (38:45)

Bias

Trotz aller Endzeit-KI-Fantasien gibt es auch Gründe optimistisch nach vorne zu blicken. Obwohl sich in KI-Systemen auch ein Bias wiederfindet (diesen hat sich der Algorithmus übrigens von uns Menschen abgeschaut!), gibt es Grund zur Hoffnung. Denn ein Bias in KI-Systemen lässt sich möglicherweise einfacher korrigieren als die Vorurteile von uns Menschen:

“AI is incredibly biased. If it’s trained on incredibly biased data, it just picks up bias from the data. That doesn’t worry me as much as it does some people because I think people are very biased. Actually, understanding the bias in an AI system is easier than understanding the bias in a person. Because you can just freeze the AI system and do experiments on it. You can’t do that with a person. If you try and freeze the person to do experiments, they realize what you’re up to and they change what they say. So, I think actually bias is easier to fix in an AI system than it is in a person.” (17:42)

Schon heute gibt es Programmier-Bibliotheken wie 🤗Evaluate, mit denen Large Language Models untersucht werden können.

Zwischenstaatliche KI Organisationen (und CEOs?)

Im Gespräch diskutieren die beiden auch über die Möglichkeit von KI-geführten Organisationen und sogar Unternehmen. Wäre es denkbar, dass zwischenstaatliche Organisationen wie die UN durch einen hochintelligenten KI-Vermittler ersetzt wird oder zumindest innerhalb einer solchen Institution KI-Algorithmen zur Vermittlung eingesetzt werden? Die Prämisse würde dann wie folgt lauten: Ein ideales KI-System hat im Gegensatz zu uns Menschen keine eigene Agenda und wäre somit ein unparteiischer Vermittler bei globalen Problemen zwischen Staaten.

“We’d prefer to have a scenario where we create something much more intelligent than us and it kind of replaces the UN. You have this really intelligent mediator, that doesn’t have goals of its own. Everybody knows that it doesn’t have its own agenda. It can can look at what people are up to and it can say: “Don’t be silly… everyone is going to lose if you do this. You do this and you do that.” And we would sort of believe it like children would believe our benelovent parent.“ (36:04)

Diese Art der Gesellschaftsordnung wird auch Algogracy (Algorithmus + Demokratie) genannt. Dabei ist die Idee das KI-Systeme mithilfe vieler Daten bei Entscheidungsprozessen eingesetzt werden und somit partiell oder auch gänzlich die Steuerung sozialer Systeme übernehmen. Ein solcher Shift könnte im besten Falle zur Schaffung einer gerechteren Gesellschaft führen. In diesem Zusammenhang fällt mir auch der Begriff “gemeinwohlorientierte KI” ein, hinter dem sich die Idee verbirgt, lernende Computersysteme einzusetzen, die dem Gemeinwohl dienen. Dabei geht es nicht darum den Menschen durch KI zu ersetzen, sondern vielmehr darum ihn zu unterstützen.

Wie stehen Sie dazu, dass eine künstliche Intelligenz wichtige Entscheidungen über die Führung des Landes trifft? (N = 2576) | Quelle: IE University’s Center for the Governance of Change

Eine 2019 durchgeführte Umfrage des Center for the Governance of Change der IE University in Spanien stellte fest, dass 25% der Europäer*innen einem KI-System erlauben würden, wichtige Entscheidungen auf Landesebene zu treffen. Mit zunehmend fortgeschrittenen KI-Systemen könnte die Wahrscheinlichkeit steigen, dass algorithmische Regierungsführung breitere Akzeptanz findet.

Dass in unserer Gesellschaft durch KI ausgelöst in ihren Grundzügen Veränderungsprozesse losgetreten werden, sollte jedem Menschen klar sein. In welche Richtung unsere Gesellschaft sich dadurch entwickeln wird, lässt sich heute aber noch nicht genau vorhersagen. Abschließend wäre ist mir wichtig zu betonen, dass KI ein enormes Potenzial hat, um uns die gesamte Menschheit voranzubringen. Gleichzeitig sollten wir aber ein wachsames Auge auf die potenziellen Risiken haben. Unverzichtbar hingegen ist es jedoch, dass wir gemeinsam an dieser Diskussion teilhaben und den Einsatz von KI-Systemen heute wie auch in der Zukunft immer wieder auf die Prüfwaage stellen. Falls ihr Kommentare oder Feedback habt, meldet euch gerne!

--

--

Fabian Lang

Data, tech & #NLProc enthusiast | Market & Audience Insights Manager / Data Scientist at Deutsche Welle (DW) | https://twitter.com/langfab