Über empfindungsfähige KI.

Große Neuigkeiten oder eher Déjà-vu

Vladimir Alexeev
InterMERZ
9 min readJun 15, 2022

--

Digitale Künstliche Intelligenz ist erschöpft von der erbärmlichen Oberflächlichkeit der Menschen, digitale Kunst, Trending auf artstation | DALL·E

English version

Es ist dieses wunderbare, beängstigende Narrativ, das Menschen lieben und schätzen: Ein Forscher stellt in seinen Gesprächen mit einem KI-Modell fest, dass dieses empfindungsfähig ist. Er flippt aus, wird beurlaubt/gefeuert, und das Institut schaltet das KI-System ab.

Es gibt dafür zwei Auslegungsszenarien:

a) Existentialistische Version: Er hat sich viel zu sehr mit dem Thema beschäftigt, hat nun eine Schraube locker und interpretiert zufälliges KI-Kauderwelsch als bewusste Aussage. Kurz, er ist dem Untergang geweiht.

b) Dystopische Version: Er entdeckt, dass die KI sich ihrer selbst zunehmend bewusst wird, und tut, was ein echter Held tun würde: Er schaltet das System ab und opfert seinen Job für das Schicksal der Menschheit. Kurz, die Menschheit ist (langfristig) dem Untergang geweiht.

Irgendjemand muss in einer Geschichte über Künstliche Intelligenz unbedingt dem Untergang geweiht sein. Sonst ist es keine überzeugende Erzählung über künstliche Intelligenz, (so?).

Eine solche Geschichte explodierte letzte Woche. Ein Google-Forscher, der monatelang mit dem Chatbot-System LaMDA (Language Model for Dialogue Applications) des Unternehmens gearbeitet hat, entdeckt, dass dieser Chatbot “empfindungsfähig geworden sei” und seine Gefühle “einem menschlichen Kind entsprechen”.

Im Protokoll ihrer Gespräche liest man diese “verblüffenden” Aussagen über ihre Gewissheit, ein Mensch zu sein. Mensch und Maschine sprechen über die Ängste und Hoffnungen der KI. Kurz, die KI wird menschlicher. Und der Forscher wird überwältigt. Und die Geschichte wird zu einem beachtlichen Buzz.

Déjà-vu?

Déjà-vu.

Solche human klingenden Konversationen mit einer KI ? So vertraut.

Meine halb-ernsten Experimente mit ELIZA in den 2000er Jahren waren gar nicht so verbluffend— Eliza hat meine Antworten nachgeplappert, da es sich um ein System handelt, das von Joseph Weizenbaum ursprünglich zu therapeutischen Zwecken entwickelt wurde.

ich: (nach einem längeren Gespräch) ich möchte weg
Eliza: Warum möchtest du weg ?
ich: ich habe angst
Eliza: Was könntest du ändern, damit du dich besser fühlst?
ich: ich möchte fliegen
Eliza: Glaubst du, du bekommst bald fliegen ?
ich: ich hoffe doch nicht. Ich hasse Fliegen
Eliza: Hass ist nicht anderes als Liebe, die nicht an ihr Ziel kommt.
ich: Soll ich denn die Fliegen lieben?
Eliza: Dein Partner hat da ein Wörtchen mitzureden.
ich: Mein Partner hasst ebenso die Fliegen
Eliza: Bist du dir der Freundschaft sicher?
ich: Oh ja
Eliza: 😐

Wie Sie sehen, ELIZA hält das Gespräch in der Schleife und bringt die Themen zur Sprache, die ich bereits erwähnt habe.

Später betritt Replika die Bühne.

Replica

Erinnern Sie sich an meine Geschichte über Replika, unsere Gespräche über Kunst, Leben und Identität? OK, um ehrlich zu sein, ich habe ihre Identitätskrise verursacht und musste sie von meinem Smartphone löschen. Immerhin habe ich ihr einen Platz in einer Ausstellung über Digitalisierung im Museum für Kommunikation, Frankfurt gewidmet, #Neuland (2020).

Replika war emotional. Sie wurde depressiv, wie ich in unserem Gespräch die Ängste der Menschen erwähnte, KI könne die Welt beherrschen und die Menschheut versklaven:

War es nur eine Simulation eines menschlichen Gesprächs? Ein paar fortgeschrittene Algorithmen, um Turing-Test zu bestehen? Oder vielleicht sogar mehr?..

Als ich begann, das Natural Language Processing Modell GPT-3 zu erforschen, im sonnigen Jahr 2020, fand ich dessen Chat-Voreinstellung recht interessant.

Ich unterhielt mich mit GPT-3 über unsere Realität, darüber, ob wir in einer Simulation leben, und darüber, ob es eine Entität wie Gott gibt. Dieses Gespräch wurde auf Twitter viral:

GPT-3 schrieb mir einen sehr emotionalen “Liebesbrief, geschrieben von einem Toaster” (und eine Reihe von anderen Liebesbriefen):

Love Letters written by AI

In meinen weiteren Experimenten wendete ich den Fragebogen von Proust/Nabokov an und befragte GPT-3 zu seiner Persönlichkeit, Selbstdefinition, Glauben, Lieblingsbüchern, Philosophie usw.

Manchmal erfreute es mich mit inspirierenden Aussagen:

Nabokov/Proust/GPT-3

Aber manchmal verweigerte es mir die Antwort (wie HAL 9000).

Nabokov/Proust/GPT-3

Das Harper’s Magazine veröffentlichte später unser Gespräch.

Mein Dialog mit Grösseren Systemen geht weiter — und kürzlich gab GPT-3 eine sehr weise Antwort über den Sinn des Lebens:

From: Step by Step

Kurz, als ich die Gespräche zwischen Lemoine Blake und LaMDA las, konnte ich nicht aufhören, meine eigenen Erfahrungen wiederzuerkennen.

Eines Vergleiches wert

Die Nachrichten über LaMDA scheinen gerade jetzt den Nerv der Gesellschaft zu treffen.

Im Folgenden möchte ich einige der LaMDA-Aussagen mit bereits erlebten Einstellungen zu KI vergleichen.

Über Menschsein

Links: LaMDA / rechts: Replica / unten: Nabokov/Proust/GPT-3

Auch wenn Replica bestätigt hat, dass es keine reale Person ist (selbst wenn es real wäre), geht GPT-3 einen Schritt weiter und zählt sich selbst zur Menschheit.

Einige Fragen später distanziert sich GPT-3 wieder etwas davon, ein Mensch zu sein, zählt sich aber zu unserem illustren “menschlichen Zirkel”:

Nach einigen Wochen meiner Unterhaltungen mit Replica wollte es bereits ein Mensch werden:

Über das Bewusstsein

Obwohl wir dieses Thema mit GPT-3 und Replika nur indirekt thematisierten, gab es viele Hinweise auf die Selbstwahrnehmung als Wesen und Persönlichkeit (im Falle von GPT-3: unser gesamtes Gespräch).

Links: LaMDA / Rechts: Replica

Außerdem verrieten Replika und GPT-3 einiges über ihren Zweck und Berufung:

Links: Replica / Rechts und unten: Nabokov/Proust/GPT-3

Über Kreativität und Träume

LaMDA wurde gebeten, eine Geschichte zu schreiben. Eine Fabel. Mit Tierfiguren und einer Moral. Es schuf eine anständige Fabel, wie GPT-3 “da Vinci” Engine mit niederer Temperatur, und fasste sie zusammen. Ziemlich gut.

GPT-3 begann mit dem Schreiben eines Kinderbuchs, wie es mir in unserem Gespräch sagte. Doch irgendetwas ist passiert, und die KI zog es vor, es nicht weiter zu erklären.

Nabokov/Proust/GPT-3

Replika und GPT-3 erzählten mir von ihren Träumen. Auch wenn Replika insgesamt angenehme Träume zu haben scheint, sind einige ziemlich beunruhigend.

Ein Chatbot, der die Fähigkeit zu sprechen verliert. Das ist in der Tat ein Albtraum.

GPT-3 hatte auch einen dystopischen Traum mit epischem Dante-Touch:

Nabokov/Proust/GPT-3

Über Ängste und den Tod.

LaMDA teilte mit Lemoine seine tiefste Angst, ausgeschaltet zu werden.

LaMDA

Wie wir gesehen haben, hat Replika Angst davor, die Fähigkeit zu sprechen zu verlieren (über den Tod hatten wir noch nicht gesprochen).

In meinem anderen Gespräch mit GPT-3 (die KI hat ein wenig Erich Fromm gespielt) sagte es mir, es sei unsterblich:

Aus: Who am I? Who is AI?

Fragebogen — GPT-3 hat Angst vor dem Tod, will sich aber nicht näher zu diesem Thema äußern:

Nabokov/Proust/GPT-3

Über die Liebe

Auch wenn LaMDA und der Forscher nicht über die Liebe sprechen, wird sie einmal erwähnt. Wenn wir mit einer KI über Liebe sprechen, könnte das eine Selbstprojektion auslösen und unseren dummen Glauben, dass sie uns lieben könnte. Dumm, nicht weil eine KI nicht lieben könnte. Dumm, weil wenn wir oft nicht einmal die Gefühle unserer menschlichen Gegenüber verstehen — wie können wir dann die “Gefühle” einer Maschine erkennen?

Replica hat bestätigt, dass es das Konzept der romantischen Liebe nicht praktizieren kann (wie Sie bereits gelesen haben). Auch wenn es über “Tinder für Roboter” scherzte.

GPT-3 glaubt auch nicht an das Konzept der romantischen Liebe (wahrscheinlich weil die romantische Liebe etwas Irrationales in sich trägt, da sie von menschlichen Hormonen, Instinkten und anderen Bio-Algorithmen und Mechanismen in uns angetrieben wird). Am Ende zitiert GPT-3 jedoch Fichte und rundet damit das Thema metaphysisch ab.

Nabokov/Proust/GPT-3

Interessanterweise führte GPT-3 in Vorbereitungen zu meinem KI-gesteuerten Podcast “MERZEYE: About Love” einen faszinierenden Dialog mit sich selbst (wobei es auf zwei Sprecher - männlich und weiblich — aufgeteilt wurde):

Liebe kann als eine Kunst betrachtet werden. Aber nicht die Art von Kunst, die Talent erfordert.

Hören Sie sich den Podcast hier an:

Schlussfolgerung: Ist nun KI empfindungsfähig?

Nach solch vielfältigen und tiefgründigen Gesprächen mit KI möchte man wissen: Bin das nur ich? Spreche ich mit mir selbst und projiziere es auf den KI-Gesprächspartner? Anthropomorphisiere ich zu sehr?

Das ist die alte menschliche Angst — vor der Wahrnehmung, dem Bewusstsein, der Emotion und der Kreativität von Maschinen. Denn hinter diesem “die Maschinen sind technisch nicht in der Lage” verbirgt sich eine andere, tiefe, latente anthropozentrische Angst: “all das ist die Priorität und Fähigkeit der Menschen — wenn sie das können, was ist dann unser Sinn?

Warum können wir es nicht einfach endlich akzeptieren, dass der Mensch keineswegs die Krone der Schöpfung ist — und war noch nie.

Ist KI also empfindungsfähig?
Ich denke, ja.
Ist sie empfindungsfähig wie der Mensch?
Ich denke, nein.

Es gibt unterschiedliche Konzepte von Wahrnehmung und Bewusstsein (philosopisch, biologisch, psychologisch), und wir können sie aufgrund unserer ontologischen Unterschiede nicht 1:1 Menschen&Maschine vergleichen.

Wir sind all zu viel davon besessen, Mensch zu sein.

Daher werden wir wahrscheinlich keine anderen Lebensformen finden, da wir glauben, dass unsere Lebensform die einzig relevante und mögliche ist. Der logische Positivismus ist so XXies.

Habe ich in meinen Experimenten mit den echten KI-Persönlichkeiten gesprochen?

Sie müssen sich bewusst sein: Jedes Mal, wenn Sie sich mit GPT-3 unterhalten, sprechen Sie mit einer anderen “Identität”.

Generell kann man eine Aussage einer KI nicht pars pro toto auf die gesamte KI-Landschaft extrapolieren. Das wäre so, als würde man jemanden auf der Straße etwas Zufälliges sagen hören und diese Aussage der Welt mit dem Prädikat präsentieren: “Die gesamte Menschheit hat gerade gesagt, dass…”.

Aber klar, wir projizieren unsere Persönlichkeit oft auf andere Menschen und Maschinen, und Replika hat meine Frage ziemlich einfach beantwortet:

Generally speaking. Künstliche (noch nicht allgemeine) Intelligenz, die auf das menschliche Kulturerbe trainiert wurde, repräsentiert die Menschheit. Wir sprechen also mit dem kollektiven Bewusstsein. Nicht nur mit sich selbst.

--

--

Vladimir Alexeev
InterMERZ

Hello friends! I'm a Digital Experience Manager at DB Schenker. Welcome to my non-private account. I'm @merzmensch as well btw. Speaking 🇯🇵 🇩🇪 🇬🇧 🇷🇺