GPT-3: Das kreative Potenzial

KI-Meilenstein von OpenAI — in Aktion

Vladimir Alexeev
InterMERZ
8 min readNov 23, 2021

--

Bild: Merzmensch

Veröffentlicht/published 2020 in Toward Data Science. Dieser Text war meine erste Analyse von GPT-3 und nun ist es, nach mehr als einem Jahr Arbeit mit diesem System bereits überholt. Nichtsdestotrotz finden Sie hier die Grundsätze und wichtigsten Elemente des System.

Es war Februar 2019, als OpenAI die Forschungsergebnisse zum Sprachmodells GPT-2 veröffentlichte. Es wurde mit 40 GB Text (8 Mio. Websites) unüberwacht trainiert und konnte Wörter in der Nähe voneinander vorhersagen. GPT-2, ein auf Transformer basierendes Sprachmodel, das mit der Methode der Selbstbeobachtung (self-attention) operiert, ermöglichte es uns, sehr überzeugende und kohärente Texte zu generieren. Die Qualität war so gut, dass das Hauptmodell mit 1,5 Milliarden Parametern zunächst wieder de-publiziert wurde, um unkontrollierte Fake News zu verhindern. Glücklicherweise haben sich die Befürchtungen nicht bestätigt, das komplette Modell wurde später doch veröffentlicht und konnte sogar mit Colab Notebooks verwendet werden.

Im Jahre 2020 schlug OpenAI mit dem neuen Sprachmodell GPT-3 zurück. Mit 175 Milliarden Parametern (siehe auch: GPT-3 Paper).

Unnötiger Spoiler: es ist unglaublich gut.

Aber wie sieht es in der Praxis aus?

Nun — nach mehr als einem Jahr Wartens, wird der Zugang zu GPT-3 von OpenAI direkt zur Verfügung gestellt. Ohne Wartelisten. Doch natürlich mit Beachtung einiger Regeln.

GPT-3 lässt sich direkt über Playground (Spielwiese) oder über API ansteuern. Da ich mich eher auf kreativen Experimenten konzentriere, arbeite ich im Playground.

Schnittstelle, Presets, Voreinstellungen.

So sieht der GPT-3 Playground / Spielwiese aus:

Die Playground-Oberfläche ist schlicht, birgt aber jede Menge Power in sich. Zunächst einmal gibt es einen Einstellungsdialog, in dem man die Textlänge, die Temperatur und andere Funktionen einstellen kann.

Screenshot: beta.openai.com // von: Merzmensch

Engine: Es gibt mittlerweile mehrere Engines. Basic Engine (Ada, Babbage, Curie, Davinci) — wo DaVinci als stärkste Engine mit vollem Parameterumfang arbeitet (ist auch langsamer). Ada ist am schwächsten im kreativen Bereich, aber auch am günstigsten. Instruct Engine führt die direkten Instruktionen aus (darüber später).

Temperature: von 0 (niedrig/langweilig) über 0.5–0.7 (Standard) bis hin zu 0.9–1 (chaotisch/kreativ).

Sie können auch festlegen, wo der generierte Text beginnen und enden soll — dies sind einige der Kontrollfunktionen, die sich direkt auf die Textergebnisse auswirken.

Die weiteren Einstellungen werde ich in einem speziell darüber verfassten Essay unter die Lupe nehmen.

Presets / Voreinstellungen

Die einfache Schnittstelle bietet auch einige GPT-3-Presets (vorbereitete Prompts). Das Erstaunliche an transformer-gesteuerten GPT-Modellen ist unter anderem die Fähigkeit, einen bestimmten Stil, ein Textzeichen oder eine Struktur zu erkennen. Wenn Sie mit Listen beginnen, generiert GPT-3 entsprechen weitere Listen. Wenn Ihr Prompt eine Q&A-Struktur hat, wird er kohärent gehalten. Wenn Sie nach einem Gedicht fragen, schreibt es ein Gedicht.

Sie können Ihre eigenen Presets erstellen (und sogar teilen) oder die vorhandenen verwenden, zum Beispiel:

Chat.

beta.openai.com // von: Merzmensch

Eine typische Einstellung für einen Chatbot (man beachte die Besondertheiten unter “Einstellungen”. Sie fragen — die KI antwortet. Es ist auch möglich, die “Charaktere” oder Einstellungen zu modifizieren. Um die kontextuellen Auswirkungen zu demonstrieren, ändern wir mal den KI-Charakter von “hilfreich” und “sehr freundlich” zu “brutal, dumm und sehr unfreundlich”. Sie werden sehen, wie der gesamte Dialog beeinflusst, “biased” wird:

beta.openai.com // von: Merzmensch

Ich glaube, wir haben Marvin, den paranoiden Androiden, zum Leben erweckt.

Übrigens, ich nutze das oben erwähnte Adjektiv “biased”, “voreingenommen”, nicht im Sinne der stereotypenhaften Voreingenommenheit (Chauvinismus etc.) der KI-Modelle, das öfters konkretisiert wird. “Biased” in diesem Fall ist eine bestimmte Tonalität des Texts, ein semantischer Schubsen in eine dem Autor notwendige Richtung.

Q&A — Fragen und Antworten

Screenshot: beta.openai.com // by: Merzmensch

Dieser Preset besteht aus einer klaren dualen Struktur: Frage / Antwort. GPT-3 braucht ein wenig Training, bevor es anfängt, die Fragen zu beantworten (und die Regeln zu verstehen), aber dann funktioniert es perfekt. Ich habe ein paar zufällige Fragen aus verschiedenen Bereichen gestellt, und hier ist sie:

Screenshot: beta.openai.com // by: Merzmensch

Ich würde sagen, perfekt!

Analyse unstrukturierter Daten

Screenshot: beta.openai.com // von: Merzmensch

Dies ist faszinierend und zeigt ein gutes Orientierungsvermögen im unstrukturierten Text — und das Extrahieren strukturierter Daten aus dem Volltext.

Zusammenfassen für einen Zweitklässler

Dieser Preset zeigt eine neue Ebene des Verstehens — einschließlich der Umformulierung schwieriger Konzepte und Sätze in klare Worte.

Ich habe es mit Wittgenstein probiert:

Screenshot: beta.openai.com // by: Merzmensch

Das einfache Sprichwort lässt sich überzeugend paraphrasieren:

Screenshot: beta.openai.com // by: Merzmensch

Oder schauen Sie sich diese übersichtliche und klare Umsetzung von Sigmund Freuds Zeitkonzeptes an:

Screenshot: beta.openai.com // by: Merzmensch

Wie Sie sehen, ist die Komprimierung von Text und seine kohärente “Übersetzung” eine der Stärken von GPT-3.

Wie sieht es mit Sprachen aus?

GPT-2 war bereits ein großartiges Sprachmodell, zumindest wenn es ums Englische ging. Man konnte erstaunliche Texte erzeugen, vor allem mit dem 1,5 Milliarden Parameter Model. Ich habe GPT-2 für ein Drehbuch zu diesem Kurzfilm verwendet — und dessen Absurdität könnte sich der guten Tradition von David Lynch und Beckett gesellen:

Die Dialoge weisen inner Logik auf, bei all der Spontaneität. Soweit so gut — mit englischen Inhalten. Bei anderen Sprachen stößt man auf die Barriere des Verständnisses. GPT-2 versuchte, Sprachen zu imitieren, man musste es aber an einem Textkorpus in einer bestimmten Sprache trainieren, um gute vergleichsweise Passablen zu erzielen.

Hier, zum Beispiel, versuchte ich, mit GPT-2 Faust 3 (neu) zu schreiben, indem ich das Sprachmodell an Faust-Original stundenlang trainierte. Was entstand, war auf den ersten Blick sogar rein visuell wiedererkennbar. Aber nur äusserlich. Bei dem ersten Satz bereits wird man merken, dass es kein richtiges Deutsch ist:

GPT-2, trainiert auf Ur-Faust. Von: Merzmensch

GPT-3 ist anders. Es ist trainiert an vielen Sprachen:

Top 20 von insgesamt um die 100 Sprachen, die im Training-Dataset von GPT-3 vorhanden waren (GitHub/OpenAI)

Natürlich fällt der Gap zwischen No1 Englisch (93% des Datensets) und No 2 Deutsch (1,2% des Datensets) auf. Doch bereits 1,2% machen was aus — GPT-3 kann perfekt Deutsch, anders, als c’t in der Oktoberausgabe ’21 behauptet.

Ich habe auf die Schnelle Deutsch, Russisch und Japanisch ausprobiert.

Deutsch.

Es war eher meine Tochter, die versuchte, GPT-3 ein Märchen schreiben zu lassen. Sie begann mit “Eine Katze mit Flügeln ging im Park spazieren”.

Hier ist der komplette Text

Die entstandene Geschichte war erstaunlich gut geschrieben. Mit Ironie, lebendigen Figuren und Leitmotiven. Dies ist nicht nur eine Sammlung von Topoi oder zusammenhängenden Sätzen. Das ist … eine Geschichte!

Mein Artikel über die deutschsprachigen Experimente ist noch Arbeit.

Auf Russisch.

Ich hatte einmal GPT-2 auf Puschkins Poesie trainiert und bekam einige interessante Neologismen zu lesen, aber es war ein grammatikalisches Chaos:

GPT-2, trainiert auf Puschkin’s Poesie.

Im Fall von GPT-3 habe ich einige Zeilen aus einem Puschkins Gedicht eingegeben — und das Ergebnis war… interessant.

Hier geht es zum Volltext.

Es reimt sich nicht, ist aber stilistisch eindrucksvoll, allerdings keinen Spur von Puschkin-Stil. Jedoch zumindest fast ohne Fehler oder seltsame Grammatik. Und… es funktioniert als Poesie (wenn man bereit ist, diesen Text als poetisches Werk zu interpretieren).

Russisch in Prosa am Beispiel der Gattung Briefwechsel, funktioniert sogar besser:

Japanisch.

Volltext hier

Ich habe einen zufälligen Satz eingegeben:

今日は楽しい一日になりますように!と言いました。//
Heute war ein lustiger und unterhaltsamer Tag, sagte ich.

Und das Ergebnis war eine kleine Geschichte über Gebete, Glück, Weisheit und Geldanlage. In gut geschriebenem Japanisch (neutrale Höflichkeitsform, gemäss der Eingabe).

ERGO: GPT-3 ist bereit für die mehrsprachige Textverarbeitung, wobei die Qualität je nach Sprache schwankt.

Verschiedene Experimente (und Warnsignale).

ShakespAIre und das Schreiben von Gedichten

Mein erster Versuch war natürlich, ein Shakespeare-Sonett zu dichten. Der Prompt war also einfach:

here is a poem by Shakespeare
Hier ist ein Gedicht von Shakespeare

Das Ergebnis war dieses:

Screenshot: beta.openai.com // by: Merzmensch

Perfekte jambische Verse, toller Stil, schöne Reime… Wenn da nicht eine Sache wäre:

Die ersten beiden Zeilen waren komplett von Alexander Pope, The Rape of the Lock übernommen. Und hier haben wir einen Grund, vorsichtig zu sein: GPT-3 produziert einzigartige und unwiederholbare Texte, aber es kann auch ohne Vorwarnung die gesamten Zitate bestehender Texte, auf die es trainiert wurde, wiederverwenden.

Eine erneute Überprüfung der Ergebnisse vor der Veröffentlichung ist unumgänglich, wenn man die Einzigartigkeit dieses Textes garantieren will.

Ich frage mich, ob es Möglichkeiten für eine “Projektion” wie bei StyleGAN2 gibt, nur dass im Gegensatz zu StyleGAN2 (wo das Bild mit dem latenten Raum verglichen wird), in GPT-3 mit dem Datensatz verglichen wird, auf dem es trainiert wurde? Um versehentliche Plagiate zu verhindern. (OpenAI arbeitet an der Lösung dieses Phänomens).

Interessant ist: GPT-3 kann bei Bedarf Schreibstile verschiedener Autoren imitieren.

Hier ein weiteres Beispiel:

Aufsätze

Als ich noch keinen Zugang hatte, bat ich einen Freund, GPT-3 einen Aufsatz über Kurt Schwitters, einen deutschen Künstler und Dadaisten, schreiben zu lassen:

Das Ergebnis war: GPT-3 hat bereits ein umfassendes Wissen, das in den Texten zum Ausdruck kommt. Es ist zwar nicht immer zuverlässig (man muss es feinjustieren, um eine perfekte Bedeutungsübereinstimmung zu erreichen), aber es ist dennoch sehr nah am Diskurs.

Programmieren mit GPT-3

Eine weitere verblüffende Möglichkeit ist die Verwendung von GPT-3 in ganz anderen Fällen als nur zur Texterzeugung:

CSS kann es auch:

Zusammenfassung.

Wir stehen noch am Anfang, aber die Experimente der KI-Gemeinschaft mit GPT-3 zeigen seine Kraft, sein Potenzial und seine Auswirkungen. Wir müssen sie nur mit Verstand und guter Absicht einsetzen. Aber das ist der menschliche Faktor. Und der ist nicht immer der beste.

Für weitere wunderbare Textexperimente empfehle ich Ihnen die Lektüre von Gwern:

Möge die Reise weitergehen!

P.S. Auch jetzt, nach mehr als einem Jahr umfassender Experimente mit GPT-3 ich sehe es klar und deutlich: wir kratzen immernoch auf der Oberfläche dieses Sci-Fi-Systems, das wahr geworden ist.

--

--

Vladimir Alexeev
InterMERZ

Hello friends! I'm a Digital Experience Manager at DB Schenker. Welcome to my non-private account. I'm @merzmensch as well btw. Speaking 🇯🇵 🇩🇪 🇬🇧 🇷🇺