Design

Wenn die KI ein Bild erstellt

Eine aufregende Reise in die Welt des Urheberrechts

Manuela Baldauf
BR Next

--

Die Lensa-App, ChatGPT, Stable Diffusion und viele andere: Innovator:innen können dem Thema KI-basierte Content-Generierung derzeit kaum entgehen. In den letzten Monaten haben wir uns vor allem mit Text-zu-Bild-Generierung befasst und viel diskutiert. Welche Herausforderungen sich dabei stellen und wie wir bei BR Next damit umgehen, erzählen wir hier.

Mystery-Podcast “Mia Insomnia”, Bild-Quelle: BR/Simon Heimbuchner unter Einsatz von Midjourney

Stable Diffusion, Midjourney oder Dall-e — das Prinzip hinter Programmen, die mit Hilfe von künstlicher Intelligenz Bilder erzeugen, ist ähnlich: Sie werden mit Bildern und Bildbeschreibungen gefüttert und erstellen auf dieser Basis aus einem Textbefehl ein eigenes neues Bild.

Die Ergebnisse werden Tag für Tag besser: Denn die Tools lernen, wie bestimmte Begriffe miteinander interagieren und vergrößern ihren Datenschatz.

Schließlich verfügen die Programme über so viele vernetzte Daten bzw. Wissen, dass sie nicht nur Tiere, Gegenstände und Personen darstellen, sondern auch Kunst-Stile oder Bildformen wie Foto, Gemälde oder Zeichnung imitieren.

Also zack fertig ist das Bild? Nein! Um mit einem solchen Tool gezielt Bilder zu generieren, muss man schon Zeit mitbringen: Oft benötigen Anwender:innen stundenlange Versuche, um die passenden Prompts (Textbefehle) zu finden, mit denen die KI am Ende taugliche Bilder kreiert.

Einer meiner ersten Versuche mit „Midjourney“, mit den Prompts: Lighthouse, November, Horror und Illustration; Bild-Quelle: Midjourney

Warum wir bei BR Next damit experimentieren

In den vergangenen Monaten haben wir viele Publikationen gesehen, die KI-basierte Bilder veröffentlicht haben — von “NZZ Folio”, “The Economist” und „The Atlantic“ bis zur “taz”.

Das fanden wir spannend. Soweit wir sehen konnten, ersetzt dabei die Software nicht die Arbeit von Mediengestaltenden — schließlich muss ein Zeitschriften-Cover präzise aufgeteilt, mit Typo versehen und überarbeitet werden.

Aber: Für den Gestaltungsprozess schaffen die KI-Generatoren eine Basis, auf der Designer:innen — ähnlich wie bei Stockfotos — weiterarbeiten. Diese Tools können somit den kreativen Visualisierungsprozess bereichern, ihn vielfältiger und schneller machen.

Die Unvorhersehbarkeit ist dabei ein zentrales Argument für KI-Generatoren. Schwer fassbare Ideen und abstrakte Gedanken sind schneller darstellbar.

Wenn sich der Einsatz von KI im Gestaltungsbereich weltweit durchsetzt — und danach sieht es gerade aus — gehören sie künftig zum Handwerkszeug von Design-Teams, sie sind ein neues Tool im Werkzeugkasten.

Und nicht nur das: Diese Technologie wird auch die Ästhetik digitaler Inhalte verändern. Bilder werden besser, sie lassen sich leichter und schneller von vielen herstellen.

KI-Bildgeneratoren eignen sich dabei unserer Einschätzung nach nicht für Nachrichten. Im Journalismus bleibt es essenziell, auf verifiziertes, echtes Bildmaterial zurückzugreifen. Das stärkt das Vertrauen des Publikums in unsere Berichterstattung. Anders sieht es im fiktionalen Bereich aus: Hier sehen wir vielfältige Anwendungsmöglichkeiten für KI-Bild-Tools.

Lost im Urheberrechts-Nebel

Unabhängig vom Kontext aber kann der Einsatz solcher Tools aus urheberrechtlicher Sicht problematisch sein: Es ist nämlich schwer, herauszufinden, mit welchem Material eine KI wie Midjourney trainiert wurde — und ob dabei vielleicht Rechte von Urheber:innen missachtet wurden.

Welche Daten liegen zugrunde, wenn ich mit Textbefehlen ein Bild generiere? Wo beginnt eigentlich das Urheberrecht bei KI-basierten Bildern — bei denen, mit deren Bildern die KI trainiert wurde?

Welchen Anteil hat die Person, die viele Stunden mit den verschiedenen Prompts experimentiert hat? Wie hoch ist der Anteil wiederum des Designenden zu bewerten, der mit dem KI-Material weitergearbeitet hat?

Und wie unterscheidet man die Inspiration, die Kunstschaffende etwa in einem Museum erleben, von der, die ihnen die Bilder einer KI liefert? Kann man das überhaupt unterscheiden?

Und sind Mashups und Remixes nicht Teil unserer Kultur? Über solche Fragen haben wir in den letzten Wochen viel diskutiert.

Sie werden im Einzelfall sehr unterschiedlich beantwortet und sind derzeit rechtlich kaum allgemeingültig zu klären. Dies gilt umso mehr, wenn neu kombinierte Inhalte im Lichte der Kunstfreiheit und Medienfreiheit zu beurteilen sind.

Hierzu wird es vermutlich in den nächsten Jahren noch einige rechtliche Podiumsdiskussionen geben. Denn erst wird das Auto erfunden — und dann die Straßenverkehrsordnung.

Wer sich jetzt fragt, ob seine Bilder und Fotos vielleicht auch bereits im Trainingssatz einer KI enthalten sind, kann das beispielsweise hier überprüfen — und die Verwendung gegebenenfalls untersagen.

KI im Pilotprojekt „Mia Insomnia“

Nur, was tun? Sollen wir in diesem rechtlichen Nebel gar nicht mit KI-basierten Tools arbeiten — und riskieren als öffentlich-rechtliches Medienhaus, den Anschluss zu verlieren?

Keine gute Option, schließlich müssen wir konkurrenzfähig bleiben und wollen, dass das Publikum unsere tollen öffentlich-rechtlichen Inhalte nutzt. Und im Digitalen sorgen eben oft herausragende Teaserbilder dafür, dass jemand auf einen Inhalt klickt.

Deshalb haben wir in einem Pilotprojekt unter sehr klaren Vorgaben testweise mit dem Tool “Midjourney” gearbeitet:

Für den zehnteiligen Mystery-Fiction-Podcast „Mia Insomnia“ von Gregor Schmalzried, der in der ARD Audiothek zu finden ist, hat unser Motion Designer Simon Heimbuchner mit der Software “Midjourney” experimentiert.

Der Podcast spielt mit alternativen Welten und unheimlichen Abenteuern, für die visuelle Arbeit ist die Bildsprache des KI-Tools ein hilfreiches Asset. Hier sieht man das Ausgangsbildmaterial, das “Midjourney” in den ersten Stunden Prompt-Eingabe ausgespuckt hat:

Bild-Quelle: Midjourney

Die Bilder, die wir in unseren Tests mit einer KI erstellt haben, hat unser Designer manuell weiterbearbeitet — schließlich sollen sie unseren BR-Richtlinien entsprechen.

Was Simon Heimbuchner gestalterisch aus diesen Anregungen in vielen weiteren Arbeitsschritten geschaffen hat, sieht man im Titelbild dieses Artikels.

Seine Anteile am Podcast-Cover sind deutlich erkennbar — die fliehende Hauptfigur, das grün-türkise Wetterleuchten hinter den Bergen, der Einsatz des orangen Kegels, die Typografie.

Redaktionell haben wir streng darauf geachtet, dass keinerlei Persönlichkeitsrechte verletzt werden (beispielsweise durch fotorealistische Abbildung von Menschen) und der schöpferische Eigenanteil hoch ist.

Fazit: Nicht ohne unsere Lieblingsdesigner:innen!

So geht es weiter: Wir wollen in den kommenden Monaten weitere KI-Bildgeneratoren testen. Ganz oben auf unserer Liste steht die Open-Source-Software “Stable Diffusion”, die Forschende der Münchner Ludwig-Maximilians-Universität gemeinsam mit dem Startup Stability.Ai entwickelt haben.

Das Programm lässt sich lokal speichern und arbeitet mit CC-lizensiertem Bildmaterial. Die generierten Werke fließen, anders als bei Midjourney, nicht in den Bildpool zurück.

Auch die kommerziell erfolgreiche Lensa-App basiert auf Stable Diffusion. Wir sind gespannt, was wir selbst bei der Arbeit mit der Software lernen werden — und wie sich das gesamte Feld generativer KI weiterentwickeln wird.

Unser Fazit nach unserem ersten Pilotversuch: KI-generierte Bilder können eine von vielen Inspirationsquellen sein — richtig gut wird ein Cover aber vor allem dann, wenn unsere Lieblingsdesigner:innen wie Simon Heimbuchner es gestaltet. ❤

Danke an Sophie Dezlhofer, Max Hofstetter, Simon Heimbuchner & unsere Kolleg:innen aus der Juristischen Direktion!

--

--

Manuela Baldauf
BR Next
Writer for

Unternehmenskommunikation & Social Media beim Bayerischen Rundfunk