Wie ein Algorithmus den Hass im Internet besiegen könnte

Das Internet hat echt viele Kinderkrankheiten. Ein paar davon wurden in den letzten Monaten ausführlich untersucht: Fake News und Filterbubbles, zum Beispiel. In Österreich beschäftigen wir uns besonders intensiv mit einem anderen Aspekt, nämlich mit Hasskommentaren. Die Aufregung darüber ist so groß wie die Bandbreite der Lösungsvorschläge: Man könnte das Strafrecht verschärfen. Oder: Seitenbetreiber sollen verstärkt für Kommentare haftbar sein. Oder: Man muss argumentativ dagegen halten und Hass mit Witz entschärfen. Oder (besonders charmant): Nutzer müssen erst Fragen zu einem Artikel beantworten, bevor sie ihn kommentieren.

Das sind wichtige Ideen. Sie sollten natürlich weiter verfolgt werden. Es gibt nur ein grundsätzliches Problem: Sie werden der Herausforderung nicht allein gerecht werden. Diese Ansätze scheitern an der schieren Menge der Kommentare, die sekündlich auf Facebook veröffentlicht werden. Man kann nicht so viele Klagen einreichen, wie es Hasskommentare gibt. Man könnte auch sagen: Diese Lösungen skalieren nicht.

Es werden vielleicht keine Menschen sein, die den Hass im Netz besiegen — sondern Algorithmen.

Die Situation schien lange ziemlich hoffnungslos. Jetzt bin ich mir nicht mehr so sicher. Man kann den Hass im Netz womöglich doch besiegen. Es werden nur vielleicht keine Menschen sein, die ihn besiegen — sondern Algorithmen.

“Perspective” — ein smarter Algorithmus

Google hat vor wenigen Tagen zum ersten Mal einen Algorithmus vorgestellt, der Hasskommentare selbstständig erkennt. Er heißt Perspective. Das Spannende daran ist die Art und Weise, wie die Kommentare erkannt werden: Durch Künstliche Intelligenz lernt der Algorithmus ständig dazu und bringt sich selbst bei, giftige Kommentare zu erkennen. Mit jedem Kommentar, den der Algorithmus auf einer Skala von 1 (sehr konstruktiv) bis 100 (Hasskommentar) einordnet, wird er intelligenter. Das funktioniert schon jetzt. Diese Beispiel-Kommentare zum Thema US-Politik hat Perspective etwa als konstruktiv eingestuft:

Beispiel: Konstruktive Kommentare zur US-Politik

Am anderen Ende der Skala wird es ungemütlicher. Das sind die Kommentare, die der Algorithmus ziemlich hasserfüllt findet:

Beispiel: Hasskommentare zur US-Politik

Man kann das Tool auf https://perspectiveapi.com/ selbst ausprobieren und eigene Testkommentare eingeben und bewerten lassen. Derzeit funktioniert das nur auf Englisch, aber ich kann es wirklich empfehlen. Es ist sehr spannend. Perspective funktioniert jedenfalls besser als die reine Erkennung von Hasskommentaren durch Keywords. Gleichzeitig gibt es aber noch viele Probleme und Ungenauigkeiten: Kurze Kommentare mit heiklen Wörtern werden als extrem giftig eingestuft, obwohl sie das nicht immer sind (zum Beispiel wird ein Kommentar mit Textinhalt “no shit” als 96% giftig erkannt). Aber Perspective wird intelligenter werden. Derzeit kooperieren die New York Times, der Economist, der Guardian und Wikipedia für dieses Projekt mit Google. Anzunehmen ist, dass der Datensatz und somit die Intelligenz des Algorithmus rapide anwachsen wird.

Spannend & beängstigend

Das klingt also alles sehr spannend. Die Anwendungsfälle werden schnell klar — gerade im Journalismus: In Medienunternehmen rund um die Welt lesen Social Media-Redakteure oder Community-Teams täglich hunderte Kommentare, oft sogar tausende. Das ist mühsam, zermürbend, manchmal auch lustig — aber für Journalisten nicht wirklich eine ideale Zeitinvestition. Ein Algorithmus wie dieser könnte in Zukunft Kommentare auf einer Seite vorsortieren. Das Community-Team müsste dann nur noch die heiklen Fälle lesen, anstatt unzählige unbedenkliche Kommentare abzuarbeiten. Das wäre bereits eine riesige Erleichterung.

Die Vorsortierung würde allerdings nur das Symptom bekämpfen und nicht die Ursache. Das Potenzial dieser Idee geht aber weiter. Möglicherweise könnte damit die Zahl der Hasskommentare überhaupt verringert werden. Ein großes Problem ist derzeit, dass zugespitzte und beleidigende Kommentare oft besonders viele Likes bekommen. Sie werden auf Facebook ganz oben und somit sehr präsent angezeigt. Das derzeitige System ist also nicht wirklich neutral, im Gegenteil: Teilweise fördert es Hasskommentare sogar.

In Zukunft könnte das anders sein: Die Reihung der Kommentare unter einem Posting könnte stärker auf Konstruktivität basieren, anstatt nur auf Likes. Das würde dazu führen, dass nuancierte, länger ausformulierte und wohl überlegte Meinungen gefördert würden, und nicht Zuspitzung und Beschimpfung. Die Schweigespirale, die wir derzeit oft beobachten, könnte so vielleicht umgedreht werden. Ein Kommentar mit Beschimpfungen und Sticheleien würde unten eingereiht werden und hätte plötzlich viel weniger Aufmerksamkeit. Der Anreiz, einen Hasskommentar zu posten, wäre dann deutlich kleiner — weil viel weniger Menschen ihn lesen würden. Das wäre tatsächlich ein wertvolles Neudenken von Onlinedebatten.

Was gesagt werden darf und was nicht — das entscheidet dann eine Maschine.

Gleichzeitig sind die Gefahren offensichtlich: Noch werden Kommentare von Menschen gelesen. Aber in Zukunft wird das immer seltener der Fall sein. Immer mehr der Entscheidungen über die Zulässigkeit einzelner Kommentare werden an Algorithmen übergeben werden. Was gesagt werden darf und was nicht — das entscheidet dann eine Maschine. Deutungshoheit über die Meinungsfreiheit hat dann ein Algorithmus. Das ist in jedem Fall ziemlich beängstigend.

Denn auch Algorithmen sind nicht frei von Vorurteilen. Es kommt also stark darauf an, diese zu identifizieren und auszubalancieren. Das kann aber gelingen. Wie man die Vorurteile durch kluges Design abschwächen könnte, zeigt zum Beispiel diese Simulation. Ein gewisses Unbehagen bleibt trotzdem: Dem Problem der fehlenden Empathie im Internet mit noch weniger Empathie (nämlich einem Algorithmus) zu begegnen, das sollte uns jedenfalls zu denken geben.

Natürlich ist es auch kein Zufall, dass gerade Google diese Tool entwickelt: Durch unsere täglichen Onlinesuchen füttern wir den Konzern mit Daten, die Google dazu nützt, Algorithmen wie diesen (und die darunter liegenden Mechanismen) immer weiter zu verbessern. Der Fortschritt im Bereich der Künstlichen Intelligenz ist eine praktische Auswirkung der Macht dieses Unternehmens.

Die Frage ist: Wie verwenden wir das?

Die gute Nachricht ist, dass Algorithmen von Menschen programmiert werden. Und es liegt auch an uns zu entscheiden, wie wir sie einsetzen. Es wäre jedenfalls gefährlich, die Moderation einer Seite in näherer Zukunft unkontrolliert an einen Algorithmus auszulagern. Abgesehen von den ethischen Bedenken sind sie dafür auch noch zu unpräzise. Zur Unterstützung bei der Moderation von Onlineforen werden Tools wie Perspective aber sehr bald wichtig werden.

Die Zukunft dieser Technologie ist in jedem Fall noch offen. Möglicherweise wird sie nur ein weiteres Beispiel für die Grobheit, mit der Mega-Konzerne aus den USA versuchen, dem Rest des Erdballs ihr Weltbild und ihre Werte aufzudrängen. Das wäre das düstere Szenario, und es ist denkbar. Vielleicht gelingt es uns aber auch, sie überlegt einzusetzen und am Ende tatsächlich sinnvollere Debatten im Internet zu führen. Wäre doch auch eine schöne Idee: Algorithmen für den Frieden.

Wer mehr wissen will: