Auch KI diskriminiert, weil sie Menschen immitiert

Das “Geschöpf” ist ein Ebenbild des “Schöpfers” — wie es in der Theologie schon seit tausenden Jahren selbstverständlich zugrunde gelegt wird, kann man es bei der “Neuschöpfung” künstlicher Intelligenz nun auch beobachten: Weil der Mensch natürlich nur so programmieren oder besser “konstruieren” kann, wie er selbst “tickt”, wurde neuerdings festgestellt, dass dies auch bedeutet, dass ethische Entscheidungsfindungen auf Basis menschlichen Verhaltens entworfen werden müsste. Wenn “menschliche moralische Entscheidungen prinzipiell mit Regeln beschrieben werden können und dass diese Regeln als Konsequenz auch von Maschinen genutzt werden könnten”, dann bedeutet dies auch, dass zuerst der Mensch analysiert werden muss um dann die KI zu trainieren. Doch auch die damit befassten Forscher geben zu, dass dabei die Frage offen bleibt, ob wir überhaupt wollen, dass die KI mit menschlichen moralischen Maßstäben agiert — und damit auch noch nicht gewertet wurde, welches(!) menschliche Verhalten hierbei zugrunde gelegt wird.

Auch der Einfluss dieser moralischen Werte auf das maschinelle Verhalten muss noch geklärt werden: Wie sehr sollte sich eine Maschine von moralischen Erwägungen leiten lassen? Und ab welchem Grad der Autonomisierung ist es überhaupt erst erforderlich, moralische Prinzipien zu trainieren? Braucht ein System zum fahrerlosen Parken moralische Werte um keine Passanten zu überfahren? Braucht der Butler-Roboter “Relay”, der sich autonom in Hotels, Krankenhäusern oder Logistikzentren bewegt, überhaupt so etwas wie Moral? Wenn alles so läuft wie vorgesehen, könnte man diese Fragen getrost mit “nein” beantworten. Doch was, wenn Störungen auftreten? Fahrerlose Transportsysteme, die bisher einen Experten aus Fleisch und Blut im Störfall zugeschaltet hatten, sollen nun autonom auf Störungen reagieren. Ein solches System lernt ständig dazu, weil die Vielzahl an pontentieller Störfälle unüberschaubar groß ist: Doch die Erfahrung, die sich in der Datenbank ansammelt, kommt allen Exemplaren dieses Systems zugute. Das gesetzte Ziel ist, Störungen schneller und damit günstiger zu identifizieren und zu beheben — ggf. durch sofortige Entscheidung des Systems. Doch wie soll das System entscheiden?

Diese Frage kehrt immer wieder und wurde zeitweise mit der These beantwortet, dass künstliche Intelligenz möglicherweise fairer und neutraler entscheidet als jeder Mensch es könnte, weil die Technik nicht emotional und intuitiv entscheidet sondern “neutrale” Kriterien zugrunde liegen. Nun hat man herausgefunden: Künstliche Intelligenz diskriminiert. Und zwar heute schon: Denn wenn Algorithmen entscheiden (oder dabei helfen zu entscheiden) “ob man einen Kredit erhält, zu einem Vorstellungsgespräch eingeladen wird oder gar wie bei Gefangenen die Aussichten auf ein vorzeitige Haftentlassung sind”, dann werden heute schon Personengruppen diskriminiert — und das nimmt vermutlich eher rapide zu in den nächsten Monaten und Jahren. Deshalb haben Forscherinnen von Google und Microsoft die “AI Now Initiative” gegründet. Sie soll diskriminierender KI auf die Schliche kommen. Denn eine solche algorithmische Voreingenommenheit wird, macht man nichts dagegen, zu einem echten Problem der Gesellschaft. Gerade die Kirche hätte doch eigentlich die Aufgabe, sich in diesem Bereich einzusetzen: Eine Stimme zu erheben für die Minderheiten, die durch Automatisierung und Autonomisierung (hier erkläre ich den Unterschied) diskriminiert werden. Sogar diese Aufgabe übernehmen jetzt andere, wobei noch nicht klar ist, was getan werden soll oder was passiert, wenn sie etwas entdeckt haben. Sie haben beispielsweise bereits aufgedeckt, dass es “Modelle für den Umgang mit natürlicher Sprache [gibt], die ein Geschlecht dem anderen vorziehen”. Und jetzt? Was tun?