Eine KI entwickelt auch eigene Vorurteile!

Natürlich ist bekannt, dass eine KI auch Vorurteile von Menschen übernimmt, etwa die ihrer Programmierer. Deshalb warnte ich vor Diskriminierung durch KI und forderte bereits in einem früheren Artikel den stärkeren Einbezug von Ethik im Ingenieursstudium. Aber die autonomen Systeme können auch von sich alleine heraus Vorurteile entwickeln, wie eine Studie jetzt zeigt.

Microsoft hatte im März 2016 ein Experiment mit dem Chatbot Tay nach weniger als 24 Stunden abgebrochen, weil dieser sich — wohl aufgrund gezielter Angriffe einzelner Twitter-Nutzer — zu einem rassistischen Verschwörungstheoretiker entwickelt hatte. Von der Softwareentwicklung ist bekannt, dass künstliche Intelligenzen die Vorurteile ihrer Programmierer oder Dateneingeber übernehmen könnten. Dass diese Systeme aber auch ganz von alleine Vorurteile „erlernen“ können, zeigt jetzt eine Untersuchung von Forschern der Universität Cardiff.

Für die in der Fachzeitschrift Scientific Reports erschienene Studie ließ der Informatiker Roger M. Whitaker und seine Mitarbeiter in Computersimulationen 100 intelligente Bots miteinander interagieren, wie das Handelsblatt schreibt. Dabei sollten die Bots entscheiden, ob sie einem Mitglied des eigenen oder eines anderen Teams eine Belohnung zukommen lassen wollen. Im Verlauf einiger tausend Versuche entwickelte sich laut den Forschern eine zunehmende Bevorzugung der eigenen Gruppe. Die KI’s, so das Fazit, schienen also wie von selbst Vorbehalte gegenüber Fremden ausgeprägt zu haben.

Whitaker zufolge hätten die Wissenschaftler aus der tausendfachen Wiederholung der Simulationen nachvollzogen, wie sich Vorurteile entwickeln und welche Verhältnisse diese Entwicklung begünstigten: So haben die Instanzen das Verhalten besonders erfolgreicher Gruppenmitglieder (also jener, die in kurzer Zeit viele Belohnungen erhielten) adaptiert. Für Whitaker ein wichtiges Ergebnis des Experiments: Auch eine autonom agierende KI wie etwa in Autos oder im Smart-Home sind wohl anfällig für Vorurteile. Interessant ist, dass laut den Experimenten die entwickelten Vorurteile der künstlichen Intelligenzen in den Simulationen besonders groß waren, je weniger Gruppen es gab.