Wie reagieren die Menschen auf eine KI?

Bisher konnte man weit verbreitet wahrnehmen, wie sehr doch die künstliche Intelligenz an sich im Mittelpunkt aller Forschung und Berichterstattung stand. Doch das verschiebt sich mehr und mehr — einerseits zu meinem Schwerpunkt der Technikethik bzw. der Maschinenethik, also der Reflektion über Moral von autonom handelnden Maschinen als Subjekte. Mehrere Aspekte sind dabei auffällig:

Zum Einen ist es wohl nicht geläufig, was Ethik denn überhaupt ist: Die Reflektion von Moral. Das heißt auf gut Deutsch, Ethik beschreibt quasi das Nachdenken über Moral. Wenn wir Moral nun richtig verstehen als System insgesamt praktizierter Sitten (also Normen, die konkrete Handlungsempfehlungen geben) und somit aus dem Wertegerüst resultieren, ergibt sich eine Verkettung dieser Begriffe: Werte (materielle oder idelle Güter mit innerem Wert, die allgemeine Zielorientierung geben) resultieren in Normen als Handlungsempfehlung. Diese wiederum werden gruppiert in einem System der Moralvorstellung. Und wenn wir über all dies nachdenken, betreiben wir einen ethischen Diskurs. Was demnach aber definitiv richtig ist: Man kann nur von “Ethik” sprechen, wenn Handlungen, also Taten, reflektiert werden. Es ist deshalb absolut richtig,

[…] dass Objekte nicht ethisch beurteilt werden könnten, nur Taten. Für diese auffallend defensive Einschätzung erhielt er prompt Kritik aus dem Publikum, dass Waffen grundsätzlich unethisch seien.

Waffen können nicht per se “unethisch” sein, höchstens unmoralisch. Da jedoch auch “unmoralisch” lediglich ein System praktizierter Sitten beschreibt, ist damit noch keine Wertung möglich… Ein schwieriges Terrain, das nicht mal eben kurz auf Stammtischniveau ausdiskutiert werden kann.

Zum Anderen ist spannend, dass der Mensch und seine Interaktion mit autonomen Systemen wieder in den Vordergrund rückt: Einerseits im Blick auf die notwendigen Interaktions-Kompetenzen von Robotern, beispielsweise bei der Betreuung im Seniorenheim oder zur Begleitung von Lernprozessen autistischer Kinder, andererseits aber auch bei der Erforschung der Reaktionen von Menschen auf angeblich autonome Fahrzeuge: Hierbei wurde untersucht, dass Menschen ihr Verhalten verändern, wenn sie bemerken, dass es sich um ein autonomes Auto handelt. Sie werden vorsichtiger, überqueren die Straße vor dem Auto noch nicht einmal wenn es steht.

Im Blick auf die Weiterentwicklung der autonomen Systeme lernen wir vor allem eines daraus: “Nicht superintelligente Roboter sind notwendig, sondern sozial intelligente”, weil die Roboter vor allem auch lernen müssen, wie Menschen auf sie reagieren — und dies so zielführend wie möglich und vor allem unter Wahrung der Sicherheit aller beteiligten Menschen interpretieren müssen. Doch damit schaffen wir eine “Huhn-Ei-Situation”: Was müssen wir denn zuerst erreichen: Dass Menschen einem autonomen System genauso viel Vertrauen entgegen bringen wie einem Menschen? Oder dass Roboter die veränderten Verhaltensweisen von Menschen in der Interaktion mit Ihnen angemessen erkennen und interpretieren können?

Wir bewegen uns offensichtlich mit großen Schritten in einen Annäherungsprozess hinein, bei dem ein gegenseitiges Kennenlernen und weitreichende Veränderungen im Umgang miteinander eine zentrale Rolle spielen werden.