Die Verantwortung für den Roboter trägt der Mensch

Wenn manche Philosophen meinen Roboter können denken, beweisen sie damit am Ende nur, dass sie von der Materie keine Ahnung haben.
 
 Bekanntlich neigen wir Menschen dazu in das Verhalten von Tieren unser eigenes hineinzuinterpretieren. Völlig unschuldig wird so manches Tier deshalb hinterhältig und skrupellos — oder das Gegenteil, was uns als Betrachter eben gerade in den Sinn kommt. Dem Tier selbst ist das natürlich reichlich egal. Jetzt, da wir uns im zweiten Jahrzehnts jenes Jahrhunderts befinden, das Jahrzehnte lang wie eine magische Grenze in der Science Fiction-Literatur umher geisterte, tun wir mit Maschinen offenbar genau dasselbe. Gut, im Science Fiction haben wir das schon immer gemacht, aber R2D2 und C3PO haben inzwischen die Leinwand verlassen und begegnen uns im echten Leben. Ist es also Zeit unseren Umgang mit Robotern zu überdenken?
 
 In der Sonderbeilage “Schlauer als wir” des Philosophiemagazins Hohe Luft plädiert Philosoph und Magazinmacher Thomas Vašek gar für die Befreiung der Roboter. Mitunter allerdings mit Argumenten, die mir doch ein wenig zu denken geben. Unter den vielen Philosophen die er zur Untermauerung seiner Thesen zitiert, viele Philosophen zu zitieren ist für so etwas immer gut, gehört auch der von mir sehr geschätzte Blaise Pascal. Der Franzose verglich den Menschen einst mit einem Schilfrohr. Nicht im asiatischen Sinne jenes Schilfrohres, dass sich dem Wind zwar beugt, aber nicht bricht, sondern um ein Bild zu haben, dass den Menschen weit weniger stark darstellt. “Unsere ganze Würde besteht im Denken.”, stellt Pascal am Ende fest. Vašek schließt nun an:

“Doch heute kann der Mensch diese Würde nicht mehr allein für sich beanspruchen. Nicht nur wir denken, sondern auch Maschinen tun es.”

Denken Maschinen?

Die Frage, die ihn zu diesem Rückschluss bringt, hat er allerdings nie gestellt. Er nimmt einfach an, dass Maschinen denken. Doch denken Maschinen (wie Menschen), oder denkt gar der Mensch wie eine Maschine? Würde der Mensch wie eine Maschine denken, wäre unser Verhalten am Ende nichts weiter als die Ausführung durch Erfahrung einprogrammierter Algorithmen. Denn nichts anderes ist das “Denken”, das Vašek Maschinen zuschreibt. Auf den Mensch übertragen wäre das doch eine recht armselige Annahme, die uns wieder zurück in jene Zeit führen würde, in der der Mensch schon einmal als reine Maschine definiert wurde und der Mary W. Shelley mit Frankenstein ein äußerst treffendes Denkmal setzte. Freilich sind wir dieser Zeit schon lange wieder recht nahe gekommen, wirft man einen Blick auf die Gehirnforschung und die Diskussion um den freien Willen. Doch das soll jetzt hier nicht das Thema sein. Belassen wir es mit einem Hinweis auf einen entscheidenden Unterschied. Was Vašek für “Denken” hält, ist das Abwägen von Programmierern erdachten Algorithmen. Das “Denken” der Maschinen geht einer Reaktion auf einen bestimmten Umstand voraus. Oder anders ausgedrückt, anders als ein Kind würde ein Roboter nie in den Himmel blicken und sich fragen, warum der Himmel blau ist. Und so sehr uns die von Philip K. Dick aufgeworfene Frage, ob Androiden von elektronischen Schafen träumen, auch faszinieren mag, handelt es sich hierbei doch um Science Fiction-Literatur.
 
 Ich glaube das Thomas Vašek hier in eine Falle tappt, die schlicht und einfach lautet: Er weiß nicht wovon er redet. Das kann man ihm und manch anderen nicht verübeln, ist der Begriff “Künstliche Intelligenz” doch recht unglücklich gewählt. Computer, Roboter oder in welcher Form auch immer uns diese Fragestellung begegnet, handeln auf Basis von vorgegebenen Algorithmen. Passiert A, tue B. Wenn C passiert und D nicht, tue E, sonst F. Das ist das “Denken” von Maschinen. Es sind von Menschen vorgegebene Handlungsweisen und mitunter ist das höchste der Gefühle, dass eine Maschine Algorithmen miteinander abgleicht und selbstständig kombiniert. Aber die Annahme, dass man menschliches Denken nachbilden könnte, wenn nur eine ausreichend große Anzahl an Algorithmen zusammenkommt, ist doch recht zweifelhaft.
 
 Wenn Maschinen heute einst erdachte Tests für künstliche Intelligenz bestehen, ist das eigentlich eher ein Zeichen für den menschlichen Mangel an Fantasie. Jenen Test von Alan Turing, spätestens seit dem Film von 2014 Posterboy aller Informatiker, besteht ein Computer etwa nicht, weil er tatsächlich intelligent geworden ist, sondern weil heute eine Rechenleistung zur Verfügung steht, die sich Turing in seinen kühnsten Träumen nicht ausmalen konnte.

Roboter haben keine Ethik

Das Thomas Vašek mit derlei Annahmen übrigens nicht allein ist, beweist gleich im nächsten Text der Sonderbeilage Tobias Hürter. Dieser argumentiert am Beispiel das Antiblockiersystems in Autos, dass Maschinen dem Menschen schon heute Entscheidungen abnehmen bzw. übernehmen. Tritt ein Autofahrer scharf auf die Bremse, verhindert ein ABS das eben das geschieht, was der Autofahrer will. Aus guten Gründen. Das das aber nur der Fall ist, weil menschliche Ingenieure den Mechanismus so gebaut haben, übergeht Hürter. Und so ist am Ende auch der Begriff “Roboterethik” ähnlich irreführend wie “Künstliche Intelligenz”. Handelt es sich hierbei doch nicht um die Ethik eines Roboters, sondern um menschliche Ethik, nach der ein Roboter handeln soll. Das ist schwer genug, wie man an den klassischen Beispielen sieht, die fragen wen ein selbstfahrendes Auto im Notfall retten soll: Fahrer oder das auf die Straße geratene Kind. Man kann sich der Frage auf Grundlage von Kant nähern oder utilitaristisch denken. Aber das ist ein menschliches Problem, das von Menschen gelöst werden muss. Interessanterweise, nebenbei bemerkt, kommen mir dabei immer ein Fakt zu kurz. Das nämlich ein selbst am Steuer sitzender Fahrer bei Eintritt eines solchen Gedankenexperimentes gar nicht die Zeit hat, abzuwägen, welcher Philosophie er jetzt nachhängt, sondern ganz automatisch reagiert. Und Abwägung von Gefahren hin oder her, welcher Autofahrer gibt tritt das Gaspedal durch, wenn ihm ein Kind vors Auto rennt. Gleichgültig, dass das die sicherste Methode ist sich selbst zu schützen und nicht auch noch andere Passanten zu gefährden. Aber auch dieses Problem soll nicht Sache dieses Artikels sein.
 
 Wenn Thomas Vašek in seinem Text nämlich fordert, dass wir Roboter, wenn sie “tatsächlich arbeiten” nicht wie Werkzeuge, sondern wie Kollegen behandeln sollten, kommen wir wieder zum Anfang dieses Textes zurück. Er interpretiert in das Verhalten von Maschinen menschliche Züge hinein. Wer mag es ihm bei den aufkommenden technischen Assistenten wie Siri oder Cortana auch verübeln, die doch gezielt menschliche Züge nachahmen, um die Interaktion mit den Algorithmen zu vereinfachen. Aber ebenso wenig wie es die Hyäne tangiert, dass wir sie für hinterhältig halten, tangiert es das Handeln von Robotern, ob wir sie für eigenständig handelnde Individuen halten. Ob wir glauben, dass der Roboter denkt oder gar fühlt, Schmerz empfindet oder Freude, ist für das Verhalten der Maschine völlig belanglos. Die Maschine analysiert die Daten ihrer Umgebung und handelt entsprechend der ihr einprogrammierten Algorithmen. Am Ende sind die Menschen für jenes Verhalten verantwortlich, die diese Algorithmen geschaffen haben, nicht die Maschine. In unseren Gerichtssälen werden schließlich auch keine Pistolen wegen Mordes ins Gefängnis gesteckt.

Click to Post