Zur Sicherheit vielleicht lieber den Menschen ignorieren?

Stefan Hartelt
Dec 18, 2018 · 2 min read

Wenn Unfälle passieren, ist menschliches Versagen eine der häufigsten Ursachen dafür — was sehr oft als Argument für beispielsweise autonome Fahrzeuge angeführt wird. Das ist ja auch nicht falsch, lässt jedoch auch schnell die Schlussfolgerung zu, dass moderne Assistenzsysteme die Anweisungen ihrer menschlichen “Piloten” vielleicht erst einmal kritisch analysieren sollten bevor sie blindlings gehorchen und aufgrund dessen erst die wirklich schlimmen Fehler machen. Mit anderen Worten: Immer mehr wird der Mensch selbst zum größten Problem im System.

“Solange Roboter das Steuer nicht selbst in die Hand nehmen, können sie aber auch auf andere Weise für mehr Sicherheit auf den Straßen sorgen, etwa indem sie den menschlichen Fahrer warnen, wo er besonders aufpassen muss, und ihm nach der Fahrt eine Rückmeldung geben, was er gut gemacht hat und was nicht.” auf der International Conference on Human-Agent Interaction (HAI) in Southampton wurde erläutert, wie ein kleiner, humanoider Roboter, der links vor dem Fahrer auf dem Armaturenbrett sitzt, menschlichem Fehlverhalten entgegenwirken soll. Warnhinweise und Rückmeldungen führten zu einer sicheren Fahrweise — vielleicht nur eine Übergangslösung oder aber das Rezept schlechthin um langfristig und erfolgsversprechend einerseits Akzeptanz bei den Menschen zu erreichen und andererseits die technologischen Fortschritte sicher und sinnvoll einzusetzen.

Einen Schritt weiter gehen andere Forschungsprojekte die tatsächlich in Betracht ziehen, zur Sicherheit den Menschen und seine Befehle besser zu ignorieren, weil aufgrund von Stress, Übermüdung oder Langeweile falsche Kommandos gegeben werden. Doch wie heise.de realistisch beschreibt: “Mit Robotern, die menschliche Befehle missachten, betreten die Forscher zweifellos heikles Terrain.” Natürlich bestätigen Ereignisse wie ein Flugzeugabsturz aufgrund einer Selbstmordabsicht des Piloten die Notwendigkeit solcher Forschungen, doch ist es riskant, die Entscheidungshoheit über die Frage, ob ein Befehl beachtet oder missachtet werden soll, aufgrund gelernter Kriterien der künstlichen Intelligenz zu überlassen.

Die Frage wird dann lauten: Werden Menschen durch die KI bevormundet? Ist der Mensch dann noch frei darin, seine individuellen Entscheidungen zu treffen oder wird er durch Assistenzsysteme in einen Bewegungsrahmen gebracht, der keine Wahl mehr lässt? Aber ist uns das in sukzessiver Form im Rahmen des Internets wie beispielsweise der sozialen Medien nicht sowieso schon wiederfahren: Auch dort wird mit Nudging und Social Scoring experimentiert um unsere Freiheiten einzuschränken…

Welcome to a place where words matter. On Medium, smart voices and original ideas take center stage - with no ads in sight. Watch
Follow all the topics you care about, and we’ll deliver the best stories for you to your homepage and inbox. Explore
Get unlimited access to the best stories on Medium — and support writers while you’re at it. Just $5/month. Upgrade

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store