Wenn die KI eingelernt wird: Ist eine Maschine erst richtig gut, wenn sie den Menschen versteht?

Nachdem ich hier schon ein paar Jahre davon schreibe, habe ich in den letzten Monaten das Gefühl, dass inzwischen alle über “Künstliche Intelligenz” reden — die meisten leider, ohne angemessen Ahnung davon zu haben. Auch die Zugriffsstatistik auf meinen Artikel zum “Unterschied zwischen Automatisierung und Autonomisierung” lässt den Schluss zu, dass dieses Thema mehr und mehr an öffentlichem Interesse gewinnt. Doch kürzlich habe ich einen Online-Artikel entdeckt, der mir aus der Seele gesprochen hat und sich mit dem Aspekt befasste, was wir heute großzügig alles mit “KI” bezeichnen. Unter dem vielsagenden Titel “Auch 2029 wird es keine Künstliche Intelligenz geben, die diesen Namen verdient” schreibt Florian Gallwitz davon, dass “selbst ein handelsüblicher Taschenrechner […] nach einer verbreiteten Definition den Anforderungen an eine sogenannte ’schwache Künstliche Intelligenz‘ genügt”. Und recht hat er. Ich appeliere an eine differenzierte Betrachtung, was ich bereits in Artikeln wie dem zu den Grenzen der KI erläutert habe. Aber wo steht eigentlich aktuell die Forschung bei künstlicher Intelligenz? Was verbessert eine KI?

Der Fokus liegt auf der Zusammenarbeit mit dem Menschen, wofür der Mensch verstanden werden muss: Einerseits geht es hierbei um die technische Realisierung von Sicherheitsaspekten, eine Verbesserung der Interaktion zwischen Mensch und Maschine wie auch das Lernen der Systeme vom Menschen. Bisher ging man davon aus, dass eine Anlage, Maschine oder andere Systeme nach einer (verhältnismäßig) kurzen Zeit der Inbetriebnahme voll funktionsfähig sein müssen: Jedes Haushaltsgerät, Fahrzeug oder Smartphone soll nach Anschaffung als Neugerät alles können was es jemals können wird. Der Funktionsumfang darf nach den ersten Jahren aufgrund von Alterung nachlassen bis wir uns ein neues Gerät kaufen. Anders ist es nun bei den künftigen, selbstlernenden Systemen: Diese Systeme werden daraufhin konzipiert, erst vom Menschen eingelernt zu werden. Dafür brauchen sie ein “Bild” vom Menschen, eine Vorstellung, wie der Mensch ist und wie er handelt. Ob dies über eine direkte Schnittstelle zwischen dem menschlichen Gehirn und einem Computer geschieht oder ganz praktisch durch “abschauen” der Arbeitsschritte ist hierbei zweitrangig.

Letztlich geht es darum, dass durch Beobachtung und Analyse des Menschen die technischen Systeme weiterentwickelt werden: Im DriveLab wird der psychophysische Zustand des Autofahrers analysiert um beim automatisierten Fahren adaptiert werden zu können, der Mensch wird zum Fahrlehrer für das Auto. Denn “menschenähnliche Systeme werden der Schlüssel sein, um Vertrauen und Akzeptanz zu schaffen.” Und dass der Erfolg von KI auf Vertrauen basiert, hatte ich in einem anderen Artikel ja bereits erläutert. Oder der Beta Writer, ein KI-Autor, analysiert massenhaft wissenschaftliche Aufsätze um letztlich selbst ein künstlich erzeugtes Buch zu publizieren. Ist das intelligent oder nur eine weitere Stufe für Assistenzsysteme, die dem Menschen dienen, aber nicht ohne ihn auskommen?

Von der Medizintechnik bis zum Einzelhandel sollen künftig die Serviceroboter vom Menschen abschauen, was zu tun ist. “Ähnlich wie im Kindergarten oder in der Grundschule sollen Serviceroboter in Simulationsumgebungen über die drei Stufen beobachten, nachahmen und optimieren eigene Bewegungsabläufe lernen, trainieren und dann auf Grundlage der erarbeiteten Wissensbasis an neue Anforderungen in der realen Welt adaptieren.” Dabei geht es nicht nur darum, vom Menschen zu lernen, sondern auch die Interaktion mit dem Menschen zu verbessern: Es geht auch darum, die Schnittstellen zu erlernen, Ungenauigkeiten auszugleichen, Fehler zu korrigieren um den Menschen zu “verstehen”. Maschinelles Lernen kann auch dazu dienen, beispielsweise die Schnittstelle einer Protese zu überwachen und zu optimieren.

Aber welches Bild vom Menschen bekommen die technischen Systeme? Ich schrieb bereits darüber, dass digitale Menschmodelle erforderlich werden: Mit welchen “Vorurteilen” begegnet ein System den Menschen? Goethe hat geschrieben: “Wenn wir Menschen behandeln, wie sie (scheinbar) sind, so machen wir sie schlechter; wenn wir sie so behandeln, wie sie sein sollten (wenn wir das Gute in ihnen bejahen), so machen wir sie zu dem, was sie werden können.” “Unsere digitale Infrastruktur sollte doch auf einem vertrauensvollen Menschenbild aufgebaut sein. Sie sollte uns Mut machen, mehr Kontrolle und soziale Verantwortung zu übernehmen. Bei so einem positiven Menschenbild würden freilich weniger bevormundende Systeme gebaut werden und gestupst (siehe mein Artikel zu “Nudging”) würde nur noch auf Wunsch eines als mündig respektierten Nutzers.” Hat man ein vertrauensvolles Menschenbild, so lässt man dem Menschen auch die Kontrolle. Das hat was mit einer Grundhaltung zu tun. Wenn die KI den Menschen verbessern oder ersetzen soll, weil er als Risikovariable des Systems betrachtet wird statt ihm Verantwortung zu übertragen, kann dies auch die Macht des Marktes nur bedingt ausgleichen.

Es gibt Online-Artikel, die postulieren, dass diese negative Grundhaltung, dieses schlechte Bild des Menschen historisch bedingt auch von den Kirchen geprägt wurde: “Möglicherweise hat die oft falsch verstandene Rhetorik in modernen christlichen Kirchen dazu beigetragen, die uns Menschen seit Jahrhunderten als ‘sündig’ bezeichnet.” Nur dass dabei übersehen wird, dass die Aussageintention bis heute auf etwas ganz anderes abzielt: Nämlich auf die Selbstwahrnehmung des Menschen als fehlerhaft. Deshalb von anderen überwacht oder bevormundet werden zu müssen ist hier höchstens implizit enthalten, aber keineswegs intendiert. Aber unabhängig der Frage nach Herkunft und Schuld bleibt vor allem die Frage danach, welches Menschenbild wir denn nun tatsächlich aller künftigen Forschung zugrunde legen möchten: Ich plädiere für ein positives, respektvolles Bild eines mündigen und weisen Menschen, der als Vorbild dienen kann und dem Eintscheidungen überlassen werden können. Nur so schaffen wir eine vertrauensvolle Basis für produktive und langfristige Zusammenarbeit. Und die vielgelobte “Kollaboration” soll ja wohl die Zukunft der Arbeit sein. Denn die Maschine steht nicht über dem Menschen, auch wenn manche die KI schon vergöttern. Künstliche Intelligenz wird nicht die Zukunft der Religion.