KI erfordert Ethik-Kurs für Ingenieure

Stefan Hartelt
Feb 17, 2017 · 2 min read

Das EU-Parlament hat am Donnerstag einen weiteren wichtigen Schritt gemacht, um Grundlagen für die Zukunft der künstlichen Intelligenz und Robotik in Europa zu schaffen. Allerdings wirft diese Resolution auch neue Fragen auf. Mit dem verabschiedeten Bericht geht es um Haftung für intelligente Systeme und die Veränderungen am Arbeitsmarkt. Aber in einem Abschnitt auch um einen Kodex für Ingenieure — so heißt es dort auf Seite 9:

“dass ein klarer, strenger und wirksamer ethischer Leitrahmen für die Entwicklung, Konstruktion, Herstellung, Nutzung und Änderung von Robotern erforderlich ist, […] [und schlägt] einen Rahmen in Form einer Charta vor, die aus einem Verhaltenskodex für Robotikingenieure, einem Kodex für Ausschüsse für ethische Fragen in der Forschung bei der Überprüfung von Robotikprotokollen und aus Musterlizenzen für Konstrukteure und Nutzer besteht”.

Doch muss man da nicht noch früher anfangen? Reicht es, diese Richtlinien aus Sicherheitsgründen zu verabschieden, um später rechtliche Wege zu haben, für entstandenen Schaden einen Haftenden identifizieren zu können?

Ich behaupte nein und fordere eine Überarbeitung des Ingenieurstudiums: Zu einer Qualifikation eines Informatikers oder Mechatronik-Ingenieurs (wie ich einer bin) müssen in Zukunft auch ethische Fragestellungen gehören. Für die nächste Generation von Ingenieuren darf “Ethik” nicht mit den Roboterregeln von Asimov verwechselt werden. Die Entwicklung von künstlicher Intelligenz, wie auch der EU-Bericht eindrücklich erläutert, basiert auf einer ganzen Reihe von Kriterien, die extrem wichtig sind — und deshalb nicht nur periphär “berücksichtigt” werden müssen sondern verinnerlicht sein müssen. Und ich rede hierbei von so zentralen Aspekten, dass eine Entwicklung von künstlicher Intelligenz “im Hinblick auf die Unversehrtheit, Gesundheit und Sicherheit der Menschen, Freiheit, Integrität und Würde, Selbstbestimmung und Nichtdiskriminierung und den Schutz personenbezogener Daten gründlich bewertet werden sollte”. Aber auch Aspekte wie “zum Beispiel Menschenwürde,Gleichheit, Gerechtigkeit und Fairness, Nichtdiskriminierung, Einwilligung nach Aufklärung, Privat- und Familienleben und Datenschutz […] [und] Nichtstigmatisierung, Transparenz, Autonomie und individuelle Verantwortung und soziale Verantwortung” gehören zu solchen wichtigen Kriterien. Das alles sollen die Programmierer berücksichtigen? Dabei ist doch eine enge Zusammenarbeit wichtig — und hier sind nun doch wirklich professionelle Menschenkenner gefragt, oder nicht?

Oder soll sich die Menschheit darauf verlassen, dass Elon Musk bei der Weiterentwicklung der KI sich im Vorfeld einen Ethik-Ratgeber besorgt hat? Natürlich nicht — Menschen, die mit jeder Code-Zeile die sie schreiben, Algorithmen verfassen, die (und das ist ja der Sinn von Programmierung) in komplexen Systemen als Funktionen weiterverwendet werden und so am Wachsen einer selbst lernenden Maschine beteiligt sind: Diese Menschen müssen bei jedem Zeichen, das sie tippen, an alle oben genannten Grundsätze denken und sicherstellen, gewissenhaft sicherstellen, dass ihnen da kein Fehler unterläuft. Und damit diese Informatiker und Ingenieure auch wissen was sie tun, brauchen sie mehr als einen Ratgeber. Sie brauchen echtes, tiefes Verständnis ethischer Entscheidungsprozesse um diese auch angemessen abbilden zu können. Und das wiederum bedeutet mindestens einen Ethik-Kurs, aber einen richtig guten. Am besten aber noch ein Update des Studiums. Besser zu früh, als wenn es zu spät ist. Also spätestens jetzt.