Übermächtig, unsichtbar, unkontrollierbar: KI ist “viel gefährlicher als Atomwaffen”

Beim Online-Shopping, dem Antrag auf einen Bankkredit oder dem Musikstreaming: Schon heute arbeitet künstliche Intelligenz im Hintergrund und kontrolliert und steuert völlig unkontrolliert unsere Interessen oder auch unsere Kreditwürdigkeit. Denn wenn die KI mit fehlerhaften Daten arbeitet oder strukturelle Diskriminierung anwendet, kommt es bereits heute zu Situationen, bei denen der Einzelne völlig ausgeliefert ist. “Verbraucher dürfen nicht unter die Räder kommen”, lautet die Forderung von Verbraucherschützern, weshalb ein Kontrollgremium geschaffen werden sollte, weil eine Art Algorithmen-TÜV nicht funktionieren würde und die Verbraucher nur in trügerischer Sicherheit wiegen würde.

Auch Elon Musk forderte kürzlich eine solche Aufsicht, allerdings mit deutlich drastischeren Worten und langfristigeren Visionen: “KI ist viel gefährlicher als Atomwaffen.” Er erwartet einen dritten Weltkrieg und will darauf mit einer Mars-Kolonie der Menschheit vorbereitet sein. Es müsse, so Musk, eine öffentliche Stelle geben, die Einblick habe und dafür sorge, dass jeder nur sichere KI-Technik entwickle. Doch wie soll das in der Praxis funktionieren?

Das Problem der “Aufsicht” über eine KI, die Fehler macht (oder machen könnte), sollte doch nicht nur in öffentlicher Hand liegen: Ich denke vielmehr, dass hierbei auch die Hersteller der KI mit “ins Boot” geholt werden müssen: Gesetzliche Bestimmungen über den Umfang einer Aufsicht, die Aufgaben dieser Aufsicht und das zugehörige Beschwerdemanagement sollten die Hersteller/Betreiber in die Pflicht nehmen — und die Aufgabe der öffentlichen Stelle ist es dann, die Erfüllung dieser Auflagen in der Praxis zu gewährleisten, indem kontrolliert und korrigiert wird. Ein ähnliches Verfahren proben wir ja derzeit mit dem NetzDG: Die Plattform muss in der Praxis handeln, tut sie es nicht, gibt es ein Kontrollgremium, welches Strafen verhängt.

Das Risiko, das wir beim Thema KI dabei jedoch eingehen: Möglicherweise ist der Einfluss einer KI, die übermächtig, unsichtbar und unkontrollierbar im Hintergrund agiert bereits so weit fortgeschritten, dass eine Regulierung nach(!) entsprechenden Vorfällen kaum mehr möglich ist. Wir dürfen nicht so naiv sein, zu glauben, dass die Entwicklung von KI zur Not auch im Nachhinein noch korrigiert werden kann — da ist Musks Vergleich mit den Atomwaffen leider nahe an der Realität: Gefährlicher sind sie deshalb, weil ein “Abschuss” bei der KI schleichend erfolgt, dann jedoch genauso unaufhaltsam und grausam sein kann wie der einer Atombombe.