K.I. — wohin geht die Reise?

IGF Navigator
IGF Navigator
Published in
4 min readJun 21, 2019

Sie sind auf dem Vormarsch, und sie sind nicht zu stoppen: künstliche Intelligenzen werden unser Leben und unsere Gesellschaft prägen. Seien es selbstfahrende Autos auf den Straßen, smarte Sprachassistenten in unseren Wohnzimmern oder Pflegeroboter in Krankenhäusern. Automatische Gesichtserkennung läuft schon längst auf jedem Computer, sortiert die Flut der digitalen Bilder und schlägt ganz von selbst personalisierte Alben vor. Einige Informatiker*innen träumen von einer Intelligenz, die der des Menschen haushoch überlegen ist.

Weltuntergangsszenarien begleiten diese Entwicklung, viele haben Angst vor unkontrollierbaren Robotern. Gibt es sie wirklich, diese Killer-Drohnen, die Amok laufen und wild um sich schießen? K.I.’s sind selbst lernende Programme. Was passiert, wenn sie lernen, was sie wollen?

Anlässlich der Tagung „A.I. Traps“ am 14. und 15. Juni in Berlin, organisiert vom Disruption Lab, sagte Daniel Eriksson, Head of Technology von Transparency International:

„A.I. is going to happen, for good, or for bad. If we don’t steer, it’s going for bad.”

(K.I. wird kommen, zum Guten oder zum Schlechten. Wenn wir nicht steuern, kommt es zum Schlechten.)

Eine starke K.I. gibt es nur in Science Fiction. Der Roboter HAL 9000 aus „2001, Odyssee im Weltraum“, gefährdet mit seinem neurotischen Verhalten die gesamte Expedition. Die beiden Roboter CASE und TARS in „Interstellar“ haben Regler für Humor und für Ehrlichkeit. Sie sind sowohl den Menschen als auch dem Ziel der Reise blind ergeben, man kann ihnen getrost das Cockpit überlassen. Starke K.I.s aber, wie HAL 9000 oder CASE und TARS sind und bleiben Zukunftsmusik.

Zur Zeit gibt es nur ‚schwache‘ K.I.‘s, die trainiert werden müssen. Im Grunde ist sie eine fragmentarische Kopie des menschlichen Gehirns. Wir haben Synapsen, die auf bestimmte Reize wie Sprache, Musik, Bilder, Gerüche oder Temperaturen reagieren — oder eben nicht. Jede Synapse hat einen Marker, und dieser Marker bestimmt ob diese Synapse angesprochen ist oder ob der Impuls weitergeleitet werden soll. Das menschliche Gehirn dient den Informatikern als Modell. Sie konstruieren neuronale Netze, wobei das Neuron das Äquivalent zur Synapse ist. Der Anfang jeglicher K.I. sind Unmengen von Daten — für eine Spracherkennung wären das z.B. tausende von Audio-Büchern oder mehrere Jahre Radiosendungen. Die Information, in diesem Fall die Sprache, wird in ihre kleinste mögliche Einheit zerlegt, dem Klang oder dem Laut einzelner Buchstaben. Diese Laute werden auf Neuronen gruppiert. Die Neuronen sind mit unzähligen Algorithmen miteinander verknüpft, die mittels Wahrscheinlichkeitsrechnung entscheiden, ob ein P oder ein T wahrscheinlich als nächster Laut gesprochen werden wird. Eigentlich toll, oder?

Eines der größten Probleme aber sind die Trainingsdaten. Woher kommen sie? Wie werden sie generiert? Weder die Entwickler*innen, noch die großen Tech-Konzerne lassen sich gerne in die Karten gucken, sie navigieren hart am Wind sowohl an der Zivilgesellschaft als auch an Justitia vorbei. Sei es aus Angst vor Industriespionage, aus Angst, die Parameter der K.I. offenzulegen, oder aus Angst, preis geben zu müssen, dass einige Datensätze — sagen wir mal vorsichtig — zweckentfremdet wurden. Dennoch unangreifbar, denn wer liest schon gerne hunderte von Seiten einer App-Lizenz, bevor er auf ‚Akzeptieren‘ klickt.

Auch hier muss die Zivilgesellschaft ihre Stimme erheben, nicht nur was die Verwendung der Daten der Einzelnen betrifft, sondern auch wie die Marker der K.I. definiert werden. Wir können es nicht nur den Konzernen und den Entwickler*innen überlassen, Parameter sowohl für Kreditwürdigkeit als auch für Jobeignung zu setzen. Automated Decision Making (ADM, zu Deutsch ‘algorithmische Entscheidungssysteme) können eine große Hilfe sein, zB in der Notfallmedizin, wo schnell Daten erfasst und zusammengeführt werden müssen und somit die behandelnden Ärtzt*innen effizient reagieren können. Wie aber sieht es aus, wenn eine Künstliche Intelligenz anhand persönlicher Daten ausrechnet, dass sich die Behandlung bestimmter Patient*innen nicht lohnt, weil sie zB Raucher*innen sind oder Vorerkrankungen haben, die eine Genesung laut K.I. unwahrscheinlicher machen?

Eine globale Gesellschaft darf nicht der Maschine dienen, sondern die Maschine dient einer Welt, die frei, gleichberechtigt und getragen vom Gedanken am Gemeinwohl ist. Wenn wir von K.I. sprechen, dann ist das kein kleines Segelboot auf einem ruhigen See, sondern eine ganze Flotte von Riesentankern im Sturm, ausgelöst durch unterschiedliche Interessen, auf dem Weg zu neuen Ufern. Unzählige Kapitäne, Steuermänner und -frauen, Navigator*innen bestimmen den Kurs der Flotte. Wir als Zivilgesellschaft sollten nicht nur im Ausguck sitzen und eventuelle “Eisberge voraus” schreien, sondern ebenfalls unseren Platz auf der Kommandobrücke einnehmen, um den generellen Kurs mitzubestimmen.

Das IGF im Herbst öffnet vielen Akteure*innen die Tür zur Kommandobrücke — die Zivilgesellschaft navigiert mit — denn “Navigare Necesse Est”.

Als zivilgesellschaftliche Akteure könnt ihr jederzeit mit uns Kontakt aufnehmen. Wir informieren euch, hören euch zu, sind dankbar für jeden Input und lotsen euch durch den dichten Nebel.

--

--

IGF Navigator
IGF Navigator

Wir verstärken zivilgesellschaftliche Stimmen rund um & innerhalb des UN-IGF. Getragen vom betterplace-lab, unterstützt von wikimediade und Ethical Tech Society