Künstliche Intelligenz Made in Germany — Gemeinwohl inbegriffen?

Stellungnahme zu den „Eckpunkten für eine Strategie Künstliche Intelligenz der Bundesregierung“ (18.7.2018) aus ethischer Perspektive*

Tobias Knobloch
11 min readSep 17, 2018

„The ability of economies to cope with societal impacts from AI will itself be an important driver of their success. The relative importance of these different inputs to AI progress will determine the winners and losers.“ — Matthew van der Merwe & Jack Clark, Import AI Vol. 106

Bildquelle: pixabay, CC0

Wenn jeder Gewinner werden möchte, dann nennt man die entsprechende Veranstaltung einen Wettkampf. Ein solcher Wettkampf findet gerade um die Vorherrschaft im Bereich Künstlicher Intelligenz (KI) statt — jedenfalls wenn man den Verlautbarungen zahlreicher nationaler KI-Strategien und den Medienberichten darüber glaubt. In Wahrheit ist es natürlich kein wirklicher Wettbewerb. Denn erstens ist Technologieentwicklung international betrachtet kein Nullsummenspiel; neben den Konkurrenzverhältnissen, die es zweifellos gibt, sind Akteure weltweit miteinander verwoben, kooperieren und verfolgen sich überschneidende Interessen. Zweitens unterscheidet sich die Hinsicht des Führungsanspruches je nach nationalem Kontext z.T. stark; das bedeutet, dass dadurch Raum für mehrere erste Plätze ist. Drittens ist das Spiel nicht am Ende der Laufzeiten aktueller Strategien zu Ende, sondern es wird weitergehen; wohin es sich mittel- und langfristig entwickelt, ist derzeit weithin unklar. An aktuellen Vektoren mag manch eine Bewegungsrichtung ablesbar sein, doch was das nächste iPhone, der nächste wirkliche Game Changer sein wird, das weiß jetzt noch niemand; und wer es behauptet, ist ein Schelm oder ein PR-Stratege. Zusammengefasst ergibt das

THESE 1: Das internationale KI-Wettrennen („AI Race“) ist größtenteils eine mediale Inszenierung, auf welche die Politik nicht hereinfallen sollte.

Das soll nicht heißen, dass das, was wir mit dem Begriff „Künstliche Intelligenz“ in etwa 90 Prozent der Fälle meinen, unwichtig wäre. Meistens bezeichnet der Begriff nämlich nichts Anderes als (Big) Data Analytics oder Systeme, die im Zuge der Datenauswertung — unter menschlicher Aufsicht und Anleitung, wohlgemerkt — stetig besser werden. Und keine Frage, dass im Datenzeitalter, in dem wir nun einmal leben, die kluge Auswertung riesiger Datenmengen eine zentrale Fähigkeit darstellt. Jedes Land, das den technologischen, wirtschaftlichen und menschlichen Entwicklungsanschluss nicht verlieren möchte, sollte über genügend Menschen und Organisationen verfügen, welche die Fähigkeit zur Konstruktion und zum Betrieb von KI-Systemen im gerade beschriebenen Sinne besitzen. Das führt zu

THESE 2: Avancierte Datananalysefähigkeiten sind der Schlüssel zu Innovationsführerschaft im Datenzeitalter; der Begriff „Künstliche Intelligenz“ zur Bezeichnung dieser Fähigkeiten ist einigermaßen fehlgeleitet.

In Deutschland sind entsprechende Fähigkeiten zweifellos in großer Dichte vorhanden. Dennoch herrscht hierzulande eine Art Paranoia, technologisch den Anschluss an die innovationsführende Weltspitze der technischen Entwicklung zu verlieren. Dafür werden meistens vier Gründe angeführt und alle sind durchaus triftig (vor allem im Konsumentenbereich, denn im B2B-Bereich ist der Stand der Dinge ein anderer, wie nicht nur die internationale Bedeutung von SAP zeigt): Erstens gelingt es noch nicht gut genug, Spitzenforschung in Spitzenanwendungen, mit denen sich reale Probleme lösen lassen und Geld verdient werden kann, zu überführen. Zweitens fehlt es auf breiter Front noch immer an Experimentierfreude, Gründungskultur und Wagniskapital insbesondere für die Wachstumsphase von Technologie-Startups. Drittens herrscht Brain Drain statt Brain Gain: Den größten Talenten wird hierzulande außerhalb der Grundlagenforschung nicht genug geboten, um im Land zu bleiben oder ins Land zu kommen. Viertens haben wir ein großes Problem, was die ausreichende Verfügbarkeit von Daten als dem Treibstoff für KI-Anwendungen angeht. Die Gründe dafür sind mehrschichtig: Die öffentliche Hand ist hierzulande traditionell schlecht im Bereitstellen von Verwaltungsdaten (Open Government Data), und daran hat bislang auch das im Sommer 2017 in Kraft getretene sogenannte Open-Data-Gesetz nichts geändert. Das größte Hemmnis für Datenverfügbarkeit ist allerdings der spezifisch deutsche Datenschutz, der seit Mai dieses Jahres — vereinfacht gesprochen — zum gesamteuropäischen Datenschutzregime geworden ist. Zusammenfassen lässt sich dies als

THESE 3: Die Bedingungen für international erfolgreiche KI-Entwicklungen sind in Deutschland (noch) nicht ideal; die Sorge, den Anschluss an die Weltspitze zu verlieren, besteht zu Recht.

Insbesondere lernende Systeme brauchen in der Regel eine große Menge an Trainingsdaten, die vielfach (zumindest nicht leicht) verfügbar ist, wie Gespräche mit Startups aus so unterschiedlichen Bereichen wie Mobilität, Medizin und Human Resources gezeigt haben. Eine intensivere Nutzung von mehr oder weniger reifen Verfahren des technischen Datenschutzes, wie wir vergangenes Jahr gefordert haben, und ein Ausweichen auf synthetische Daten, wie meine Kollegin Nicola Jentzsch es jüngst skizziert hat, wären mögliche Auswege. Besonders kommt es auf diskriminierungsfreie Trainingsdaten in ausreichendem Umfang an; hier haben Wirtschaftsräume wie China und die USA aufgrund ihrer Größe, wegen abweichender regulatorischer Rahmenbedingungen und wegen kultureller Unterschiede den Vorteil, leichter eine vollständige Abdeckung von Datenräumen erzielen zu können. Die Lücke, die sich hier auftut, muss geschlossen werden. Und der Weg kann wegen der unveränderlichen Parameter Größe, Datenschutzregime und Kultur nur über Innovationsführerschaft in dem angedeuteten Bereich des technischen Datenschutzes und der Entwicklung datensparsamer KI-Technologie „Made in Europe“ führen. Denn die Datenselbstbeschränkung durch starken Datenschutz ist kein Naturphänomen, sondern ein von den Europäern — richtiger Weise! — bewusst selbst gewähltes Schicksal. Die Entscheidung dazu markiert ein fundamentales Werteverständnis, das die Würde des Einzelnen unverrückbar ins Zentrum jeder Politik, auch der Technologiepolitik stellt. Die Achtung Menschenwürde und die Berücksichtigung von Bürgerrechten auch im digitalen Bereich ist der gemeinwohlorientierte Fluchtpunkt europäischer Technologiepolitik. Bezogen auf die Folgen für Europas Weg in der KI-Entwicklung ergibt das

THESE 4: Der deutsche Umgang mit dem Thema KI, der KI-Ansatz der EU und die Strategien weiterer EU-Länder wie Frankreich sind durch das Wertefundament und den regulatorischen Rahmen der EU per se am Gemeinwohl ausgerichtet.

Ob sich mit dieser Ausrichtung auch international erfolgreiche Geschäftsmodelle errichten und der in den vergangenen Dekaden erworbene Wohlstand verteidigen lässt, ist eine offene Frage, die alle umtreibt, weshalb europäische KI-Strategien zuletzt wie Pilze aus dem Boden geschossen sind. Die Besorgnis darüber spricht auch aus dem gesamten Eckpunktepapier zur KI der Bundesregierung, dem das Kabinett am 18.7.2018 zugestimmt hat. Es ist getragen vom widersprüchlichen Geist des „Mehr Mut!“ mit der ständigen Zugabe eines „Aber auch Vorsicht!“. Einige Kommentatoren werden nicht müde, diese Vorgehensweise als zögerlich oder halbherzig — jedenfalls aber nicht ausreichend zu bezeichnen, um international Schritt halten zu können. Dem stelle ich hier gegenüber

THESE 5: Die systematische Verbindung von wirtschaftlichen Entwicklungs- und Wachstumsimpulsen mit flankierenden Maßnahmen der ethischen Einhegung und der Gemeinwohlverpflichtung ist der einzig richtige Weg.

Wie das Eingangszitat andeutet, gibt das Mitdenken gesellschaftlicher Auswirkungen von KI-Technologie von Beginn an den Rahmen vor, in dem sich künftige Gesellschaften gedeihlich werden entwickeln können. Das ist damit gemeint, wenn wiederholt die Rede davon ist, dass klare ethische Leitplanken (inklusive Begrenzungen und Stoppregeln) sogar zu einer Steigerung von Wertschöpfung und Wettbewerbsvorteilen führen können (vgl. z.B. Antrag zur Einsetzung einer Enquete-Kommission Künstliche Intelligenz des Deutschen Bundestags, S.3 oben). Da Wirtschaft Planungssicherheit braucht, geht es jetzt darum, diese Leitplanken möglichst schnell zu finden. Bislang bestehen hier lediglich Ansätze wie die Vorgaben, welche die Datenschutzgrundverordnung zu automatisierten Entscheidungen macht (Prinzip der Information von Betroffenen und Verbot autonomer Maschinenentscheidungen mit irreversiblen Folgen), wobei deren richterliche Auslegung noch eine Weile auf sich warten lassen wird. Außerdem sind die richtigen Fragen und Aufträge formuliert, nicht nur in den KI-Eckpunkten der Bundesregierung, sondern auch in den Arbeitspaketen für die Enquete-Kommission (s.o.) und für die Datenethik-Kommission. Doch hier beginnen die Probleme, denn nicht nur die Bundesregierung wird bis Ende dieses Jahres ihre ausformulierte Strategie vorlegen, sondern auch die Europäische Union, für welche die Europäische Kommission bereits Ethikrichtlinien für KI als eine der Säulen vorgesehen hat. Hoffentlich wird hier wechselseitig über den Tellerrand geschaut — auch in Richtung Frankreich, das in seiner Strategie geradezu eine humanistische KI (freilich nicht ohne seinerseits auch wirtschaftliche Interessen damit zu verfolgen) propagiert. Daraus ergibt sich

THESE 6: Jeder nationale Sonderweg in Europa schwächt das Bestreben, weltweit menschendienlicher KI zur Ausprägung und Ausbreitung zu verhelfen.

Die US-amerikanische und asiatische Dominanz ist derzeit, was die Voraussetzungen für KI-Entwicklung insgesamt angeht, überwältigend groß. Aus der Gemeinwohlperspektive wäre es am schlechtesten, wenn das dazu führen würde, dass eines Tages in Schlüsselbereichen (z.B. Mobilität, Medizin, Energie, Handel) auch in Europa faktisch nur noch die dort nach geringeren ethischen Standards entwickelte Technologie (oder eben technische Unterentwicklung als Alternative) zur Verfügung stünde. Deshalb ist ein konzertiertes, gebündeltes Vorgehen in Europa die erste Maßgabe. Ein wichtiger Ansatz hierzu ist das Bestreben der Bundesregierung, in der KI-Entwicklung eng mit Frankreich zu kooperieren. Umso unverständlicher ist es, dass jetzt kleinkariertes parteipolitisches Gezänk über die regionale Ansiedlung des geplanten deutsch-französischen Forschungszentrums den schnellen Schulterschluss mit dem Nachbarn verhindert. Hier geht es um wesentlich mehr als Standortpolitik, und Geschwindigkeit ist ein wichtiger Faktor, das muss den Verantwortlichen rasch klarwerden.

Bildquelle: pixabay, CC0

Kritikpunkte am Eckpunktepapier aus Gemeinwohlperspektive

Ethische Technologiestandards kann nur derjenige setzen, der technisch und wirtschaftlich vorne mitspielt, was in Deutschland und Europa derzeit nur in einzelnen Bereichen der Fall ist. Die Zutaten für KI sind im Wesentlichen Daten und Rechenkraft. Nicht nur an ersteren fehlt es in Deutschland und Europa, sondern auch an letzterer. Zukünftige Innovationen im KI-Bereich werden dort stattfinden, wo sogenannte „High Compute Environments“ gegeben sind. Das liegt daran, dass das Deep Learning, der zurzeit am stärksten wachsende KI-Zweig, eine empirische Disziplin ist: Es werden Experimente durchgeführt, evaluiert und verfeinert, bis die Ergebnisse passen. Da diese Experimente nicht beliebig lange dauern sollten, kommt es auf Rechenkapazität an. Der Computer ist in der heutigen Zeit so etwas wie ein Teleskop: Je größer er ist, desto weiter (in die Zukunft, in einen Datenraum etc.) kann man mit ihm schauen. Momentan steht kein einziger der zehn schnellsten Rechner in der EU. Und obwohl unter den Top-100 sieben Systeme in Deutschland stehen, bleibt folgendes Manko: Die Hardware wird ausnahmslos nicht in Europa entwickelt, sondern in den USA und in Asien. Da Hard- und Software an einigen Stellen eine immer engere Verbindung eingehen (ein Trend, für dessen Fortsetzung manches spricht), ist das ein potentielles Problem auch überall dort, wo wir über Gemeinwohlorientierung und alternative Wege zur Effizienzsteigerung und Gewinnmaximierung in der KI-Entwicklung sprechen. Technische Souveränität im Sinne von Hardware-Kompetenz ist auch eine der Voraussetzungen für das Durchsetzen ethischer Ansprüche bei der Technologieentwicklung, das wird leicht übersehen und von der Bundesregierung mit keinem Wort erwähnt.

Leider zählt europäische und insbesondere deutsche Forschung in zentralen Bereiche, in denen Europa gerade den politischen Anspruch hat, einen Unterschied zu machen, international nicht zu den Führenden; hier ist insbesondere die Privacy-Forschung im Bereich Daten und die Accountability-Forschung im Bereich Algorithmen zu nennen. Einerseits ist es gut, dass die Bundesregierung in diesen Forschungsbereichen Entwicklungsbedarf sieht; andererseits lassen die Formulierungen im Eckpunktepapier (vgl. z.B. S.6 oben) wie alle anderen politischen Verlautbarungen bezweifeln, dass sie die Lage der Dinge im Einzelnen richtig einschätzen und entsprechende Weichenstellungen vornehmen kann: Gestartet wird hier nicht gewissermaßen bei null, sondern wiederum mit einem Rückstand auf die Weltspitze.

Geradezu grotesk ist die Dissonanz von Anspruch und Wirklichkeit im Eckpunktepapier bezogen auf die Verfügbarkeit von (Forschungs-)Daten: Auf Seite fünf ist von einem „Heben der Datenschätze der Forschungseinrichtungen“ die Rede — nachdem sich das hier nun federführende Forschungsministerium im Frühjahr/Sommer des vergangenen Jahres noch dagegen gesträubt hat, Forschungsdaten in den Geltungsbereich des Open-Data-Gesetzes aufzunehmen. Der hier erhobene Anspruch hätte vom federführenden Ministerium bereits vor einem Jahr im Zuge des Gesetzgebungsprozesses für offene Daten eingelöst werden können. Ähnlich unglaubwürdig ist das unmittelbar darunter formulierte Ziel des Verfügbarmachens von Gesundheitsdaten — angesichts der Tatsache, dass Deutschland eines der wenigen europäischen Länder ist, in dem verschiedene behandelnde Ärzte Patientendaten nicht ohne weiteres wechselseitig einsehen können.

Das Bestreben, „die Menge an nutzbaren, qualitativ hochwertigen Daten (deutlich zu erhöhen), ohne dabei Persönlichkeitsrechte, das Recht auf informationelle Selbstbestimmung oder andere Grundrechte zu verletzen“ (Eckpunktepapier, S.9), kommt einer Kreisquadratur gleich. Die dazu angedeuteten Strategievorschläge wie öffentlich-private Datenpools oder Datenpartnerschaften zwischen Unternehmen (vgl. ebd. S.9 unten u. S.10 oben) sind angesichts dessen noch zu vage. Insbesondere an dieser Stelle ist zu hoffen, dass die Bundesregierung die verbliebene Zeit bis zum Vorlegen der ausformulierten Strategie gut nutzt. Denn übersetzt geht es hier doch darum, dass Forschung, Entwicklung und Anwendung nicht-personenbezogene und diskriminierungsfreie Trainingsdatenpools in ausreichendem Umfang und hoher Qualität zur Verfügung stehen — unter den gegebenen Rahmenbedingungen eine Herkules-Aufgabe, welche die Einrichtung einer Stelle „Datenbeauftragte der Bundesregierung“ rechtfertigen würde.

Gut ist, dass die Bundesregierung erkannt hat, dass die Nutzung von KI-Anwendungen seitens der Verwaltung ein Schlüssel für die Wettbewerbsfähigkeit und den ethischen Reifegrad auf diesem Gebiet ist (vgl. Eckpunktepapier, S.9 oben). Wir haben schon 2016 in ähnlicher Weise dafür plädiert, dass die Selbstbefassung der Verwaltung mit Open Data der Schlüssel für das Verständnis der Wertschöpfungs- und Werteschutzbedingungen des Datenzeitalters ist. Wer KI selbst in gemeinwohlverträglicher oder sogar gemeinwohlförderlicher Manier selbst nutzt, ist am ehesten dazu in der Lage, schon im Eigeninteresse für entsprechende Rahmenbedingungen zu sorgen. Direkt im Anschluss daran folgt aber die Kritik, dass dem Eckpunktepapier und allen sonstigen Verlautbarungen der Bundesregierung ein visionärer Zug in dieser Hinsicht fehlt: Vermutlich lassen sich durch die Anwendung von KI gesellschaftliche Probleme in großer Zahl und Tiefe — wenn nicht beheben, so doch mildern. Hier ist an Nachhaltigkeit ebenso zu denken wie an Pflege in der alternden Gesellschaft, die Energiewende, den Wandel unserer Mobilität und lange so weiter. Es ist kennzeichnend für deutsche Technologiepolitik, dass Gemeinwohlförderung vor allem im negativen, abwehrenden und nicht so sehr im positiven, ermöglichenden Sinne verstanden wird. Aber es gibt im Eckpunktepapier durchaus erfreuliche Änderungsansätze. Dazu gehört, dass an mehreren Stellen (z.B. auf S.6 u. 8) das Zulassen und die Förderung von Experimentierräumen, Testfeldern und Versuchslaboren erwähnt wird. Genau das fehlt insbesondere in der Verwaltung. Wenn durch die KI-Strategie der Bundesregierung hier ein Umdenken in die oben erwähnte Richtung von KI als Experimentieren mit dem Computer zum Wohle der Gesellschaft eingeleitet werden könnte, wäre das von großem Wert.

Vom Fetisch Algorithmentransparenz zum rationalen Begründungszusammenhang

Zuletzt der wichtigste Aspekt: Die Forderung nach Transparenz und Nachvollziehbarkeit algorithmischer Systeme ist zu einem politischen Fetisch geworden. Der Graben zwischen der öffentlichen Buzzword-Verbreitung, zu der auch das Eckpunktepapier der Bundesregierung beiträgt, und den tatsächlichen Design-Anforderungen in Sachen Nachvollziehbarkeit für algorithmische Systemein Bereichen, in denen das öffentliche Interesse gegeben und das Gemeinwohl berührt ist (z.B. Strafverfolgung; Besteuerung; Vergabe von Plätzen in öffentlichen Einrichtungen wie Kitas, Schulen und Universitäten; medizinische Diagnostik/Therapie) wird immer größer. Das liegt daran, dass die Debatte aufgebläht ist und an vielen Stellen mit zu wenig Sachverstand geführt wird. Natürlich ist es wichtig, dass wir maschinelle Entscheidungen über unser Leben nachvollziehen können. Aber wir sollten dabei grundsätzlich keine unrealistisch strengeren Maßstäbe anlegen als bei den anderen beiden Systemen, die wir bisher vorzugsweise dazu genutzt haben, und die nachweislich Black-Box-Systeme sind: menschliche Gehirne und soziale Institutionen.

Paul von Bünau, Geschäftsführer der Data-Science-Agentur idalab, hat richtig darauf hingewiesen, dass das zeitgenössische Streben nach Transparenz eigentlich eine Sehnsucht nach überzeugender Begründung ist. Wir wollen maschinelle Entscheidungen überzeugend finden, wie wir die Argumente unseres Chefs für eine Entscheidung auch gerne überzeugend finden möchten, weil wir dann viel besser mit ihr leben und sie umsetzen können. Aber dafür brauchen wir im Bereich der Maschinen keine Nachvollziehbarkeit im Detail, die kann es gar nicht geben, und es ist auch nicht sinnvoll, sie anzustreben: „Wichtig ist die grundsätzliche Nachvollziehbarkeit als Basis von möglicher Kontrolle, denn nur so kann ich der Richtigkeit der durch Algorithmen erzielten Ergebnisse auch grundsätzliches Vertrauen schenken. Den Einzelfall nachvollziehbar zu machen, ist aber bei Entscheidungen, die ein Algorithmus trifft, schwierig. Ein Algorithmus trifft seine Entscheidungen auf Basis sehr vieler Faktoren und einer Vielzahl an Daten, die ein Mensch kaum überblicken kann. Deshalb wird er schließlich eingesetzt.“ (ebd.) Wenn aber auf der Ebene der Einzelentscheidung Transparenz nicht immer möglich und sinnvoll ist, dann müssen wir zumindest Vertrauen in den Prozess der Entwicklung algorithmischer Entscheidungssysteme aufbauen. Glücklicherweise gibt es auch in Deutschland bereits einige Initiativen, die an solchen Gütekriterien für den Entwicklungsprozess algorithmischer Systeme arbeiten. Die Bundesregierung tut gut daran, diesen Initiativen Gehör zu schenken, ihnen eine Plattform zu bieten und sie nach Kräften zu unterstützen. Auch sollte sie ihre selbst geschaffenen Gremien wie die Datenethik-Kommission und die Enquete-Kommission Künstliche Intelligenz für den Austausch mit und das Mitwirken von diesen zivilgesellschaftlichen Initiativen öffnen.

Gerade für haftungsrelevante Bereiche wie das autonome Fahren ist es wichtig und gut, dass auch an der Einzelfalltransparenz lernender Systeme gearbeitet wird. Hier stehen deutsche Forschungseinrichtungen mit an der Spitze und die Politik ist gut beraten, gerade diese, für die Entwicklung von KI mit europäischen Ethik-Ansprüchen kritischen Forschungsbereiche zu fördern; das bedeutet auch, die entsprechenden Köpfe zu halten und weitere Talente anzuziehen.

*Dieser Kommentar entstand als Beitrag zur Blogparade “Künstliche Intelligenz fürs Gemeinwohl” der Bertelsmann Stiftung.

--

--

Tobias Knobloch

Philosopher and Partner/CEO @ Civitalis.eu (Berlin) working on government innovation & data governance