Kann man Menschen “korrekt” töten?

Das US-Militär nutzt Erkenntnisse der KI-Forschung von Google, weshalb nun deutlich Sorge artikuliert wird, die mit einem Statement des früheren Vorstandsvorsitzenden der Google-Mutter Alphabet , Eric Schmidt, folgendermaßen zusammengefasst wurde:

“Es gibt eine allgemeine Besorgnis in der Tech-Community, dass der militärisch-industrielle Komplex ihre Sachen einsetzt, um Menschen inkorrekt zu töten.” — Eric Schmidt

Das Problem: Das Pentagon-Projekt Maven nutzt Schnittstellen zur Open — Source KI-Software TensorFlow von Google. Diese kommt dann dabei zum Einsatz, bei Drohneneinsätzen die Datenströme auszuwerten. Damit hilft die Entwicklung der KI-Software unmittelbar der direkten oder indirekten Tötung von Menschen. Dies wirft natürlich ethische Fragen auf, und erinnert an die Entwicklung der Atombombe. Die Aufdeckung der Zusammenarbeit führte deshalb auch Google-Intern zu Empörung bei Mitarbeitern — aber auch zur Beschwichtigung bei TensorFlow, eine Sprecherin sagte, dass die Technik ja lediglich eine Vorauswahl treffe, auf welches Bildmaterial ein Mensch noch genauer schauen sollte.

Kurzum: Dieser Fall zeigt einmal mehr anschaulich und leider sehr konkret, weshalb es dringend notwendig ist, dass qualifizierte und involvierte Experten die technikethische Dimension der aktuellen Entwicklung von KI begleiten und mitgestalten. Wir müssen aus der Geschichte lernen und dürfen nicht den Fehler machen, darauf zu vertrauen, dass sich das Ganze schon irgendwie ergibt. Denn anders als Rivalen im Cloud-Geschäft wie Amazon oder Microsoft hat Google bislang keine regierungsspezifischen Angebote entwickelt, mit denen als geheim oder anderweitig vertraulich eingestufte Informationen in den Rechnerwolken besonders geschützt werden sollen. Noch nicht.