KI in der HR — Wer übernimmt Verantwortung?

Dr. Alexander Klier
Beck et al.
Published in
7 min readJun 29, 2019
Bild: geralt — Hand auf Pixabay. Verwendung unter den Bedingungen der Creative Commons 0.

Unter der Überschrift, die auch über diesem Blogbeitrag steht, fand am 14.06.2019 eine spannende Veranstaltung in Berlin statt. Veranstaltet hat es das Berlin Digital Workplace Meetup (Berlin DWM, hier auch auf Twitter) mit Unterstützung von Think at IBM. Getroffen haben wir uns im im Berliner Bikinihaus. Vom Ablauf her ging es nach einer kurzen Einführung recht unmittelbar in die Diskussion, in methodischer Form des World Café mit drei Themen durchgeführt und moderiert. Am Ende der Veranstaltung gab es jeweils eine Zusammenfassung der Diskussionsergebnisse, die dem Plenum präsentiert wurden. Das Video mit den aufgenommenen Zusammenfassungen gibt es hier zu sehen.

Hier möchte ich nun meine einführenden Überlegungen als Blog zur Verfügung stellen. Sie wurden, gemeinsam mit den Überlegungen von Siegfried Lautenbacher, als Impuls(e) vor dem World Café in die Runde gegeben, damit es Diskussionsanlässe gibt. Am Ende standen auch drei Thesen, die die Themen für die World Café Runden eingrenzen sollten.

Begriffsklärungen

Die Überschrift “KI in der HR — wer trägt die Verantwortung” weist zwar auf ein spannendes Thema hin, das allerdings von vornherein durch die Begriffswahl deutlich vernebelt wird. Insofern muss es ein Anliegen sein erst einmal zu klären, von was geredet wird, wenn wir über eine künstliche Intelligenz im Bereich von HR nachgedacht wird. Das gilt nicht nur für den etwas missglückten Intelligenzbegriff in Fragen des Einsatzes von Algorithmen zur Entscheidungsfindung, sondern durchaus auch für den Bereich von HR selbst. Bereits HR kann man zum einen in die — aus meiner Sicht — sehr problematische Richtung von Ressourcen (Human Resources) deuten, aber auch — und das liegt bei einem digitalen Thema näher — im Bereich von Relationen (Human Relations), also von Beziehungen, verorten.

Über Verantwortlichkeiten und Regeln beim Einsatz von KI allgemein hat, wie schon erwähnt, Siegfried Lautenbacher nachgedacht und auch eingeführt. Foto: Tweet von Petra Hock auf Twitter.

Noch wichtiger ist die (begriffliche) Einordnung der Frage einer Verantwortung und Verantwortlichkeit. In der derzeitigen Diskussion geht es vor allem um mehr oder weniger anerkannte Regeln, wie Algorithmen zu entwickeln, zu implementieren und im Unternehmenskontext zu verantworten sind. “Algorules” ist der dafür passende englische Begriff. Eine Ethik, beispielsweise der künstlichen Intelligenz, würde sich als zugehörige wissenschaftliche Disziplin mit einem Vergleich der verschiedenen Regeln beschäftigen und eine Einordnung bzw. Auseinandersetzung mit ihrem (normativen) Anspruch leisten. Verantwortung selbst bezeichnet normalerweise “die einer handelnden Person oder Personengruppe (Subjekt) gegenüber einer anderen Person oder Personengruppe (Objekt) zugeschriebene Pflicht aufgrund eines normativen Anspruchs, der durch eine Instanz eingefordert werden kann” (Wikipedia: Verantwortung). Daraus ergeben sich Folgefragen, die keinesfalls trivial zu beantworten sein werden, wie etwa die, wie weit die Verantwortlichkeit einer Organisation wie etwa ein Unternehmen tatsächlich auch im Sinne einer Haftbarkeit dafür (Einforderung durch eine Instanz) geht und wer die (allparteiische) Instanz darstellen könnte oder sollte, welche den Anspruch durchsetzt.

Algorithmen sind ein kollaboratives Unterfangen

Wir bei Beck et al. sehen den Einsatz von Algorithmen im Bereich von HR ziemlich grundsätzlich als kollaboratives Unterfangen. Das bedeutet von vornherein und eben grundlegend, dass eine Betrachtung rein auf der Kodierungsebene (also dem Programmieren eines Algorithmus) viel zu kurz greift. Es bedarf hier der Betrachtung ganz viele Ebenen und noch mehr der auch sehr unterschiedlichen Akteure, damit die Verantwortung überhaupt richtig adressiert werden kann. Nicht nur aufgrund der unterschiedlichen Voraussetzungen der Beteiligten können Fehler an jeder Stelle auftreten, sondern mutmaßlich noch viel mehr durch Kommunikationsfehler zwischen den differenzierten Ebenen. Ein gutes Bild der Schwierigkeiten hat das Projekt der Algorithmenethik der Bertelsmann-Stiftung aufgezeigt. Eine wichtige Frage der Verantwortung ergibt sich hierbei daraus, wie ernst sie gemeint ist, ob also beispielsweise auch Sanktionen (gegen wen auch immer) Teil der Verantwortlichkeit sind. Das ist eine bereits vorab dringend zu klärende Frage, weil es formal meist um mehr oder weniger große Regelverstöße gehen wird.

Unabhängig vom großen Bild, wie ein konkreter Algorithmus entsteht, gibt es gerade in der konkreten Umsetzung eine Reihe weiterer, aus unserer Sicht möglicherweise sogar unlösbarer Problemen. Eines davon betrifft bereits die Aufgabenstellung eines entsprechenden Algorithmus im Bereich von HR. Es müssen beispielsweise — wie übrigens in den Sozialwissenschaften schon lange üblich — die Basis (Eingangsdaten), wie auch das Ergebnis (Ausgangsdaten), operationalisiert werden. Bereits dieser Akt der Operationalisierung weist einen grundsätzlichen Bias auf, weil hier bestimmte Menschenbilder die Grundlage bilden. Das kann man ziemlich gut an den Versuchen von Amazon sehen, einen Algorithmus zur Auswahl guter Bewerber:innen zu schaffen, was bis heute nicht adäquat geglückt ist. In den Sozialwissenschaften liegt es in der Verantwortung jedes einzelnen Forschers oder jeder Forscherin, sich seinen eigenen Bias vor Augen zu führen und erst dann das (reflexive) Forschen zu beginnen — jedenfalls im Idealfall. Im Bereich von HR gibt es nicht ansatzweise ein ähnliches Vorgehen, insofern kann auch nichts auf die Algorithmen übertragen werden. Will man eine echte Gleichbehandlung im Bereich von HR erreichen, dann wird die sogenannte Political Correctness sehr schnell handlungsleitend. Wer übernimmt hier die Verantwortung, dass die organisationsspezifischen wie auch die subjektiven “Leitbilder” kritisch hinterfragt werden?

KI, Prognosen und Datenbestände

Eines der spannendsten Teilthemen ist sicher die Frage einer prognostischen Fähigkeit von Algorithmen, weil, wie schon Karl Valentin wusste, Prognosen schwierig sind, insbesondere wenn sie die Zukunft betreffen. In den Klimawissenschaften arbeitet man deshalb bereits seit langem mit Szenarien, weil sich eindeutige Prognosen in einem VUCA System nicht aufstellen lassen. Das stellt aus unserer Sicht jedoch ein grundsätzliches Problem beim Einsatz von Algorithmen im Bereich von HR dar: wie können tatsächlich künftige Verhaltensweisen von Menschen im speziellen Kontext von neuen Situationen und im Zusammenhang mit der Organisationsstruktur vorhergesagt werden? Menschen handeln, insbesondere in Organisationen wie Unternehmen, hochadaptiv und passen sich zuallererst an die bestehenden Strukturen an. Eine in der Psychologie so genannte Attribuierung verlagert dieses Wechselspiel allein in die handelnde Person, verstanden als persönliche Handlungsdisposition. Genau damit ist eine auf dieser Basis entstandene Prognose auch schon falsch, weil es eben keine Eigenschaft der konkreten Person ist. Wer ist hier verantwortlich, die entsprechenden Zusammenhänge zu erkunden? Wer sorgt dafür, dass die noch vor gar nicht so langer Zeit existierende Einheit von Personal- und Organisationsentwicklung (das bis dahin immer als komplementäres Verhältnis gesehen wurde) zumindest in den Algorithmen wieder hergestellt wird? Welche Verantwortung haben die Programmierer, auf mögliche Lücken im Algorithmus hinzuweisen?

Und schließlich: generell gesehen können aus meiner/unserer Sicht Algorithmen überhaupt keine Aussagen zu individuellen (digitalen) Kompetenzen machen, da sich diese eigentlich erst in jeweils neuen Situationen zeigen. Ebenso gilt, dass sich digitale Kompetenzen erst dadurch zeigen, dass sie in der konkreten kollaborativen Zusammenarbeit in Erscheinung treten. Mit anderen Worten: Sie lassen sich nicht aus der Vergangenheit oder vorherigen Tätigkeiten ableiten. Doch diese bilden die Basis der Eingangsdaten jedes Algorithmus.

Meine einführenden Überlegungen dienten genauso wie die von Siegfried Lautenbacher der Vorbereitung der (moderierten) Diskussionsrunden des World Café. Bild: Tweet von Berlin DW Meetup auf Twitter.

Die drei Thesen als Diskussionsgrundlage für die Themenschwerpunkte des World Café

1. Recrutierung, AI und HR

Digitales Recruiting wird sich immer mehr kollaborativ, also über die betroffenen Teams und Gruppen vollziehen und immer weniger über formale Stellenausschreibungen. Damit fehlen den “Einstellungsalgorithmen” die bisher vorhandenen “Trainingsdaten”. Zeigen kann man das an der ziemlich problematischen Vorstellung der sogenannten „Talente“, die formal (beispielsweise in den LMS) als Mängelwesen abgebildet werden, die über eine entsprechende Auswahl an Kursen zu anderen Aufgaben fortgebildet werden. Echte Talente kann ein Algorithmus aufgrund seiner Funktionsweise (quasi der Operationalisierung von Stellenausschreibungen über eine Mathematisierung derselben) gar nicht entdecken. Wer ist hier verantwortlich und wofür genau ist Verantwortung zu übernehmen, wenn Algorithmen bei der “Talentsuche” zum Einsatz kommen?

2. AI im Bereich von Corporate Learning

Sozialwissenschaftlich kann man gut zeigen, dass (hochaufwändige) Assessment Center genauso wenig in der Lage sind, eine treffsichere Prognose für künftiges Arbeitsverhalten (insbesondere in Gruppen und Teams) zu geben, als vergleichsweise simple und gut strukturierte Interviews. Weil die Algorithmen ähnliche Regeln zur Grundlage haben wird es auch einer künstliche Intelligenz nicht gelingen, prognostische Vorhersagen zu treffen, weil sie mit Daten aus der Vergangenheit operieren muss. Wer hat hier die Verantwortung dafür, dass im Bereich der betrieblichen Aus-, Fort- und Weiterbildung keine systematischen Verzerrungen durch die Auswahl der Werkzeuge produziert werden? Welche Konsequenzen ergeben sich für die Verantwortlichen, falls es doch dazu kommt?

3. Der Einsatz von KI für das digitale Lernen

Positiv gewendet: Die gesamte E-Learning Branche (mit wenigen Ausnahmen) ist mit ihrer „Personalisierungsvorstellung“ von Lernprogrammen pfadabhängig auf einem wenig nachhaltigen Weg. Ein Algorithmus, der hier neu zu denken wäre ist einer, der sowohl die Strukturen und Prozesse der jeweiligen Lerngruppen und lernenden Teams berücksichtigt, als auch von den entsprechenden (digitalen) Communities bezüglich seiner Anforderungen gestaltet werden kann. Hierzu braucht es eine Transparenz der Funktionsweise des Algorithmus sowie von Möglichkeiten der Einflussnahme auf die Produktion der Ergebnisse. Auch hier stellt sich natürlich die Frage, was Verantwortung in diesem konkreten Fall heißt und wie weit sie reicht, sollte eine Zielstellung in diesem Sinne umgesetzt werden. Wie wird die Verantwortlichkeit der entsprechenden Teams gegenüber dir Verantwortung von HR abgegrenzt oder umgekehrt synergetisch ergänzt? Wer trägt die Verantwortung für die Offenlegung der Funktionsweise der Algorithmen sowie die Möglichkeit, den Algorithmus entsprechend der Bedürfnisse der Communities anzupassen?

Verwendete Literatur

--

--

Dr. Alexander Klier
Beck et al.

Ich arbeite bei der Firma changeable GmbH. Während meiner Beschäftigung bei Beck et al. habe ich diese Beiträge für cen Corporate Blog verfasst.