In diesem Beitrag betrachten wir den Einsatz von KI, Chatbots und Avataren bei der Personalauswahl. Dabei beleuchten wir insbesondere kritische Aspekte und Gefahren beim Einsatz dieser Methoden.
Nach den wichtigsten Punkten der Kritik an KI-gestützter Personalauswahl stellen wir auch alternative Möglichkeiten vor: Am Ende des Beitrags fassen wir die wichtigsten Qualitätskriterien für Auswahlverfahren und Einstellungstests vor und wir empfehlen Alternativen zum Einsatz von KI und Chatbots bei der Personalauswahl.
Viele Unternehmen versprechen sich Großes vom Einsatz von künstlicher Intelligenz bei der Personalauswahl. Mit ihrer zunehmenden Popularität wächst aber auch die Kritik an KI-gestützter Personalauswahl. Doch der Reihe nach: Welche Vorteile können Automatisierung und der Einsatz von KI im Prozess der Kandidatensuche und Kandidatenauswahl bieten?
Automatisierung und KI scheinen also wirklich einige Vorteile im Bewerbungs- und Auswahlprozess zu bieten. Aber, wie auch im vorangegangenen Expertenstatement des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag schon deutlich geworden ist, es kommt sehr auf die konkrete Ausgestaltung an, und auch darauf, nicht zu einseitig auf KI zu setzen und bestimmte Grenzen nicht zu überschreiten.
Und genau hier wird es kritisch.
Während seltsame Fragen und Aufgabenstellungen mit unklarer Relevanz und wenig Bezug zum eigentlichen Job auch bei „klassischen“ Auswahlverfahren anzutreffen sind, verhält es sich beim Einsatz von Videoanalysen und deren Auswertung mit Hilfe von KI gänzlich anders.
Hier in einem Beitrag der NZZ wird von den Erfahrungen eines Probanden berichtet: Anders war das bei dem Video-Interview, das er für eine andere Firma aufnehmen musste. In seinem Fall standen Fragen auf Texttafeln, manchmal moderieren Avatare das Gespräch. Jeweils 30 Sekunden Zeit hatte Karim, um auf eine Frage eine Antwort aufzunehmen. «Das war stressig. Ich hatte Sorge, meinen Text nicht in der vorgegebenen Zeit unterbringen zu können. Dann würde man ziemlich blöd dastehen.» Ein Hinweis hatte Karim darauf aufmerksam gemacht, dass das Video zum Teil maschinell ausgewertet würde. Was dabei genau passierte, erfuhr er aber nie.
Und genau dieser Punkt: Die automatisierte, maschinelle Auswertung von Videoanalysen ist wissenschaftlich gesehen äußerst umstritten:
Auch andere Experten stimmen hier voll mit ihr überein:
„Unternehmen oder Bewerber sollten gesichtsbasierte Persönlichkeitstests, die als Produkt künstlicher Intelligenz deklariert werden, mit Skepsis begegnen.„, so Prof. Dr. Walter Simon. Auch wenn Anbieter, wie das Start-up-Unternehmen Retorio mit Sitz in München verspricht, seine Software könne, ausgehend von einem kurzen Videointerview, „Verhaltensweisen erkennen und darauf aufbauend ein Persönlichkeitsprofil erstellen“ kann man auf diese Versprechungen nicht allzu viel geben. Bei dieser Art von computergestützter automatisierter Videoanalyse zum „Persönlichkeitscheck“, der Mimik, Gestik und Sprache von Bewerber*innen analysiert und auf dieser Basis dann ein Persönlichkeitsprofil ausspuckt (dessen Relevanz und Aussagekraft für die zu besetzende Stelle außerdem noch fraglich ist) ist aber größte Vorsicht geboten, denn die Ergebnisse sind überhaupt nicht valide.
Sie sind sogar gefährlich, da hier eine Pseudo-Objektivität und Genauigkeit (die Rede ist von einer angeblichen Genauigkeit von 90 Prozent im Vergleich zur Bewertung durch Menschen – was nur dann zutreffend ist, wenn man davon ausgeht, dass die Beurteilung durch Menschen – ohne Benutzung von validen Analyse- und Auswahlmethoden, die es ja durchaus gibt – komplett falsch und fehlerbehaftet ist) vorgegaukelt wird, die sich schnell als unhaltbar erweist. Das zeigt auch ein Praxistest eines Teams von Reporter*innen des Bayerischen Rundfunks. Das BR-Team zeichnete mit zehn Darstellern mehrere Hundert Bewerbungsgespräche auf Video auf und prüfte, wie die Software reagierte. Das erstaunliche Ergebnis: Wechselte eine Probandin beispielsweise von Hemd oder Pulli zu einem T-Shirt, veränderte die Frisur oder setzte eine Brille auf, verschoben sich die Ergebnisse der Persönlichkeitsbewertung teilweise deutlich. Wer eine Brille trug, wurde als intelligenter eingestuft als jemand, der weder kurz- noch weitsichtig ist. Trug eine Brillenträgerin ein Kopftuch gab es einen Punkteabzug bei der Intelligenz. Andererseits wurde eine Kopftuchträgerin als gewissenhaft, offener und weniger neurotisch als das Gros der Menschen beurteilt. All diese Äußerlichkeiten konnten das ermittelte Gesamtergebnis wesentlich beeinflussen.
Und es kommt noch mehr: Nicht nur Äußerlichkeiten wie Kleidung und Brille ändern, wenn man der Analysesoftware glauben darf die Persönlichkeit (und damit, so ist zumindest das Ziel der Analyse, die Eignung für einen bestimmten Job). Ob auch die Haarfarbe eine Rolle spielt für die Auswertung, wissen wir nicht (…zu befürchten wäre es aber). Offensichtlich spielt aber die Umgebung und die Aufnahmequalität des Videos ebenfalls eine gewichtige Rolle. Änderte sich der Hintergrund bei ein- und derselben Probandin wurde diese anders beurteilt. Eine Bücherwand im Hintergrund macht aus einem bodenständigen und zurückhaltenden Bewerber eine interessante und lebhafte Persönlichkeit (siehe Foto). Bei unterschiedlichen Hintergründen verschoben sich die Persönlichkeitswerte um bis zu 15 Prozent. Selbst Helligkeits- oder Sättigungswerte beeinflussten das Ergebnis. Und das alles, obwohl die Aussagen der Proband*innen in den Interviews stets Wort für Wort gleich blieben!
Wenig erstaunlich daher das folgende Fazit: Als Ergebnis der Testreihe gab es Zweifel an der Intelligenz des mit künstlicher Intelligenz ausgestatteten Persönlichkeitstests. Anbieter wie HireVue selbst erkannten, dass die Ergebnisse aus der Bildanalyse des Gesichts nur schwache Hinweise zum Leistungsverhalten liefern. Man analysiert deshalb nur noch die Tonspur. …wobei bezweifelt werden muss, dass das genauere Ergebnisse liefert.
Auch die Nähe zur pseudowissenschaftlichen Physiognomik, die versucht, aus äußeren Merkmalen des Körpers, besonders des Gesichts, auf die seelischen Eigenschaften eines Menschen – also insbesondere dessen Charakterzüge und/oder Temperament – zu schließen, und die später im 19. und 20. Jahrhundert als wissenschaftlicher Unterbau für Rassismus und Eugenik diente, gebietet – schon aus historischen Gründen – größte Vorsicht gegenüber gesichtsanalytischen Deutungsversuchen, merkt Prof. Dr. Walter Simon zurecht an. Solche pseudowissenschaftlichen Ansätze, die in der Vergangenheit enorm viel Leid und Schaden mit verursacht haben, dürfen auf keinen Fall, in ein neues „Hightech-Gewand“ gekleidet, eine Renaissance feiern!
Grundsätzlich gilt bei KI: Die KI-generierten Ergebnisse bzw. Vorschläge können immer nur so gut sein, wie die Datenbasis, auf die die KI zugreift. Ist die Datenbasis einseitig und selektiv, dann werden es auch die von der KI damit erzeugten Ergebnisse sein („Biaseffekt„). Am Beispiel des Internetgiganten Amazon zeigt sich, wie schnell KI-Einsatz – anders als im Abschnitt mit den Vorteilen dieser Technologie zu Beginn dieses Textes aufgelistet – zu mehr Ungleichheit und zu Diskriminierung führen kann.
[…] das Unternehmen hat […] Erfahrungen vorzuweisen, die die Grenzen der KI aufzeigen. Im Jahr 2018 wollte man einen Algorithmus entwickelt haben, der unter Bewerberinnen und Bewerbern die besten findet. Doch die Software und der Auswahlprozess landete schnell dort, wo man sie überhaupt nicht haben wollte: in der Presse. Der Vorwurf: Der Automatismus benachteiligte Frauen. Offenbar hatte die künstliche Intelligenz ein bestehendes Ungleichgewicht reproduziert. Amazon hatte schon immer viel mehr Männer eingestellt. Die KI hatte diesen Zustand gelernt. Die KI-Idee wurde zum PR-Debakel.
Auch Anbieter von KI-Lösungen zur Bewerbendenauswahl und Branchenvertretende sind ausweislich ihrer eigenen Darstellungen für die Gefahr potenzieller Biaseffekte sensibilisiert. Sie machen etwa in eigenen Veröffentlichungen im Rahmen von Handlungsempfehlungen für den Einsatz von KI im Personalwesen darauf aufmerksam, dass – sowohl aus wirtschaftlicher als auch aus ethischer Perspektive – die Gefahr eines sich verstärkenden Bias gegeben sein kann (BPM 2019, S.16 ff.; Ernst & Young 2018, S.7; Guenole/Feinzig 2018, S.30). [1].
Auch wir bei DNLA arbeiten mit einer großen Datenbasis und mit einem lernenden System. Daher wissen wir selbstverständlich auch um den Wert von aussagekräftigen Daten und Datenauswertungen bei der Personalentwicklung und bei der (Vor-)auswahl von Bewerberinnen und Bewerbern und die als Kritik an KI-gestützter Personalauswahl vorgebrachten Punkte sind auch für unsere Arbeit relevant.
Wenn diese Punkte bei der Anwendung beachtet werden, dann können Analyseinstrumente wertvolle Hilfsmittel sein und helfen, die Potenziale der unterschiedlichsten Bewerber*innen zu erfassen und voll zu entwickeln.
Das Perfect Match von Bewerberinnen und Bewerbern mit einem Unternehmen wird also in den Händen derer bleiben, die in den Personalabteilungen die Verantwortung tragen. Eine fundierte Beurteilung und echte Menschenkenntnis sind durch nichts zu ersetzen.
Das wird auch durch einen weiteren Aspekt unterstrichen: Bewerberinnen und Bewerber sind nicht dumm. Sie wissen, was sie beim Bewerbungsprozess erwartet – und reagieren darauf. Was früher zum Beispiel durch ein Assessment-Center-Training geschah, sieht heute so aus, dass Bewerbende ganz genau überlegen, welche Schlagworte sie in ihrer Bewerbung verwenden. Manche fügten sogar zusätzliche in weisser Schrift ein, […], damit sie der Computer ausliest, aber der Mensch nicht sieht.
Außerdem ist es fraglich, ob die „Entpersonalisierung“ / „Entmenschlichung“ des Bewerbungsprozesses für Unternehmen unter den heutigen Bedingungen des gravierenden Fachkräftemangels der richtige Weg ist.
Auch wenn das Bedürfnis nach zunehmender Automatisierung und Effizienzsteigerung bei der Personalauswahl gerade bei großen Unternehmen nachvollziehbar ist: Sie kann, wenn sie übertrieben stark ausgereizt wird, schnell mehr Schaden als Nutzen stiften. Denn die aktuellen HR-Trends, wie die gestiegene Bedeutung der Employee-Experience, der Wandel des Arbeitsmarktes zum Bewerbermarkt und die Notwendigkeit, verstärkte Anstrengungen in Sachen Integration zu unternehmen und offener zu sein für Kandidat*innen und Bewerbergruppen, die vielleicht nicht den klassischen, früheren Wunschvorstellungen entsprechen ebenso wie der Trend zum „Skills-based-hiring“, bei dem es mehr auf konkrete Kompetenzen und weniger auf formelle Bildungsabschlüsse und Qualifikationen ankommt, widersprechen alle der Idee, den Prozess der Rekrutierung und der Kandidaten(vor)auswahl zu stark zu automatisieren und zu vereinfachen.
Die Unternehmen, die es sich hier zu einfach machen, werden viele wertvolle Bewerber*innen voller Potenzial von vornherein und aus den völlig falschen Gründen und Selektionsmechanismen heraus ausschließen. Sie werden eher „stromlinienförmige“ Kandidatinnen und Kandidaten „von der Stange“ erhalten, die das Unternehmen vielleicht ihrerseits nur als Durchgangsstation oder Karrieresprungbrett sehen.
Die Unternehmen aber, die sich hier Mühe geben und die von Anfang an Zeit investieren und eine – in beiderlei Sinne des Wortes – menschliche Vorgehensweise wählen, werden in der Lage sein, die „hidden champions“ zu erkennen und echte Potenzialträger gewinnen, die sich, gemeinsam mit dem Unternehmen, positiv entwickeln, die wachsen, und die Dinge möglich machen, die sich vorher niemand (egal ob Mensch oder KI) hätte vorstellen können.
[1] TAB – Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag: „Robo-Recruiting – Einsatz künstlicher Intelligenz bei der Personalauswahl“, Themenkurzprofil Nr. 40 | Robert Peters | April 2020
Ihr direkter Draht zu DNLA - Wir beantworten alle Ihre Anfragen schnell und konkret.