In diesem Beitrag betrachten wir den Einsatz von KI, Chatbots und Avataren bei der Personalauswahl. Dabei beleuchten wir insbesondere kritische Aspekte und Gefahren beim Einsatz dieser Methoden.
Nach den wichtigsten Punkten der Kritik an KI-gestützter Personalauswahl stellen wir auch alternative Möglichkeiten vor: Am Ende des Beitrags fassen wir die wichtigsten Qualitätskriterien für Auswahlverfahren und Einstellungstests vor und wir empfehlen Alternativen zum Einsatz von KI und Chatbots bei der Personalauswahl.
Viele Unternehmen versprechen sich Großes vom Einsatz von künstlicher Intelligenz bei der Personalauswahl. Mit ihrer zunehmenden Popularität wächst aber auch die Kritik an KI-gestützter Personalauswahl. Doch der Reihe nach: Welche Vorteile können Automatisierung und der Einsatz von KI im Prozess der Kandidatensuche und Kandidatenauswahl bieten?
Automatisierung und KI scheinen also wirklich einige Vorteile im Bewerbungs- und Auswahlprozess zu bieten. Aber, wie auch im vorangegangenen Expertenstatement des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag schon deutlich geworden ist, es kommt sehr auf die konkrete Ausgestaltung an, und auch darauf, nicht zu einseitig auf KI zu setzen und bestimmte Grenzen nicht zu überschreiten.
Und genau hier wird es kritisch.
Während seltsame Fragen und Aufgabenstellungen mit unklarer Relevanz und wenig Bezug zum eigentlichen Job auch bei „klassischen“ Auswahlverfahren anzutreffen sind, verhält es sich beim Einsatz von Videoanalysen und deren Auswertung mit Hilfe von KI gänzlich anders.
Hier in einem Beitrag der NZZ wird von den Erfahrungen eines Probanden berichtet: Anders war das bei dem Video-Interview, das er für eine andere Firma aufnehmen musste. In seinem Fall standen Fragen auf Texttafeln, manchmal moderieren Avatare das Gespräch. Jeweils 30 Sekunden Zeit hatte Karim, um auf eine Frage eine Antwort aufzunehmen. «Das war stressig. Ich hatte Sorge, meinen Text nicht in der vorgegebenen Zeit unterbringen zu können. Dann würde man ziemlich blöd dastehen.» Ein Hinweis hatte Karim darauf aufmerksam gemacht, dass das Video zum Teil maschinell ausgewertet würde. Was dabei genau passierte, erfuhr er aber nie.
Und genau dieser Punkt: Die automatisierte, maschinelle Auswertung von Videoanalysen ist wissenschaftlich gesehen äußerst umstritten:
Auch andere Experten stimmen hier voll mit ihr überein:
„Unternehmen oder Bewerber sollten gesichtsbasierte Persönlichkeitstests, die als Produkt künstlicher Intelligenz deklariert werden, mit Skepsis begegnen.„, so Prof. Dr. Walter Simon. Auch wenn Anbieter, wie das Start-up-Unternehmen Retorio mit Sitz in München verspricht, seine Software könne, ausgehend von einem kurzen Videointerview, „Verhaltensweisen erkennen und darauf aufbauend ein Persönlichkeitsprofil erstellen“ kann man auf diese Versprechungen nicht allzu viel geben. Bei dieser Art von computergestützter automatisierter Videoanalyse zum „Persönlichkeitscheck“, der Mimik, Gestik und Sprache von Bewerber*innen analysiert und auf dieser Basis dann ein Persönlichkeitsprofil ausspuckt (dessen Relevanz und Aussagekraft für die zu besetzende Stelle außerdem noch fraglich ist) ist aber größte Vorsicht geboten, denn die Ergebnisse sind überhaupt nicht valide.
Sie sind sogar gefährlich, da hier eine Pseudo-Objektivität und Genauigkeit (die Rede ist von einer angeblichen Genauigkeit von 90 Prozent im Vergleich zur Bewertung durch Menschen – was nur dann zutreffend ist, wenn man davon ausgeht, dass die Beurteilung durch Menschen – ohne Benutzung von validen Analyse- und Auswahlmethoden, die es ja durchaus gibt – komplett falsch und fehlerbehaftet ist) vorgegaukelt wird, die sich schnell als unhaltbar erweist. Das zeigt auch ein Praxistest eines Teams von Reporter*innen des Bayerischen Rundfunks. Das BR-Team zeichnete mit zehn Darstellern mehrere Hundert Bewerbungsgespräche auf Video auf und prüfte, wie die Software reagierte. Das erstaunliche Ergebnis: Wechselte eine Probandin beispielsweise von Hemd oder Pulli zu einem T-Shirt, veränderte die Frisur oder setzte eine Brille auf, verschoben sich die Ergebnisse der Persönlichkeitsbewertung teilweise deutlich. Wer eine Brille trug, wurde als intelligenter eingestuft als jemand, der weder kurz- noch weitsichtig ist. Trug eine Brillenträgerin ein Kopftuch gab es einen Punkteabzug bei der Intelligenz. Andererseits wurde eine Kopftuchträgerin als gewissenhaft, offener und weniger neurotisch als das Gros der Menschen beurteilt. All diese Äußerlichkeiten konnten das ermittelte Gesamtergebnis wesentlich beeinflussen.
Und es kommt noch mehr: Nicht nur Äußerlichkeiten wie Kleidung und Brille ändern, wenn man der Analysesoftware glauben darf die Persönlichkeit (und damit, so ist zumindest das Ziel der Analyse, die Eignung für einen bestimmten Job). Ob auch die Haarfarbe eine Rolle spielt für die Auswertung, wissen wir nicht (…zu befürchten wäre es aber). Offensichtlich spielt aber die Umgebung und die Aufnahmequalität des Videos ebenfalls eine gewichtige Rolle. Änderte sich der Hintergrund bei ein- und derselben Probandin wurde diese anders beurteilt. Eine Bücherwand im Hintergrund macht aus einem bodenständigen und zurückhaltenden Bewerber eine interessante und lebhafte Persönlichkeit (siehe Foto). Bei unterschiedlichen Hintergründen verschoben sich die Persönlichkeitswerte um bis zu 15 Prozent. Selbst Helligkeits- oder Sättigungswerte beeinflussten das Ergebnis. Und das alles, obwohl die Aussagen der Proband*innen in den Interviews stets Wort für Wort gleich blieben!
Wenig erstaunlich daher das folgende Fazit: Als Ergebnis der Testreihe gab es Zweifel an der Intelligenz des mit künstlicher Intelligenz ausgestatteten Persönlichkeitstests. Anbieter wie HireVue selbst erkannten, dass die Ergebnisse aus der Bildanalyse des Gesichts nur schwache Hinweise zum Leistungsverhalten liefern. Man analysiert deshalb nur noch die Tonspur. …wobei bezweifelt werden muss, dass das genauere Ergebnisse liefert.
Auch die Nähe zur pseudowissenschaftlichen Physiognomik, die versucht, aus äußeren Merkmalen des Körpers, besonders des Gesichts, auf die seelischen Eigenschaften eines Menschen – also insbesondere dessen Charakterzüge und/oder Temperament – zu schließen, und die später im 19. und 20. Jahrhundert als wissenschaftlicher Unterbau für Rassismus und Eugenik diente, gebietet – schon aus historischen Gründen – größte Vorsicht gegenüber gesichtsanalytischen Deutungsversuchen, merkt Prof. Dr. Walter Simon zurecht an. Solche pseudowissenschaftlichen Ansätze, die in der Vergangenheit enorm viel Leid und Schaden mit verursacht haben, dürfen auf keinen Fall, in ein neues „Hightech-Gewand“ gekleidet, eine Renaissance feiern!
Grundsätzlich gilt bei KI: Die KI-generierten Ergebnisse bzw. Vorschläge können immer nur so gut sein, wie die Datenbasis, auf die die KI zugreift. Ist die Datenbasis einseitig und selektiv, dann werden es auch die von der KI damit erzeugten Ergebnisse sein („Biaseffekt„). Am Beispiel des Internetgiganten Amazon zeigt sich, wie schnell KI-Einsatz – anders als im Abschnitt mit den Vorteilen dieser Technologie zu Beginn dieses Textes aufgelistet – zu mehr Ungleichheit und zu Diskriminierung führen kann.
[…] das Unternehmen hat […] Erfahrungen vorzuweisen, die die Grenzen der KI aufzeigen. Im Jahr 2018 wollte man einen Algorithmus entwickelt haben, der unter Bewerberinnen und Bewerbern die besten findet. Doch die Software und der Auswahlprozess landete schnell dort, wo man sie überhaupt nicht haben wollte: in der Presse. Der Vorwurf: Der Automatismus benachteiligte Frauen. Offenbar hatte die künstliche Intelligenz ein bestehendes Ungleichgewicht reproduziert. Amazon hatte schon immer viel mehr Männer eingestellt. Die KI hatte diesen Zustand gelernt. Die KI-Idee wurde zum PR-Debakel.
Auch Anbieter von KI-Lösungen zur Bewerbendenauswahl und Branchenvertretende sind ausweislich ihrer eigenen Darstellungen für die Gefahr potenzieller Biaseffekte sensibilisiert. Sie machen etwa in eigenen Veröffentlichungen im Rahmen von Handlungsempfehlungen für den Einsatz von KI im Personalwesen darauf aufmerksam, dass – sowohl aus wirtschaftlicher als auch aus ethischer Perspektive – die Gefahr eines sich verstärkenden Bias gegeben sein kann (BPM 2019, S.16 ff.; Ernst & Young 2018, S.7; Guenole/Feinzig 2018, S.30). [1].
Auch wir bei DNLA arbeiten mit einer großen Datenbasis und mit einem lernenden System. Daher wissen wir selbstverständlich auch um den Wert von aussagekräftigen Daten und Datenauswertungen bei der Personalentwicklung und bei der (Vor-)auswahl von Bewerberinnen und Bewerbern und die als Kritik an KI-gestützter Personalauswahl vorgebrachten Punkte sind auch für unsere Arbeit relevant.
Wenn diese Punkte bei der Anwendung beachtet werden, dann können Analyseinstrumente wertvolle Hilfsmittel sein und helfen, die Potenziale der unterschiedlichsten Bewerber*innen zu erfassen und voll zu entwickeln.
Das Perfect Match von Bewerberinnen und Bewerbern mit einem Unternehmen wird also in den Händen derer bleiben, die in den Personalabteilungen die Verantwortung tragen. Eine fundierte Beurteilung und echte Menschenkenntnis sind durch nichts zu ersetzen.
Das wird auch durch einen weiteren Aspekt unterstrichen: Bewerberinnen und Bewerber sind nicht dumm. Sie wissen, was sie beim Bewerbungsprozess erwartet – und reagieren darauf. Was früher zum Beispiel durch ein Assessment-Center-Training geschah, sieht heute so aus, dass Bewerbende ganz genau überlegen, welche Schlagworte sie in ihrer Bewerbung verwenden. Manche fügten sogar zusätzliche in weisser Schrift ein, […], damit sie der Computer ausliest, aber der Mensch nicht sieht.
Außerdem ist es fraglich, ob die „Entpersonalisierung“ / „Entmenschlichung“ des Bewerbungsprozesses für Unternehmen unter den heutigen Bedingungen des gravierenden Fachkräftemangels der richtige Weg ist.
Auch wenn das Bedürfnis nach zunehmender Automatisierung und Effizienzsteigerung bei der Personalauswahl gerade bei großen Unternehmen nachvollziehbar ist: Sie kann, wenn sie übertrieben stark ausgereizt wird, schnell mehr Schaden als Nutzen stiften. Denn die aktuellen HR-Trends, wie die gestiegene Bedeutung der Employee-Experience, der Wandel des Arbeitsmarktes zum Bewerbermarkt und die Notwendigkeit, verstärkte Anstrengungen in Sachen Integration zu unternehmen und offener zu sein für Kandidat*innen und Bewerbergruppen, die vielleicht nicht den klassischen, früheren Wunschvorstellungen entsprechen ebenso wie der Trend zum „Skills-based-hiring“, bei dem es mehr auf konkrete Kompetenzen und weniger auf formelle Bildungsabschlüsse und Qualifikationen ankommt, widersprechen alle der Idee, den Prozess der Rekrutierung und der Kandidaten(vor)auswahl zu stark zu automatisieren und zu vereinfachen.
Die Unternehmen, die es sich hier zu einfach machen, werden viele wertvolle Bewerber*innen voller Potenzial von vornherein und aus den völlig falschen Gründen und Selektionsmechanismen heraus ausschließen. Sie werden eher „stromlinienförmige“ Kandidatinnen und Kandidaten „von der Stange“ erhalten, die das Unternehmen vielleicht ihrerseits nur als Durchgangsstation oder Karrieresprungbrett sehen.
Die Unternehmen aber, die sich hier Mühe geben und die von Anfang an Zeit investieren und eine – in beiderlei Sinne des Wortes – menschliche Vorgehensweise wählen, werden in der Lage sein, die „hidden champions“ zu erkennen und echte Potenzialträger gewinnen, die sich, gemeinsam mit dem Unternehmen, positiv entwickeln, die wachsen, und die Dinge möglich machen, die sich vorher niemand (egal ob Mensch oder KI) hätte vorstellen können.
[1] TAB – Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag: „Robo-Recruiting – Einsatz künstlicher Intelligenz bei der Personalauswahl“, Themenkurzprofil Nr. 40 | Robert Peters | April 2020
In diesem Beitrag zeigen wir, wie groß die Unzufriedenheit der Mitarbeitenden mit ihren Führungskräften ist. Wir werfen die Frage auf, ob KI Führungskräfte bei ihren Aufgaben entlasten kann oder ob eine KI inzwischen schon, wie durchaus postuliert wird, den meisten menschlichen Führungskräften überlegen ist.
Im Fazit am Ende des Artikels ziehen wir Bilanz und zeigen, welcher Weg Stand heute der zukunftsträchtigste ist.
Es ist ein altes Lied, und es ist ein Klagelied, das die Mitarbeitenden anstimmen, wenn es um den Großteil der Führungskräfte geht: Die meisten Mitarbeitenden sind unzufrieden mit ihren direkten Vorgesetzten, und das massiv und zwar seit Jahren.
Führungskräfte, die ihre Rolle nicht richtig ausfüllen, Mitarbeitende, die deswegen frustriert sind – trauriger Alltag in Deutschlands Unternehmen.
Woran mangelt es aber konkret? Was beklagen die Mitarbeitenden, was vermissen sie bei ihren Chefinnen und Chefs? Dazu gibt es interessante Zahlen: Im Beitrag „Wunsch und Wirklichkeit Fachkräfte wünschen sich bessere Chefs“ wird eine Studie vorgestellt, in der über 2000 Fachkräfte dazu befragt wurden, was sie sich von ihren Vorgesetzten wünschen. Das sind vor allem
1. Fachkompetenz des Vorgesetzten: Gewünscht von 87,2% der Mitarbeitenden.
2. Wertschätzung für die Mitarbeitenden und für deren Arbeit: Gewünscht von 86,1% der Mitarbeitenden.
3. Rückhalt geben und Vertrauen: Gewünscht von 84,4% der Mitarbeitenden.
Das folgende Schaubild zeigt, wie viele der Befragten bei derselben Befragung angeben, diese erwünschten Dinge auch von ihren Vorgesetzten zu bekommen:
Quelle: Eigene Darstellung, nach Zahlen aus dem Artikel „Wunsch und Wirklichkeit Fachkräfte wünschen sich bessere Chefs“ von Nora Schareika.
Weiterhin erwünscht sind die folgenden drei Punkte:
1. „Er / Sie hilft mir, besser zu werden:“
2. „Er / sie motiviert mich:“
3. „Er / sie hat meine Arbeitsbelastung im Blick:“
…und auch hier gibt es eine gewaltig große Lücke zwischen Wunsch und Wirklichkeit:
Quelle: Eigene Darstellung, nach Zahlen aus dem Artikel „Wunsch und Wirklichkeit Fachkräfte wünschen sich bessere Chefs“ von Nora Schareika.
Ein Grund dafür dürften die Kriterien sein, nach denen Führungskräfte ausgewählt werden. Laut einer Studie von Gallup „wählen Unternehmen in 82% der Fälle eine Führungskraft, die nicht die richtigen Talente für die Funktion hat. Grund für Beförderungen in die Management-Ebene sind:
Also bleibt festzuhalten, dass es bei der Führungskräfteauswahl hapert und dass viele Führungskräfte – zumindest aus der Sicht ihrer Mitarbeiterinnen und Mitarbeiter – ihre Führungsaufgaben äußerst unzureichend erfüllen.
Wenn man manchen Fachleuten glaubt, so fällt diese Antwort sehr eindeutig aus: „Ja!“.
Niels Van Quaquebeke, Professor für Leadership and Organizational Behavior an der Kühne Logistics University in Hamburg, beispielsweise geht in seinem gemeinsam mit Fabiola Gerpott veröffentlichten Artikel mit dem Titel: „The Now, New, and Next of Digital Leadership: How Artificial Intelligence Will Take Over and Change Leadership as We Know It“ davon aus, dass Technik künftig immer mehr Führungsaufgaben in Firmen übernehmen wird.
Ja mehr noch: Nicht nur in Zukunft sieht er KI (künstliche Intelligenzen) menschlichen Führungekräften in vielen Punkten überlegen – auch heute schon, so seine Einschätzung, ist „KI besser als durchschnittliche Führungskräfte“.
Letztlich sieht er drei Phasen:
Diese Sicht ist sicher etwas einseitig, wird aber im weiteren Text mit interessanten Beispielen und Indizien belegt. „Wenn wir ehrlich sind, sind nicht alle Führungskräfte grandios. Unternehmen haben oft Schwierigkeiten, überhaupt Leute zu finden, die führen wollen und können. Wenn wir also fair vergleichen – eine KI mit einer durchschnittlichen Führungskraft –, dann wird die KI vermutlich besser abschneiden. […] Zum einen trifft sie schnell analytische, datengetriebene Entscheidungen. Aus strategischer Sicht ist das im Normalfall besser.“
KI haben sicherlich einige Vorteile:
Bezogen auf die oben genannten Wünsche der Mitarbeitenden, könnte sie also möglicherweise in Sachen Fachkompetenz in einigen Bereichen mithalten und den Mitarbeitenden vielleicht auch dabei mithelfen, (fachlich) besser zu werden.
Wie sieht es aber mit den anderen Punkten aus? Mit echter Wertschätzung für die Mitarbeiterinnen und Mitarbeiter und für die von ihnen geleistete Arbeit? Mit Rückhalt und Vertrauen? Mit Motivation und Begeisterung? Und mit der Beachtung der persönlichen Situation und der persönlichen (Arbeits-)belastung?
Auch hierzu sieht Niels Van Quaquebeke eine KI bereits in der Lage: Sie [die KI] „kann, das ist unsere These, auch die klassische Führungsrolle besser ausfüllen. Sie kann also besser auf die Bedürfnisse der Mitarbeiterinnen und Mitarbeiter eingehen, kann ein persönlicher Coach und Motivator sein […, denn] eine KI kann die psychologischen Bedürfnisse des Menschen befriedigen, die für intrinsische Motivation nötig sind, nämlich die Bedürfnisse nach Autonomie, Kompetenz und Verbundenheit. Besser als gestresste Führungskräfte. Aus mehreren Gründen: Erstens hat eine KI schlicht mehr Zeit. Sie ist rund um die Uhr für mich da; ich kann meine Anliegen direkt klären und dadurch autonomer arbeiten. Zweitens hat sie ein besseres Gedächtnis; sie wird einbeziehen können, was ich ihr vor Jahren mal gesagt habe. Drittens kann sie meine individuelle Kommunikation analysieren, darauf eingehen und ihr Vokabular daran anpassen.“
Kann ich also von einer Maschine tatsächlich besser Wertschätzung, Rückendeckung und Motivation vermittelt bekommen als von einem Menschen? Wer diese Frage für sich guten Gewissens mit „Ja“ beantwortet, der hat dringend bessere Vorgesetzte verdient.
Es gibt zahlreiche Untersuchungen, die zeigen, die wichtig gerade „weiche“ Faktoren wie die emotionale Bindung ans Unternehmen, Inspiration und gemeinsame Werte, Untertützung, gegenseitiges Vertrauen und loyale Führung und eine positive, mitarbeiterorientierte Unternehmenskultur sind.
Und diese „weichen“ Erfolgsfaktoren lassen sich nicht einfach durch technische Lösungen herbeiführen.
Und selbst bei dem dann immer noch übrig bleibenden Vorteil, dass eine KI ganz vorurteilsfrei und „objektiv“ Entscheidungen trifft, sind Zweifel angebracht. So merkt beispielsweise Sabine Köszegi, Seit Juli diesen Jahres Vorsitzende des Unesco-Fachbeirats für Ethik in der KI, an:
Sabine T. Köszegi, Professorin an der TU Wien – Mensch-Arbeit-Technologie, Vorsitzende des Unesco-Fachbeirats für Ethik in der KI. (Bildquelle: Linkedin-Profil von Sabine T. Köszegi).
Um Missstände erkennen zu können, muss die KI auch mit den richtigen Daten gefüttert werden.
Dazu ein einfaches Beispiel: Eine gute Chefin / ein guter Chef merkt – durch viele kleine, subtile Anzeichen, dass eine Mitarbeiterin / ein Mitarbeiter gerade überlastet ist oder anders drauf als sonst. Sie wird dann darauf eingehen und praktikable Lösungen finden. Und das wiederum lohnt sich für alle:
Natürlich kann eine KI sehr gut anhand vorliegender Daten erkennen, welche Mitarbeiter*innen in einem Unternehmen Anzeichen von Überarbeitung und Stressbelastung zeigen – vorausgesetzt
a) man gibt ihr den Auftrag dazu (womit wir bei der interessanten und hochrelevanten Frage wären: Wer „führt“ eigentlich die KI? Wer entscheidet, in welchen Bereichen sie eingesetzt wird? Wer bestimmt, welche Fragen mittels KI beantwortet werden? Und ist im Nachhinein noch für alle transparent, auf welcher Datenbasis das geschieht?) und
b) der KI stehen die dazu nötigen Daten zur Verfügung. Das würde aber voraussetzen, dass die Mitarbeitenden – und zwar regelmäßig und immer wiederkehrend, an sich sogar täglich! – Fragen zu ihrem Gesundheitszustand und zu ihrer persönlichen Stressbelastung gestellt bekommen.
Geht das so einfach? Möchte ich das? Darf ich das überhaupt? Wieviel Zeit nimmt das in Anspruch? Und sollte ich nicht sowieso besser, wenn ich die Mitarbeiter*innen, die vielleicht überlastet sind und bei denen eine gesundheitliche Gefährdung vorliegen könnte, rechtzeitig herausfiltern möchte, deren Kolleginnen und Kollegen fragen, weil die vielleicht objektiver sind als die Betroffenen selbst?
…schwierige Fragen und viel Aufwand, um zum gewünschten Ergebnis zu kommen.
Da ist also vielleicht die oder der Vorgesetzte, die meine Augenringe bemerken und die mitbekommen, dass ich hustend und schniefend im Büro sitze, und die dann wie im oben geschilderten Beispiel reagieren mit ihrer Emotionalen Intelligenz der Künstlichen Intelligenz doch noch deutlich überlegen.
Ganz abgesehen davon gibt es noch etliche ernstzunehmende Bedenken und Akzeptanzprobleme beim Einsatz von KI in Unternehmen – und das sogar schon bei viel weniger „sensiblen“ Anwendungen als im Bereich der Mitarbeiterführung.
Nach derzeitigem Stand kann eine KI als alleinige Führungsinstanz also nicht als praxistaugliche Lösung angesehen werden.
Wenn überhaupt, dann kann eine KI nur als ein Hilfsmittel bei der Entscheidungsfindung dazu beitragen, die Leistung der Führungskräfte zu verbessern. Ein „best of both worlds“, sozusagen, aus menschlichen Kompetenzen und Erfahrungen und technischer Unterstützung. Die Idee ist: Der Mensch bleibt der Pilot, die KI assistiert als Co-Pilot. Das sogenannte Co-Piloting ist ein hehres Ziel – in der Praxis aber schon wieder mit verschiedenen Schwierigkeiten verbunden.
Auf die Frage, ob KI unsere Arbeit in Zukunft eher erleichtern können wird, statt uns zu ersetzen, antwortet Sabine Köszegi, Vorsitzende des Unesco-Fachbeirats für Ethik in der KI: „Das ist immer eine Frage des Designs. KI-Systeme können so gestaltet werden, dass sie die Autonomie einschränken oder dass sie Menschen ermächtigen. Um Fragen wie diese zu klären, müssen Ethikrichtlinien und Regulierungen erarbeitet werden. Nur dann können Potenziale ausgeschöpft und Risiken gemindert werden. Den kompletten Ersatz von Menschen durch KI halte ich außerdem für problematisch, weil wir damit sehr viele Kompetenzen und Entscheidungen aus der Hand geben und Autonomie einbüßen.„
Auch wenn abzusehen ist, dass KI-Anwendungen in immer mehr Lebens- und Arbeitsbereichen Einzug halten werden: Unproblematisch sind sie nicht. Und ein „Allheilmittel“ erst recht nicht.
Eine Lösung: Besser, als menschliche Führungskräfte durch technische Lösungen zu ersetzen ist also tatsächlich immer noch, die menschlichen Führungskräfte besser zu machen – und „menschlicher“ oder, in anderen Worten: sozialkompetenter. Denn wenn wir an die Wünsche und Anforderungen denken, die die Mitarbeitenden an ihre Führungskräfte haben, dann sind dies neben der Fachkompetenz, die selbstverständlich gegeben sein muss, vor allem emotionale und soziale Kompetenzen, die hier gefordert werden: Wertschätzung zeigen, Vertrauen und Rückhalt geben, die Mitarbeitenden motivieren, ihnen dabei helfen, sich zu entwickeln und fachlich und persönlich besser zu werden, und bei alledem noch die Mitarbeitergesundheit und die Arbeitsbelastung nicht aus dem Blick zu verlieren.
Das alles klingt nicht gerade nach Aufgaben, die eine Kernkompetenz von künstlicher Intelligenz sind.
Vielmehr geht es hier um emotionale Intelligenz – die vielen derzeitigen, „klassischen“ Führungskräften (um nicht zu sagen: „Chefs“) – noch abgeht.
Eher klingt es danach, dass die Unternehmen sich von den vielleicht immer noch vorhandenen und von stereotypen Denkmustern in Bezug auf Führungsaufgaben und Führungseignung verabschieden müssen und statt nach klassisch eher als „männlich“ assoziierten Eigenschaften eher nach klassisch eher als „weiblich“ assoziierten kommunikativen und integrativen Führungsfähigkeiten schauen sollten.
Sie passen wesentlich besser in die Anforderungen der heutigen Zeit, in agile Arbeitsumgebungen und zu Kolleginnen und Kollegen aus der „Generation Z“ als klassische Führungsleitbilder und -verhaltensweisen.
Zumindest bis KI wirklich zweifelsfrei so weit sind, dass sie wirklich besser führen können als echte Menschen, sollten wir aufhören, sie als „Feigenblatt“ dafür zu benutzen, uns nicht um die seit Jahren (bzw. eher seit Jahrzehnten) bestehenden Führungsdefizite zu kümmern. Und so sollten wir sie als sinnvolles Hilfsmittel im Blick haben und für ihren Einsatz durchaus aufgeschlossen sein, andererseits aber unsere eigenen Defizite nicht einfach versuchen „auszulagern“. Denn KI kann erstaunlich viel leisten, auch im Bereich von klassischen Führungsaufgaben. Gute Führungskräfte, die ihre Mitarbeitenden [motivieren, integrieren, weiterentwickeln, besser machen] ersetzen sie jedoch nicht.
Um vorhandene Kompetenzen (und Kompetenzdefizite) besser erkennen zu können, um Coaching-Impulse in Richtung bestimmter Management- und Führungskompetenzen wie Einbeziehung, Mitarbeiter-Entwicklung, Kooperation und anderer setzen zu können und um bei der Führungskräfteauswahl nicht nach dem Augenschein oder nur nach einem möglichst dominanten, souveränen Auftreten zu urteilen, können Diagnostik- und Entwicklungsinstrumente wie DNLA MM – Management und Führung sowie DNLA ESK – Erfolgsprofil Soziale Kompetenz nützlich und Gold wert sein.
Und: Ja, auch die benchmarkbasierte Datenauswertung bei DNLA kann man als eine KI-gestützte Komponente sehen, das ist richtig. Aber genau aus dem Grund, weil wie nie einfach nur „blind“ Daten aus einer Befragung und daran anschließender Datenauswertung Glauben schenken wollen und weil aus solchen Daten keine einfachen, „automatischen“ Schlussfolgerungen gezogen werden sollen, vertreten wir bei DNLA – Discovering Natural Latent Abilities die Philosophie die Daten immer („nur“) als Gesprächsbasis und als wertvolle Unterstützung der laufenden Entwicklungs- oder Auswahlprozesse zu sehen, niemals aber als fertiges „Urteil“.
Ihr direkter Draht zu DNLA - Wir beantworten alle Ihre Anfragen schnell und konkret.