Fortschrittsgedanken: Dr. Anna Christmann MdB
02.10.2022
Zum Format:
"Fortschrittsgedanken" erscheint wöchentlich auf dem FAIR.nrw Blog und stellt die Meinung verschiedener Expertinnen und Experten aus Forschung und Praxis zu immer gleichbleibenden Fragen dar. Dabei geht es primär um das Thema Algorithmen in der Personalauswahl.
Zur Autorin:
Dr. Anna Christmann ist seit 2017 Mitglied des Deutschen Bundestages und ist dort Sprecherin für Innovations- und Technologiepolitik sowie für Bürgerschaftliches Engagement der Fraktion von Bündnis 90/Die Grünen. Sie promovierte 2011 an der Universität Bern in Politikwissenschaft und arbeitete danach am Zentrum für Demokratie der Universität Zürich. Ab 2013 war sie im Wissenschaftsministerium in Stuttgart als Büroleiterin der Ministerin und als Grundsatzreferentin in der Wissenschaftspolitik tätig.
Welche Chancen bieten Algorithmen in der Personalauswahl und wo liegen Risiken?
Welche Chancen bieten Algorithmen in der Personalauswahl und wo liegen Risiken?
Bei einer großen Anzahl Bewerber*innen kann es sinnvoll sein, eine automatisierte Vorauswahl zu treffen. So können Bewerbungen, die nicht die erforderlichen Kriterien, wie beispielsweise ein bestimmtes Level der Berufserfahrung erfüllen, aussortiert werden. So wird den Personaler*innen Arbeit abgenommen und sie können sich auf jene Bewerbungen konzentrieren, die alle Anforderungen erfüllen. Die Algorithmen, die in diesem Bereich eingesetzt werden, müssen aber überprüfbar sein und sichergestellt werden, dass sie nicht systemisch eine bestimmte Personengruppe diskriminieren.
Risikoreich können sogenannte People Analytics Anwendungen sein, da sie automatisiert, aber auch mit maschinellem Lernen Charakteristika der Bewerber*innen auswerten und diese dann Kategorisieren. Beispielsweise werden in Bewerbungsgesprächen gegebene Antworten, aber auch die Stimmlage der Bewerber*innen ausgewertet und daraus Rückschlüsse auf ihre Persönlichkeit gezogen. In einem solchen Fall hat die Bewerberin keinen Einfluss darauf, wie sie bewertet wird. Oft unterliegen die in Personalauswahlsystemen eingesetzten Algorithmen auch dem Geschäftsgeheimnis und es ist sehr schwierig, sie auf mögliche Diskriminierung zu untersuchen.
Risikoreich können sogenannte People Analytics Anwendungen sein, da sie automatisiert, aber auch mit maschinellem Lernen Charakteristika der Bewerber*innen auswerten und diese dann Kategorisieren. Beispielsweise werden in Bewerbungsgesprächen gegebene Antworten, aber auch die Stimmlage der Bewerber*innen ausgewertet und daraus Rückschlüsse auf ihre Persönlichkeit gezogen. In einem solchen Fall hat die Bewerberin keinen Einfluss darauf, wie sie bewertet wird. Oft unterliegen die in Personalauswahlsystemen eingesetzten Algorithmen auch dem Geschäftsgeheimnis und es ist sehr schwierig, sie auf mögliche Diskriminierung zu untersuchen.
Welchen Einfluss hat Diskriminierung in der Personalauswahl?
Unabhängig von algorithmischen Systemen gibt es Diskriminierung bei der Personalauswahl. Sei es, dass Menschen mit einem ausländisch klingenden Namen nicht zum Bewerbungsgespräch eingeladen werden oder Frauen weniger Gehalt bekommen. Diese Strukturen können durch Algorithmen aber noch verstärkt werden. Wenn beispielsweise ein System erkennt, dass Frauen tendenziell mehr Elternzeit nehmen, kann es sein, dass es eher eine Empfehlung gibt, einen Mann einzustellen. Diesen Bias kann auch ein Mensch haben, aber ist er in einem automatisierten System hinterlegt, kommt der Bias in jeder Bewerbung zum Einsatz, anstatt nur in denen, die von einer bestimmten Person beurteilt werden.
Können Algorithmen dabei helfen Diskriminierung in der Personalauswahl abzubauen?
In das Gespräch zwischen Personaler und Bewerberin hineinzuschauen ist nur punktuell möglich. Einen Algorithmus kann man aber auf strukturelle Diskriminierung untersuchen und verändern. Datengetriebene Personalauswahl eröffnet neue Möglichkeiten bei der Überprüfung von Diskriminierung auch in analogen Personalgesprächen. Denn was viele als Erfahrungswerte vielleicht berichten können, zeigt sich dann ganz klar in den Zahlen. Dieser Informationszugewinn sollte genutzt werden, um Diskriminierung bei der Personalauswahl zu minimieren.
Ganz konkret: Wie sieht der ideale Prozess für die Personalauswahl aus?
In einem idealen Personalauswahlprozess hat die Belegschaft ein Mitspracherecht, welche Werkzeuge für die Auswahl zukünftiger Angestellter eingesetzt werden. Die Personalerinnen und Personaler werden von einem geprüften System unterstützt, welches z.B. durch maschinelles Lernen die Bewerbungen vorsortiert und neutral gegenüber dem Geschlecht oder der Herkunft der Bewerbenden ist. Die entscheidenden Auswahlgespräche und -Entscheidungen werden weiterhin von Menschen getroffen.