Fortschrittsgedanken: Virginia Sondergeld

Fortschrittsgedanken: Virginia Sondergeld


Zum Format:

"Fortschrittsgedanken" erscheint wöchentlich auf dem FAIR.nrw Blog und stellt die Meinung verschiedener Expertinnen und Experten aus Forschung und Praxis zu immer gleichbleibenden Fragen dar. Dabei geht es primär um das Thema Algorithmen in der Personalauswahl.

Meinungsbarometer

Zur Autorin:
Virginia ist Doktorandin am DIW Berlin und forscht zu den Themen Arbeitsmärkte und Gender. Sie ist Vorsitzende von The Women in Economics Initiative, welche zum Ziel hat, Ökonominnen in ihrer beruflichen Entwicklung zu unterstützen und eine Plattform für Dialoge zu Geschlechtergleichstellung und Diversität in der VWL bereitzustellen. Vor ihrer Promotion war Virginia als Economic Analyst bei NERA Economic Consulting tätig. Sie hält einen BSc Wirtschaftswissenschaften der Goethe-Universität Frankfurt sowie einen MSc Economics der London School of Economics.

Welche Chancen bieten Algorithmen in der Personalauswahl und wo liegen Risiken?
Auf der Angebotsseite helfen Algorithmen, die Jobsuche z.B. durch personalisierte Empfehlungen, Chatbots zur Beantwortung von Routinefragen effizienter zu gestalten. Auf der Nachfrageseite helfen Algorithmen, Ressourcen bei der Vorauswahl von Bewerbern zu sparen. Weiter können sie „von Mensch“ zu treffende Entscheidungen ergänzen, zu deren kritischer Hinterfragung anregen. Als Herausforderung sehe ich es, Biases in Modellen zu erkennen, welche auf Biases in den von Menschen erstellten Trainingssets zurückzuführen sind. Ohne Korrektur werden sich diese in den Entscheidungen des Algorithmus manifestieren. Zu beantworten bleibt hierbei die Frage, anhand welcher Kriterien und Maße von Fairness wir die Entscheidungen des Algorithmus bewerten und entsprechend korrigieren möchten.

Welchen Einfluss hat Diskriminierung in der Personalauswahl?
Deutschland besitzt weitreichende gesetzliche Regelungen gegen Diskriminierung, die potenziellen Kandidaten entsprechende Rechtsansprüche einräumen. Diese Maßnahmen sind jedoch immer nur so effektiv, wie sie von den Betroffenen auch genutzt werden. Aufgrund von fehlender Kenntnis oder vor dem Hintergrund von wahrgenommenen Machtgefällen geschieht dies teilweise unzureichend. Wichtig ist aus meiner Sicht weiterhin die Themen Implicit biases und Double Standards. Gleiche Handlungen oder Achievements werden für Menschen unterschiedlicher sozialer Gruppen unterschiedlich bewertet. Im Recruiting führt dies zu suboptimalen und diskriminierenden Entscheidungen.

Können Algorithmen dabei helfen Diskriminierung in der Personalauswahl abzubauen?
Ich sehe gerade im Bereich Implicit Biases Potential, Entscheidungen durch Algorithmen zu unterstützen, sofern diese explizit auf die Verminderung dieser Verzerrungen abzielen und überprüft werden. Neben der technischen Implementierung ist es essentiell, verantwortliche Mitarbeitende über die Bedeutung von Implicit Biases aufzuklären. Eine Korrektur der eigenen Wahrnehmung durch eine Maschine wird nur akzeptieren und wertschätzen, wer die Schwächen seiner eigenen Einschätzung versteht und adressieren möchte.

Ganz konkret: Wie sieht der ideale Prozess für die Personalauswahl aus? 
Der optimale Prozess beginnt mit einer Ausschreibung, die die relevante Position, erforderliche Qualifikationen für Bewerber mit diversen Hintergründen realistisch abbildet. Der resultierende Pool an Kandidaten sollte auf Diversität und Eignung geprüft werden, um mögliche Verzerrung bei der Selbstselektion zu erkennen. Der nach der Vorauswahl auf Basis von CVs folgende Auswahlprozess besteht aus Elementen, die dem Assessment fachlicher Kompetenzen dienen, deren Auswertung mithilfe von Algorithmen erfolgen kann, sowie aus persönlichen Elementen. Hier ist es wichtig, möglichst viele Beschäftigte aus verschiedenen Rollen des Teams, miteinzubinden und eine unabhängige Bewertung sicherzustellen.

Zurück