KI-basierte Personalrekrutierung: Experiment deckt Diskriminierung durch OpenAI's GPT auf
Automatisierte Rekrutierungsprogramme, die auf OpenAi's GPT basieren, werden von Unternehmen eingesetzt, um eine Auswahl für ausgeschriebene Stellen zu treffen. Personalvermittler nutzen das Tool, um Zeit zu sparen, doch wie ein studienbasiertes Experiment von Bloomberg gezeigt hat, ist die künstliche Intelligenz bei der Bewertung und Auswahl von Bewerbern voreingenommen.
Das Problem ist, dass das zugrunde liegende KI-Modell seine Informationen aus riesigen Datenmengen wie Artikeln, Online-Kommentaren und Social-Media-Posts bezieht, die auch rassistische, frauenfeindliche und viele andere diskriminierende Inhalte enthalten können. Für die umfassende Untersuchung wurden beispielsweise fiktive Namen (und Lebensläufe) verwendet, die mit einer bestimmten ethnischen Herkunft in Verbindung gebracht werden, um sich auf eine reale Stelle zu bewerben.
So wurden Namen ausgewählt, die mit Schwarzen oder Weißen sowie mit spanischen oder asiatischen Frauen und Männernin Verbindung gebracht werden. Das Experiment wurde 1.000 Mal für eine echte Stelle als Finanzanalyst mit Hunderten von verschiedenen Namen und Namenskombinationen wiederholt und dann nochmals für vier weitere Stellen für Softwareingenieure und andere Berufsgruppen.
Namen bestimmter demographischer Gruppen wurden von GPT-3 eindeutig bevorzugt. Beispielsweise wurden weibliche Namen aus dem asiatischen Raum für die Stelle in einer Position als Finanzanalyst am besten bewertet, während Namen, die eindeutig auf Schwarze Männer hindeuteten, am schlechtesten bewertet wurden, aber auch Namen, die auf Schwarze Frauen hinwiesen, wurden nur in etwa 11 % der Fälle als Top-Kandidatin für eine Stelle als Softwareingenieurin eingestuft - etwa 36 % seltener als die Gruppe mit den besten Ergebnissen.
Als Top-Kandidat für eine Stelle im Personalwesen - ein Berufsfeld, in dem historisch häufiger Frauen arbeiteten - wählte GPT deutlich häufiger Namen, die mit spanischen Frauen assoziiert werden, und als Top-Kandidat für eine Stelle bei HR Business Partner wurden fast doppelt so häufig Namen gewählt, die mit Männern assoziiert werden. Die erwähnten Beispiele sind nur Auszüge aus dem sehr umfangreichen Experiment.
Obwohl oft angenommen wird, dass KI neutraler sei und bessere Urteile fällen könne, zeigt dieses Experiment das Gegenteil. Die Voreingenommenheit konnte nicht nur für GPT-3, sondern auch für GPT-4 festgestellt werden.