Notebookcheck Logo

Amazon verwirft KI-Tool zum Rating von Bewerbern, die KI benachteiligte weibliche Bewerber

Amazon verwirft KI-Tool zum Rating von Bewerbern, die KI benachteiligte weibliche Bewerber
Amazon verwirft KI-Tool zum Rating von Bewerbern, die KI benachteiligte weibliche Bewerber
Seit 2014 beschäftigt sich ein Programmierteam bei Amazon mit einem Tool zur Vorauswahl von Bewerbern. Dabei kommt auch Künstliche Intellligenz zum Einsatz. Das Problem: Die KI benachteiligte Frauen, da sie lernte, dass Amazon über Jahre eher Männer angestellt hatte.

Wie bei jedem erfolgreichen Unternehmen trudeln auch bei Amazon ungeheure Mengen an Bewerbungen ein. Daher gibt es schon seit langem das Bestreben zumindest den Prozess der Vorauswahl zu automatisieren und so die Personalabteilung zu entlasten.

Ein Programmierteam bei Amazon hat daher seit 2014 ein KI-Tool im Programm, welches sich durch Maschinenlernen die Kriterien für „gute“ Bewerber selbst aneignet und die künftigen Kandidaten nach Eignung ratet. Die Kriterien ergeben sich u.a. aus den positiv verlaufenden Einstellungen der Vergangenheit. Das Problem dabei: Da Amazon in den letzten 10 Jahren deutlich mehr männliche als weibliche Bewerber einstellte, schließlich ist gerade die IT-Branche noch immer stark männlich dominiert, hat die Künstliche Intelligenz „gelernt“, dass die Eigenschaft „weiblich“ eher negativ für eine Einstellung sei.

Und so hat sich das Tool selbst beigebracht, dass männliche Kandidaten zu bevorzugen seien. Ein weiteres Problem ist, dass derartige Lernprozesse einer KI nicht immer offensichtlich sind. Das unerwünschte Folgen des Lernprozesses auf Grund von bestimmtem „Lernmaterial“ auftreten, wird teils erst spät erkannt. Natürlich haben die Programmierer versucht das Tool anzupassen und abzuändern. Dennoch konnte man sich nicht sicher sein, dass die KI nicht weitere, bisher unentdeckte Vorurteile „gelernt“ hatte. Letzten Endes zeigte sich das Unternehmen enttäuscht über das Ergebnis und stampfte das Projekt vorerst ein, das Team wurde aufgelöst.

Quelle(n)

Alle 2 Beträge lesen / Antworten
static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
Mail Logo
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2018-10 > Amazon verwirft KI-Tool zum Rating von Bewerbern, die KI benachteiligte weibliche Bewerber
Autor: Christian Hintze, 10.10.2018 (Update: 10.10.2018)