Es sollte alles einfacher machen

Amazon schafft selbstlernendes Bewerbungs-Tool ab - weil es kuriosen Fehler macht

+
Amazon schafft ein selbstlernendes Bewerbungstool wieder ab.

Das KI-Tool sollte die Bewerberauswahl bei Amazon eigentlich erleichtern. Doch stattdessen brachte es sich selbst eine Haltung bei, die bestimmte Bewerber diskriminiert.

Beim Online-Riesen Amazon bewerben sich jedes Jahr tausende Mitarbeiter. Kein Wunder, dass sich der Online-Händler da technische Hilfe holen wollte, um die Personalabteilung zu entlasten und die Bewerberauswahl zu perfektionieren. Das ging jedoch gründlich nach hinten los. 

Amazon tüftelte an KI-Tool, um Bewerberauswahl zu perfektionieren

Bereits seit 2014 tüftelte Amazon im schottischen Edinburgh an einer künstlichen Intelligenz (KI), die alle Bewerbungen lesen und mit ein bis fünf Sternen bewerten sollte. Der Plan war, dass Personaler nur noch die Bewerber mit Fünf-Sterne-Bewertungen zum Vorstellungsgespräch einladen. 

"Sie wollten, dass das Programm sprichwörtlich eine Maschine ist, bei der ich ihr 100 Bewerbungen gebe, sie die fünf Besten ausspuckt und wir diese dann einstellen", sagte einer der involvierten Entwickler der Nachrichtenagentur Reuters. Doch als das Tool dann zum Einsatz kommen sollte, kam ein gravierender Fehler zu Tage. 

Lesen Sie auch:  Bei Amazon rollt jede Woche das "Glücksrad" - der Preis ist gefürchtet.

KI-Tool wertet Bewerbungen von Frauen ab

Die künstliche Intelligenz war zwar in der Lage, selber zu lernen und so die Bewerbungen zu beurteilen - doch dabei brachte es sich wohl die "falschen" Dinge bei. Die Entwickler hatten das Tool nämlich mit sehr ungünstigem Ausgangsmaterial "gefüttert", anhand dessen es Muster in erfolgreichen Bewerbungen erkennen sollte. Nämlich mit erfolgreichen Bewerbungen bereits bestehender Mitarbeiter. 

Diese sind jedoch - wie in der gesamten Tech-Branche - zum Großteil männlich. Das KI-Tool lernte also: Männer müssen bevorzugt werden und wertete daraufhin weibliche Bewerber ab. Auch die Ausbildung an Frauen-Universitäten kam beim Tool nicht gut an. 

Die Entwickler bemerkten den Fehler und änderten das System so, dass es das Wort Frau als neutral einstuft. Doch es wurden weitere Diskriminierungen, auch anderer Bewerber-Gruppen, befürchtet - und so wurde das System nach drei Jahren im Test abgeschaltet. Amazon beteuert jedoch, dass das KI-Tool nie wirklich von Personalern eingesetzt wurde - höchstens um ihre eigene Beurteilung vom Tool überprüfen zu lassen.

Auch interessant:  So läuft ein Tag bei Amazon-Gründer Jeff Bezos ab.

Wollen Sie über aktuelle Karriere-News auf dem Laufenden bleiben? Dann folgen Sie unserer Branchenseite auf dem Karriereportal Xing.

Von Andrea Stettner

Zehn Dinge, die Sie im Bewerbungsgespräch sofort disqualifizieren

Das könnte Sie auch interessieren

Kommentare