Frauen benachteiligt: Amazon stampft Recruiting-KI ein

Eine Software, die aus 100 Bewerbern automatisch die fünf vielversprechendsten herauspickt – welches Unternehmen hätte die nicht gern? Amazon wollte den Traum wahr werden lassen. Bereits 2014 machte sich der Konzern daran, mittels Künstlicher Intelligenz (KI) ein Tool für automatisiertes Recruiting zu entwickeln. 2017 wurde dieses Projekt dann ad acta gelegt, wie die Nachrichtenagentur Reuters erst jetzt herausfand – weil das Programm offenbar Frauen diskriminierte.

Sexistische Software

Wie das passieren konnte? Die verantwortlichen Entwickler hatten die Software zwar mit Unmengen an Daten von eingestellten Bewerbern der vorangegangenen zehn Jahre gefüttert, dummerweise aber übersehen, dass diese hauptsächlich von männlichen Kandidaten stammten. Dass die KI Frauen systematisch benachteiligte, fiel den Verantwortlichen dann ein Jahr später auf. So wurden männliche Kandidaten für Entwicklerjobs und andere technische Berufe unverhältnismäßig besser eingestuft als entsprechend qualifizierte Frauen. Lebensläufe mit dem Wort „Frau“ wurden von der Software automatisch herabgestuft. Bewerberinnen, die zwei „women-only“ Colleges besucht hatten, sogar komplett herausgefiltert. Der Algorithmus kam quasi zu dem Schluss, dass Bewerbungen von Frauen schlechter zu bewerten seien, selbst wenn sich das Geschlecht nur indirekt erschließen ließ.

Beerdigter KI-Traum

Ein darauffolgender Versuch, das weibliche Geschlecht nicht als schlecht, sondern neutral zu bewerten, zeigte offenbar nicht die gewünschten Erfolge. So muss nach wie vor menschliche Man-Power in die Auswahl von geeignetem Personal investiert werden. Bei einem Konzern mit derartig hohem Durchlauf und ebensolchen Wachstumsambitionen ein nicht zu unterschätzender Kostenfaktor. So wird das Tool heute bestenfalls zur Vorselektion, beziehungsweise für simple Vorgänge, wie dem Entfernen doppelter Datensätze in der Bewerberdatenbank, eingesetzt. „Man habe zu keiner Zeit allein auf Basis des Algorithmus‘ eingestellt“, betonte Amazon dann auch vehement gegenüber Reuters. Abgesehen davon hat Amazon in der Riege der US-Tech-Riesen sogar die beste Frauenquote – vor Google, Apple und Facebook.

KI übernimmt unbewusste Vorurteile

Tja, eine Software ist eben nur so gut wie ihre Entwickler. Beziehungsweise im Fall von maschinellem Lernen nur so gut wie die Quelldaten. Der Case Amazon verdeutlicht dann auch grundlegende Probleme von Maschinen-Lernen in seiner aktuellen Form. Dass Algorithmen nämlich auch unbewusste Vorurteile ihrer Entwickler übernehmen – und weiterführen. So fanden bereits 2016 Journalisten des US-Portals ProPublica heraus, dass eine Software, die in den USA routinemäßig eingesetzt wird, um die Rückfallgefahr von Straftätern zu berechnen, systematisch Afroamerikaner benachteiligte.

KI verfestigt auch in Sprache manifestierte Vorurteile

Auch in der Nutzung von Sprache spiegeln sich menschliche Vorurteile wider. Wenn künstliche Intelligenzen mit Texten trainiert werden, um menschliche Sprache zu verstehen, übernehmen und verfestigen sie damit auch Vorurteile und Klischees. Das fanden Wissenschaftler der Universitäten Princeton und Bath 2017 heraus, wie das Computermagazin Heise im vergangenen Jahr recherchierte.

Gesichtserkennung mit Fehlerpotenzial

Auch Gesichtserkennungssoftware aus dem Hause Microsoft und IBM hat offenbar ein Problem mit schwarzen Frauen. Diesen Mangel offenbart die Studie einer afroamerikanischen Informatikerin am Massachusetts Institute of Technology (MIT) laut dem Technikmagazin Golem. Demnach werden weiße Männer von einigen viel genutzten Machine-Learning-Systemen am besten erkannt. Umso dunkler jedoch die Hautfarbe der abgebildeten Personen, desto größer ist die Fehlerquote – am höchsten bei schwarzen Frauen.

Vielleicht sollte Amazon seine KI mal mit dem Lebenslauf dieser MIT-Informatikerin und denen ihrer Kolleginnen füttern, um das perfekte Bewerberprofil ausgespuckt zu bekommen.