Experten argumentieren, dass KI-gestützte Job-Recruiting-Tools die Einstellungsvielfalt möglicherweise nicht verbessern

Obersten Zeile

Job-Recruiting-Tools, die behaupten, künstliche Intelligenz zu verwenden, um geschlechtsspezifische und rassistische Vorurteile zu vermeiden, verbessern möglicherweise nicht die Vielfalt bei der Einstellung und könnten diese Vorurteile tatsächlich aufrechterhalten, argumentierten Forscher der University of Cambridge am Sonntag und gaben die Programme bekannt – die in der Vergangenheit kritisiert wurden – als eine Möglichkeit, Technologie einzusetzen, um eine schnelle Lösung für ein tieferliegendes Problem anzubieten.

Key Facts

In einem Papier herausgegeben von Philosophie und Technik, untersuchten die Forscher Behauptungen mehrerer Unternehmen, die KI-gestützte Rekrutierungstools anbieten, von denen viele behaupten, Vorurteile zu beseitigen und Vielfalt zu fördern, indem sie die Namen, Geschlechter und andere Identifikatoren von Kandidaten verbergen, und einige davon Rang Kandidaten basierend auf Scans von Lebensläufen, Online-Assessments und Analyse der Sprache und Mimik der Bewerber.

Die Forscher – zwei Professoren am Centre for Gender Studies der University of Cambridge – argumentierten, dass diese Tools tatsächlich die Einheitlichkeit bei der Einstellung fördern könnten, weil sie kulturelle Vorurteile des „idealen Kandidaten“ reproduzieren, der historisch gesehen weiße oder europäische Männer waren.

Die Tools verbessern möglicherweise auch nicht die Diversität, da sie auf früheren Unternehmensdaten basieren und daher möglicherweise Kandidaten fördern, die aktuellen Mitarbeitern am ähnlichsten sind.

Es gibt „wenig Rechenschaftspflicht dafür, wie diese Produkte gebaut oder getestet werden“, sagte Eleanor Drage, Co-Autorin und Forscherin der Studie am Centre for Gender Studies der Universität Cambridge, in einer Erklärung und fügte hinzu, dass die Technologie als „gefährlich“ dienen könnte. Quelle für „Fehlinformationen darüber, wie die Einstellung ‚vorurteilsfrei‘ und fairer gestaltet werden kann“.

Entscheidendes Zitat

„Indem sie behaupten, dass Rassismus, Sexismus und andere Formen der Diskriminierung mithilfe künstlicher Intelligenz aus dem Einstellungsprozess entfernt werden können, reduzieren diese Unternehmen Rasse und Geschlecht auf unbedeutende Datenpunkte und nicht auf Machtsysteme, die bestimmen, wie wir uns durch die Welt bewegen. “, sagte Drage in einer Erklärung.

Tangente

Das hat Amazon 2018 angekündigt halt Verwendung eines KI-Rekrutierungstools zur Überprüfung der Lebensläufe von Bewerbern, nachdem festgestellt wurde, dass das System Frauen stark diskriminiert. Das liegt daran, dass die Computermodelle, auf die es sich stützte, auf der Grundlage von Lebensläufen entwickelt wurden, die dem Unternehmen in den letzten 10 Jahren übermittelt wurden und die hauptsächlich von männlichen Bewerbern stammten.

Key Hintergrund

Unternehmen wenden sich zunehmend KI zu, um die Prozesse der Stellenbesetzung zu verwalten. In Eins 2020-Umfrage Von mehr als 300 Personalleitern, die von den Autoren der Sonntagszeitung zitiert wurden, stellte das Beratungsunternehmen Gartner fest, dass 86 % der Arbeitgeber virtuelle Technologien in ihren Einstellungsverfahren einsetzen, ein Trend, der sich beschleunigt hat, seit die Covid-19-Pandemie viele gezwungen hat, ihre Arbeit online zu verlagern. Während einige Unternehmen argumentiert haben, dass KI einen kosten- und zeiteffizienteren Einstellungsprozess bieten kann, gibt es andere Experten haben gefunden Die Systeme neigen dazu, rassistische und geschlechtsspezifische Einstellungen zu fördern – anstatt sie zu beseitigen –, indem sie bestehende Vorurteile aus der realen Welt replizieren. Mehrere US-Gesetzgeber haben gezielt Vorurteile in Systemen der künstlichen Intelligenz zu bekämpfen, da sich die Technologie schnell weiterentwickelt und es nur wenige Gesetze gibt, um sie zu regulieren. Das Weiße Haus hat diese Woche veröffentlicht ein „Blueprint for a AI Bill of Rights“, in dem argumentiert wird, dass bei der Einstellung verwendete Algorithmen „bestehende unerwünschte Ungerechtigkeiten widerspiegeln und reproduzieren“ oder neue „Voreingenommenheit und Diskriminierung“ einbetten. Die Blaupause – die weder rechtsverbindlich noch eine offizielle Regierungsrichtlinie ist – fordert Unternehmen auf, sicherzustellen, dass KI nicht diskriminiert oder den Datenschutz verletzt, und die Benutzer darauf aufmerksam zu machen, wann die Technologie verwendet wird.

Worauf zu achten ist

In einer Empfehlungsliste sind die Autoren von Sunday's Philosophie und Technik Papier schlug vor, dass sich Unternehmen, die KI-Technologien entwickeln, auf breitere, systematische Ungleichheiten konzentrieren, anstatt auf „individualisierte Fälle von Voreingenommenheit“. Zum Beispiel schlagen sie vor, dass Softwareentwickler die Kategorien untersuchen, die zum Sortieren, Verarbeiten und Kategorisieren von Kandidaten verwendet werden, und wie diese Kategorien Diskriminierung fördern können, indem sie sich auf bestimmte Annahmen über Geschlecht und Rasse stützen. Forscher fordern auch, dass HR-Experten versuchen sollten zu verstehen, wie KI-Recruiting-Tools funktionieren und was einige ihrer potenziellen Einschränkungen sind.

Überraschende Tatsache

Die Europäische Union hat KI-gestützte Einstellungssoftware und Leistungsbewertungstools in ihrem neuen Bericht als „hohes Risiko“ eingestuft Lüftung Rechtsrahmen für KI, was bedeutet, dass die Tools einer genaueren Prüfung unterzogen würden und bestimmte Compliance-Anforderungen erfüllen müssten.

Weiterführende Literatur

DC will den Kampf gegen KI-Voreingenommenheit anführen (Axios)

Quelle: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/