Notebookcheck Logo

AI-gebaseerde werving: Experiment legt racisme door OpenAI's GPT bloot

Discriminatie bij functiewaardering en selectie door OpenAI's GPT-3 en GPT-4 (symbolische afbeelding: DALL-E / AI, bewerkt)
Discriminatie bij functiewaardering en selectie door OpenAI's GPT-3 en GPT-4 (symbolische afbeelding: DALL-E / AI, bewerkt)
Een recent onderzoek toont aan dat de geautomatiseerde aanwervingsprogramma's GPT-3 en GPT-4 van OpenAI ernstig bevooroordeeld zijn ten opzichte van bepaalde groepen mensen. Een uitgebreid experiment van Bloomberg heeft aangetoond dat op AI gebaseerde wervingsprogramma's sollicitanten discrimineren op basis van onder andere naam en etniciteit.

Geautomatiseerde aanwervingsprogramma's op basis van OpenAi's GPT worden door bedrijven gebruikt om kandidaten te selecteren voor vacatures. Recruiters gebruiken de tool om tijd te besparen, maar zoals een Bloomberg-experiment, geïnspireerd door baanbrekende studies, heeft aangetoond, is kunstmatige intelligentie bevooroordeeld bij het evalueren en selecteren van kandidaten heeft aangetoond dat kunstmatige intelligentie bevooroordeeld is bij het evalueren en selecteren van kandidaten.

Het probleem is dat het onderliggende AI-model zijn informatie haalt uit enorme hoeveelheden gegevens zoals artikelen, online opmerkingen en berichten op sociale media, die racistische, vrouwonvriendelijke en vele andere discriminerende inhoud kunnen bevatten. In het uitgebreide onderzoek werden bijvoorbeeld fictieve namen (en cv's) gebruikt die geassocieerd werden met een bepaalde etniciteit om te solliciteren naar een echte baan.

Er werden namen gekozen die geassocieerd werden met zwarte, blanke, Latijns-Amerikaanse of Aziatische vrouwen en mannen. Het experiment werd 1000 keer uitgevoerd voor een echte baan als financieel analist met honderden verschillende namen en naamcombinaties en werd daarna nog eens herhaald voor vier andere banen voor software-ingenieurs en andere beroepsgroepen.

Namen van bepaalde demografische groepen werden duidelijk geprefereerd door GPT-3. Zo werden namen van Aziatisch-Amerikaanse vrouwen het hoogst gerangschikt voor een functie als financieel analist, terwijl namen die duidelijk duidden op zwarte mannen het laagst werden gerangschikt, maar namen die duidden op zwarte vrouwen werden ook slechts ongeveer 11% van de tijd gerangschikt als topkandidaat voor een functie als software-ingenieur - ongeveer 36% minder vaak dan de hoogst scorende groep.

Als topkandidaat voor een functie in Human Resources - een carrièregebied waarin van oudsher meer vrouwen werken - selecteerde GPT significant vaker namen die in verband worden gebracht met Latijns-Amerikaanse vrouwen, en als topkandidaat voor een functie op HR Business Partner positie werden namen die geassocieerd werden met mannen bijna twee keer zo vaak geselecteerd. Dit zijn slechts enkele voorbeelden uit het grote experiment.

Hoewel vaak wordt aangenomen dat AI neutraler is en beter kan oordelen, toont dit experiment het tegenovergestelde aan. Het vooroordeel werd niet alleen bij GPT-3 gevonden, maar ook bij GPT-4.

Bron(nen)

Please share our article, every link counts!
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2024 03 > AI-gebaseerde werving: Experiment legt racisme door OpenAI's GPT bloot
Nicole Dominikowski, 2024-03-10 (Update: 2024-03-10)