etalage
AI controleert AI om discriminatie op de arbeidsmarkt te beperken

AI is alomtegenwoordig in ons dagelijks leven – van de slimme thermostaat tot de virtuele klantenservice van de webshop waar je die thermostaat koopt. Maar ook onder HR-professionals wordt AI toegepast op onder andere sollicitatieprocessen. “Met diversiteitsvooroordelen wordt alleen niet genoeg rekening gehouden,” zegt Carlotta Rigotti.

Het gebruik van AI in traditioneel menselijke processen lijkt misschien futuristisch, maar het is al doordrongen in de arbeidsmarkt. Carlotta Rigotti is postdoctoraal onderzoeker bij eLaw aan de Universiteit Leiden en doet onderzoek naar het gebruik van AI in de arbeidsmarkt. “Bijna iedereen gebruikt bijvoorbeeld LinkedIn. Ook dit is een voorbeeld van AI-technologie. Werkgevers, waaronder universiteiten, geven steeds vaker aan bijvoorbeeld LinkedIn – en daarmee AI – te gebruiken wanneer je een sollicitatie indient. Met name met een betaald account kan je je voordeel doen met de technologische mogelijkheden van de netwerksite.”

Maar werkgevers gebruiken ook steeds vaker andere software in hun solicitatieproces. “Zo is er software die vacatures kan opstellen, potentiële kandidaten kan identificeren en ze kan matchen met geschikte functies,” legt Rigotti uit. “Daarnaast is er software die contact legt met kandidaten om interviews in te plannen. HR-medewerkers maken ook gebruik van gamification, waarbij spellen worden ingezet om vaardigheden te beoordelen. Bovendien worden video-interviews zonder menselijke aanwezigheid steeds vaker toegepast.”

Sterk bevooroordeeld
Het door de Europese Commissie gefinancierde BIAS-project, waarvoor Rigotti onderzoek doet, richt zich specifiek op deze selectie- en wervingsprocessen. “We onderzoeken de mogelijke implicaties van AI hierin. Met AI ontwikkelde software en specifiek de software die dus ook op de arbeidsmarkt gebruikt wordt, kunnen namelijk sterk bevooroordeeld zijn.” Zo kunnen ze menselijke vooroordelen reproduceren, bijvoorbeeld ten aanzien van gender of etniciteit. “Ze zouden simpelweg niet representatief kunnen zijn voor de samenleving of bijvoorbeeld jonge vrouwen discrimineren vanwege de kans dat zij in de toekomst met zwangerschapsverlof gaan.”

Een bijkomend probleem is verwerking van gevoelige informatie door zulke programma’s. “Vaak worden postcodes en adressen gekoppeld aan de vermoedelijke etnische achtergrond van een persoon. Op deze manier kan er discriminatie plaatsvinden op basis van iemands woonplaats. Daarom hebben we andere software nodig dit risico kan identificeren en beperken.”

In gesprek
Het ontwikkelen van een dergelijke technologie is dan ook het hoofddoel van het BIAS-project. In het beginstadium van het project doet Rigotti onderzoek naar hoe de samenleving en verschillende belanghebbenden noties als rechtvaardigheid op de arbeidsmarkt überhaupt definiëren. Daarvoor maar gaat ze vooral in gesprek met bijvoorbeeld HR-managers. “We zijn benieuwd wat zij denken dat diversiteit en vooroordelen zijn en of het nuttig is AI-software in de arbeidsmarkt te introduceren.”

“Daarbij is maatschappelijk bewustzijn natuurlijk erg belangrijk. Samen met educatieve activiteiten is het deel van het project.” Het BIAS-project organiseert daarom fysieke workshops en online sessies waarin de ontwikkelingen en het resultaat van interviews worden gedeeld en co-creatieworkshops, om samenwerking tussen belanghebbenden, zoals onderzoekers en geïnteresseerde burgers, te stimuleren.

Co-creatie
Maar het doel van het project is bovenal het ontwikkelen van zo’n nieuwe software die andere op de arbeidsmarkt gebruikte software kan controleren. Volgens Rigotti zal het gaan lijken op een programma als Grammarly, dat teksten controleert op spelling en grammatica. “Het idee is om een vergelijkbare software te hebben.” Wanneer iemand solliciteert, zal deze software de andere software die in het selectieproces wordt gebruikt controleren. “De technologie markeert woorden of zinnen waar de sollicitant mogelijk op gediscrimineerd kan worden. Het is bedoeld om HR-professionals te helpen bewuste of onbewuste discriminatie te vermijden.”

Het is lastig een volledig nieuwe technologie te ontwikkelen die onbevooroordeeld is. “Geen enkel mens is volledig vrij van vooroordelen,” zegt Rigotti. Dit risico kan hoogstens beperkt worden. “Dit vereist allereerst ontwerpers en ontwikkelaars die niet hoofdzakelijk cisgender, wit en man zijn. Daarnaast kan een co-creatiebenadering gebruikt worden, zoals het BIAS-project doet, waarbij de technologie wordt ontwikkeld in samenwerking met verschillende belanghebbenden, zoals HR-managers, ontwikkelaars, wetenschappers, werknemers en studenten.”

Samenwerking is essentieel, aldus Rigotti. “Een arbeidsmarkt vóór AI is inmiddels niet meer voor te stellen. Het maakt een groot onderdeel van de arbeidsmarkt uit en dat moeten beleidsmakers erkennen. Ontwikkelaars moeten daarom streven naar representativiteit en inclusiviteit. Een programma als waar het BIAS-project aan werkt zou daarbij een eerste stap kunnen zijn.”

Het BIAS-project is gestart in november 2022 en het onderzoek loopt dus nog. Je kunt bijdragen door je ervaring en houding tegenover AI-toepassingen op de arbeidsmarkt te delen via deze vragenlijst: https://leidenuniv.eu.qualtrics.com/jfe/form/SV_dhAjU4t8nceeo50

BIAS survey

01 - 06 - 2023 |
Donna Schumacher