-

Recruitment en AI: is het echt zo onbevooroordeeld als we denken?

AI wordt soms bij recruitment gebruikt met het idee dat dit vooroordelen en ‘bias’ kan wegnemen uit het selectieproces. Maar de werkelijkheid is ingewikkelder: als de gegevens die het systeem ingaan vooroordelen bevatten, is dat ook wat eruit komt.

In een eerder artikel over het ontslagalgoritme schreef ik over een van mijn favoriete onderwerpen: AI binnen recruitment. Dat er tegenwoordig veel mogelijk is, blijkt wel uit Sigmund en het bestaan van ‘ontslagalgoritmes’. Soms roept de inzet van AI wat ethische discussies op, maar dat maakt het niet minder interessant. Een van die (ethische) discussies die mij ook altijd triggert, is de inzet van AI tijdens sollicitatieprocessen (bijvoorbeeld door middel van assessments) om discriminatie te voorkomen. Zo zou AI geen onderscheid maken tussen man/vrouw, leeftijd, huidskleur en geloof. Het systeem selecteert namelijk puur op hard skills. Maar is AI werkelijk zo objectief en onbevooroordeeld als we denken?

Laten we even teruggaan naar het begin: wat is AI? Artificial Intelligence, oftewel kunstmatige intelligentie, is het concept waarbij machines denken als mensen. Het brein achter kunstmatige intelligentie is een technologie die Machine Learning heet.
Machine Learning is een computersysteem dat leert door middel van het verwerken van data. En hoe meer data een machine krijg, hoe beter deze kan leren. Theoretisch gezien zou het mogelijk zijn om een machine te leren om kandidaten te selecteren op bepaalde skills. Hiermee zou de menselijke bias (vooroordelen), die we allemaal (on)bewust hebben, worden buitengesloten. Maar in de praktijk gaat dit toch lastiger dan verwacht.

Discriminerende data

Een superinteressant voorbeeld dat toont waarom het in de praktijk toch lastiger blijkt dan het in theorie is, komt naar voren in een blog van Marc van Meel. Een voorbeeld wat hij noemt gaat over Robert Moses. Moses was een bekende Amerikaanse planoloog en stadsontwerper die in de jaren 1920 her en der bruggen heeft laten bouwen in Amerika. Het was bekend dat Robert een racist was, maar dit is nooit te zien zijn in zijn werk… toch? Fout! Bruggen werden lager gebouwd zodat bussen er niet onderdoor konden. En toentertijd zaten vooral mensen van allochtone afkomst in bussen. Dus een brug had – bewust of onbewust (deze discussie laat ik even in het midden) – een discriminerend effect.

De moraal van het verhaal: input (oftewel data) speelt een grote rol bij Machine Learning en kan (on)bewust biased zijn. Maar als we heel realistisch zijn is data uit het verleden – want van welke data moet een machine anders leren? – vaak inderdaad wel discriminerend. Stel, als bedrijf heb je een assessment ontwikkeld die door middel van AI sterke potentiële leiders herkent. De doelgroep die je nodig hebt om dit assessment op te zetten, zijn competenties van leiders. Leiders zijn nu, en zeker in het verleden, grotendeels man. Dus de data waarmee Machine Learning leert, is voornamelijk gebaseerd op mannelijke leiderschapscompetenties.

En om een stapje verder te gaan: het is algemeen bekend dat mannen en vrouwen andere leidersstijlen hanteren en dus ook andere competenties hebben. Je kunt je dus afvragen of het assessment niet onbewust aan het discrimineren is? Want mannen en vrouwen hebben nou eenmaal vaak een andere leiderschapsstijl, maar dat maakt een vrouw niet minder goed dan een man (en vice versa!). We moeten ons dus goed bewust zijn van deze verschillen en ze ook omarmen. Er zijn immers verschillende wegen die naar Rome leiden.

AI voor assesments

Dat AI binnen recruitment niet zo voor de hand liggend is als het lijkt, blijkt ook bij assessments die worden afgenomen bij een sollicitatieprocedure. Je neemt het assessment af bij een grote doelgroep, bijvoorbeeld:

  • Kandidaten die in dienst komen en niet goed functioneren.
  • Kandidaten die in dienst komen en goed functioneren.
  • Kandidaten die niet in dienst komen en ook niet goed functioneren.
  • Kandidaten die niet in dienst komen maar wél goed functioneren.

Je hebt dus vier verschillende groepen die je eigenlijk wilt meten om succes zowel goed als onbevooroordeeld te kunnen voorspellen tijdens het sollicitatiegesprek. Maar we vergeten dat de helft van de doelgroep afvalt tijdens een sollicitatieproces, namelijk de mensen die niet in dienst komen. Hierdoor meet je alleen de mensen die wél in dienst zijn gekomen, waardoor de data (on)bewust wordt gevormd. Jammer, want het zou super interessant zijn om te weten hoe succesvol mensen zouden zijn geweest die niet in dienst zijn genomen. Dan zou je data dus wel compleet zijn. Wat wél mogelijk is, is het meten én voorspellen van de potentie op het moment dat iemand al in de organisatie is. Dan kun je meten met verschillende doelgroepen: laagvliegers, hoogvliegers en de gemiddelde werknemer.

Hoe moet het dan wel?

De conclusie is dus dat het inzetten van AI (en data in het algmeen!) vaak lastiger is dan in eerste instantie lijkt. Wil je als organisatie toch aan de slag met AI, houd dan rekening met onderstaande tips:

  • Zorg dat de organisatie zich bewust is van de aard van de data. Er is met data ontzettend veel mogelijk, maar dan moet die wel op de juiste manier ingezet worden. Bewustwording is hier de eerste stap in.
  • Formuleer duidelijk welke factoren je meetbaar wilt maken én waarom. Soms willen we iets meten (meten om het meten) terwijl dit eigenlijk niet logisch is. Blijf dus steeds de ‘waarom’-vraag stellen.
  • Zorg dat de data valide is en blijf constant de kritische vraag “meet de data écht wat we als organisatie willen weten?” stellen.
  • Wees niet bang om hulp van een expert in te schakelen, die kunnen met een kritische blik meedenken.

Natuurlijk zul je niet alle valkuilen kunnen wegnemen en dat is okay. Zolang je je er maar bewust van bent, dan kun je pas echt onbevooroordeeld werven!

Over de auteur: Kimberly de Jager is Recruitmentspecialist RPO & interim bij Timetohire.

Op de hoogte blijven van het laatste nieuws binnen je vakgebied? Volg Emerce dan ook op social: LinkedIn, Twitter en Facebook.

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond