-

Gebruik je AI? Doe het dan wel eerlijk!

Mensen kunnen dan misschien bevooroordeeld zijn, maar dat hoeft niet automatisch ook voor AI te gelden. Algoritmes leren hoe ze zich moeten gedragen hoofdzakelijk door het soort data waarmee ze worden gevoed.

Als die data onderliggende bias-kenmerken hebben, dan gaat het AI-model daarnaar handelen. En dit gebeurt vaker dan je denkt. Ondanks de beste bedoelingen van datawetenschappers sluipen deze vooroordelen er gemakkelijk in en worden het er na verloop van tijd alsmaar meer en meer. Behalve wanneer men waakzaam blijft en de AI-modellen zo eerlijk mogelijk houdt.

Discriminatie

Sommige gegevens worden vaker (waarschijnlijk onbedoeld) gebruikt om bepaalde groepen te discrimineren – bijvoorbeeld informatie over ras, geslacht of religie. Maar ook schijnbaar ‘veilige’ gegevens, zoals iemands postcode, kunnen door AI worden gebruikt om bevooroordeelde meningen te vormen. Als bijvoorbeeld een bank doorgaans niet veel leningen toekent aan mensen uit een achterstandswijk, zou het AI-model kunnen leren om geen leningen goed te keuren voor mensen met dezelfde postcode. Hierdoor sluipt discriminatie via een achterdeurtje in het AI-model. Dus zelfs als er expliciet niet naar ras wordt gekeken kan AI toch discrimineren, zonder dat een organisatie (in dit geval de bank) zich ervan bewust is dat het gebeurt.

Daarom is het belangrijk dat bedrijven continu de gegevens analyseren die door AI -modellen worden opgenomen en gebruikt. Doen ze dat niet, dan wordt ‘oneerlijke’ AI alleen maar groter. Met als gevolg dat bepaalde bevolkingsgroepen niet gelijk worden behandeld en bijvoorbeeld leningen, verzekeringspolissen of productkortingen voor mensen die dit wel nodig hebben of er recht op hebben niet worden toegekend. Dit is niet alleen ethisch verkeerd, maar het vormt een serieus probleem voor organisaties die dit soort bias niet proberen te voorkomen.

Wanneer bias werkelijkheid wordt

Er zijn in de afgelopen periode verschillende incidenten geweest die de risico’s van onbedoelde bias laten zien, en ook hoe groot de schade is die het een organisatie (merk) en klanten kan toebrengen – helemaal in een tijd waar zoveel bedrijven al moeite hebben om het hoofd boven water te houden. Discriminatie brengt kosten met zich mee: gederfde inkomsten, verlies van vertrouwen bij klanten en werknemers, boetes, beschadigde merkreputatie en juridische gevolgen.

Een voorbeeld. Het Amerikaanse strafrechtsysteem vertrouwt op tientallen algoritmen die bij een verdachte bepalen hoe groot de kans is op hetzelfde vergrijp. Een paar jaar geleden analyseerde ProPublica in één specifieke zaak de tool ‘Correctional Offender Management Profiling for Alternative Sanctions (COMPAS)’ van Northpointe. Het onderzoek liet zien dat Afro-Amerikaanse verdachten vaker ten onrechte worden gecategoriseerd als ‘grote kans/hoog risico’, terwijl blanke verdachten ten onrechte werden beoordeeld als ‘kleine kans/laag risico’. Het onderliggende probleem was dat het algoritme vertrouwde op gegevens die al in het rechtssysteem zaten en daarmee al inherent bevooroordeeld was ten aanzien van Afro-Amerikanen. Dit soort ingeslopen bias komt vaker voor dan men zich realiseert. Zeker nu mensen zich steeds meer bewust worden van sociaal onrecht, moeten organisaties erop toezien en ervoor zorgen dat als zij AI gebruiken, het op een eerlijke manier gaat.

Bias opsporen en voorkomen

Marketing voor specifieke groepen met dezelfde kenmerken hoeft niet altijd bevooroordeeld te zijn. Het is volstrekt acceptabel om aanbiedingen voor luiers, schoolspaarplannen, levensverzekeringen naar jonge ouders te sturen, omdat het simpelweg waardevol is voor deze groep mensen. Dat geldt ook voor informatie aan senioren over nieuwe ziektekostenverzekeringen of pensioenen. Zolang het om relevante en nuttige aanbiedingen gaat is er geen sprake van discriminatie, dan is het simpelweg slimme marketing.

Glad ijs

Toch begeven we ons als snel op glad ijs als het gaat om het gericht benaderen van doelgroepen. Er ligt een grote verantwoordelijkheid bij organisaties om technologie die bias opspoort op te nemen in alle AI-modellen. Dit geldt vooral voor ‘sterke regelgebonden’ sectoren, zoals de financiële dienstverlening en verzekeringsmarkt, waar het niet naleven van compliance-regels ernstige gevolgen kan hebben. Het opsporen van bias is niet een kwestie van een keer in de drie maanden of een keer in de maand controleren. Organisaties moeten hun zelflerende AI-modellen 24 x 7 monitoren. Pas dan kan discriminerend gedrag proactief worden gesignaleerd én voorkomen.

Om ingebouwde bias te voorkomen, moeten organisaties bij het ontwikkelen van modellen beginnen met ‘schone databronnen’. Klasse- of gedragskenmerken zoals opleidingsniveau, kredietwaardigheid, beroep, werkstatus, moedertaal, burgerlijke staat, aantal volgers enz. kunnen in bepaalde omstandigheden eigenlijk al zorgen voor bias. Organisaties kunnen dit soort zaken niet altijd identificeren zonder de hulp van technologie die specifiek is ontwikkeld om hierop toe te zien.

Signaleer de bias

Door gegevens van AI-trainingen te evalueren en levensechte scenario’s na te bootsen voordat je als organisatie AI daadwerkelijk inzet, kun je mogelijke bias signaleren voordat schade kan worden aangericht. Dit wordt zelfs nog belangrijker met de vele populaire vormen van machine learning, zoals de zogeheten opaque algoritmes – algoritmes die zichzelf lastig laten verklaren waardoor ingebouwde bias moeilijker is om op te sporen. 

Een andere valkuil is bias enkel en alleen te detecteren op basis van voorspellingen en ervan uit te gaan dat het eindoordeel wel goed zal zijn. Deze aanpak is gedoemd om te mislukken, omdat hier de samenwerking van meerdere (soms honderden) modellen en de business regels van een organisatie niet leidend is. Bias zou moeten worden gecontroleerd in de uiteindelijke beslissing die een organisatie neemt per klant. En zeker niet alleen bij de onderliggende voorspellingen die leiden tot dat eindoordeel.

Vraagstukken aanpakken

Hoewel organisaties hun merknaam moeten beschermen en (potentiële) klanten met respect moeten behandelen, is het onmogelijk om bias handmatig (op grote schaal) op te sporen. Gelukkig is er tegenwoordig technologie waarmee organisaties deze vraagstukken kunnen aanpakken – technologie die niet door menselijk, handmatig werk te evenaren is. AI en bias zijn gevoelige onderwerpen en als het misgaat, dan zijn klanten en media vaak niet heel erg vergevingsgezind. Daarom is een ‘always-on’-strategie om bias bij AI te voorkomen van cruciaal belang. 

Over de auteur: Rob Walker is vice-president decision management & analytics bij Pegasystems.

Op de hoogte blijven van het laatste nieuws binnen je vakgebied? Volg Emerce dan ook op social: LinkedIn, Twitter en Facebook.

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond