-

Het ‘bias’-monster: AI en het probleem van vooroordelen

Kunstmatige intelligentie gaat op veel vlakken zorgen voor een revolutie, maar toont ons ook een lelijke blik in de spiegel. De data die je in een model stopt bepalen wat eruit komt. En wat eruit komt is soms stuitend racistisch of bevooroordeeld. Een groot probleem dat niet zo maar is opgelost.

Er zijn inmiddels flinke zorgen over bias (vooroordelen) in artificial intelligence (AI). Het is een ernstig probleem dat vaker dan ons lief is de kop opsteekt: HR-software die bij de werving van programmeurs vrouwelijke kandidaten negeert en politiesystemen die racistische neigingen hebben. Ondanks dat de AI-sector zich hiervan bewust is bestaat er helaas geen toverstaf waarmee dit bias-monster morgen verleden tijd is. Wel hebben we praktische ideeën om het te bedwingen en uiteindelijk uit te komen bij volledig ‘responsible’ AI.

Dit artikel is voor premium abonnees . Log in of meld je aan!