Het ‘bias’-monster: AI en het probleem van vooroordelen
Kunstmatige intelligentie gaat op veel vlakken zorgen voor een revolutie, maar toont ons ook een lelijke blik in de spiegel. De data die je in een model stopt bepalen wat eruit komt. En wat eruit komt is soms stuitend racistisch of bevooroordeeld. Een groot probleem dat niet zo maar is opgelost.
Er zijn inmiddels flinke zorgen over bias (vooroordelen) in artificial intelligence (AI). Het is een ernstig probleem dat vaker dan ons lief is de kop opsteekt: HR-software die bij de werving van programmeurs vrouwelijke kandidaten negeert en politiesystemen die racistische neigingen hebben. Ondanks dat de AI-sector zich hiervan bewust is bestaat er helaas geen toverstaf waarmee dit bias-monster morgen verleden tijd is. Wel hebben we praktische ideeën om het te bedwingen en uiteindelijk uit te komen bij volledig ‘responsible’ AI.
Neem een Premium abonnement en krijg onbeperkt toegang tot premium artikelen en vele andere voordelen.
- Alles van Emerce Account
- Toegang tot alle Premium nieuws artikelen
- Korting op tickets Emerce Events
- Krijg Emerce 100 opgestuurd