Deel dit artikel
-

Nieuwe handreiking moet discriminerende algoritmes corrigeren

In opdracht van het Nederlandse ministerie van binnenlandse zaken heeft een team van onderzoekers van Tilburg University, Eindhoven University of Technology, Vrije Universiteit Brussel en het College voor de Rechten van de Mens een handreiking samengesteld om te voorkomen dat hun algoritmes discrimineren.

Het onderzoeksteam heeft gekeken naar technische, juridische en organisatorische voorwaarden die daarbij in acht moeten worden genomen. De handreiking geldt voor zowel de publieke als de private sector.

Algoritmen worden steeds vaker ingezet om geautomatiseerde besluiten te nemen. Dat dit fout kan gaan, bleek maar al te goed uit de Nederlandse kindertoeslagaffaire, waarbij minderheden onder meer door algoritmen stelselmatig werden gediscrimineerd door de Belastingdienst.

De handreiking vereist onder meer dat organisaties belanghebbenden en relevante groepen in de samenleving al vanaf het begin betrekken bij de ontwikkeling van het algoritme en dat externe, onafhankelijke experts gedurende het hele proces kritisch meekijken.

Ook moeten personen ten aanzien waarvan automatische besluiten worden genomen daarvan op de hoogte worden gesteld en daar bezwaar tegen kunnen aantekenen, moet het systeem worden stopgezet bij geconstateerde fouten en gebreken en moet het hele proces permanent worden gemonitord.

De Handreiking vloeit voort uit de toezegging van de Nederlandse regering dat mensenrechten als uitgangspunt zullen dienen bij de inzet van kunstmatige intelligentie en sluit aan bij de recentelijk aangenomen motie van Klaver en Ploumen over de nieuwe bestuurscultuur, waarin de Nederlandse Tweede Kamer onder meer uitsprak dat ‘er zo snel mogelijk een einde gemaakt moet worden aan racisme, in elk geval door te stoppen met het gebruik van discriminerende algoritmes’.

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond