-

Government trends 2020: De ethische kant van Big Data en AI

Hoe gaan overheden wereldwijd – en vooral in Nederland – om met alle technologische ontwikkelingen? Hoe kunnen zij ervoor zorgen dat de democratie blijft functioneren in zo’n snel veranderende omgeving? In een serie van 9 webartikelen gaan wij in op de belangrijkste (toekomst)trends voor de publieke sector. Aflevering 4: met welke ethische afwegingen krijgt de overheid te maken door de opkomst van (big) data en AI?

Data: wie is de eigenaar?

‘Eigenaarschap’ is overal wettelijk vastgelegd. Dat wil zeggen, in de fysieke wereld. Op het gebied van data zijn er nog veel vraagstukken. Vooral de ethische kant van big data en AI houdt veel overheden, bedrijven en burgers bezig. Via internet, Internet of Things (IoT) en sensoren worden enorme hoeveelheden data over individuen verzameld, van slaapgedrag en actuele locatie tot websitebezoek. Daar komen nog andere ethische vraagstukken bij. Om een voorbeeld te noemen: moet een zelfrijdende auto in een gevaarlijke situatie kiezen voor de veiligheid van de passagiers of die van medeweggebruikers, zelfs als de situatie wordt veroorzaakt door die medeweggebruikers? En wie bepaalt dat?

Privacy, transparantie, bias en governance

De vier grootste vraagstukken op het gebied van data en AI ethiek zijn privacy, gebrek aan transparantie, bias en discriminatie, en gebrek aan governance en verantwoordelijkheid. Ten aanzien van privacy zijn bijvoorbeeld digitale gezichtsherkenning en de mogelijkheid om online activiteiten van burgers te volgen, lastige vraagstukken. Voor transparantie geldt, dat zelfs de makers van algoritmen niet altijd precies kunnen uitleggen hoe zij de verbanden in de data gebruiken. Welke informatie over burgers leveren ze precies op? Dit geldt ook voor bias en discriminatie. Ook hiervoor is het belangrijk om te begrijpen hoe een algoritme werkt en welke data gebruikt zijn. Tot slot governance en verantwoordelijkheid. Wie beheert de AI-systemen en de data? Wie tekent er af op een algoritme? Kan deze persoon garanderen dat de kwaliteit van de algoritmes goed is, dat de juiste data zijn gebruikt en dat er geen sprake is van bias (een vertekend beeld)? Wie is er verantwoordelijk bij misbruik van de gegevens?

De rol van de overheid

De overheid speelt op twee manieren een belangrijke rol in deze vraagstukken. Ten eerste beschikken overheden over grote hoeveelheden data van burgers. Ten tweede hebben ze een wetgevende rol op dit gebied. Binnen de EU groeit de aandacht voor deze vraagstukken, wat onder meer blijkt uit de GDPR (of AVG), waarin persoonsgegevens worden beschermd. Steeds meer overheden verdiepen zich ook in de risico’s van algoritmen. Zo heeft de Britse overheid een data-ethiek raamwerk gepubliceerd waarin wordt uitgelegd hoe de publieke sector moet omgaan met data. Ook de EU buigt zich hierover. Hetzelfde geldt inmiddels voor veel grote technologiebedrijven – waarbij recente schandalen waarschijnlijk wel een rol hebben gespeeld.

Cijfers
  • Meer dan 100 landen hebben wetgeving opgesteld om de data en privacy van burgers te beschermen.
  • Sinds 2013 zijn wereldwijd bijna 10 miljard gegevensbestanden gestolen of zoekgeraakt.
  • De autoriteiten hebben sinds de lancering van de Europese GDPR al zo’n 100.000 klachten ontvangen.
  • Mediaberichten over AI en ethiek zijn tussen 2017 en 2018 verdubbeld. Meer dan 90% van deze berichten was positief of neutraal.
  • De Britse regering heeft een centrum voor data ethiek en innovatie opgezet (budget: 9 miljoen pond).
Voordelen en risicofactoren

Een van de voordelen van aandacht voor ethiek is dat (AI-)ontwikkelaars zich meer bewust worden van hun verantwoordelijkheid. Ook kan AI meer ingezet worden ten goede van de maatschappij en zal er sneller een AI-ecosysteem ontstaan. De potentiële nadelen van AI-gebruik zullen ook sneller zichtbaar worden, bijvoorbeeld op het gebied van privacy, of als er sprake is van te weinig transparantie of bias, waardoor burgers of groepen kunnen worden gediscrimineerd.

Hoe nu verder?

De behoefte aan ethiek bij AI-gebruik moet worden erkend, bijvoorbeeld in de vorm van een panel of task force (waarin ook private sector en universiteiten zijn vertegenwoordigd). Om technische of culturele risico’s te beheersen zijn een goede risicomanagementstrategie en governancestructuur nodig. De resultaten van algoritmes moeten worden getest en beoordeeld, en in de ontwerpfase van applicaties moet rekening worden gehouden met diversiteit en inclusie (ter voorkoming van bias). Daarnaast moeten AI-algoritmes duidelijk zijn voor de gebruikers om transparantie en vertrouwen te verhogen in de beslissingen waarvoor AI-input wordt gebruikt. Een laatste aandachtspunt: train developers, data architecten en gebruikers van data op het gebied van ethiek.

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond