-

Eerlijke algoritmes: bestaan ze wel?

Dagelijks hebben we met algoritmen te maken, als we bijvoorbeeld bij Google iets zoeken, onze Facebook-timeline bekijken of als we online boodschappen bestellen. Wat is de impact van deze technologie op stad en cultuur? Wat doet een algoritme, wat levert het op en bestaat überhaupt een eerlijk algoritme?

Over deze vraag sprak op 26 februari 2020 gedurende de talkshow Next Level in Pakhuis de Zwijger in Amsterdam een groep deskundigen, bestaande uit Rutger Groot Wassink (Amsterdams wethouder Sociale Zaken, Diversiteit en Democratisering), Rik Helwegen (CBS), Martijntje Smits (techniekfilosoof), Mirko Schaefer (medewetenschapper Universiteit Utrecht & projectleider Utrecht Data School), Ivonne Jansen (Code NL) en Ger Baron (CTO Amsterdam).

Wat is een algoritme? 

Een algoritme zou men kunnen omschrijven als een aantal stappen die gezet worden om een bepaald doel te bereiken. Het is te vergelijken met een recept, waarbij men een aantal stappen doorloopt om een gerecht toe te bereiden. Men kan het eveneens vergelijken met het sorteren van kledingstukken in de kledingkast. Of te wel algoritmes geautomatiseerd en abstract lijken, blijven ze vooral ook mensenwerk, omdat een mens waarden meegeeft bij het programmeren van een algoritme. Ze zijn in dat opzichte niet neutraal. 

Waarvoor worden algoritmes ingezet? 

Rutger Groot Wassink haalde in deze context het voorbeeld van het computersysteem Systeem Risico Indicatie (SyRI) aan, waarbij de overheid allerlei datasets van burgers met elkaar koppelt. Daarbij worden algoritmes ingezet om fraude op te sporen. Het systeem werd in sommige gemeentes toegepast, echter niet in Amsterdam. De Volkskrant deed afgelopen jaar een inventarisatie, waaruit eveneens bleek dat SyRI nog geen enkel case had opgelost. Afgelopen maand werd na een rechtsstrijd bekend gemaakt dat de overheid stopt met het gebruiken van dit antifraude-systeem. 

Naast het opsporen van diverse soorten klachten worden algoritmes vaak ingezet binnen de klantenservice of andere meldingssites en voor de voorspelling van bezoekersstromen bij voetbalwedstrijden. Dit zijn een aantal voorbeelden. 

Kunnen algoritmes eerlijk zijn? 

Er bestaat geen neutrale technologie, deze is altijd (politiek) gekleurd en meestal afgesloten (black box). Alleen het feit dat er bij algoritmes een onderscheid wordt gemaakt tussen de maker en de gebruiker vormt al bias. Alleen als alle partijen eens zouden zijn met een algoritme, in die context alleen zou men kunnen spreken van een eerlijk algoritme. 

Mirko Schäfer is echter van mening dat de zoektocht naar eerlijke algoritmes de verkeerde zoektocht is. Zijn advies is om meer te kijken naar verantwoordelijkheid en rechtvaardigheid. In deze context haalt hij het voorbeeld uit het boek ‘Artificial intelligence – A Guide for Thinking Humans’ van Melanie Mitchell aan. Hierin wordt het volgende ethische dilemma met betrekking tot zelfrijdende auto’s geschetst: gaat die auto in die vijf mensen rijden die de straat oversteken of gaat die auto nog snel een bocht maken en die ene voetganger die legaal op de stoep loopt doodrijden? Waarvoor moet de auto kiezen? Men kan de vraag eveneens omdraaien en zeggen: zou het niet beter zijn als de auto de passagier offert in plaats van de vijf mensen die op straat lopen en/of die ene, die op de stoep loopt? Zou het niet beter zijn als dan de auto gewoon de passagier offert en zo hard remt dat misschien de passagier dood is. Maar dan is echter de vraag, wil je die auto nog kopen? 

Je wilt een ethisch verantwoorde algoritme bouwen – hoe ga je aan de slag? 

Je gaat aan tafel zitten met alle betrokken partijen in het proces. Je begint je af et vragen waarvoor en waarom je een algoritme wilt inzetten, je schrijft het beslisproces op, in welke context zal de algoritme worden ingezet, je definieert randfactoren en je schrijft op wat het doel is. Dit zijn allemaal stappen om algoritmen op een ethisch verantwoorde manier te vorm te geven. Een goed hulpmiddel om organisatie-waarden daarbij expliciet te maken is de ethische data-assistent ontwikkeld door de Utrecht Data School. Het is een tool-kit met hieronder een stappenplan die helpt om na te denken over ethische vraagstukken als het gaat om de implementatie van algoritmen. 

Onder andere de Vereniging Nederlandse Gemeenten zet het model in om beter zicht te krijgen op de ethische kant van dataprojecten. Het draagt bij aan de controleerbarheid en validiteit van dit soort van projecten. Het is vooral belangrijk om de inzet van algoritmen voor dataprojecten doorgaans te blijven evalueren en indien nodig aanpassingen te doen omdat bijvoorbeeld de context voor het inzetten van algoritmen kan veranderen. 

Om video's van Youtube te kunnen tonen, dienen analytische cookies en tracking cookies geaccepteerd te worden.

Zijn algoritmes een nieuw technologisch fenomeen?  

Algoritmes zijn geen nieuw fenomeen, in het verleden kwam het concept van een algoritme bijvoorbeeld terug in de kleurenfotografie zoals het filmpje van Fox weergeeft. Als men kijkt naar kleurfotografie in de jaren 1940 t/m 1990 was het kleurenpalet vooral gebaseerd op de huidskleur. Zo bestaat een kleurfilm uit verschillende lagen die met elkaar overlappen. Elke laag reageert daarbij sensibel of verschillende lichtkleuren. Chemicaliën zorgen daarbij voor een goede kleurenbalans, waarbij het zoals in het filmpje weergegeven zo was dat roodachtige, gele en donkere kleurtonen wegvielen. Op deze manier laat het filmpje zien dat mensen met een lichtere huidskleur goed worden getoond op de foto terwijl dat bij mensen met een donkere huidskleur niet het geval is. Bij een foto waarbij mensen met gemengde huidskleuren ziet men dan het daadwerkelijke probleem en dit wederom weerspiegelt dat blanke mensen de kleurenfoto algoritme hebben ontwikkeld met de bijhorende gevolgen. 

Waarin zou men moeten investeren voor eerlijke algoritmes? 

Volgens Ivonne Jansen-Dings, bestuurslid bij Code NL, is het vooral van opvallend dat binnen ICT-opleidingen (vooral gericht op programmeurs en ontwikkelaars) de ethische scholingscomponent duidelijk te kort komt. Met andere woorden: het onderwijs zou hierop beter moeten inspelen en binnen de opleidingen ethiek centraler stellen. Evert Haasdijk, werkzaam bij Deloitte, benadrukt eveneens in een recent verschenen artikel dat scholing van ontwikkelaars op ethiek vlak een speerpunt voor organisaties zou moeten zijn.

Welke rol is voor de burger weggelegd? 

Zoals aan het begin al gezegd: dagelijks hebben we met algoritmes te maken en worden wij beïnvloed. Taak van ons burgers zou het moeten of kunnen zijn ons beter te informeren m.b.t. algoritmes en eveneens kritischer te reflecteren op diensten welke gratis worden aangeboden. Dit bepleit ook internetscepticus Evgeny Morozov in dit artikel in de Parool. Uiteindelijk worden diensten namelijk niet gratis aangeboden, de gebruiker betaald sowieso met zijn of haar data. Om de complexiteit van data te begrijpen kan het interessant zijn om een kijkje te nemen in de persoonlijke data, die er worden verzameld door bedrijven zoals Google of Facebook en om daar je persoonlijke data te downloaden. 

Uiteindelijk zou men een shift moeten maken en anders nadenken over algoritmes en de impact hiervan. Een rol daarbij hebben niet alleen we als individu, maar ook de corporate bedrijven en alle andere betrokkene stakeholders. Samen zou men moeten werken aan betrouwbaardere algoritmes in de toekomst.

Over de auteur: Alexander Lamprecht is Lecturer Digital Media op de Amsterdam University of Applied Sciences.

Deel dit bericht

1 Reactie

bert

Wat een schattig voorbeeld met die voetganger. Werkelijkheid is ongeveer deze:
Man van Porsche Cayenne achtig ding op leeftijd (70) met levensverzekering van 2 miljoen euro is op ramkoers met Hyundai i10 met bijstandsmoeder en 4 voetbalkiddo’s. In de miliseconden voor de botsing wisselen de auto’s de verzekeringsrisico’s uit en resultaat is de 5 in de Hyundai de pijp uit.

Les: money rules the world. Ook bij algoritmen.

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond