-

‘Reference Man’: een oproep voor een verantwoorde inzet van technologie

De documentairereeks ‘Reference Man’ heeft maar weer eens onderstreept hoe zeer de witte standaardman nog altijd bepaalt hoe dingen in onze maatschappij worden vormgegeven. Het groeiende gebruik van AI maakt de noodzaak voor meer bewustwording nog groter.

“Waanzinnig mens, ik ben het – technologie. Ik wilde even zeggen dat ik trots op je ben. Ik bedoel, moet je kijken: altijd maar innoveren. Het onmogelijke uit jezelf halen en het beste uit mij. Je denkt misschien dat je niet zonder mij kan. Maar, zonder jou ben ik niets. Met jou kan ik de wereld aan en wie weet wat we samen nog meer kunnen bereiken. Jij en ik.”

Dit is de opening van de recente Vodafone commercial over de lancering van hun GigaNet. Het herbergt veel beloftes en kernwoorden zoals innovatie, ‘het beste willen bereiken’ en het ‘wij/samen’-gevoel opwekken. Dit alles met behulp van technologie. Maar nieuwe technologieën zijn volgens mediawetenschapper Mirko Schäfer nooit neutraal, ze zijn altijd gekleurd.

Daarbij is het debat of het discours rond deze technologieën vaak utopisch of dystopisch vormgegeven. Met andere woorden: er wordt positief of negatief gesproken over nieuwe technologieën in de media en de hedendaagse samenleving. Zo waarschuwt bijvoorbeeld Mo Gawdat – oud-topman van Google en auteur van het boek Griezelig Slim (2021) – dat slimme machines al een groot deel van ons leven beheersen. Volgens hem realiseren technici en zakenmensen zich niet genoeg dat we met al die algoritmes en slimme machines geen gereedschap meer bouwen. Volgens Gawdat is het construeren van kunstmatige intelligentie het baren van een denkend wezen.

De Wetenschappelijke Raad voor het Regeringsbeleid deed recent in een nieuw rapport een oproep over de toepassingen van het gebruik van kunstmatige intelligentie (zoals onder meer het Parool berichtte). Met de groeiende impact van kunstmatige of artificiële intelligentie (AI) op het openbare leven, bij bedrijven en in de wetenschap, zal men goed over moeten nadenken in hoeverre men de razendsnelle en zelfdenkende technologie wil toelaten in de samenleving.

Ethische dilemma’s voor contentmakers in de mediawereld

Op Marketingfacts (2020) vroeg Maurits Kreijveld zich af wanneer Amazon en Netflix afkickweken gaan organiseren. Hij wijst hiermee op het (verslavende) gevaar van de inzet van slimme technologieën voor marketingdoeleinden: “Een eenmalige aankoop of transactie is niet genoeg: de klant moet blijven plakken en dus wordt er gewerkt aan ‘stickiness’. Geprobeerd wordt om de aankoopbeslissing steeds beter voorspelbaar te maken en uit te lokken met de juiste prikkels. In plaats van algemene advertenties met algemeen beïnvloedende technieken uit de psychologie (nudging), wordt overgegaan op persoonlijke boodschappen met een persoonlijke prikkel.”

De vraag is of consumenten nog wel in staat zijn om bewust wel of niet in te gaan op al deze verleidingen. Denk aan het uitgelokte binge-watching door Netflix. Contentspecialisten moeten volgens Kreijveld daarom begrijpen hoe ze marketingcampagnes, targeting en personalisatie op een verantwoorde manier kunnen inzetten.  Helaas gaan de technologische ontwikkelingen nu al steeds vaker gepaard met onverantwoord gedrag. Bedrijven die handelen vanuit big data worden daardoor vaak ook niet meer vertrouwd.

Verborgen vooroordelen in technologie

In de vierdelige documentaire-reeks Reference Man toont journalist Sophie Frankenmolen aan de hele wereld zich nog steeds richt op de standaardman met zijn 1,75 meter lengte en een gewicht van circa 80 kilogram. In de aflevering over technologie (hier op NPO Start) gaat ze in discussies met experts en geeft ze toelichtingen op welke vooroordelen zich eveneens allemaal in technologie gemanifesteerd hebben. Zo bestaan er bijvoorbeeld seksistische en racistische algoritmes.

Bevooroordeelde voorbeelddata

Sennay Ghebreab is aan de Universiteit van Amsterdam expert op het gebied van kunstmatige intelligentie en benadrukt dat voorbeelddata vaak op basis van de reference man, de standaard witte man, zijn verzameld. Iedereen heeft dagelijks met algoritmes te maken, bijvoorbeeld in het winkelcentrum, supermarkten, banken of ook bij het politiebureau waar het wordt ingezet om verdachten op te sporen. Algoritmes zijn niet onbevooroordeeld of neutraal. Ze kunnen bepaalde bevolkingsgroepen discrimineren. Algoritmes zijn niet in staat om alle groepen goed te representeren.

Bevooroordeelde spraakherkenningssystemen

Nathalie Smuha, juridisch en ethisch AI expert aan de KU Leuven, licht toe dat een algoritme vooral verbanden zoekt in grote hoeveelheden data om voorspellingen te maken en beslissingen te nemen. Het wordt steeds vaker toegepast in vertaal- en spraakherkenningssystemen. Woorden vertalen hangt erg af van de context. Met de komst van AI hadden vertaaldiensten zoals Google Translate hier veel profijt van.

Vooral met machine learning laten zich vrij eenvoudig patronen herkennen. Vandaag de dag is het Alexa-spraakherkenningssysteem in heel veel huishoudens te vinden. Hoe meer AI wordt geïntegreerd in alle domeinen van ons leven, hoe beter de systemen kunnen leren, maar hoe meer ook risico’s naar voren kunnen komen. AI-systemen worden over het algemeen ontwikkeld door blanke mannen. Die zijn er zich niet altijd van bewust dat de applicaties die ze bouwen wel degelijk vooroordelen bevatten. Alexa begrijpt bijvoorbeeld iemand met een accent minder goed, als iemand die in de norm zit. Een ander voorbeeld is de toeslagenaffaire, waarbij technologie minder hoog aangeschreven bevolkingsgroepen benadeelde. Of bijvoorbeeld sollicitatiesoftware, die automatisch bepaalde kandidaatprofielen afkeurt en waar de ideale kandidaat voorgeprogrammeerd is. De invloed van technologie vervangt steeds meer de menselijke aannames.

Seksistische algoritmes in de financiële wereld

Joris Krijger, specialist in ethiek en kunstmatige intelligentie probeert een verklaring te zoeken voor hoe seksisme in de financiële wereld terecht kan komen. Zo bleek dat bij een betaalkaart van Apple mannen meer bestedingslimiet krijgen dan vrouwen (AD, 2019). Hoe kan zo’n zogenoemde bias of bevooroordeling daarin komen? Een algoritme bouwen is mensenwerk. Als je bijvoorbeeld kijkt hoe de groep van programmeurs is opgebouwd, valt op dat de verdeling over het algemeen 22% vrouw en 78% man is. Hierdoor kan al bias ontstaan. Daarnaast zit in de data en bronnen ook bias, als de data bijvoorbeeld niet geheel representatief zijn. Lees elders op Emerce bijvoorbeeld ook het interview met Krijger over AI en ethiek bij banken.

Bevooroordeelde gezichtsherkenning

Gezichtsherkenning wordt steeds meer ingezet voor bijvoorbeeld het ontgrendelen van mobiele telefoons of bij de poortjes op Schiphol. Luuk Spreeuwers is gezichtsherkenningsexpert aan de Universiteit Twente en bevestigt dat in onze samenleving steeds meer surveillancebeelden worden verzameld. De bankensector zal in de toekomst waarschijnlijk ook een identificatie door gezichtsherkenning introduceren om in te loggen in je bankomgeving.

Moderne algoritmen werken met behulp van deep learning-netwerken. Dit zijn vaak grote datasets, complexe systemen. De afgelopen 5-10 jaar is dit enorm toegenomen. De benadeelden zijn hierbij mensen met een donkere huidkleur, omdat de systemen vooral gevoed zijn met data/beelden van blanke mensen. Wereldwijd heeft de witte bevolking ook meer toegang tot het internet.

Over het algemeen kijkt een beeldherkenningssoftware vooral welke data er beschikbaar zijn. De Nederlandse politie maakt hier ook gebruik van, zoals John Riemen, expert in biometrie bij de Politie, toelicht.  Zo biedt de technologie vooral hulp bij opsporingskwesties en dient met name als ondersteuning. Het is puur een zoeksysteem. Een getrainde en opgeleide expert achter de computer maakt de beslissing. De stad Minneapolis in de Verenigde Staten heeft inmiddels afstand genomen van deze software (The Guardian). Nu gebruikt de Nederlandse politie in totaal twee gezichtherkenning-sets. Dit worden er volgend jaar tachtig.

Een routekaart voor de toekomst

Vandaag de dag maken bedrijven in de mediawereld steeds meer gebruik van kunstmatige intelligentie. Voorbeelden hiervan zijn het maken, verspreiden en monitoren van content of het gebruiken van technologische systemen zoals gezichtherkenningssoftware. Zoals de boven geschetste voorbeelden laten zien kan een verkeerde toepassing van technologie leiden tot ethische dilemma’s. Daarom is het van belang dat bedrijfsintern een blik wordt geworpen op de blinde vlekken en dat er kritisch wordt gereflecteerd op de technologische toepassingen. Met andere woorden: het is essentieel dat bedrijven zich meer inspannen voor een verantwoorde, veilige en duurzame inzet van AI zoals Genevieve Bell, professor aan de Australian National University, gedurende #TNW2020 benadrukte.

In de beste situatie zou het er namelijk zo kunnen uitzien: algoritmen of technologie worden gevoed met complete datasets, zonder vooringenomenheid. Binnen mediabedrijven is het van belang het debat voeren om een zo compleet mogelijk beeld te schetsen, met als doel dat technologie op een verantwoorde manier wordt ingezet.

Over de auteur: Alexander Lamprecht is Lecturer Digital Media bij de Hogeschool van Amsterdam.

Op de hoogte blijven van het laatste nieuws binnen je vakgebied? Volg Emerce dan ook op social: LinkedIn, Twitter en Facebook.

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond