Deel dit artikel
-

Rathenau Instituut: nauwelijks debat rond automatische gezichts- en emotieherkenning

In Nederland is nog te weinig aandacht voor de ethiek rond automatische gezichts- en emotieherkenning. Computers kunnen echte emoties onderscheiden van gespeelde emoties, maar een debat hierover wordt nauwelijks gevoerd, constateert het Rathenau Instituut.  

Voetbalclub ADO weert hooligans aan de poort met behulp van camerabeelden. Wetenschappers kunnen foto’s van voorbijgangers automatisch koppelen aan Facebookprofielen. En als je alcohol wilt kopen in een supermarkt in Klundert vergelijkt een computer camerabeelden met paspoortfoto’s.

Google en Facebook hebben in de afgelopen jaren bedrijven gekocht die gezichtsherkenningssoftware ontwikkelen en zetten deze techniek nu volop in.

De manier waarop gegevens opgeslagen worden, beïnvloedt bijvoorbeeld de privacy van de betrokkenen. Het maakt uit of de data lokaal of in een grote database komt en hoe ze is beveiligd. Zelfs de manier waarop de software ‘getraind’ wordt, heeft maatschappelijke gevolgen. Als er in de trainingsdatabase alleen blanke personen voorkomen, herkent het systeem individuen van een andere etniciteit minder goed.

Waar het in ons land tot nu toe stil blijft, voeren de Verenigde Staten volop discussie. Zo ontwikkelen bedrijven in Amerika gedragscodes en vinden er politieke hoorzittingen plaats over de impact van de technologie op privacy en andere burgerrechten.

Met een verkennende studie (pdf) wil het instituut de discussie aanjagen over de toepassing van gezichts- en emotieherkenningstechnologie. In het komende werkprogramma 2015-2016 zal het Rathenau Instituut deze impact verder in kaart brengen en onderzoeken hoe een maatschappelijk verantwoorde ontwikkeling van deze technologie mogelijk gemaakt kan worden.

Deel dit bericht

1 Reactie

Jorn Eiting

Wij hebben onze datingsite, die op diezelfde gezichtsherkenningstechnologie is gebasseerd, net moeten sluiten (niet langer kostendekkend).

Een bijzonder gave en intelligente toepassing, waar je op basis van een gezichtsanalyse mensen kunt matchen voor een langdurige relatie.

Ik begrijp de angst met betrekking tot privacy, maar ben wel van mening dat privacy een ‘over-rated’ principe is. Waar we vroeger nog alles met elkaar deelden in een hut of grot (hoezo privacy?) kunnen we ons nu prima terugtrekken in een hutje op de hei en onze telefoon thuis laten. Die laatste geven we echter om diezelfde angst niet graag op. En kiezen dus bewust om hun privacy in te leveren in ruil voor een ‘veilig’ gevoel en ‘handige’ tools.

Technieken, en in het bijzonder die op ‘wetenschap’ gestoelde technieken zijn statistisch van aard. En statistiek kent ‘kans’ en daarmee geen garantie. Maar versnelt wel de processen en vergroot de ‘kans’ op een kwalitatief product (mate van voldoening van koper).

Conclusie: mooi als het gewenste product wordt geleverd en bijzonder slechts/ongelukkig/gevaarlijk wanneer het product aan de verkeerde kant van de ‘kans’ zit.

En het allermooiste aan dit verhaal vind ik dat we dit als mens allemaal al (in meer of mindere mate) kunnen inschatten! Ons zogenaamde ‘gut feeling’. Waar we overigens steeds minder op vertrouwen, want dat laten we graag aan algoritmen over.

Algoritmen zijn namelijk een samenvatting van kansen en ervaringen van meer dan die van jou alleen. En die geven niet meer kans op een ‘mooie’ uitkomst, maar leggen wel de ‘schuld’ buiten onszelf. “Bij mij stond het stoplicht op groen, dus had ik voorrang!” Maar wie zegt dat dat ook niet het geval was bij die persoon die van rechts kwam?

Laat de techniek dus voor je werken, maar blijf alsjeblieft zelf nadenken en menselijk. En dat geldt ook voor de parkeerwachter en politie ambtenaar die techniek inzet voor zijn/haar werk. Anders wordt je snel vervangen door een robot ;D

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond