Deel dit artikel
-

Hoogleraar Jan Broersen kritisch over inzet algoritmen tegen nepnieuws

Algoritmes zijn vooralsnog niet goed in het beoordelen van een tekst op inherente kwaliteit, zoals opbouw, consistentie en redenatie. Dat zegt hoogleraar Jan Broersen (Universiteit Utrecht) als reactie op het nieuws dat Facebook in zijn fact-checking programma gebruik maakt van een combinatie van technologie en menselijke beoordeling om valse nieuwsberichten op te sporen en te degraderen.

‘Ik denk dat het vrij gevaarlijk is wat Facebook doet. Zij schuiven de verantwoordelijkheid iets te bestempelen als nepnieuws deels af op algoritmes,’ zegt Broersen op de webpagina van zijn universiteit.

In december lanceerde de Europese Commissie een actieplan om de verspreiding van desinformatie tijdens de komende Europese verkiezingen tegen te gaan. Platforms als Google, Facebook en Twitter hebben hiervoor een gedragscode ondertekend. Daarbij worden ook algoritmen ingezet.

Broersen was op bezoek bij IBM en maakte daar kennis met Watson. Ook deze supercomputer blijkt niet in staat om een tekst echt te begrijpen. Hij kan geen tegenstrijdigheden in een tekst signaleren. ‘Als je nepnieuws wilt detecteren dan is een van de eerste dingen die je wilt weten of er geen inherente tegenstrijdigheden in de tekst zitten.’

Broersen vervolgt: ‘Het enige wat machines doen is oppervlakkige kenmerken testen die wijzen op mogelijke nepheid. Bovendien, ons oordeel over wat kan en wat niet kan is ontzettend moeilijk in een regel te stoppen; misschien is het zelfs onmogelijk. Daarnaast worden algoritmes ook opgesteld door mensen met een bepaald moreel kompas en bepaalde vooroordelen. Je moet niet denken dat algoritmes objectief zijn. De mensen die ze maken zijn dat niet.’

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond