-

Deepfake wint terrein. Is het ook positief in te zetten?

Een video van David Beckham waarin hij negen talen spreekt, een Youtube video waarin Obama president Donald Trump een ‘complete dipshit’ noemt. Een kwalijke ontwikkeling, of is er ook iets moois te maken met deze deepfake-technologie?

Steeds vaker komt de term deepfake voorbij. Deepfake is een combinatie van ‘deep learning’ en ‘fake news’. Het is een verzamelnaam voor nepvideo’s die gemaakt zijn met bepaalde software, een techniek die gebruik maakt van kunstmatige intelligentie (AI). Inmiddels zijn deze video’s amper te onderscheiden van echte video’s en zijn steeds gemakkelijker te maken door het grote publiek. Oftewel: deepfakes 2.0.

Fake news en kunstmatige intelligentie

Deepfake valt onder kunstmatige intelligentie (AI). In het kort gezegd zorgt het ervoor dat computers nieuwe dingen kunnen aanleren op basis van grote hoeveelheden data. Deze data kan bestaan uit getallen, tekst, beeld of geluid. Deze zogeheten deepfake-software gebruikt AI om nepvideo’s te maken die amper te onderscheiden zijn van echte video’s. Vroeger was deze techniek weggelegd voor filmstudio’s in Hollywood, tegenwoordig zijn ze gratis te downloaden voor het grote publiek. De technologie staat niet stil: Deep learning, algoritmes en AI hebben deepfake 2.0 mogelijk gemaakt. 

Hoe maak je een deepfake video?

Om een deepfake-video te maken heb je allereerst een neuraal netwerk nodig. Dit is software die vergelijkingen toont met de manier waarop onze hersenen communiceren en nieuwe dingen leren. Je geeft de software beelden van beide personen. Het netwerk leert vervolgens de gezichten te reconstrueren op basis van de gezichtskenmerken. Op deze manier laat je persoon 1 reconstrueren met als input het beeld (of audio)materiaal van persoon 2. Het systeem heeft maar dertig seconden beeldmateriaal nodig om een nieuw beeld te construeren.

Ontwikkelingen in deep learning algoritmen om video- en audio content te synthetiseren maken de productie van deepfakes mogelijk. Het wordt steeds makkelijker om deepfakes te maken. Dit komt voornamelijk doordat de software downloadbaar is, smartphones steeds betere camera’s krijgen en de mogelijkheden van artificial intelligence steeds vooruitstrevender worden. De randvoorwaarden voor het maken van deepfake video’s worden beter. Het maken van een overtuigende deepfake is echter nog niet zo gemakkelijk. Hier lijkt verandering in te komen door een recente samenwerking van onderzoekers van het softwarebedrijf Adobe Research, het Max Planck Institute for Informatics en Princeton University.

Zo hebben de onderzoekers een tool ontwikkeld waarmee het ineens heel gemakkelijk wordt om films te editten: door simpelweg nieuwe woorden in een transcript te typen kun je de gesproken tekst wijzigen. De techniek achter de tool is wel wat ingewikkelder: zo hebben ze duizenden verzamelingen van klanken gescand (=fonemen), en deze gematcht met bijbehorende gezichtsuitdrukkingen. Koppel dit vervolgens aan 3D-modellen en je traint kunstmatige intelligentie. Wanneer je de tekst aanpast in het transcript van de video worden automatisch de klanken, gezichtsuitdrukkingen en 3D-modellen gecreëerd door het systeem. Het resultaat: een vrij realistische deepfake.

Wat zijn mogelijke gevolgen van deepfake video’s?

Helaas zijn mensen gevoelig voor nepnieuws. Uit onderzoek is gebleken dat onze hersenen nepnieuws in tekst al moeilijk kunnen onderscheiden van echt nieuws. Bij video’s ligt dit percentage nog hoger, afhankelijk van de kwaliteit van de video. Tot dusver was beeldmateriaal onomstotelijk bewijs, maar dit lijkt te veranderen met hoge kwaliteit deepfakes. Zelfs bij lage kwaliteit video’s lijken sommige mensen te denken dat het om een echte video gaat.

Zo viel een nepvideo van de Socialistische Partij Anders waarin Donald Trump België adviseerde om uit het klimaatakkoord te stappen niet echt in goede aarde bij het publiek. Het gevaar van nepnieuws is dat mensen minder vertrouwen krijgen in het nieuws en in de media. Dit fenomeen wordt reality apathy genoemd. Door constant in aanraking te komen met nepnieuws en er niet van op aan te kunnen dat het waar is wat mensen zien wordt een soort resistentie opgebouwd.

Een goed voorbeeld hiervan is het onderzoek van Adobe en mede-onderzoekers, met de eerder genoemde tool die deepfakes mogelijk maakt. Van de 138 vrijwilligers dacht iets minder dan zestig procent dat de deepfake video’s echt was. Dit lijkt een redelijk percentage. Tot je bedenkt dat slechts tachtig procent geloofde dat de originele video’s echt waren. De techniek van deepfakes werkt nog niet optimaal. Zo kan kunstmatige intelligentie (AI) de woorden wel aanpassen, maar de intonatie wordt niet automatisch aangepast. Ook is er is nog steeds zo’n vertig minuten aan bronmateriaal nodig wil je een realistische deepfake video maken.

Ethisch vraagstuk

De nieuwe technologie roept vragen op over de mogelijke gevaren op het gebied van journalistiek, democratie en het idee achter wat echt is en wat nep is. Het is een soort kat en muisspel tussen de makers van fake news en de onderzoekers ervan. De huidige (althans, de reeds bekende) deepfake video’s zijn relatief onschuldig. Maar wat als democratie of veiligheid op het spel staat?

Bedenk je eens wat de mogelijke gevolgen kunnen zijn als deze technologie manipulatief wordt ingezet. Het verspreiden van vervalsingen zou effectievere desinformatie operaties mogelijk maken, vergelijkbaar met Rusland zijn inspanningen in 2016 tegen de Amerikaanse presidentsverkiezingen. Kunstmatige intelligentie wordt gebruikt voor het creëren van nep video’s, maar het kan ook ingezet worden om de deepfake video’s te bestrijden.

Door bepaalde patronen kunnen algoritmes signalen herkennen die aangeven dat een video nep is. Bijvoorbeeld ogen die niet knipperen, een onwerkelijk schaduwpatroon bij het gezicht of vervaagde pixels in het beeld. Adobe heeft recentelijk nog aangekondigd zich verantwoordelijk te voelen voor de verspreiding van deepfakes en beeldmanipulaties. Ze hebben daarom een tool ontwikkeld die gemanipuleerde beelden kan herkennen. Naast de schadelijke toepassingen van deepfakes, zijn er ook nuttige (wat meer ethische) toepassingen. Denk bijvoorbeeld aan het inzetten van deze technologie in de filmproductie, bijvoorbeeld door een overleden acteur een rol te geven in de vervolgfilm of nasynchronisatie.

Ook zijn er interessante deepfake-toepassingen op commercieel gebied. Zo maakt een malariacampagne van RSA Film Amsterdam gebruik van deze techniek en stopt het in een positief jasje. In de video hoor je topvoetballer David Backham negen talen spreken, een meertaligheid die mogelijk is dankzij deepfake-technologie. De campagne ‘Malaria Must Die, So Millions Can Live’, is erin geslaagd om een positieve draai te geven aan deze controversiële techniek. Of dit een verdienste is van de technologie of het inzetten van het gezicht van David Beckham, dat laten we nog even in het midden.

Om video's van Youtube te kunnen tonen, dienen analytische cookies en tracking cookies geaccepteerd te worden.

En nu?

Platformen zoals Facebook, Adobe en Google werken aan oplossingen voor het herkennen van nepnieuws en deepfakes. De Nederlandse computerwetenschapper Theo Gevers werkt momenteel aan een plugin voor browsers om deepfakes te herkennen. Ook staat er een kabinetsplan klaar om burgers te beschermen tegen nepnieuws en het verspreiden ervan. Naar verwachting zal dit verder uitgerold worden met de Europese verkiezingen. 

Deel dit bericht

2 Reacties

John the Baptist

Deepfakes kunnen dus worden gebruikt om die sekstortion mailtjes kracht bij te zetten. Nu weet je dat het nep is, dan weet je dat het nep is. Maar ze kunnen dus wel zo’n vals filmpje gebruiken

Stephanie Stam - Coffee IT

Hi John,

Dank voor je reactie. Dat klopt, waar het voorheen snel duidelijk was wanneer een video echt of nep is, wordt dit met deze nieuwe ontwikkelingen steeds moeilijker te onderscheiden. Deepfakes kunnen inderdaad gebruikt worden bij onder andere sekstortion. Kwalijke zaak dus! Al geloof ik (en hoop ik) dat het niet enkel voor schadelijke doeleinden gebruikt zal worden op termijn en dat de controle en het herkennen van deepfakes ook beter wordt..

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond