Blog

De kracht van deepfakes

Het gebeurt niet vaak dat techbedrijven technologie in de ban doen. Deepfakes zijn wat dat betreft een uitzondering.

Techbedrijven die technologie in de ban doen. Dat zie je niet vaak. Zeker als om toepassingen van artificial intelligence (AI) gaat. “Deepfakes” hebben het voor elkaar gekregen. Deze algoritmes die fotorealistische video’s genereren worden geweerd uit angst voor de gevolgen voor onze toekomst, maar ook ons verleden.

Elke keer als je de website ThisPersonDoesNotExist.com ververst, verschijnt een nieuw portret. Het lijken willekeurige profielfoto’s van onbekenden te zijn, net zoals de duizenden die je voorbij hebt zien komen op social media. In werkelijkheid gaat het om afbeeldingen van niet-bestaande personen die gegenereerd zijn door geavanceerde algoritmen. In rap tempo kom je ze overal op het internet tegen. Ook verschijnen er video’s waarin met vergelijkbare technologie het gezicht van twee mensen is verwisseld. Zo ontstaan lachwekkende samensmeltingen, bijvoorbeeld tussen Donald Trump en Mr. Bean. Je kunt ze vinden onder de hashtag #DonaldBean. Deze beelden bewijzen niet dat computers slimmer worden dan mensen, maar wel dat ze ons steeds beter voor de gek weten te houden.


Portetten van ThisPersonDoesNotExist.com, afbeeldingen van niet-bestaande personen die gegenereerd zijn door geavanceerde algoritmen.

President ‘Donald Bean’

De technologie achter deze video’s is vernoemd naar het pseudoniem van een van de aanjagers. In november 2017 plaatste ene ‘Deepfake’ op het social media platform Reddit een video waarin het gezicht van een porno-actrice is vervangen door die van celebrity Gal Gadot. Een paar maanden later publiceerde Deepfake de software ‘FaceApp’, waarmee een grote schare enthousiastelingen de ene na de andere pornografische video, met daarin het hoofd van bekende vrouwen, produceerde. Binnen een paar weken ging het anders zo libertaire platform Reddit over tot een verbod. Zelfs op Pornhub – ’s werelds grootste pornowebsite – gingen deepfakes in de ban. Desondanks telde het Amsterdamse Deeptrace in oktober 2019 bijna vijftienduizend deepfakes op het web, waarvan 96 procent porno. In Nederland vielen onder anderen Dionne Stax en Bridget Maasland aan deepfakers ten prooi. Ook zijn de eerste slachtoffers van afpersing – deepfake sextortion – een feit.

Het aandeel niet-pornografische deepfakes groeit ondertussen gestaag en de gevolgen worden steeds duidelijker. Onderzoeksbureau Graphika ontdekte een wereldwijd netwerk van meer dan negenhonderd Facebook-accounts met nepprofielfoto’s die werden ingezet om extremistische berichten te verspreiden. In India en Maleisië zijn deepfakes al ingezet als politiek wapen. Op basis van deepfakes worden mensen beschuldigd, maar het omgekeerde gebeurt ook: authentieke video’s worden bestempeld tot deepfakes, en zo misstanden ontkend. Deze en nog veel meer voorvallen zetten Facebook en Twitter er begin 2020 mede toe aan om zich aan te sluiten bij het verbod op deepfakes.

Deepfakes laten ook personen uit het verleden niet rusten. Onderzoekers van het MIT Center for Advanced Virtual Reality creëerden een video waarin president Nixon lijkt te vertellen dat astronauten zijn gestrand op de maan. In een ander deepfake audiofragment lijkt Winston Churchill de inauguratiespeech van Donald Trump voor te lezen. Aan een paar audio- en beeldfragmenten en een laptop hebben kwaadwillenden genoeg om een overtuigende video in elkaar te zetten en de geschiedenis te vervalsen.

In Event of Moon Disaster – Nixon Deepfake Clips

Winston Churchill reads Trump’s inaugural address (Speech Synthesis)

Nu is het aantal deepfakes onder historische video’s nog te overzien. Maar wat als er straks meer video’s beschikbaar zijn waarin George Bush lijkt toe te geven dat de aanslagen op het World Trade Center door de CIA zijn gepleegd? Of waarin Kim Jong-il oproept tot wereldvrede, of Nelson Mandela in een kwaad daglicht wordt gezet? Wordt het niet tijd dat we technologie niet alleen beoordelen op basis van de impact op de toekomst, maar ook op het verleden?

Natuurlijk zijn er ook positieve ontwikkelingen. Zo kun je dankzij deepfaketechnologie nu een selfie maken met Salvador Dali, kun je Mona Lisa zien spreken en zingt Jacques Brel het nummer ‘Ne me quitte pas’ als nooit tevoren. Bovendien zijn de makers van deepfakes in een continue wapenwedloop verstrikt met de makers van detectiealgoritmen. Zolang nog niet duidelijk is wie daarin zal zegenvieren, koester ik mijn geschiedenisboeken.

Jacques Brel – Ne me quitte pas (VFX Breakdown)

Pieter van Boheemen is onderzoeker bij het Rathenau Instituut

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren