Pornografische deepfakes zijn zo erg nog niet

man gezicht blootOnlangs waarschuwde New York University voor de inzet van deepfakes tijdens de presidentsverkiezingen van 2020. Nepvideo’s van kandidaten kunnen vooral via kanalen als Whatsapp ongecontroleerd en onweerlegd worden verspreid en zo de democratie ondermijnen. Deze week kwam er ogenschijnlijk geruststellend nieuws: vrijwel alle deepfakes die op dit moment online staan, zijn pornografisch.

Dat staat in een rapport van de Nederlandse start-up Deeptrace. Ze zochten op pornosites, videoplatforms als YouTube en Vimeo, en fora als 4Chan en 8Chan op de term ‘deepfakes’. Ook speurden ze met zoekmachines en binnen apps waarmee je zulke video’s gemakkelijk kunt maken. Het leverde 14.678 filmpjes op, bijna een verdubbeling van het aantal dat ze in december 2018 vonden. Daarvan bestaat 96 procent uit porno. Het zijn dan alleen vrouwen die worden gefaket en bijna altijd zijn het bekende actrices of zangeressen.

De gevonden resultaten verbazen me niet, om verschillende redenen. Ten eerste is er vraag. Er zijn heel veel heteromannen die heel graag willen weten hoe hun favoriete celebrities er naakt uitzien. Dat wisten we al uit bestaande porno en uit de gretigheid waarmee gelekte sex tapes van beroemdheden worden gedeeld.

Vraag creëert aanbod. Er zijn speciale apps waarmee je bestaande personen kunt uitkleden. Dat wil zeggen: je uploadt een beeld en dan bedenkt de software wat er onder de kleding van de geportretteerde zou kunnen zitten. Deeptrace beschrijft in haar rapport zo’n app. De makers hebben die inmiddels van de markt gehaald, maar de software wordt buiten hun zicht nog steeds gedeeld.

Een derde reden waarom Deeptrace zoveel porno heeft gevonden, ligt in hun methodologie. Ze hebben veel pornosites doorzocht, waaronder sites die speciaal gewijd zijn aan deepfakes. Dat geeft een vertekend beeld. Bovendien waren ze afhankelijk van wat als deepfake getagd wordt. Voor masturbatieplezier is dat prima. Je weet dat er geen seksvideo bestaat van Beyoncé, en dus zoek je naar een deepfake. Als het echter gaat om nepvideo’s die bedoeld zijn om de democratie te verstoren, gaan makers hun misleidingspogingen natuurlijk niet op die manier benoemen.

Zorgen over deepfakes zijn aansprekend. Het ligt voor de hand om hier bang voor te zijn. Tegelijkertijd is de deepfake technologie al behoorlijk ingeburgerd. De populaire video-deel-dienst Snapchat heeft al jaren een filter waarmee je gezichten kunt verwisselen. Afgelopen zomer was een tool waarmee je jezelf ouder kunt laten lijken razend populair. We gebruiken deze beelden en lachen erom.

Dat een kwaadwillende een namaakpornovideo van je maakt lijkt angstaanjagend. Maar aan de andere kant: als er veel fake-video in omloop is en het onmogelijk is om nep van echt te onderscheiden, kan je veel plausibeler dan nu claimen dat het niet echt is. It wasn’t me!

Uit onderzoek naar broodje aap-verhalen van nieuwschecker Peter Burger weten we dat mensen deze onzinverhalen doorvertellen omdat het wel eens waar had kunnen zijn, en een gewaarschuwd mens telt voor twee. Vergelijkbaar delen mensen fake news. Diezelfde Peter Burger spreekt op Twitter voortdurend PVV’ers aan die hoaxes verspreiden. Soms is er sprake van beeldmanipulatie, vaak wordt een beeld uit een andere context gebruikt en aan een nieuwe gebeurtenis of groep gekoppeld. Dat deze beelden aangetoond onjuist zijn lijkt deze politici en hun volgers niet te deren, het gaat ze om de boodschap.

Als we de democratie willen redden, moeten we ons dus niet afvragen hoe we deepfakes aan banden leggen, maar hoe we het geloof in nepnieuws tegengaan. Dat is een lastige, één waarop de wetenschap voorlopig nog geen antwoord heeft. Tot die tijd zitten we met mensen die hun kinderen niet inenten en mensen die klimaatverandering ontkennen. Dat is een stuk zorgwekkender dan dat we weten dat er mensen zijn die zich graag aftrekken op een namaakvideo van Beyoncé.

Deze column verscheen eerder op Brainwash.