Opinie | Geef neppe naaktbeelden niet te veel macht

Beeld generen wordt steeds makkelijker. Met de juiste prompt tover je zo een mooie prent uit een online applicatie. In mijn gang hangen portretten van filosofen die ik met AI heb gemaakt, waaronder Michel Foucault in de stijl van Toulouse Lautrec. Ik had daar ook een erotische versie van kunnen maken. Bepaalde apps ‘ontkleden’ in een handomdraai iedere persoon van wie je een foto uploadt.

Inmiddels zijn er ook tools waarmee je bewegend beeld kunt maken op basis van tekstcommando’s en eventueel bestaand materiaal, zonder verder kennis te hebben van videobewerking. Dat kan ook pornografisch. Websites dagen gebruikers uit hun fantasie de vrije loop te laten. Niemand die controleert of het gezicht dat in een video geplakt wordt dat van Mona Lisa is of Lisa de Vries uit havo 4.

Vorige maand waren zulke video’s nieuws toen het AD bekend maakte dat deepnudes van bekende Nederlanders, waaronder politici en leden van het Koningshuis, te zien zijn op een niet nader genoemd platform. Demissionair minister van Justitie Dilan Yesilgöz (VVD) riep op aangifte te doen en er klonken pleidooien voor meer wetgeving. Dat gaat niet helpen. Zoals het WODC al in 2022 vaststelde: het huidig recht is goed toegerust om deepfakes aan te pakken, het probleem zit in handhaving. Van onze toch al overbelaste politie hoeven we hier weinig te verwachten.

We moeten AI niet zulke magische krachten toekennen

Bovendien: de geest is uit de fles. Deepfakes behoren nu tot de creatieve gereedschapskist, waarin ook de pen en het penseel zitten. En zoals het niet verboden is om een schunnige fantasie op te schrijven of op doek te schilderen, kunnen we digitale weergave ervan niet verbieden. Een met de computer gegenereerde deepnude is in aard niet anders dan een tekening.

Het kan ongemakkelijk zijn te weten dat je figureert in iemands natte dromen, maar het is nooit reden tot schaamte. Zo’n tafereel is eerder gênant voor de vervaardiger. Tussen een tekening en deepfake zit hooguit verschil in waarneming: bij de eerste is het direct duidelijk dat het om een nagemaakte beeltenis gaat. Maar zoals Photoshop ons heeft geleerd foto’s niet meer op voorhand te vertrouwen, zal deepfaketechnologie ons leren video niet voor waar aan te nemen.

Vernederen

Het kwaad zit dus niet in de deepfake zelf. Vergelijk het met sexting binnen een relatie. Er is niets mis met het onderling uitwisselen van sexy foto’s. Het probleem ontstaat wanneer beelden gedeeld worden zonder consent. Naar schatting is 95 procent van de deepfakes op het web pornografisch. Bijna altijd zijn ze gemaakt zonder toestemming van de geportretteerde. Soms is dat voor eigen gebruik, maar video’s worden ook gecirculeerd in semi-besloten groepen en op pornosites. De gevolgen zijn enorm. Slachtoffers voelen zich machteloos en misbruikt.

Er bestaat nog geen onderzoek naar de motivaties van daders om zulke beelden te verspreiden. Die kunnen commercieel zijn: er zijn platforms die betalen voor producties en slachtoffers worden soms gechanteerd. Daders spelen daarbij in op het stigma dat aan porno kleeft. Dat is zo krachtig en zo besmettelijk dat zelfs associatie ermee via een nepvideo leidt tot schaamte en angst.

Dit wijst erop dat bepaalde daders deepfakes maken om hun slachtoffers te vernederen. Omdat de slachtoffers vrijwel altijd vrouwen zijn, is het aannemelijk dat zulke daders een misogyn genoegen scheppen in het zich toe-eigenen van iemands gelijkenis. Haar ‘lichaam’ dingen laten doen en deze beelden vervolgens publiceren is dan een manier om vrouwen te intimideren, pesten of straffen.


Lees ook
Van ‘banga’s’ tot ‘draken’; Utrechtse studenten weten dat de bangalijst nooit is verdwenen

Het gebouw van Utrechtsch Studenten Corps (USC), aan het Janskerkhof in Utrecht.

Maar een door een computer gegenereerd beeld is geen voodoopoppetje en het maakt van een mens geen marionet. We moeten AI niet zulke magische krachten toekennen. Een namaakfilmpje zou nooit moeten kunnen werken als wraakporno, exact om de reden dat het nep is. Deepnudes op dezelfde manier behandelen als een gelekte sekstape is precies waar kwaadwillenden op uit zijn. Hun wrede agenda werkt alleen als we hun creaties de status toekennen van echt.

We moeten deepfakeporno dus juist helemaal niet serieus nemen. Effectiever is om te benadrukken dat tegenwoordig ook video’s vervalst kunnen zijn. De schade die deepnudes aanricht, komt voort uit diepgewortelde vrouwenhaat in onze samenleving, waar ‘hoer’ nog steeds het meest gebruikte scheldwoord voor meisjes is. Dat moet benoemd en aangepakt worden. Het gaat immers niet om de technologie, maar om wat de mens ermee doet.