Tientallen Tweede Kamerleden, bekende Nederlanders en leden van het Koninklijk Huis zijn het slachtoffer geworden van deepfake porno, door kunstmatige intelligentie (AI) bewerkte video’s die niet van echt te onderscheiden zijn. Dat bleek dinsdag uit onderzoek van het AD.
De deepfakes zijn te vinden op een pornosite die door het AD geheim wordt gehouden om slachtoffers te beschermen. De slachtoffers die door de krant met naam worden genoemd, hebben daarvoor toestemming gegeven. Het gaat onder meer om de Utrechtse burgemeester Sharon Dijksma en voormalig politiewoordvoerder Ellie Lust. Zij kondigden na de publicatie aan om, net als politieke partijen BBB, Partij voor de Dieren en D66, naar de politie te stappen om aangifte te doen.
1. Wat zijn deepfakes?
Deepfakes zijn gemanipuleerde video’s waarbij bestaand beeldmateriaal wordt bewerkt door stemmen of gezichten te vervangen. Een gebruiker van sociaal medium Reddit was in 2017 de eerste die, onder de gebruikersnaam ‘DeepFakes’, pornovideo’s plaatste van beroemdheden. Daarbij verwisselde hij de gezichten van pornosterren met die van bekende zangeressen en filmsterren.
Hoewel er veel aandacht is voor nepnieuws-deepfakes – een politicus zegt iets dat hij nooit gezegd heeft – wordt deepfake-technologie vooral ingezet om porno te maken. Volgens een schatting van het jaarlijkse Amerikaanse State of Deepfakes-onderzoek is het aantal deepfakes op het internet sinds 2019 met 550 procent toegenomen, tot ruim 95.000 video’s vorig jaar. Het gaat in ruim 95 procent van de gevallen om pornovideo’s.
Deze video’s worden door de opkomst van kunstmatige intelligentie steeds realistischer. Techbedrijven investeren sinds de opkomst van chatbot ChatGPT, in november 2022, miljarden in AI-technologie. De zogenoemde ‘neurale netwerken’, slimme systemen die patronen herkennen in grote hoeveelheden data, worden steeds beter in het imiteren van menselijk gedrag. Dat zie je terug in de levensechte nepvideo’s, waarbij vaak alleen stemmen en bijbehorende mondbewegingen nog niet helemaal synchroon lopen.
Het is inmiddels kinderlijk eenvoudig geworden om een video of stem na te maken. Kennis van programmeren is niet nodig. Het Amerikaanse audiobedrijf ElevenLabs claimt slechts een opname van een minuut aan stemgeluid nodig te hebben om een kopie van elke stem te kunnen maken. Aangezien de stem van vrijwel iedereen wel ergens op het internet te vinden is, is daarmee vrijwel iedereen een potentieel slachtoffer.
2. Is dit niet strafbaar?
Minister van Justitie en Veiligheid Dilan Yesilgöz (VVD) noemde het nieuws over de video’s dinsdag „misselijkmakend en bovendien strafbaar”, schreef ze op X. „Dit soort ranzige praktijken horen aangepakt te worden! Doe alsjeblieft aangifte!”
Ook advocaat Richard Korver, voorzitter van stichting LANZGS waarbij gespecialiseerde slachtofferadvocaten zijn aangesloten, gaf aan dat slachtoffers er verstandig aan doen om aangifte te doen. Ook kunnen zij een klacht indienen bij de Autoriteit Persoonsgegevens (AP) wegens schending van hun privacy. Makers van deepfakes zijn verplicht om de filmpjes te verwijderen als een slachtoffer daarom vraagt.
In november vorig jaar werd een 39-jarige man uit Amersfoort veroordeeld voor het maken van deepfake-pornofilmpjes van Op1-presentatrice Welmoed Sijtsma. Volgens de rechtbank had de man met zijn daad de „seksuele autonomie en seksuele privacy” van het slachtoffer ernstig geschaad. Hij werd veroordeeld tot 180 uur voorwaardelijke taakstraf. Het was destijds de eerste keer dat in Nederland iemand werd vervolgd en veroordeeld voor het maken van nepporno. Die veroordeling kon alleen plaatsvinden omdat Sijtsma zelf voor een documentaire onderzoek had gedaan waarmee de dader kon worden achterhaald.
Het Wetenschappelijk Onderzoek en Datacentrum (WODC) van het ministerie van Justitie en Veiligheid concludeerde in 2022 dat niet wetgeving, maar handhaving het grote probleem is bij de bestrijding van deepfake porno. „Handhaving wordt vooral bemoeilijkt doordat nu al een enorme hoeveelheid gemanipuleerd materiaal verschijnt”, schreef het WODC. „Experts verwachten dat dit alleen maar toeneemt en steeds moeilijker te detecteren is.”
3. Wat zou wel werken om dit op te lossen?
Wat volgens de onderzoekers van het WODC nodig is: het verbieden van het gebruiken, aanbieden of bezitten van de technologie die deepfakes mogelijk maakt. Maar voorlopig zit dat er niet in.
Politici zijn huiverig voor het verbieden van technologie, die ook voor positieve doeleinden kan worden gebruikt. Denk aan: het nasynchroniseren van video’s in buitenlandse talen, het gebruik van de ‘echte’ stemmen van historische figuren in documentaires of bijvoorbeeld het namaken van video’s voor satire.
De dit jaar aangenomen Europese wetgeving (de AI Act) belooft wel deepfakes aan te pakken, al is het minimaal. Volgens de wet, die waarschijnlijk over twee jaar ingaat, worden bedrijven die stemklonen of nepvideo’s maken verplicht om een ‘watermerk’ aan te brengen in stemmen of video’s. Zo kunnen gebruikers in ieder geval zien of horen dat een nepvideo of nepstem ook echt nep is.
Volgens prominente AI-experts is dit onvoldoende. Vorige maand riepen onder meer Marietje Schaake van de Amerikaanse Stanford Universiteit en hoogleraar computerwetenschappen Stuart Russell van Berkeley, op tot meer regelgeving om deepfakes te bestrijden. Overheden moeten, volgens de experts, techbedrijven verantwoordelijk stellen voor de schade die hun audio- en videosoftware toebrengt. Alleen dat maakt dat de bedrijven hun technologie zo ontwerpen, dat het niet mogelijk is om er bijvoorbeeld pornovideo’s mee te fabriceren.
De eigenaar van het deepfake-platform [13 miljoen bezoekers per maand] waarop ook de video’s van de Nederlanders werden gedeeld, is zich overigens van geen kwaad bewust, zo zei hij in 2022 tegen de BBC. „Bekende vrouwen zijn gewend aan negatieve aandacht. Ze zijn anders dan gewone burgers”, aldus de man, die woont in de Verenigde Staten. „Toestemming is niet nodig. Het is een fantasie. Het is niet echt.”