Het nieuws sneeuwde onder door de geopolitieke turbulentie, maar vorige week rolde Europol een crimineel netwerk op dat met kunstmatige intelligentie nieuwe afbeeldingen van seksueel misbruik maakte. In negentien landen werden 25 mensen aangehouden. Ook in Nederland klopte de politie op de deur van vier mensen die de AI-afbeeldingen hadden gedownload. Zij kwamen er voor deze – eerste – keer met een waarschuwing van af. De volgende keer worden ze vervolgd, want nep of niet, zulke plaatjes zijn in Nederland verboden materiaal.
De Deense hoofdverdachte had een large language model (LLM) getraind op een voorraad bestaande foto’s van kinderen die seksueel misbruikt worden en verkocht de resultaten online. Europol waarschuwde in 2023 al voor deze ‘Dark LLM’s’. Volgens de Britse Internet Watch Foundation blijkt dat de AI-plaatjes met name zwaar misbruik tonen en vaak ‘kindsterren’ bevatten – populaire slachtoffers van eerdere foto’s. Na de deepfakes (gezichten van kinderen geplakt op lichamen uit pornofilms) is dit de volgende stap in virtuele ranzigheid.
Je zou kunnen denken dat het beter is dat daders zich aan namaak verlustigen, in plaats van echte slachtoffers te maken. Die vlieger gaat niet op, zeggen de experts die NRC hierover sprak. Al is er bij AI geen sprake van fysiek misbruik, het leed dat de nepplaatjes veroorzaken bij de afgebeelde personen is er niet minder om.
Bovendien: de foto’s normaliseren seksuele misdrijven en dat verlaagt de drempel om daadwerkelijk misbruik te plegen. Daarnaast zetten hyperrealistische AI-plaatjes de politie op een dwaalspoor – de tijd dat je AI-personages aan zes vingers of drie armen kon herkennen is voorbij. In de woorden van een onderzoekster: „Het is al zoeken naar een speld in een hooiberg, nu wordt de hooiberg nog groter.”
Expertisecentrum Offlimits, waaronder het Nederlandse Meldpunt Kinderporno en hulplijn Helpwanted vallen, houdt sinds de zomer van 2024 ‘synthetisch beeldmateriaal’ bij. Sindsdien kwamen er bij Helpwanted 53 meldingen binnen, waarvan ruim de helft AI-gegeneerd was en de rest gefotoshopt. Bij Meldpunt Kinderporno ging het om 1.344 meldingen van met AI gegenereerd kindermisbruik. Nog geen stortvloed, toch baart het AI-fenomeen zorgen omdat de opsporing van échte gevallen al moeizaam verloopt.
Meekijken in een brief
De Europese Commissie probeert sinds 2022 een systeem op te tuigen dat verspreiding van beeldmateriaal van seksueel misbruik op telefoons kan detecteren. Het is een controversieel plan, gebaseerd op het uitgangspunt dat kinderporno tegenwoordig vaker verspreid wordt via chatnetwerken. Daarom wil de Commissie onlinediensten als WhatsApp kunnen verplichten om te controleren welke plaatjes gebruikers naar elkaar sturen. In een notendop: de afbeeldingen worden vergeleken met een database vol bekend misbruikmateriaal en een AI-filter analyseert of er nog onbekende plaatjes van seksueel misbruik bij zitten of teksten van digitale kinderlokkers (grooming).
Een centraal agentschap in Brussel, met korte lijntjes naar Europol, zou de verdachte plaatjes moeten controleren voordat de politie eropaf gestuurd wordt. Het Europese Parlement is kritisch op dit voorstel, omdat de methodiek inbreuk maakt op de privacy van gebruikers en de digitale veiligheid ondermijnt. De meeste chatnetwerken hebben de communicatie tussen hun gebruikers volledig versleuteld (end-to-end encryptie). Niemand, behalve zender en ontvanger, ziet dus wat er in het bericht staat.
Om die versleuteling intact te houden, zouden alle gebruikers software op hun telefoon moeten installeren die de plaatjes scant voordat ze versleuteld worden. Maar ook client-side scanning ondermijnt de vertrouwelijkheid van digitale communicatie. Je kunt het vergelijken met het ouderwetse briefgeheim. In plaats van de envelop te openen, zou een techbedrijf over je schouder kunnen meekijken als je de brief nog aan het schrijven bent.
Het Nederlandse kabinet besloot eind vorig jaar niet mee te gaan in het Commissievoorstel, omdat verplichte scansoftware de ‘digitale weerbaarheid’ ondermijnt (woorden van de AIVD) en fundamentele grondrechten bedreigt. Bovendien is de techniek makkelijk te misbruiken. Dat merkte Apple toen het in 2021 het doorwrochte detectiesysteem NeuralHash introduceerde. Binnen twee weken ging de stekker eruit omdat het mechanisme gehackt bleek.
De Europese detectiemethode is, net zoals die van Apple, gebaseerd op hashes van afbeeldingen met seksueel misbruik. Een hash is een cijferreeks die werkt als een digitale vingerafdruk, zodat je één oogopslag kunt zien of twee bestanden identiek zijn.
De eenvoudigste hash-algoritmes kijken alleen naar pixels; zodra de afbeelding een andere afmeting of kleur krijgt, is de vingerafdruk veranderd. Meer geavanceerde algoritmes beoordelen ook de inhoud van een afbeelding, zoals PhotoDNA van Microsoft of PDQ, het openbron-alternatief van Meta. Die algoritmes herkennen plaatjes ook als je de kleur of het formaat verandert, maar de foutmarges zijn veel hoger.
Europese opsporingsorganisaties leunen sterk op de database van de Amerikaanse organisatie NCMEC (National Center for Missing & Exploited Children). Logisch dus dat de EU een eigen systematiek wil ontwikkelen. Maar hoe? Bij het beoordelen van nieuw materiaal is de kans op fouten – false positives – groot, omdat ook een onschuldige strandfoto met kinderen verdacht lijkt. Hetzelfde geldt voor een normale blootfoto die tieners naar elkaar sturen. Hoe kun je die onderscheiden van de naaktfoto’s van jongere kinderen die ze in opdracht maken van kwaadwillende groomers? Als die context niet duidelijk is, zal automatische detectie te veel foto’s als verdacht aanmerken en opsporingsinstanties overspoelen. Voeg daarbij de deepfakes en AI-plaatjes en het beoordelen zal nog moeilijker zijn.
Detectie is dus niet het wondermiddel waar veel politici op hopen. Ze kunnen hun tijd beter besteden aan het weerbaarder maken van kinderen tegen seksueel misbruik, met goede lesprogramma’s. Wat ook helpt: een grote rode knop in WhatsApp om mogelijke groomers te rapporteren. Het zou ook schelen als je binnen de EU een hostingprovider in een ander land sneller kunt dwingen om kinderporno offline te halen. Dat proces duurt nu weken; in die tijd zijn de afbeeldingen al lang en breed gekopieerd.
Geblokkeerd door WhatsApp
Hoewel het wetgevingsproces nog wel een jaar duurt, blijft de Europese Commissie aandringen op client side scanning. Hoe dat veilig kan, dat moeten de techbedrijven zelf maar uitzoeken, reageert één van de schrijvers van het voorstel: „WhatsApp kan toch ook berichten met kwaadwillende links en spam filteren zonder de encryptie te breken?”
WhatsApp kijkt daarbij niet in de berichten maar analyseert, in tegenstelling tot Signal, de metadata: namen en omschrijvingen van WhatsApp-groepen en gebruikspatronen.
Ook die techniek is geen wondermiddel.
Gehoord van iemand die het gehoord heeft van iemand die het gezien heeft: een tijdje geleden, tijdens een Kamerdebat over de bestrijding van kinderporno, maakten ambtenaren van het ministerie van Justitie en Veiligheid een WhatsApp-groep aan, zodat ze hun minister tijdens het debat konden bijstaan. Maar vanwege de verdachte groepsnaam ‘debat CSAM’ (child sexual abuse material) blokkeerde WhatsApp in één klap de accounts van de minister en de betrokken ambtenaren. Pas na een telefoontje naar moederbedrijf Meta werkte de boel weer.
M.m.v. Alex de Joode (medeoprichter Meldpunt Kinderporno, Robbert Hoving (Offlimits) Rejo Zenger (Bits of Freedom) Gabrielle op ’t Hoog (Ecorys), Europese Commissie, Europol.
Voor vragen en zorgen over kindermisbruik, neem contact op met stopitnow.nl.
