Forse kritiek 270 wetenschappers op EU-wetsvoorstel om chats op kinderporno te scannen

Een nieuw Europees wetsvoorstel om chatberichten te scannen op beelden van kindermisbruik, gaat veel te ver. Dat stellen 270 wetenschappers in een open brief aan Europese wetmakers. Kinderrechtenorganisaties vinden juist dat die wet broodnodig is. Wat is er aan de hand?

1
Wat staat er in het wetsvoorstel?

Berichtendiensten zoals WhatsApp en e-mailproviders moeten, als de wet wordt ingevoerd, gaan controleren of er beelden van kindermisbruik verzonden worden. Daarvoor moeten ze de berichten scannen en vergelijken met databases van bekend misbruikmateriaal.

Daarnaast zou met de inzet van AI-systemen ook nieuwe beelden herkend moeten worden, die nog niet bekend zijn bij de politie en dus nog niet in opsporingsdatabases staan. En tot slot moet ‘grooming’ (digitaal kinderlokken) herkend worden.

Zodra een van die dingen gesignaleerd wordt, moet het bericht gerapporteerd worden aan een nieuw centraal Europees meldpunt.

2
Dit speelt toch al langer?

De discussie over een wet die beelden van kindermisbruik tegen moet gaan, loopt al een tijdje. De Europese Commissie deed in 2022 een eerste wetsvoorstel. In het jaar daarop kwam het Europees Parlement met een eigen variant, waarin bepaalde zaken afgezwakt werden. Ook de lidstaten, vertegenwoordigd in de Raad van de EU, werken nu aan een eigen voorstel. Pas als de Raad eruit is, kunnen de drie instituten tot een daadwerkelijke wet komen. In gelekte versies van het Raadsvoorstel staan wederom aanpassingen die zorgen weg moeten nemen. Dat is waar de wetenschappers nu op reageren in hun open brief.

3
Wat stellen de lidstaten voor?

In het voorstel van de Raad van de Europese Unie staan twee wijzigingen centraal. Het detecteren van kinderporno moet gerichter gebeuren en de versleuteling van berichten, zoals bijvoorbeeld op WhatsApp, mag niet aangetast worden.

Om het scannen gerichter te maken, worden communicatiediensten ingedeeld in 4 risicocategorieën. Dat gebeurt onder andere op basis van het soort gebruikers dat door een dienst aangetrokken wordt. Een rechter of toezichthouder heeft het laatste woord over de indeling.

Diensten waar het hoogste risico op misbruik is, krijgen een detectiebevel waardoor ze alle berichten moeten scannen. Bovendien moeten ze verdachte gebruikers identificeren. Iemand is verdacht als het systeem twee of drie keer denkt kinderporno te zien. Dat moet de kans op vals alarm verminderen, hoopt de Raad. Bij diensten waar het risico wat minder hoog is, wordt er net iets minder gescand.

Versleutelde berichten mogen alleen gecontroleerd worden bij hoogrisicodiensten. En ze mogen niet ontsleuteld worden. Dat klinkt vrij onmogelijk. In de praktijk komt het erop neer dat berichten al gescand worden vóór ze verzonden en daarmee versleuteld worden. Op het apparaat van de verzender, dus.

4
Wat is de kritiek van de wetenschappers?

Zij vinden de oplossing van de lidstaten een wassen neus. De indeling van diensten in risicogroepen heeft geen zin, omdat de verspreiding van kinderporno allang niet meer alleen op schimmige hoekjes van het internet gebeurt. Ook via chatgroepen op WhatsApp en Telegram kunnen misbruikbeelden uitgewisseld worden. WhatsApp zou daardoor al snel in de hoogste risicoklasse vallen, waardoor de berichten van vrijwel iedereen door de scanner gehaald worden.

Bovendien kunnen kwaadwillenden makkelijk overstappen naar een andere dienst. Die zou dan op zijn beurt ook weer in onder het verscherpte regime komen. In mum van tijd wordt zo elke chatdienst op die manier een hoogrisicodienst, zeggen de wetenschappers.

Het identificeren van verdachte gebruikers is eveneens problematisch, zeggen ze. Want daarvoor moet alsnog iedere gebruiker in de gaten gehouden worden. Bovendien wordt het risico op valse meldingen niet verkleind met een ondergrens van twee verdachte berichten. Want een ouder die foto’s van een ziek kind naar de huisarts appt, stuurt er al gauw meer dan één.

Ook van het idee dat versleutelde berichten prima vóór verzending gescand kunnen worden, maken ze gehakt. „Eind-tot-eind-versleuteling impliceert dat niemand anders dan de beoogde ontvanger van een bericht de inhoud te weten krijgt”, stellen ze. Het vooraf meekijken ondermijnt het hele idee van versleuteling.


Lees ook
Zij moet de bezem door het internet halen: ‘Meldingen van kinderpornografisch materiaal lopen weer op’

Arda Gerkens: „Je kunt niet zomaar zeggen: dit is terroristische content. Dan ga je naar staatscensuur.”

5
Is de bestrijding van kinderporno niet belangrijker dan versleuteling?

De verspreiding van kinderporno is een ernstig probleem. Daar is iedereen het over eens. Maar deze vorm van surveillance lost die problemen niet op, zeggen de briefschrijvers. „Beelden van kindermisbruik zijn het gevolg van kindermisbruik. Om kinderporno te bestrijden moet je dat misbruik aanpakken, niet alleen de beelden.”

Vooral het scannen op nieuwe beelden is problematisch. Dat zou met behulp van kunstmatige intelligentie moeten gebeuren. Maar die technologie is nog lang niet zo ver ontwikkeld en dat levert een enorme hoeveelheid aan vals-positieven op. De wetenschappers geven een rekenvoorbeeld aan de hand van WhatsApp. Daarop worden dagelijks 140 miljard berichten verzonden. Als dagelijks 1 procent gecontroleerd moet worden omdat er een afbeelding bij zit en het scansysteem een foutmarge heeft van 0,1 procent, leidt dat nog altijd tot 1,4 miljoen berichten per dag die ten onrechte als kinderporno worden gezien. Die zouden allemaal gecontroleerd moeten worden door een mens, waardoor echte meldingen ondergesneeuwd raken.

Ook het scannen op grooming zorgt voor problemen, omdat daarvoor ook tekstberichten gescand moeten worden. Het is ingewikkeld om vast te leggen wat onder grooming valt. Je zou dan ook de context waarin een bericht verzonden wordt moeten weten. Bovendien moeten berichtendiensten dan weten welke gebruikers minderjarig zijn en welke niet. Dat betekent dat al die diensten leeftijdscontroles moeten invoeren.


Lees ook
Het ‘hoofdpijndossier’ van de porno-industrie: controleren hoe oud je bezoekers zijn

Het ‘hoofdpijndossier’ van de porno-industrie: controleren hoe oud je bezoekers zijn

En dan is er het probleem dat een scanmechanisme, eenmaal geïntroduceerd, ook voor andere doeleinden gebruikt zou kunnen worden. Alleen al het bestaan ervan kan een „chilling effect” hebben op de vrijheid om jezelf digitaal te uiten.

De wetenschappers staan niet alleen in hun kritiek op het wetsvoorstel. Ook de Autoriteit Online Terroristisch en Kinderpornografisch Materiaal, in Nederland belast met het opsporen en weghalen van beelden van kindermisbruik, is tegen. Net als kinderpornomeldpunt Offlimits, dat denkt dat het wetsvoorstel niet tot de juiste resultaten zal leiden.