Mag de politie nog camera’s met gezichtsherkenning gebruiken om een voortvluchtige moordenaar te vinden? En is een bedrijf dat kunstmatige intelligentie (AI) gebruikt om video’s of stemmen te maken strafbaar bezig als voor de gebruiker niet duidelijk is dat de stemmen en video’s niet echt zijn?
Na 36 uur non-stop onderhandelen bereikte de EU afgelopen weekend een akkoord over de AI Act. Met de AI Act, waarvan de details nog moeten worden ingevuld, hoopt Europa een wereldwijde norm te stellen voor hoe bedrijven en overheden AI gaan inzetten.
Er komen nieuwe regels voor ‘foundational models’, de krachtige taalmodellen van onder meer Google en OpenAI die het afgelopen jaar een grote vlucht hebben genomen. De makers van de meest risicovolle AI-systemen moeten als de AI Act van kracht wordt, waarschijnlijk in 2026, verantwoording afleggen aan een onafhankelijke toezichthouder. Zij moeten daar onder meer aantonen dat hun AI-systemen geen schade toebrengen aan burgers. Ook moeten ze transparant zijn over het energieverbruik en aangeven met welke gegevens de modellen precies getraind zijn.
Wat betekent de AI Act verder concreet voor Europese burgers? Een overzicht van de belangrijkste onderdelen van de wet en wat er straks wel en niet meer kan.
Gezichtsherkenning
Een van de belangrijkste discussiepunten was het gebruik van gezichtsherkenning. Het Europarlement hoopte op een algeheel verbod op de technologie. Zo ver kwam het niet.
Dit mag niet: Afgesproken is dat gezichtsherkenning in de EU in principe verboden wordt. Dat betekent dat de politie het niet mag inzetten om bijvoorbeeld deelnemers van een demonstratie te identificeren. Een voetbalclub die gezichtsherkenning gebruikt om rellende supporters te identificeren is onder de nieuwe wet waarschijnlijk niet meer toegestaan. Ook wordt het verzamelen van foto’s van het internet om een gezichtendatabase aan te leggen verboden.
Dit mag nog wel: er is een uitzondering op deze regel. Voor opsporingsdiensten blijft het onder specifieke omstandigheden toegestaan om gezichtsherkenningtechnologie te gebruiken. Mits het wordt gebruikt om één individu op te sporen, die wordt verdacht van een ernstig misdrijf (terrorisme, verkrachting, moord, etc). Een rechter moet daarvoor toestemming geven. Het gevolg hiervan is dat Europese overheden alsnog „systemen voor algehele gezichtsherkenning kunnen opzetten”, volgens Daniel Mügge, hoogleraar politieke arithmetiek aan de Universiteit van Amsterdam. „Denk aan camera’s die ons overal kunnen registreren. Zodat de overheid het ook kan gebruiken als het nodig is.”
Herkenning van emoties
In de AI Act werd opgenomen dat de EU systemen gaan verbieden die „emoties herkennen op de werkplek en in het onderwijs”.
Dit mag niet: het gebruik van ‘emotieherkenningssoftware’ wordt aan banden gelegd. Deze technologie wordt bijvoorbeeld in Amerikaanse callcenters al actief ingezet, waarbij stem, gezichtsuitdrukking en typgedrag van personeel door werkgevers in de gaten wordt gehouden, zodat werknemers hun productiviteit hoog houden. Ook technologie die, bijvoorbeeld via opnames of screenshots, bijhoudt hoe goed leerlingen op school opletten wordt in de EU verboden.
Dit mag nog wel: voor veiligheid op de werkplek wordt een uitzondering gemaakt. „Denk aan een vrachtwagenbedrijf dat software wil gebruiken om te monitoren of chauffeurs wel wakker zijn”, zegt Mügge. Een bedrijf dat van de uitzonderingspositie gebruik wil maken, zal zich bij een nog op te richten Europese AI-toezichthouder moeten verantwoorden.
Een AI-watermerk
De lidstaten spraken af dat het voor elke burger straks duidelijk moet zijn of een foto, video, tekst of stem van een mens of een computer afkomstig is. Onduidelijk is hoe de EU dit denkt te kunnen handhaven.
Dit mag niet: audiobedrijven zoals het Amerikaanse ElevenLabs maken het mogelijk iemands stem binnen een paar seconden te klonen. Als ElevenLabs in de EU beschikbaar wil blijven, zal het bedrijf verplicht elk geluidsfragment moeten vergezellen van een disclaimer. Dat geldt ook voor beelden die door beeldgenerator DallE zijn gemaakt. „Bij tekst van bijvoorbeeld ChatGPT wordt dit wel heel ingewikkeld”, zegt Mügge. „Hoe ga je dat controleren?”
Dit mag nog wel: een verbod op stemklonen of deepfakes (nepvideo’s), waar veel experts op aandrongen, komt er niet. Dat betekent dat de technologie ook in de toekomst kan worden gebruikt, bijvoorbeeld om stemmen van politici te imiteren of satirische video’s te maken. Mits dus duidelijk is dat het om een nagemaakte stem of video gaat.
Lees ook
‘Mam! Help! Kun je snel geld overmaken?’
Sociale scoresystemen
De EU zegt geen systemen te willen die een „sociale score” bijhouden van haar burgers. Daarmee probeert Europa vooral een alternatieve visie te geven op het Europese angstbeeld van China, waar burgers met een lage sociale score bijvoorbeeld geen bedrijf mogen beginnen. Een Chinese burger kan een lagere score krijgen als hij zich bijvoorbeeld kritisch uit over de Chinese overheid op sociale media of rekeningen te laat betaalt.
Dit mag niet: een sociaal kredietsysteem waarbij de overheid van een Europees land het gedrag van burgers permanent monitort en beoordeelt. Volgens Mügge is deze bepaling in de AI Act meer een statement, dan het echt concreet aanpassen van regels. „De EU zegt hiermee vooral: wij willen geen dystopische staat.” Ook wordt het Europese overheden verboden te voorspellen of een individu de fout in zal gaan op basis van persoonsgegevens, iets wat een rol speelde in de Toeslagenaffaire.
Dit mag nog wel: bepaalde scoresystemen voor burgers die Europa wél heeft, maar niks met AI te maken hebben, blijven gewoon bestaan. Denk aan een bkr-registratie, waar de kredietwaardigheid van Nederlandse burgers wordt bijgehouden.
Leeslijst