Een bolderend korhoen is al decennialang een waar Nederlands natuurspektakel, alleen te zien en te horen in de lente, bij zonsopgang, op de heide van de Sallandse Heuvelrug. Maar hoe lang is dit spektakel nog te zien? Van de tienduizend korhoenders die Nederland ooit had, zijn er nog maar enkele exemplaren over. Is deze vogel nog wel te redden voor Nederland?
Heb je vragen, suggesties of ideeën over onze journalistiek? Mail dan naar onze redactie via[email protected].
Gebruik van technologie om menselijke emoties te herkennen werpt ethische vragen op en brengt risico’s met zich mee. Die waarschuwing geeft de Autoriteit Persoonsgegevens (AP) dinsdag in haar jaarlijkse Rapportage AI- & Algoritmerisico’s Nederland.
Bedrijven en andere organisaties gebruiken kunstmatige intelligentie in toenemende mate om menselijke emoties te herkennen. Onder meer om te achterhalen of een klant tevreden is en om winkeldiefstal te voorkomen door verdacht gedrag te detecteren. De AP, toezichthouder op de privacy, ziet echter dat bij emotieherkenning nogal eens omstreden aannames worden gedaan over emoties. Ook bij de meetbaarheid ervan stelt ze vragen.
Emotieherkenningssystemen
Algoritmes en AI-modellen kunnen menselijke emoties detecteren en interpreteren via tekst, audio, video, biometrische gegevens of een combinatie ervan. Denk bijvoorbeeld aan gesprekken met chatbots waarin kan worden beoordeeld of woorden neutraal, positief of negatief zijn. AI-gedreven spraakanalyses die aan de hand van de intonatie, snelheid en toonhoogte kunnen inschatten of iemand bijvoorbeeld gefrustreerd is.
Emotieherkenningssystemen kunnen processen in verschillende sectoren verbeteren en efficiënter maken, zoals klanttevredenheid in de marketing, maar er kleven ook risico’s aan, zegt de AP. Uit haar onderzoek komt naar voren dat deze systemen gebruikmaken van universele emoties. Het uitgangspunt is dat iedereen natuurlijke emoties op dezelfde manier ervaart en uitdrukt.
Dit blijkt in de praktijk echter niet het geval. Emotieherkenningssystemen zijn voornamelijk getraind op basis van westerse opvattingen over emoties, die niet per definitie universeel zijn. In de praktijk zijn emoties vaak moeilijk te analyseren en sterk afhankelijk van de context. AP-voorzitter Aleid Wolfsen waarschuwt daarom voor het gebruik van deze systemen. Emoties kun je „niet altijd een-op-een vertalen”, zegt hij. „Een hoge hartslag is niet altijd een teken van angst, en een harde stem niet altijd een uitdrukking van woede.”
Ethische vraagstuk
Wat ook naar voren komt uit het rapport is dat de privacy in het geding kan komen bij het detecteren, verwerken en analyseren van menselijke emoties. AI-gedreven systemen die emoties herkennen, hebben namelijk toegang nodig tot persoonlijke data als je hartslag en je lichaamshouding. Daarnaast vormt de toenemende verwerking van data van deze gevoelige gegevens naar bijvoorbeeld databases in the cloud een privacyrisico. Dat emotieherkenning voornamelijk gebaseerd is op westerse data op het gebied van emoties kan ook discriminatie in de hand werken, omdat deze systemen getraind zijn op data die niet representatief is voor alle culturen en bevolksingsgroepen.
Volgens Wolfsen is het „een ethisch vraagstuk of je als maatschappij het herkennen van emoties met AI toelaatbaar vindt. Daarvoor is een maatschappelijke en democratische afweging nodig: of je deze systemen wilt gebruiken en zo ja, in welke vorm en waarvoor.”
Praktijkvoorbeelden
In haar rapportage richtte de AP zich dit jaar vooral op emotieherkenningssystemen in de praktijk. Zo onderzocht de toezichthouder het gebruik van emotieherkenning met AI bij het meten van de hartslag in bijvoorbeeld smartwatches en fitnessarmbanden. Daarnaast nam ze enquêtes af bij klantenservices die gesprekken opnamen en analyseerden met taalmodellen die audio van geluidsopnames omzetten in tekst emoties van de betrokkenen. . Uit al deze onderzoeken bleek dat de AI-systemen emoties niet altijd accuraat konden herkennen en dat de uitkomsten van de analyses onbetrouwbaar waren. Zo was niet te achterhalen op basis waarvan een sporthorloge had vastgesteld dat iemand stress ervoer of waarom aan ‘blije’ of ‘boze’ woorden deze specifieke emoties waren toegekend.
In het geval van de enquêtes bij de klantenservices concludeerde de AP dat het voor de bedrijven zelf niet duidelijk was dat de gesprekken ook werden opgenomen voor emotieherkenning. Zij dachten dat dit puur voor trainingsdoeleinden gebeurde, wat een inbreuk van de privacy kan vormen.
Daarom concludeert de AP dat er zeer voorzichtig moet worden omgegaan met het gebruik en toestaan van dit soort toepassingen, om risico’s op discriminatie en inperking van de menselijke autonomie en waardigheid te minimaliseren. Wolfsen: „Emoties raken sterk aan je menselijke autonomie. Als je emoties wilt herkennen, moet dat dan ook zeer zorgvuldig en op basis van betrouwbare technologie gebeuren.” Daar is momenteel volgens Wolfsen nu vaak geen sprake van.
„We schaffen Pinksteren af. We schaffen Pasen af. En we schaffen Kerstmis af.”
Deze aankondiging klinkt uit de mond van de Deense premier Mette Frederiksen in een video die in april vorig jaar door de voorzitter van de Deense Volkspartij Morten Messerschmidt werd verspreid. In een soort persconferentie, waarin haar stem nogal robotachtig klinkt, kondigt zij de afschaffing van de feestdagen aan.
Bovenaan de video is een sticker zichtbaar, met de tekst „AI-gegenereerd”. Het filmpje, een zogenoemde deepfake, is nep. Met behulp van kunstmatige intelligentie had Messerschmidt een nepfilmpje gemaakt dat niet makkelijk van echte beelden te onderscheiden is. Het leidde tot enorme commotie in Denemarken: de ene na de andere Deense politicus veroordeelde Messerschmidts actie, en riep op tot een verbod op dit soort video’s. Een van hen was minister van Cultuur Jakob Engel-Schmidt.
Iets meer dan een jaar later voegt Engel-Schmidt de daad bij het woord. „Mensen kunnen door de digitale kopieermachine worden gehaald en voor allerlei doeleinden worden misbruikt”, zei de minister, „en dat zal ik niet accepteren.” Met een wetsvoorstel, waarbij alle Denen auteursrecht krijgen op hun lichaam, gezicht en hun stem, wil de regering burgers beschermen. Voortaan moeten Denen toestemming geven, voordat een deepfake gemaakt mag worden. Enkele Nederlandse Kamerleden hebben de regering gevraagd om onderzoek naar een soortgelijke wet.
1 Wat is een deepfake?
Een deepfake is een gemanipuleerde video waarbij beeldmateriaal wordt bewerkt. Met behulp van AI worden beelden gemaakt die nauwelijks van echt te onderscheiden zijn. Doorgaans zegt of doet een (bekend) persoon in dit soort filmpjes dingen die niet werkelijk gezegd of gebeurd zijn.
De eerste deepfake verscheen in 2017 online. Het aantal deepfake-video’s is daarna snel toegenomen, met 550 procent sinds 2019 volgens een schatting van het Amerikaanse State of Deepfakes-onderzoek.
In zo’n 95 procent van de gevallen gaat het om pornovideo’s. Volgens cijfers van Offlimits, een expertisecentrum voor onlinemisbruik, dreigt 2025 een recordjaar te worden voor deepfake-naaktbeelden. Tussen januari en april waren er al bijna evenveel meldingen als in heel 2024.
Deepfakes worden alsmaar realistischer, nu techbedrijven als Google, OpenAI en Meta miljarden steken in de ontwikkeling van AI. Systemen worden steeds beter in het imiteren van menselijk handelen en om levensechte video’s te produceren is veel kennis van programmeren niet meer nodig.
2 Wat is de kans dat de wet door het Deense parlement aangenomen wordt?
Het wetsvoorstel heeft zeer brede steun: negen van de elf partijen in de Deense Folketing staan er achter. De Deense Volkspartij en de Liberale Alliantie, die beide deepfake-video’s van premier Frederiksen hebben verspreid, zijn tegen.
3 Hoe zit het met de regelgeving in Nederland?
Al in 2022 kwam het Wetenschappelijk Onderzoek- en Datacentrum (WODC) tot de conclusie dat het Nederlandse recht best goed toegerust is om deepfakes aan te pakken. Hoewel niet alle deepfakes strafbaar zijn (porno-deepfakes of deepnudes zijn dat wel op basis van het Wetboek van Strafrecht), kan iemand vaak wel eisen dat de video van hem of haar wordt verwijderd.
„Er zijn een aantal verschillende wegen waarmee deepfakes bestreden kunnen worden”, aldus Dirk Visser, hoogleraar intellectueel eigendom aan de Universiteit Leiden. „Allereerst heeft iedereen een portretrecht, waarbij jouw redelijk belang wordt afgewogen met het belang van de maker van de video.”
Daarnaast kunnen slachtoffers een beroep doen op de Algemene Verordening Gegevensbescherming (AVG). Als een gezicht te herkennen is in een deepfake en die wordt openbaar verspreid, verwerkt de maker persoonsgegevens. „Dan is toestemming nodig”, legt Visser uit. „Is die niet gegeven, dan kan je de maker of het platform vragen om de video te verwijderen.”
4 Wat is dan het probleem?
Het grootste struikelblok is de handhaving. Fulco Blokhuis, advocaat AI en intellectueel eigendom bij Boekx Advocaten, stelt „dat de politie, het ministerie van Justitie, de Autoriteit Consument en Markt en het Commissariaat van de Media wel de middelen hebben om op te treden, maar het hun prioriteit niet heeft”. Andere experts geven Blokhuis gelijk.
Een ander probleem ligt bij de stem van een persoon. Het portretrecht geldt daarvoor niet. De Hoge Raad (de hoogste rechter in Nederland) vat het portretrecht ruim op, en deepfakes vallen daaronder, legt hoogleraar Visser uit. „Het bedrijf Picnic gebruikte eens voor een reclame een lookalike van Max Verstappen. Dat bleek wel onder het portretrecht van Verstappen te vallen. Maar het moet iets visueels zijn.”
Blokhuis en Visser kijken daarom uit naar een nieuwe wet naar Deens voorbeeld. „Dan is de onzekerheid van een belangenafweging eraf en moet je altíjd toestemming hebben voordat je zoiets plaatst. Het biedt extra garantie”, zegt Visser. VVD-Kamerlid Rosemarijn Dral bevestigt aan NRC dat zij al driekwart jaar aan een vergelijkbaar wetsvoorstel werkt.
Lees ook
Ook bekende Nederlanders slachtoffer deepfake porno: schending seksuele privacy
Eigenlijk wil hij zo min mogelijk aandacht besteden aan de „beroering” op sociale media, zegt een woordvoerder van het MUMC+, het academisch ziekenhuis in Maastricht. „Wij zullen nooit over een individuele casus praten, maar daardoor kunnen we ons ook niet tot in detail verdedigen tegen alle aantijgingen. Dat is best ingewikkeld.”
De „casus” is in dit geval een uitbehandeld, driejarig meisje uit de omgeving van Heerlen. Ze ligt sinds februari in het ziekenhuis in Maastricht vanwege een zeldzame genetische aandoening. Door die aandoening is ze grotendeels verlamd geraakt. In het ziekenhuis wordt ze sinds maart in leven gehouden via een beademingsapparaat.
Omdat er geen uitzicht is op genezing en het meisje veel pijn heeft, besloot het MUMC+ te stoppen met de behandeling. Daardoor zal het kind overlijden. De ouders legden zich niet bij het oordeel neer en spanden een kort geding aan. De rechter ging er niet in mee.
Vrijheid van godsdienst
In het kort geding deden ze onder meer een beroep op de vrijheid van godsdienst: de ouders zijn moslim, en vanuit de islam is het „niet aanvaardbaar om de behandeling te stoppen, zolang het hart van het kind nog klopt”, zo staat te lezen in het vonnis.
Na een second opinion te hebben aangevraagd bij twee andere ziekenhuizen, oordeelde de rechtbank in Maastricht eind juni dat het MUMC+ zorgvuldig was geweest in zijn afweging. Het ziekenhuis mag de behandeling dus stoppen.
Maar toen was de geest al uit de fles. Nadat een influencer zich op sociale media met de zaak bemoeide, ontving het MUMC+ doodsbedreigingen. Het ziekenhuis neemt die „heel serieus”, aldus de woordvoerder, en heeft „intern maatregelen getroffen”.
Volkomen verwacht
De uitspraak van de rechter is verder „volkomen verwacht”, zegt Martin Buijsen, hoogleraar gezondheidsrecht aan de Erasmus Universiteit Rotterdam. „De betrokken behandelaren weten welke therapieën er mogelijk zijn. Als niet één therapie meer helpt, dan betekent doorbehandelen dat je alleen maar leed toevoegt.” Op dat moment schrijft de medische ethiek voor dat de behandeling moet stoppen.
Hoe je tot het oordeel moet komen dat behandeling zinloos is, en wat je vervolgens moet doen, is in Nederland goed vastgelegd, zegt Buijsen. Af en toe komt het voor dat de familie in zo’n geval naar de rechter stapt, zoals in 2022 in Rotterdam gebeurde. Maar Buijsen zegt zich niet één zaak te kunnen herinneren waarin de rechter de eisers gelijk gaf. Volgens hem wijst dat erop dat de protocollen in Nederland zorgvuldig worden gevolgd.
Wel blijkt het in de praktijk vaak lastig om de afweging van de artsen over te brengen aan de familie, zegt de hoogleraar. Culturele verschillen en uiteenlopende geloofsopvattingen, zoals bij deze zaak in Maastricht, maken dat soms extra lastig. In het Maasstad Ziekenhuis in Rotterdam heeft Buijsen gezien dat geestelijk verzorgers met een islamitische achtergrond de culturele kloof kunnen overbruggen. „Het helpt als er iemand in het ziekenhuis is die zich kan verplaatsen in de culturele kaders van de patiënt en de familie.”
Crowdfundactie
In de zaak in Maastricht hebben de ouders zich inmiddels neergelegd bij het oordeel van de rechter. Het advocatenkantoor dat hen bijstaat schrijft dinsdag in een verklaring op Facebook dat de ouders afzien van een hoger beroep. Ook zullen de ouders geen aanspraak maken op de opbrengsten van een crowdfundactie, die in een paar dagen tijd bijna 150.000 euro ophaalde om het driejarige meisje te laten behandelen in een privékliniek in Turkije.
De behandeling in Turkije bood ook geen uitzicht op genezing, maar zou alleen het leven van het meisje rekken. „De ouders hebben nooit gewild dat hun kind in een uitzichtloze situatie zou komen te verkeren, maar zij moeten met veel pijn en verdriet erkennen dat daarvan inmiddels wel sprake is”, aldus het advocatenkantoor.
Ook spreken de ouders via de verklaring „hun dankbaarheid uit aan het behandelteam van het MUMC+” en benadrukken ze dat er „nooit sprake [is] geweest van enige vijandigheid tussen de ouders en MUMC+”. Volgens de advocaten hebben de ouders nu „vooral behoefte aan rust en stilte, om de tijd die hen nog rest samen met hun gezin door te brengen”.
Lees ook
Vaker euthanasie bij jonge mensen wegens psychisch lijden – en psychiaters zijn er tot op het bot verdeeld over