N.B. Het kan zijn dat elementen ontbreken aan deze printversie.
Nepporno In november pakte de politie een 39-jarige man op die de beelden zou hebben gemaakt en verspreid waarop het gezicht van Sijtsma op pornobeelden was gemonteerd.
Welmoed Sijtsma is WNL-presentator.
Foto Sander Koning ANP/KIPPA
Het Openbaar Ministerie gaat de man vervolgen die wordt verdacht van het maken van een neppornofilmpje van presentator Welmoed Sijtsma. Dat bevestigt het OM Amsterdam na berichtgeving van Shownieuws. Het is voor zover bekend de eerste keer dat het OM een strafzaak begint naar aanleiding van nepporno. Wanneer de rechtszaak dient, is nog niet duidelijk.
In november pakte de politie een 39-jarige man uit Amersfoort op die de beelden zou hebben gemaakt en verspreid met het gezicht van Sijtsma gemonteerd op pornobeelden. De man werd verhoord en weer vrijgelaten. Sijtsma maakte in 2022 voor NPO 3 een serie over deepfakes, Welmoed en de sexfakes, waarin ze het fenomeen onderzoekt en de maker van de deepfake met haar beeltenis opspoort. Mede door haar onderzoek kon de politie de verdachte aanhouden, zo zegt een politiewoordvoerder in de documentaire.
Deepfaketechnologie is een verschijnsel van de afgelopen jaren. Met behulp van AI kunnen bewegende beelden worden bewerkt, vaak lijkt dat (bijna) levensecht. Ook NOS-presentator Dionne Stax werd in 2019 het slachtoffer van een deepfake. Haar manager zei destijds aangifte te doen.
Sinds een aantal jaar ben ik verwikkeld in een wetenschappelijke discussie met een groep Amerikaanse onderzoekers onder leiding van Lisa Feldmann Barrett, een van de meest prominente onderzoekers op het gebied van emotie. Ruim tweehonderd wetenschappelijke artikelen heeft zij op haar naam staan en door haar publieksoptredens en boeken is ze ook onder niet-wetenschappers vrij bekend.
Omdat ik het niet 100 procent eens ben met de theorie die zij omarmt, probeert ze me het ándere kamp in te duwen, door mij in onhoffelijke schriftelijke reacties op mijn schrijven af te schilderen als tegenstander of als iemand die haar theorie niet begrijpt.
Polarisatie, een begrip dat vaak opduikt in maatschappelijke kwesties (denk: Gaza-Israël, wappies-woke, links-rechts) is ook in de wetenschap een voorkomend fenomeen, helaas. Samen met promovendus Karlijn van Heijst en collega-onderzoeker Annemie Ploeger probeer ik twee populaire theorieën over de herkomst van emoties, ‘basic emotion theory’ en ‘theory of constructed emotion’ te integreren.
De eerste theorie legt sterk de nadruk op ‘nature’. Vanuit die zienswijze zijn emoties universele, biologisch vastgelegde verschijnselen met specifieke neurofysiologische signalen en gedragingen. De tweede, ontwikkeld door Barrett, stelt dat emoties door de hersenen in het hier en nu worden geconstrueerd door de integratie van zintuiglijke input en eerdere ervaringen (‘nurture’). Dit betekent dat bijvoorbeeld de emotie ‘woede’ niet buiten de interpretatie van onze hersenen bestaat. Context, cultuur en taal zorgen voor enorme variabiliteit in hoe emoties worden geuit en ervaren.
Veranderingen in je lijf
Hoe hard de onderzoekers uit beide kampen ook roepen, ze lijken elkaar maar niet te verstaan. Logisch, want ze hebben het over iets anders. De ene theorie gaat vooral over emotie, de ander over gevoel – en dat is niet hetzelfde. Een emotie is een relatief korte, automatische reactie op een gebeurtenis, vaak met duidelijke veranderingen in je lijf. Stel, er springt ineens een tarantula op je gezicht: je hartslag schiet omhoog en je ogen sperren zich wijd open. Een gevoel daarentegen is de subjectieve ervaring van gevarieerde duur, zoals wanneer je voordat je gaat slapen nog eens terugdenkt aan een mooi moment van de dag en je je realiseert dat je blijdschap ervaart. Terwijl emoties vaak onbewuste processen zijn, zijn gevoelens bewust. Een gevoel kan voortkomen uit een emotie, als een soort interpretatie ervan: ik ben bang want ik voel mijn hart sneller kloppen. Jee, wat háát ik spinnen, ik voel de angst tot in mijn tenen.
Emoties en gevoelens zijn volgens Barrett aan elkaar verbonden. Ik denk dat dat in het geval van mensen en andere dieren met een verhoogd bewustzijn inderdaad meestal zo is. Maar het hoeft niet. Ik ben me lang niet altijd bewust van mijn emoties en de wetenschap bevestigt dat ik daarin niet alleen sta. Mensen hebben soms een therapeut nodig om het deurtje open te zetten!
Barrett is niet gewend om naar andere dieren te kijken dan de mens. Maar juist omdat emotionele reacties evolutionair nut hebben (om te overleven is het bijvoorbeeld best handig om snel en automatisch terug te deinzen voor gevaar), zie je ze terug in veel verschillende diersoorten. Darwin beschreef in zijn monografie uit 1872, The Expression of the Emotions in Man and Animals, als eerste de vele overeenkomsten in uitingen van emotie bij verschillende diersoorten. Hij stelde dat zelfs bij insecten bepaalde gedragingen de expressie weerspiegelen van emoties die homoloog zijn aan die van de mens (zoals woede en angst).
We weten nu dat het te veel vanuit de mens gedacht is om dit soort labels al te makkelijk bij allerlei diersoorten te gebruiken. Elke diersoort is uniek en heeft zijn eigen palet aan gedragingen, gedragingen die we missen als we hen puur door onze mensenbril bekijken. Maar zelfs fruitvliegjes beschikken over iets wat je zou kunnen omschrijven als ‘emotion primitives’, de fundamentele basisprocessen die ten grondslag liggen aan emotie.
Primitieve elementen
Ze omvatten eenvoudige, universele mechanismen zoals arousal (de mate van activatie), valentie (positieve of negatieve beoordeling), en basale gedragsneigingen (zoals ergens op af gaan of juist iets vermijden). Deze primitieve elementen vormen de basis waarop complexe emoties en gevoelens voortbouwen, vaak door interacties met cognitieve processen en omgevingsfactoren.
Beyond Right and Wrong: Fostering Connection in Emotion Theory Debates, zo luidt de titel van mijn antwoord op Barretts reactie op ons artikel. Barrett overtuigen hoeft niet, maar een goed gesprek kan ons verder helpen. De geschiedenis leert ons dat de waarheid meestal in het midden ligt. Zelfs het ooit sterk gepolariseerde nature-nurturedebat heeft nuance gekregen door de kennis over epigenetica (bepaalde genen komen alleen tot expressie onder specifieke omgevingsomstandigheden).
Ook al lijken de twee emotie-theorieën op het eerste gezicht onverenigbaar, ik denk dat ze elkaar kunnen aanvullen en dat we samen op zoek moeten gaan naar manieren om de gaten in onze kennis op te vullen met mooi onderzoek. „The ability to compromise and find common ground is not a weakness; it’s a strength” (Barack Obama).
Mariska Kret is hoogleraar cognitieve psychologie aan de Universiteit Leiden.
‘Over kunstmatige intelligentie in de zorg wordt vooral heel veel gepraat, maar slechts heel weinig haalt de klinische praktijk”, zegt Michel van Genderen, internist-intensivist en associate professtor voor ontwikkeling en implementatie van artificial intelligence (AI) op de IC bij het Erasmus MC. „Het is echt bedroevend. Slechts 2 procent van de AI-modellen die worden bedacht voor de IC haalt de praktijk, bleek uit onderzoek dat we in 2021 deden. We hebben dit onderzoek afgelopen zomer herhaald, dat moet nog gepubliceerd worden, en het is nog stééds 2 procent. Ik denk dat dit representatief is voor de hele zorg. Er is gewoon minimale vooruitgang. Ondertussen lees je wel ronkende berichten over AI die beter presteert dan artsen, maar meestal blijkt het helemaal niet in de praktijk getest.”
„Steeds weer strandt het op ethiek”, zegt Jeroen van den Hoven. „Is zéker dat de AI betrouwbaar werkt, op elk moment? Is er geen bias? Hoe is de verantwoordelijkheid en aansprakelijkheid geregeld als er iets misgaat? Technisch kan er misschien veel, normatief is AI er nog lang niet klaar voor.”
Van den Hoven is universiteitshoogleraar ethiek en techniek aan de TU Delft en directeur van het TU Delft Digital Ethics Centre. Sinds 6 maart is zijn ethiekcentrum een officiële samenwerkingspartner van de Wereldgezondheidsorganisatie (WHO). Het centrum gaat adviseren over ethische aspecten en wet- en regelgeving rond toepassing van AI in de zorg.
Dat de WHO hiervoor in Delft aanklopt is mede te danken aan de intensieve samenwerking tussen Van den Hovens onderzoeksgroep in Delft en die van Michel van Genderen en Diederik Gommers in het Erasmus MC in Rotterdam. Samen vertalen ze ethische vragen naar de klinische praktijk. We spreken elkaar een dag voor de WHO-ceremonie in het net nieuwe House of AI op de universiteitscampus in Delft.
Het moment dat de zorg niet meer om AI heen kan komt volgens Van den Hoven en Van Genderen heel rap dichterbij. „AI ontwikkelt zich razendsnel en in de gezondheidszorg blijven we achter”, zegt Van Genderen. „Als wij de AI niet ontwikkelen, dan wordt het misschien voor ons gedaan, de techpush rond AI is heel sterk. Ik zie het als een morele verplichting om hiermee aan de slag te gaan. De noodzaak is er ook, in de zorg zijn mensen en middelen schaars en de zorg zelf wordt juist complexer.”
„Big tech heeft duidelijk laten zien dat we via onze spullen een bepaald wereldbeeld en een bepaalde norm krijgen opgedrongen”, vult Van den Hoven aan. „Het is ontzettend belangrijk dat we zorg-AI hier in de EU op onze eigen voorwaarden ontwikkelen, zodat we niet de ethiek van een ander opgedrongen krijgen, al dan niet onbewust.”
Zorg-AI is er in twee smaken. Enerzijds zijn er AI-modellen die ondersteunen bij klinische beslissingen, bijvoorbeeld over wanneer iemand van een gewone afdeling naar de IC moet worden overgeplaatst. Daarnaast is er AI die andere aspecten van de zorg ondersteunt, zoals taalmodellen die familiegesprekken samenvatten en in het dossier zetten waardoor de administratielast afneemt.
Aan het testen
Met allebei deze vormen zijn ze in het Erasmus MC aan het testen, vertelt van Genderen. „We hebben een model waarmee we met veel meer zekerheid kunnen voorspellen of patiënten na grote kankerchirurgie naar huis kunnen. We zagen dat gemiddeld gezien na twee dagen geen ziekenhuisinterventie meer nodig was. Dus geen reoperatie, geen bloeding, geen beeldvorming, kortom geen zaken waarvoor mensen in het ziekenhuis aanwezig moeten zijn. Toch liggen mensen gemiddeld 6 dagen in het ziekenhuis, vaak voor de zekerheid. Hoe weten we nou of het korter kan? We hebben het model eerst getest op historische patiëntgegevens, en daarbij werkte het heel goed. De volgende stap was uitspraken doen over nieuwe patiënten.”
Dat was aanzienlijk lastiger. „We misten software die de prestaties van het model controleert”, zegt van Genderen. „Ons model draaide en ondertussen kregen we een update van ons informatiesysteem. Aan de achterkant verschoof daardoor een datatabel van ons model. De prestaties van het model gingen achteruit, maar hij bleef dezelfde zekerheid aangeven. Omdat we het in een onderzoekssetting bezig waren monitorden we steeds, dus hadden we het in de gaten. In het echt mag dit natuurlijk niet gebeuren.”
Ook bleken artsen het model niet zomaar te vertrouwen. „Ze wilden meer weten over hoe het model was getraind”, zegt Van Genderen. „Mijn patiënt heeft een drain, is het model wel getraind op mensen met een drain? Transparantie is ontzettend belangrijk, iedereen moet weten wanneer het model te vertrouwen is, en in welke gevallen ook niet.”
„In de huidige zorg zitten allerlei mechanismen die zorgen voor vertrouwen, zoals bijscholing, dagelijkse overdrachten en regels voor medicijngebruik”, zegt Van den Hoven. „Met AI komt er ineens een groot nieuw technisch ding bij. Het sociale weefsel moet zich opnieuw vormen, er moeten nieuwe procedures en werkwijzen komen. Nieuwe toedeling van verantwoordelijkheid ook.”
Discussies verzanden
Ethiek verzandt al gauw in discussies die hoog over gaan, waarin termen als transparantie, eerlijkheid en rechtvaardigheid langskomen. „Iedereen heeft zijn eigen voorstelling bij dit soort begrippen, wat betekent het nou concreet?”, zegt Van den Hoven. „Hoe vertaal je dit door naar een model dat besluit of een patiënt naar huis kan of niet? Wij proberen die ethiek te vangen in meetbare termen, requirements heet dat in softwaretermen. Daar blijven ethici meestal ver van, maar er blijkt een enorme behoefte aan. Die praktische aanpak is een van de redenen dat de WHO met ons wil samenwerken.”
Zorgen over rechtvaardigheid en transparantie komen samen in het concrete probleem van bias: niet zelden blijken AI-modellen met een bepaalde vooringenomenheid te oordelen. Van Genderen kent diverse voorbeelden. „In de VS was een risicovoorspellingsmodel geïmplementeerd dat 30 procent slechter bleek te werken voor zwarte mensen, omdat het uitgangspunt van het model niet ernst van de ziekte was, maar zorgkosten. Omdat er in het verleden minder geld is uitgegeven aan de zorg voor zwarte patiënten, door onder meer sociaaleconomische ongelijkheden, werd hun werkelijke gezondheidstoestand onderschat. De zorgkosten-drive bleek te leiden tot discriminatie.”
In de wetenschap is toch algemeen bekend hoe een onderzoeksgroep evenwichtig moet worden samengesteld, waarom blijft dit biasprobleem zo hardnekkig? „Dat is ook een van onze vragen, wat is er nodig om dit te voorkomen?”, zegt van Genderen. „We willen toe naar een soort validatieproces, een bias-assessment. Het moet uitlegbaar zijn waar een model op getraind is. Daaruit kan volgen dat een model voor een bepaalde groep minder goed werkt. Dat maakt het niet meteen onbruikbaar, maar je moet het wel weten. Ook moeten trainingsdata kwalitatief en gecontroleerd zijn, daarover loopt nu een groot Europees project, om te zorgen dat in Spanje dezelfde data worden verzameld als in Estland.”
Privacy en AI gaan ook niet altijd goed samen, in Europa wordt hier veel strikter mee omgegaan dan in bijvoorbeeld de VS. „Privacy is inderdaad een van de grote obstakels in het uitrollen van AI”, zegt Van den Hoven. „Maar door privacy als grondvoorwaarde op tafel te leggen komt ook innovatie los die daar rekening mee houdt. Een model werkt alleen als het goed getraind is, op heel veel en representatieve data. Maar het trainen zelf kan best met privacy in het achterhoofd. Bij federatief leren staan data niet op één centrale server. Het model reist als het ware langs de data om ter plekke te leren.”
Ook als AI gemeengoed is blijft de arts verantwoordelijk
Duurzaamheid moet ook een grondvoorwaarde zijn, vinden de twee. Van Genderen: „AI slurpt energie. Stel, een AI-model presteert maar een paar procent beter dan de traditionele manier, is het dat dan waard? Ik betwijfel het, maar daar moeten we het over hebben. Toch gaat het er nooit over, in geen enkele studie over AI in de zorg kijken de onderzoekers naar duurzaamheid. Dat hebben we onderzocht, geen een!”
Ook na deze hindernissen blijven er grote vragen over: wie is verantwoordelijk, wie heeft het laatste woord? En dus ook: wie is aansprakelijk als het misgaat? Stel een patiënt is twee dagen na een grote operatie ontslagen omdat het model groen licht gaf, en eenmaal thuis volgt toch een grote complicatie waardoor de patiënt overlijdt. Is de maker van het model aansprakelijk of de arts? Intensivist Van Genderen kan in de huidige situatie uitleggen hoe hij tot zijn besluit tot ontslag kwam. Kan hij dat straks ook?
„Ook als AI gemeengoed is blijft de arts verantwoordelijk”, zegt Van Genderen. „Ik moet het model dus kunnen interpreteren en het besluit nemen. Er zijn heel veel dingen waar we ons als beroepsgroep toe moeten gaan verhouden, zoals hoe gevoelig moet een model zijn? Vinden we het genoeg als het model 90 procent zeker is? Of 99 procent, of 100 procent? En wat is 100 procent dan? Een student van Jeroen kwam laatst ook met een heel interessante omgekeerde situatie: wat als het model groen licht geeft maar de arts besluit iets anders? Wie ben ik straks nog om het model te negeren?
Zelfrijdende auto
„Dit soort problemen hebben wij epistemic enslavement genoemd”, zegt Van den Hoven. „Op het moment dat je je als professional uitlevert aan zo’n slim model ontstaat er kennisafhankelijkheid. Je kunt eigenlijk geen goede redenen meer geven om er niet mee akkoord te gaan.”
De autonoom rijdende auto is al tien jaar een belofte, maar op enkele plekken na komt de driverless car niet van de grond. Belangrijke factor: de drempel van verantwoordelijkheid en aansprakelijkheid blijft te hoog. Is dit fundamentele punt wel op te lossen voor de zorg? „Daar gaan we met man en macht aan werken”, zegt Van den Hoven.
Nog een analogie van de weg: navigeren. Dankzij TomTom en Google Maps hebben veel mensen kaartlezen en navigeren verleerd. Van Genderen heeft zestien jaar gestudeerd en heeft nu voortdurend te maken met het interpreteren van patiëntgegevens. Waar blijft die vaardigheid? Verlies ervan klinkt gevaarlijk. Maar is dat wel zo erg, als blijkt dat AI consistent beter presteert?
„In de luchtvaart doet de automatische piloot ook vrijwel alles”, zegt Van den Hoven. „Piloten houden hun vaardigheden op peil door uren te maken in een hypermoderne vliegsimulator. Ik denk dat behoud van de technische skills wel lukt. Ik maak me meer zorgen over de moral skills, het vertrouwen dat we in het huidige zorgsysteem in elkaar hebben en het fijnmazige sociale weefsel waar dat op gebaseerd is.”
„We praten nu vooral over problemen, vergeet niet dat AI ook echt veel kan opleveren”, zegt Van Genderen. „In ons onderzoek zagen we dat patiënten gemiddeld vier dagen eerder naar huis konden én dat het aantal heropnames minder was. Het gaat ons zeker niet alleen om mensen eerder wegsturen, het wordt er dus ook echt veiliger van.”
Goedemorgen, ‘natuurlijk’ laat Trump de Europese en Canadese heffingen (die weer een reactie waren op zijn heffingen) niet over zijn kant gaan. Maar hoe hij reageert weten we nog niet.
Wat opviel in het nieuws vanochtend:
Nieuws van gisteravond, waar we straks nog even op terugkomen in dit blog: Pokémon Go en een handvol andere spellen van game-ontwikkelaar Niantic zijn voor 3,5 miljard dollar overgenomen door een concurrent uit Saudi-Arabië, Scopely. Pokémon Go bestaat sinds 2016 en is nog altijd populair. Behalve de game verwerft Scopely vermoedelijk een schat aan locatiegegevens van spelers.
Het FD heeft een ronde gemaakt in de eierensector. In de VS zijn de prijzen al tijden heel hoog, mede als gevolg van de vogelgriep. Trump heeft beloofd dat ze omlaag gaan, maar dat wil nog niet lukken. Ook in Europa geen goedkope paaseieren, is de voorlopige conclusie.
Chipmaker Intel heeft een opvolger benoemd voor Pat Gelsinger, die in december weggestuurd werd. Hij heet Lip-Bu Tan, is techinvesteerder en de huidige baas van Cadence, dat chipsoftware maakt. Meer bij de FT.
In het FDlezen we dat Nederland het initiatief heeft genomen voor meer samenwerking binnen de EU op chipgebied. Het verband van negen landen is de ‘Semicon Coalition’ gedoopt.