Waarom de vloedgolf van AI-nepnieuws (vooralsnog) uitblijft: ‘Voor misleiden is AI niet nodig’

„Dat het internet overspoeld wordt door valse foto’s, filmpjes en tekst, en de gemiddelde persoon niet meer kan onderscheiden wat waar is”, zei pionier in AI (kunstmatige intelligentie) Geoffrey Hinton toen The New York Times hem vorig jaar vroeg wat het grootste gevaar van AI is. „Staan wij toe dat machines onze informatiekanalen overspoelen met propaganda en onwaarheden?” schreven vooraanstaande tech-ondernemers in een open brief. En ook in Nederland is AI-nepnieuws een grote zorg, aldus de voor AI verantwoordelijke bewindslieden.

Al die zorgen spitsen zich toe op generatieve kunstmatige intelligentie. Zo kan chatbot ChatGPT binnen seconden hoogwaardige teksten genereren, ook (onbetrouwbare) ‘nieuwsartikelen’. Programma’s als Midjourney doen hetzelfde met beeld: een AI-’foto’ van Donald Trump die gearresteerd wordt, ging vorig jaar viraal. De technologie wordt behalve beter ook toegankelijker: zo zijn ChatGPT en Midjourney gratis. Zelfs het maken van deepfakes – een filmpje waarop iemand iets ‘zegt’ wat diegene nooit heeft gezegd – wordt steeds makkelijker.

Ondanks dat er al zoveel mogelijk is, zijn alle doemvoorspellingen nog niet uitgekomen, merkt Thomas Mulder. Als onderzoeksjournalist bij Pointer (KRO-NCRV) kijkt hij dagelijks welke misinformatie er online rondgaat. „Het aandeel AI is daarin minimaal. Deepfakes zie ik echt zelden.” Hij monitort ongeveer 175 accounts die regelmatig misinformatie verspreiden en hun belangrijkste munitie bestaat juist uit zogeheten cheapfakes. Dat zijn bijvoorbeeld beelden die uit de context zijn getrokken. Zoals een filmpje van feestende Oekraïeners waarover complotdenkers zeiden dat het bewees dat de oorlog in dat land wordt overdreven. Mulder ontdekte dat het beelden uit Tel Aviv waren. Het filmpje was jaren geleden al eens online gezet.

Maar met AI gemaakt beeld is origineel, en in die zin moeilijker te factchecken. Een voorbeeld is een ‘foto’ van Frans Timmermans die onlangs rondging. De rood-groene politicus deed zich tegoed aan een copieuze maaltijd in een vliegtuig – hoe hypocriet! Maar de sinaasappels op zijn bord waren wit, en hij at ze met zes vingers aan één hand. Typische AI-kwaaltjes – nóg wel, want AI wordt in hoog tempo ‘slimmer’. „Maar ik voel me gesterkt door het feit dat er óók veel manieren bijkomen om dingen te factchecken”, zegt Mulder. „Er zijn veel toegankelijke hulpmiddelen bijgekomen.” Zo kun je online snel controleren of een foto met AI is gemaakt.

‘De zorgen zijn overdreven’

Momenteel zwellen de waarschuwingen voor AI-nepnieuws weer aan. Zo zijn er zorgen over Sora, een nieuw programma van de makers van ChatGPT dat realistisch ogende videobeelden kan maken op basis van een geschreven opdracht. Video’s van mammoeten in de sneeuw en piratenschepen die in een kop koffie verwikkeld zijn in een zeeslag, baarden afgelopen week veel opzien. Het programma is echter nog niet beschikbaar voor het grote publiek, en het is bovendien volgens de makers bij veel opdrachten (nog) niet in staat de fysieke wereld realistisch na te bootsen. Dat weerhield menig expert er echter niet van te speculeren over de mogelijke gevolgen. „Er staat ons een golf aan desinformatie te wachten”, waarschuwde Linda Kool, onderzoekscoördinator digitale technologie van het Rathenau Instituut, in een interview met RTL Nieuws.

Extra reden voor zorgen over AI-nepnieuws is dat dit jaar zo’n 140 landen naar de stembus gaan. Wat als bijvoorbeeld een deepfake van Biden of Trump die iets raars zegt de presidentsrace beïnvloedt? Er dreigt een „post-waarheid-hel”, huiverde de Financial Times en in NRC schreef een trendwatcher dat AI-nepnieuws om alertheid vraagt. De Timmermans-foto zag hij als voorproefje van hoe AI de verkiezingen kan gaan beïnvloeden. Ook overheden waarschuwen hun kiezers veelvuldig.

universitair docent Universiteit van AmsterdamHannes Cools Al sinds de jaren tachtig, toen de term populairder werd, wordt er zowel heel utopisch als heel dystopisch over AI geschreven.

Allemaal sterk overdreven, volgens misinformatie-onderzoekers Felix Simon (Universiteit van Oxford) en Sacha Altay (Universiteit van Zürich). In een analyse in het wetenschappelijke tijdschrift Harvard Misinformation Review legden zij onlangs veelgehoorde uitspraken over door AI gegenereerde misinformatie naast wetenschappelijke inzichten. „We wilden met bewijs in de hand tegenwicht bieden aan de claims die werden gedaan door beleidsmakers en journalisten”, vertelt Simon via Zoom.

Volgens hem en Altay betekent het feit dat AI het fabriceren van misinformatie vergemakkelijkt, niet per se dat misinformatie een groter probleem wordt. Zij redeneren dat dit pas zou gebeuren als de vraag naar misinformatie toeneemt, of als het aanbod van misinformatie nu niet aan de vraag voldoet. Op dat eerste heeft AI geen invloed, legt Altay uit. „Een basaal inzicht uit de literatuur is dat misinformatie grotendeels wordt geconsumeerd door een zeer kleine groep mensen met specifieke eigenschappen. Zij hebben onder andere een sterke politieke mening en weinig vertrouwen in instituties. Generatieve AI verandert niets aan het aantal mensen met de psychologische eigenschappen die maken dat iemand misinformatie opzoekt.”

Voorgeprogrammeerd wantrouwen

Wat betreft het aanbod van misinformatie: dat is ook zonder AI al overvloedig, stellen Simon en Altay. Zij die er ontvankelijk voor zijn, worden ruimschoots bediend door cheapfakes en – nog ouderwetser – eenvoudige leugens. „Neem Trump”, zegt Simon. „Die heeft geen deepfakes of technologie nodig om te liegen. Hij hoeft enkel te zéggen dat Joe Biden babies eet en er zal altijd een bepaalde groep zijn die het tot een bepaalde hoogte gelooft. Dat heeft te maken met hun vertrouwen in het individu.”

„Kijkend naar het bestaande onderzoek, zie je dat het gevaar zich niet per se toespitst op het verschil tussen echt en niet echt”, zegt ook Hannes Cools, universitair docent en onderzoeker van ‘AI in media-omgevingen’ aan de Universiteit van Amsterdam. „Bepaalde mensen zijn eerder geneigd om dingen te geloven die niet waar zijn. Dat heeft niet te maken met hoe goed de technologie is, maar wie het heeft verspreid en waar het rondgaat, bijvoorbeeld omdat het niet van de gewantrouwde mainstream media komt. Ik denk niet dat de technologie het gevaar is, maar een soort voorgeprogrammeerd geloof in ‘alternatieve feiten’.”

Stemklonen

Met andere woorden: aan de politieke flanken wordt misinformatie die in het eigen straatje past toch wel geaccepteerd, ongeacht hoe geavanceerd die is. Maar worden deepfakes vroeg of laat niet zo overtuigend dat ze ook mensen in het ‘redelijke midden’ kunnen doen twijfelen over de waarheid? Zo ging rond de Slowaakse verkiezingen deepfake-audio rond waarop een kandidaat zinspeelde op stemfraude. Van de opname werd snel door factcheckers vastgesteld dat hij nep was, maar waarschijnlijk is zulk materiaal in de toekomst moeilijker van echt te onderscheiden.

Feit blijft dat het niet eenvoudig is voor makers van dit soort deepfakes om een groot publiek te genereren. Altay wijst erop dat de meeste mensen nog altijd vooral traditionele media volgen. Als zij informatie waarvan niet kan worden vastgesteld of het AI is, niet in hun berichtgeving meenemen, zal het grootste deel van de bevolking er dus niet mee in aanraking komen. Het is, vult Simon aan, ook geen nieuw probleem dat van bepaalde informatie nu eenmaal niet te zeggen is of het nep of echt is. „Je kunt je afvragen wat het verschil is tussen een deepfake en een claim dat een politicus achter gesloten deuren iets gezegd heeft. Door de geschiedenis heen zijn er talloze voorbeelden van incidenten geweest die niet onafhankelijk te verifiëren waren.” Journalisten moeten er dus hooguit beter van bewust worden dat ook gesproken audio makkelijk gemanipuleerd kan worden.

Het duo benadrukt wel dat er weinig bekend is over de impact van AI-misinformatie in niet-democratische landen. Het probleem is daar mogelijk groter, bij gebrek aan factcheckers en onafhankelijke instituties door een lagere digitale geletterdheid.

Valkuil

Verwarrend is dat veel AI-experts zich wel degelijk zorgen maken over misinformatie. Sommigen hebben daar een commercieel motief voor, bijvoorbeeld om de aandacht af te leiden van de problemen die AI nu al veroorzaakt. Maar dat geldt niet voor iemand zoals de eerdergenoemde prominente computerwetenschapper Geoffrey Hinton.

„Ik heb groot respect voor mensen als Hinton binnen hun eigen vakgebied”, zegt Simon, „maar dat laatste is precies het probleem. Ik kan geen zinnige uitspraken doen over hoe AI-systemen werken zoals Hinton dat kan, want ik ben geen computerwetenschapper. Op dezelfde manier moet je toegeven dat Hinton niet per se een goed begrip heeft van de implicaties van technologie in de samenleving.”

Die gevolgen hangen immers niet alleen af van de werking van de technologie op zich, maar ook van de mensen die het gebruiken, benadrukt Altay. „Door de geschiedenis heen zie je dat mensen denken dat nieuwe technologie direct een sterke impact op ze zal hebben, zonder te kijken naar de sociologische context.” Daarbij wordt al snel van de meest extreme scenario’s uitgegaan. „Al sinds de jaren tachtig, toen de term populairder werd, wordt er zowel heel utopisch als heel dystopisch over AI geschreven”, zegt Cools, die promoveerde op berichtgeving over AI. Het idee dat AI de waarheid zal doen verdrinken in misinformatie, is een voorbeeld van dat laatste.

Averechts

Zijn die overdreven verhalen trouwens erg? Je kunt beter te voorzichtig zijn, dan te naïef. Maar volgens Simon en Altay kleven er wel degelijk risico’s aan. Zo kan het idee dat niets meer te vertrouwen is ertoe leiden dat mensen helemáál niets meer geloven wat ze zien, horen en lezen. Ook kunnen andere AI-problemen, zoals oplichting, wraakporno en deepfake porno, erdoor ondersneeuwen. In verschillende landen zijn al wetten doorgevoerd die de persvrijheid inperken onder het mom van nepnieuwsbestrijding.


Lees ook
De grootste slachtoffers van deepfakes zijn vrouwen



<p>Door deepfaketechnologie kan ieders gezicht op lichamen in pornofilmpjes worden geplakt.</p>
<p>” class=”dmt-article-suggestion__image” src=”http://nltoday.news/wp-content/uploads/2024/02/waarom-de-vloedgolf-van-ai-nepnieuws-vooralsnog-uitblijft-ac280c298voor-misleiden-is-ai-niet-nodigac280c299.jpg”><br />
</a> </p>
<p>Sowieso komt het machthebbers goed uit als naar technologie wordt gewezen als groot kwaad, in plaats van naar hun eigen bijdrage aan polarisatie en een onzuiver debat, menen Simon en Altay. En politici zijn nog altijd zélf de invloedrijkste afzenders van misinformatie, zo <a rel=schreef Rasmus Kleis Nielsen, directeur van het Reuters Institute for the Study of Journalism aan Oxford, onlangs in The Financial Times. „We weten dit dankzij jaren aan onderzoek. (…) Toch is de beleidsdiscussie verzand geraakt in hoe we door AI gegenereerde content kunnen controleren.”

Uiteindelijk moet de tijd leren of alle alarmistische krantenkoppen gerechtvaardigd waren of niet, concluderen Simon en Altay hun artikel. „Maar het zou de discussie hoe dan ook goed doen als die meer genuanceerd en feitelijk wordt.” De vele verkiezingen in 2024 lijken de grote lakmoesproef: als AI-misinformatie daarbij opnieuw meevalt, kunnen er nieuwe conclusies worden getrokken. Mulder bereidt zich vooralsnog weer meer voor op cheapfakes dan op deepfakes. „Maar ook ik heb geen glazen bol.”