In de aanloop naar de Tweede Kamerverkiezingen dook online een nepbeeld op van GroenLinks/PvdA-lijsttrekker Frans Timmermans aan boord van een vliegtuig, genietend van een copieuze maaltijd. De foto, duidelijk nep en gegenereerd door kunstmatige intelligentie, toonde hem met zes vingers aan zijn rechterhand en een vervormd brilmontuur. Ondanks de duidelijke valsheid, verspreidde het beeld zich razendsnel, met meer dan 85.000 weergaven, en voedde het de beeldvorming van Timmermans als een ‘kaviaarsocialist’.
De nepfoto van Timmermans illustreert de mogelijke impact die generatieve AI op de politiek kan hebben in de nabije toekomst. Experts hebben al meerdere malen gewaarschuwd voor de gevolgen voor verkiezingsprocessen. Zo kan AI gebruikt kan worden om nepnieuws met gemak en tegen minimale kosten te produceren, en kan de technologie ingezet worden om doelgerichte advertenties te genereren die bedoeld zijn om het keuzeproces van kiezers te beïnvloeden.
In 2024, een historisch verkiezingsjaar, neemt de bezorgdheid toe over de invloed van kunstmatige intelligentie op verkiezingen wereldwijd. Verspreid over liefst 76 landen is een indrukwekkend aantal van circa 2 miljard mensen stemgerechtigd. Dit omvat zowel presidentsverkiezingen als parlements- en lokale verkiezingen. Nog nooit hadden in één jaar zo veel mensen wereldwijd de kans om hun stem uit te brengen.
Belangrijke verkiezingen staan gepland in onder meer Taiwan, India, Rusland, Zuid-Afrika, Mexico, Iran, Pakistan, Indonesië, lidstaten van de Europese Unie, het Verenigd Koninkrijk en de Verenigde Staten. Deze verkiezingen zijn niet alleen belangrijk voor de landen zelf, maar ook voor de wereldwijde politieke orde. Zelfs kleinere verkiezingen, zoals die in Noord-Macedonië, hebben invloed op dit mondiale politieke landschap.
Grote uitdagingen
De impact van deze verkiezingen strekt zich verder uit dan de grenzen van de individuele landen. Ze zullen mede bepalen hoe we als internationale gemeenschap omgaan met grote uitdagingen zoals geopolitieke spanningen en de klimaatcrisis. Waar sociale media al een grote rol spelen bij verkiezingen, is de verwachting dat nieuwe generatieve AI-technologieën nog meer invloed zullen uitoefenen. Deze technologieën kunnen niet alleen het nieuws en de informatie beïnvloeden waarmee kiezers worden geconfronteerd, maar ook de manier waarop politieke boodschappen worden verspreid en ontvangen. Niet voor niets noemt het World Economic Forum in zijn woensdag verschenen Global Risks Report 2024 de verspreiding van „mis- en desinformatie” als het grootste wereldwijde risico voor de komende twee jaar.
In de jaren 2010 gaven politici miljoenen uit aan sociale media om hun verkiezingscampagnes kracht bij te zetten. Nu maakt generatieve AI het mogelijk om nagenoeg kosteloos misleidende informatie te produceren.
Dit is zorgwekkend omdat we in het afgelopen decennium meerdere malen gezien hebben welke rol ‘onzin’ kan spelen in de politiek. In zijn boek On Bullshit (2005) stelt de Amerikaanse filosoof Harry G. Frankfurt dat flauwekul gevaarlijker is dan leugens, omdat het de waarheid volledig negeert. In het geval van leugens is er nog steeds een relatie met de waarheid; de leugenaar weet wat de waarheid is maar kiest ervoor iets anders te beweren. Bullshitters zijn daarentegen volledig onverschillig ten opzichte van de waarheid. Hun doel is niet om de waarheid te verdraaien, maar om de beelden te gebruiken om een bepaald narratief of beeldvorming te versterken die past bij hun politieke agenda of wereldbeeld, ongeacht de authenticiteit van die beelden.
Toen een van de verspreiders van de nepfoto van Timmermans geconfronteerd werd met het feit dat de foto niet echt was, reageerde hij als volgt: „Of de foto nep is of niet, de foto is waarheidsgetrouw.” Bullshit dus.
Hallucinaties
Dankzij de doorbraak van generatieve AI-technologieën, zoals ChatGPT en Midjourney, is het nu kinderlijk eenvoudig om nepnieuws op grote schaal te genereren en te verspreiden. Wetenschappers spreken in recent onderzoek over „botshit”, een term die het massaal verspreiden van bullshit via bots aanduidt. Ze waarschuwen voor de „epistemische risico’s”, oftewel de bedreigingen voor onze kennis en begrip van de wereld. Een van de auteurs van het onderzoek, de Nieuw-Zeelandse hoogleraar organisatiekunde André Spicer, zette het gevaar vorige week uiteen in The Guardian. Door AI gegenereerde ongegronde beweringen, oftewel hallucinaties, kunnen volgens hem gebruikt worden om antwoorden op lastig te verifiëren kwesties te vinden, zoals de huidige economische situatie of de conflicten in Oekraïne en Palestina. Dit kan leiden tot een realiteit waarin mensen belangrijke beslissingen, zoals bij verkiezingen, baseren op een „volledig illusoir informatielandschap”. Er dreigt een risico dat kiezers verstrikt raken in deze misleidende online werkelijkheden, gevormd door een gevaarlijke combinatie van AI-fantasieën en politiek opportunisme.
Lees ook
Verwachte opkomst dit jaar is zo’n twee miljard stemmers. En op het spel staat: de democratie
Terwijl steeds meer van wat op het internet belandt door AI gegenereerd zal zijn – één expert gaat zelfs uit van 90 procent in 2025 – wordt het steeds belangrijker dat wij, als samenleving, de vaardigheden ontwikkelen om echt van nep te onderscheiden. Technologieën zoals digitale watermerken kunnen hierbij een rol spelen, door gebruikers te helpen AI-gegenereerde inhoud te herkennen. Uiteindelijk is het echter aan ons, als geïnformeerde burgers, om de verantwoordelijkheid te nemen voor het verifiëren en kritisch beoordelen van de informatie die ons wordt voorgeschoteld. In deze snel veranderende wereld van informatie en technologie is het essentieel dat we alert blijven en ons bewust zijn van de potentiële gevaren die schuilen in misleidende AI-gegenereerde content. Met een gezonde dosis scepsis en de juiste tools die AI-materiaal signaleren, kunnen we ervoor zorgen dat onze keuzes en overtuigingen worden gevormd door feiten en niet door botshit.