AI vraagt om veel meer dan het indrukken van een pauzeknop

Kunstmatige intelligentie Doemscenario’s over AI zijn veelal ongefundeerd, schrijven en . Terwijl er wel degelijk reële risico’s aan kleven. Maak burgers daar bewust van.
Orcel Anthony / EyeEm

Een half jaar ‘time-out’ in de stormachtige ontwikkeling van kunstmatige intelligentie. Zo luidde de recente oproep van diverse prominenten. Vervolgens kwam Italië als eerste westers land met een verbod en ook de Amerikaanse president Biden verkondigde dat kunstmatige intelligentie een gevaar voor de samenleving kan zijn. Allemaal reacties op de lancering van ChatGPT en GPT-4. Bovendien zijn dit niet de enige ontwikkelingen die velen zorgen baren. Neem de fictieve beelden van de arrestatie van Trump of van de paus in pufferjas. Beelden die door veel mensen voor echt werden gehouden. Of het algoritme dat op basis van hersenscans redelijk nauwkeurig beelden zou kunnen genereren van datgene waar mensen naar kijken.

Behalve de terechte zorgen die velen hebben leiden de stormachtige ontwikkelingen op het terrein van kunstmatige intelligentie ook tot tal van – veelal ongefundeerde – scenario’s over de toekomst die ons te wachten zou staan. Op tv wordt gespeculeerd over ‘zelfbewuste’ AI en een recent rapport van Goldman Sachs geeft aan dat een kwart van alle banen zou kunnen verdwijnen. Een ding is wel zeker: AI wordt volwassen en zal onze samenleving, ons doen en laten, diepgaand veranderen.

Precies dit was ook de boodschap van het WRR-rapport Opgave AI uit 2021. Aan de hand van technologische veranderingen die onze samenleving in het verleden ingrijpend deden veranderen, denk aan elektriciteit, benoemden wij vijf opgaven om AI goed in de samenleving in te bedden. Ook nu kunnen deze opgaven ons helpen om door de hype heen te prikken en een agenda te maken van wat ons te doen staat. Een agenda die meer heeft te bieden dan een snelle ad-hocinterventie, zoals een verbod.

Massawerkloosheid?

Allereerst: demystificeer. Dat betekent dat waanbeelden geadresseerd moeten worden en dat is nu hard nodig. Hoe indrukwekkend ChatGPT ook is, het is echt geen stap dichterbij zelfbewuste AI. Dat de uitkomsten voor ons zeer indrukwekkend zijn betekent niet dat het algoritme snapt wat het ontwikkelt of eigen intenties heeft. Sterker nog, er zitten nog steeds veel fouten en vooroordelen in de gegenereerde teksten. Doordat die zo overtuigend worden neergezet, wordt het steeds moeilijker om die te erkennen. Dat vraagt training voor burgers om wijs met dergelijke systemen om te gaan. Kortom, investeren in meer en realistische kennis is cruciaal.

Lees ook dit opiniestuk: Hysterie over AI verbloemt tekortkomingen tech-industrie

De tweede opgave noemen we contextualisering. Neem de angst voor massawerkloosheid. ChatGPT wordt weleens vergeleken met de introductie van de iPhone in 2007: een nieuwe technologie wordt zo functioneel dat het grootschalig in gebruik genomen kan worden en vervolgens de wereld gaat veranderen. Zeker, de iPhone maakte talloze producten en diensten overbodig. Denk aan de fotocamera, de rekenmachine en ANWB-kaarten. Maar het resultaat was zeker geen massale werkloosheid. De iPhone creëerde namelijk ook ontelbare, toen nog amper voor te stellen, nieuwe producten en diensten. Zoals de platformdiensten die nu via de appstore te gebruiken zijn. Zo zal ook AI leiden tot grote veranderingen in de contexten waarin de technologie wordt toegepast. Dat mensen massaal thuis komen te zitten is dus onwaarschijnlijk. Ook nu zal de omgeving zich op innovatieve wijze aanpassen.

De hype van supersterke AI maakt dat we niet vragen naar de eigenaren en machtsstructuren erachter

Ten derde: engageer. Een pauzeknop van een half jaar is niet de oplossing. Het is onduidelijk wat er dan precies na dit half jaar moet gaan gebeuren. En het idee suggereert dat de makers van dergelijke systemen in dit half jaar alle problemen kunnen oplossen. In plaats daarvan zouden we anderen bij de ontwikkelingen moeten betrekken, vooral in het maatschappelijk middenveld. Faciliteer dat leraren kunnen meepraten over het gebruik van ChatGPT in het onderwijs. Stel burgers daadwerkelijk in staat echte brieven van nepbrieven van banken of de overheid te onderscheiden. Leer daarvan en gebruik die kennis bij de verdere ontwikkeling of regulering van AI. Dat is de manier om de technologie beter en veiliger te maken, niet een half jaar sleutelen achter gesloten deuren.

Veiligheidsvraagstuk

Dat brengt ons ook bij de vierde opgave: reguleer. De Europese Unie is bezig met wetgeving over AI en recente ontwikkelingen vragen misschien om het aanvullen of actualiseren daarvan. Maar het idee van AI als een autonome kracht die over de samenleving heen rolt wekt de suggestie dat wetgeving niet mogelijk of onnodig zou zijn. Integendeel. Maar dat vraagt wel om tijdig ingrijpen en niet afwachten tot de risico’s realiteit worden. Bovendien: de hype van supersterke AI maskeert nog iets anders. Door alle aandacht op de AI zelf te richten, vragen we niet naar de ontwikkelaars, de eigenaren en de machtsstructuren erachter. En laten daar nou juist de problemen zitten waar wetgeving bij uitstek op kan ingrijpen.

De laatste opgave die we zien is de noodzaak om ons als Nederland internationaal te positioneren. Want recente AI-toepassingen brengen nog meer mondiale veiligheidsvraagstukken met zich mee. De enorme sprong in het vermogen van AI om nieuwe dingen te genereren – foto’s, videobeelden, teksten – brengt ook een groot potentieel tot manipulatie met zich mee. Manipulatie die tot internationale spanning en ontwrichting kan leiden. Het nepnieuws uit het Trump-tijdperk was daar kinderspel bij.

AI heeft op dit moment dus een ingrijpend effect op de samenleving. Sommige angsten zijn misplaatst en er zijn veel onrealistische hypes. Maar andere risico’s en kansen worden juist veel te weinig erkend. Hoe dan ook is de komende jaren veel meer van samenleving en overheid nodig om te zorgen dat wij deze nieuwe technologie goed maatschappelijk inbedden.