Opinie | Existentieel risico of niet, we moeten AI beheersen

Technologie Goed AI-beleid richt zich op de fundamentele impact die AI op de korte termijn kan hebben, én op existentiële risico’s verder weg, schrijven en .
Illustratie Hajo

De stormachtige opkomst van kunstmatige intelligentie (AI) roept, al enkele jaren, de vraag op of die intelligentie een existentieel gevaar voor de mensheid oplevert. Is de kans reëel dat de mens uitsterft als we niet tijdig ingrijpen? Net als bij klimaatverandering zijn de meningen daarover verdeeld. Maar bij klimaat zijn velen het er wel over eens dat de politiek vergaande maatregelen moet nemen om de opwarming van de aarde een halt toe te roepen en de negatieve gevolgen voor de mensheid te beperken, ook als die minder groot zijn dan het uitsterven van de mensheid.

Bij AI zijn we nog niet zover, en daarin speelt die verdeeldheid een grote rol. Sommigen vrezen dat AI zich kan ontwikkelen tot een existentieel risico. Anderen denken dat het zo’n vaart niet zal lopen en dat de begrenzing gericht moet zijn op de kleinere, maar toch fundamentele impact van AI op onze autonomie, samenleving en democratie. Terwijl bezorgde burgers, groeperingen en organisaties op klimaatgebied steeds meer gezamenlijk optrekken tegen ontkenning, egoïsme en passiviteit, is bij AI helaas sprake van een toenemende kloof tussen de ‘existentiëlen’ en de ‘fundamentelen’. Terwijl beide groepen claimen het ware gevecht tegen AI-gevaren te voeren, is hun kampenstrijd juist funest voor de ontwikkeling van goed AI-beleid.

Toen wij een aantal weken geleden een petitie lanceerden met de oproep aan de Nederlandse politiek om de ongereguleerde opkomst van AI onder controle te brengen, ontwikkelde zich een stekelige discussie over het al dan niet benoemen van het scenario waarin AI zich ontwikkelt tot een existentieel gevaar voor de mens. Het recente artikel in NRC, Sterft de mensheid uit door AI? ‘Dat is sciencefiction’ (24/6), deed hier verslag van.

Lees ook: Sterft de mensheid uit door AI? ‘Dat is sciencefiction’

Niet binair denken

Degenen die het existentiële risico niet onderschrijven, zetten afwijkende visies als onwetenschappelijk, naïef of zelfs verdacht neer. Ze bestempelen het existentiële risico als „sciencefiction” of spreken, zoals directeur Marleen Stikker van Waag Futurelab, van „de verschrikkelijke sneeuwman”.

Er zijn echter genoeg wetenschappers die voor het existentiële risico waarschuwen. Net als klimaatonderzoekers de mogelijke temperatuurstijgingen en de toekomstige leefbaarheid in kaart brengen, denken ze daarbij niet binair – de mens sterft wel of niet uit door AI – maar in termen van kansen. Met als redenering dat ook een hele kleine mogelijkheid op het einde van de mensheid serieus genomen moet worden.

Het ridiculiseren van andermans zorgen getuigt volgens ons niet van de professionaliteit die nodig is om AI het hoofd te bieden. Technologie, ook als die in menselijke handen blijft, kan grote gevaren inhouden, zoals atoomwapens en inmiddels ook algoritmes hebben bewezen.

Tech-bedrijven intomen

Veel gehoorde kritiek op de ‘existentiëlen’ luidt dat het benoemen van existentiële risico’s een truc is van Big Tech om de aandacht af te leiden van de fundamentele problemen in het hier en nu. Dat machthebbers en belanghebbenden in het verleden hebben geprobeerd nadelige gevolgen van technologieën te maskeren, is zonneklaar. Maar dat deden ze door eenzijdig de geweldige kansen en mogelijkheden te promoten; niet door keerzijden op te blazen. De theorie dat Microsoft en Google hun belangen dienen door te waarschuwen dat hun AI het einde van de mens zal betekenen, is onhoudbaar. Als we die waarschuwingen serieus nemen, zal dat namelijk vooral leiden tot vergaande regelgeving om die bedrijven in te tomen. De stelling dat vertolkers van het ‘existentiële’ AI-risico veredelde loopjongens zijn van Big Tech, is uiterst wankel. Dit is ongeveer hetzelfde als beweren dat een organisatie als Extinction Rebellion, met hun waarschuwingen voor het existentiële gevaar van klimaatverandering, in de val trapt van de fossiele energie-industrie.

Hoewel de ‘existentiëlen’ in Nederland minder hoog van de toren blazen zijn zij wel geneigd de niet-existentiële risico’s te onderschatten, omdat deze niet binnen het donkerste scenario vallen. Terwijl ook de fundamentele risico’s grote nadelen inhouden.

Wanneer we aan het verkennen zijn wat de voordelen en nadelen zijn van een nieuwe technologie en inschatten hoe de winst- en verliesrekening eruit kan zien, zijn we per definitie actief in een grijs gebied. We hebben daarom begrip in plaats van beeldvorming nodig, bepleitte de Wetenschappelijke Raad voor het Regeringsbeleid terecht in zijn rapport ‘Opgave AI’ uit 2021, juist bij een veelzijdige en deels onvoorspelbare systeemtechnologie als AI.

Lees ook dit opiniestuk: Met AI beleven we de culturele blunder van de eeuw

Mismatch met nieuwe technologie

Dit is makkelijker gezegd dan gedaan. Want de komst van het internet en van sociale media hebben afgelopen decennia aangetoond dat mensen slecht in staat zijn om het in gebruik nemen van nieuwe technologieën goed te begrijpen. In dit kader spreken psychologen van een mismatch tussen ons brein en onze moderne, complexe leefwereld. Zo oordelen mensen op basis van wat ze zien, geven ze voorrang aan tastbare veranderingen en zoeken ze houvast in stellige overtuigingen. Waar dit toe kan leiden, hebben we gezien bij bijvoorbeeld het gepolariseerde stikstofdossier, dat volledig is vastgelopen in alle opgepompte tegenstellingen.

Gezien de enorme impact op onze samenleving kunnen we ons bij AI geen verlammende kampenstrijd permitteren. In plaats van elkaar zwart te maken kunnen we beter samen de ‘zwarte doos’ van AI openbreken, de kansen benutten en de risico’s proberen te beheersen.