Opinie | Gereduceerd tot het eeuwige hulpje van AI

AI Kunstmatige intelligentie slimmer dan de mens? AI is door techbedrijven volkomen economisch ingericht en dat verschraalt en devalueert vele beroepen, schrijven en .
Foto REB Images

De angst dat kunstmatige intelligentie te slim wordt en de mensheid overbodig maakt, domineert het publieke debat. Media zijn in de ban van computersystemen die ons ‘inhalen’, ‘verslaan’ of ‘vervangen’. Deze focus leidt af van de daadwerkelijke uitdagingen die voor ons liggen. 

Helemaal nieuw is de overspannen aandacht voor AI niet. In 1984 sprak de befaamde informaticus en wiskundige Edsger W. Dijkstra in een interview in NRC Handelsblad over de „computerrage” van die tijd. Hij hekelde „de veronderstelling dat zodra iets gecomputeriseerd is, het dan beter is. Dat is een heel griezelige ontwikkeling. Net zo griezelig als de hoge, overspannen verwachtingen die men heeft van de mogelijkheden van de computer in het hoger onderwijs. Die verwachtingen zijn volslagen irreëel. En het gevaar bestaat dat educatieve voorbereidingen, zoals het opleiden van docenten en de zorg voor een infrastructuur waarbinnen zij kunnen functioneren, verwaarloosd wordt. Men gaat er van uit dat de computer het straks allemaal beter doet. Als die ontwikkeling doorzet zou dat de culturele blunder van deze eeuw zijn.”

Wat Dijkstra beschrijft als culturele blunder van de eeuw, is precies wat we nu meemaken. Je kunt de krant niet openslaan of het gaat over computers die alles beter doen: „ChatGPT verslaat arts bij antwoord op medische vragen”; „Maakt een robot straks het huiswerk van je kind?”; „Is AI de kunstenaar van de toekomst?”. De journalistieke verbeeldingskracht komt niet verder dan het sciencefiction-cliché dat AI alles beter kan en een existentiële bedreiging voor de mens zal vormen.

Computerwetenschapper Jaron Lanier zei hier onlangs in The Guardian over: „Het idee dat AI een gevaar vormt omdat het menselijke capaciteiten overstijgt is dwaas, omdat AI gemaakt is van menselijke capaciteiten.” Onszelf vergelijken met AI is alsof we onszelf vergelijken met een auto: „Het is alsof je zegt dat een auto sneller kan dan een menselijke hardloper. Natuurlijk kan dat, maar dan zeggen we ook niet dat de auto een betere hardloper is geworden.”

AI-ontwikkelingen in het jasje van een wedstrijd plaatsen is misplaatst, meent filosoof en psycholoog Pim Haselager, hoogleraar aan het Donders Instituut voor Brein, Cognitie en Gedrag aan de Radboud Universiteit Nijmegen. Het zou moeten gaan over complementaire eigenschappen van mensen en computers. Maar de angst dat AI ‘te slim’ wordt overheerst – aangewakkerd door tech-prominenten die eind maart een brief ondertekenden waarin gepleit wordt voor een pauze in de ontwikkeling van kunstmatige intelligentie.

Gevoel en beleving

Haselager ziet een ander gevaar: „Kunstmatige intelligentie scoort hoog op de cognitieve kant, maar niet op een andere pijler die veel belangrijker is: gevoel, beleving, begrip en ervaring. Deze aspecten zijn moeilijker na te bootsen omdat dit een lichaam en verknoping met de fysieke wereld vereist. Zie ChatGPT: het programma voorspelt het volgende woord in een zin, maar heeft geen idee van de onderliggende betekenis. Met AI kijken we in een spiegel die slechts één kant van onze intelligentie laat zien. Als je aan die kant te veel taken overdraagt en denkt dat AI slimmer is dan wij, krijg je ongelukken in de samenleving.” 

Neem het voorbeeld van de artsen. Afgelopen maand konden we in deze krant lezen dat ChatGPT artsen verslaat bij het beantwoorden van medische vragen. Maar het onderzoek waaruit dit zou blijken werd gedaan op het Ask a Doctor-forum. Op dit forum beantwoorden niet artsen, maar medisch geschoolde vrijwilligers vragen van patiënten. Het artikel miskent de complexe werkpraktijk van artsen en schept verkeerde verwachtingen van de capaciteiten van ChatGPT. AI-experts waarschuwen dat ChatGPT ongeschikt is om toe te passen in medische contexten omdat het programma niet getraind is om feiten te begrijpen, maar slechts woordvolgordes kan produceren die feitelijk lijken. Volgens AI-expert Margaret Mitchell kan dat het verschil betekenen tussen leven en dood.

Ondanks dit soort waarschuwingen en gebrek aan bewijs dat chatbots ook daadwerkelijk tot betere medische behandelingen leiden, is er een groot enthousiasme over wat AI allemaal zou kunnen doen, of het nu gaat om het werk van artsen, scenarioschrijvers, kunstenaars of journalisten. Wat Dijkstra in de jaren tachtig goed zag aankomen is dat we steeds meer energie zijn gaan investeren in computersystemen, en steeds minder in een goede infrastructuur waarbinnen deze mensen hun vak betekenisvol kunnen uitoefenen en hoogwaardige diensten en producten kunnen leveren.

De reden hiervoor is vooral economisch. Wie de macht heeft om te bepalen wat intelligentie betekent, kan eindeloze commerciële investeringen naar zich toetrekken. Door intelligentie te verschralen tot datgene waar computers goed in zijn, kunnen AI-bedrijven hun macht vergroten en ons voorhouden dat bijna alle taken door hun eigen AI-producten vervangen kunnen worden. Gevolg: we brengen het beroep van arts terug tot medische beslisboom, het beroep van helpdeskmedewerker tot communicatiescript, en het beroep van scenarioschrijver tot format-machine.

Lees ook: AI? We zijn onderdeel van een levensgroot experiment

Format-gedreven pulp

Tegen dat laatste kwamen Amerikaanse scenarioschrijvers onlangs in verzet. Met de komst van ChatGPT vrezen zij dat hun beroep nog verder gedevalueerd wordt tot het schrijven van format-gedreven pulp, omdat dit het makkelijkst door AI vervangen kan worden. De scenarioschrijvers geven een aardig beeld van hoe de AI-‘revolutie’ er in werkelijkheid uitziet: eerst reduceer je de mens tot afgestompte robot en daarna zeg je: wat jij doet kan een robot ook, het is tijd om jou te vervangen. In plaats van dat devaluatieproces aan te pakken en arbeidskwaliteit te verbeteren, investeren bedrijven liever in AI-systemen die zo goedkoop mogelijke arbeid opleveren. Zo kondigde British Telecom aan 55.000 banen te schrappen, onder andere bij de klantenservice. Topman Philip Jansen verklaarde dat klanten het menselijke aspect niet zullen missen omdat ChatGPT mensachtige antwoorden kan geven.

ChatGPT is inderdaad behendig in het simuleren van mensachtige taal, maar veel problemen waarvoor mensen hulp vragen vergen contextueel begrip, empathie en de mogelijkheid om buiten het script te treden indien zich een nieuwe situatie voordoet; iets wat AI niet kan. Dat de topman van British Telecom verwacht dat zijn klanten het menselijke aspect niet zullen missen, zegt meer over de mate waarin het bedrijf hun klantenservice überhaupt al robotiseerde met medewerkers die zich moeten houden aan strakke belscripts en targets.

Dat mensen ChatGPT-antwoorden vaak hoog waarderen heeft niet zozeer te maken met de capaciteiten van de technologie zelf, als wel met onze computational culture waarin computers steeds meer de grenzen van ons denken en handelen zijn gaan bepalen. Volgens bestsellerauteur John Warner begint dat proces al op vroege leeftijd: we hebben een regelgebonden onderwijssysteem waarin we kinderen leren schrijven zoals ChatGPT. In plaats van retorische vaardigheden, schrijfvaardigheden en kritisch denkvermogen, leren we kinderen „surface-level correctness”: ze leren niet om zelf na te denken, maar slechts hoe ze een model kunnen pleasen.

Eerst reduceer je de mens tot afgestompte robot en daarna zeg je: wat jij doet kan een robot ook, het is tijd om jou te vervangen

Het voegen naar AI-modellen gebeurt ook bij wetenschappers. Onlangs bleek uit onderzoek dat AI-toepassingen in synthetische biologielabs niet leiden tot effectieve tijdbesparing. De tijd die wetenschappers kwijt zijn aan het AI-leesbaar maken van informatie en het controleren van AI-modellen, bleek ten koste te gaan van belangrijke activiteiten zoals het ontwikkelen van nieuwe hypothesen. In plaats van AI voor ons te laten werken, gebeurt in de praktijk vaak het omgekeerde: mensen moeten harder werken om hun taken en dagelijkse bezigheden machine-leesbaar te maken, terwijl dat niet vanzelfsprekend tot meer productiviteit leidt.

En zo zal ook de aanname dat artsen meer tijd krijgen dankzij ChatGPT een illusie blijken, denkt ook Pim Haselager: die artsen krijgen het alleen maar drukker. De computer komt steeds meer tussen mens en arts in te staan en zal geen beter contact tussen beiden faciliteren.

Net als bij de scenarioschrijvers en helpdeskmedewerkers dreigt ook bij het artsenberoep de taakopvatting verschraald te worden tot een AI-vervangbaar minimum. Dat is nu eenmaal makkelijker dan de perverse prikkels in het systeem eromheen aan te pakken. In dat opzicht is AI niet revolutionair, maar juist een toepassing waarmee we het verleden extrapoleren en systemische problemen in stand houden.

Eeuwig hulpje van AI

De onzichtbare arbeiders die voor een paar cent onze AI-systemen moeten trainen, de werknemers die traumaklachten ontwikkelen omdat ze de output van generatieve AI-systemen moeten filteren, en de kunstenaars en schrijvers wier werk wordt gestolen om AI-generatoren te trainen, hebben geen boodschap aan een AI-industrie die hen reduceert tot het eeuwige hulpje van AI.

Intelligentie is een abstract begrip waar geen vaste, universele, eenduidige betekenis voor bestaat. Die openheid en vloeibaarheid van betekenis is geen zwaktebod, maar juist een voorwaarde om mens te kunnen zijn. Het feit dat we onze menselijke capaciteiten niet volledig intellectueel kunnen doorgronden en beschrijven, maakt juist dat we als mens onderdeel kunnen zijn van een open toekomst.

Die open toekomst wordt nu bedreigd. Door intelligentie strak en mechanistisch te definiëren en daarmee AI-ontwikkelbaar te maken, hebben techbedrijven de macht om ons begrip van intelligentie te stroomlijnen met hun eigen commerciële belangen.

Om daadwerkelijk een nieuwe weg in te slaan, hebben we een scherper AI-debat nodig, dat ook de culturele, politieke en commerciële dimensie van intelligentie in ogenschouw neemt. Een debat dat ruimte biedt aan nieuwe beelden en narratieven, zonder misleidende sci-fi clichés. Andere beeldvorming leidt tot ander soort vragen, die weer tot andere wegen en oplossingen kunnen leiden.