Opinie | We weten niet of de huidige wedloop leidt tot AI van menselijk niveau

Nog even en de computers zijn ons definitief voorbij. Dat is althans het verhaal dat nu hard vanuit Silicon Valley de wereld in schalt: de ontwikkelingen op het gebied van kunstmatige intelligentie gaan zo snel, dat het een kwestie van tijd is voor het haast mythische AGI (artificial general intelligence) een feit is. Binnen luttele jaren of zelfs maanden zou superintelligente AI die de mensheid op alle fronten overtreft, klaarstaan om de wereld voorgoed te veranderen.

Bij die aanname zijn echter wel wat kanttekeningen te plaatsen. Om te beginnen: hoe weten we wanneer we AGI hebben? We zitten in een fase waarin verschillende definities van het begrip de discussie bepalen. Eén duidelijke, vastomlijnde definitie bestaat er niet.

Maar zelfs als we het erover eens zouden worden wat AGI is en hoe wij het als zodanig zouden herkennen, dan is er nog het probleem hoe we tot AGI moeten kómen. Wie weet hebben LLM’s, de grote taalmodellen achter AI-systemen als ChatGPT, de capaciteit voor superintelligentie, en moet die simpelweg nog ontgrendeld worden. ChatGPT is zo goed geworden door RLHF (reinforcement learning from human feedback). Het algoritme is verfijnd doordat mensen aangeven of ze een antwoord goed vinden of niet. Met die terugkoppeling leert het systeem het meest waarschijnlijke volgende woord in de zin die het aan het schrijven is. Daarom kan ChatGPT zulke goede teksten produceren. Misschien kan een systeem zoals ChatGPT met RLHF en tal van andere slimme technische trucs ongelooflijk goed worden in nog veel meer, en zo AGI bereiken.

Maar nu kunnen LLM’s vooral nog heel veel niet. Vooraanstaande wetenschappers zoals taalkundige Noam Chomsky en computerwetenschapper Fei-Fei Li zijn sceptisch over de mogelijkheid dat LLM’s tot AGI kunnen leiden. Zij wijzen erop dat grote taalmodellen niet begrijpen wat ze zeggen en geen werkelijke creativiteit of bewustzijn hebben. LLM’s zullen volgens Chomsky nooit het niveau van menselijke creativiteit en begrip bereiken, omdat de manier waarop AI leert en redeneert fundamenteel verschilt van de diepere zoektocht van de menselijke geest naar betekenis en inzicht.

Techno-optimisten dromen van fabrieken waarin robots al het werk doen, terwijl wij op het strand liggen

Nota bene Sam Altman, de baas van ChatGPT-bouwer OpenAI, zei in 2023 dat een systeem dat „niet significant kan bijdragen aan het totaal van wetenschappelijke kennis” niet superintelligent genoemd kan worden. Maar om LLM’s zover te krijgen dat ze dat kunnen, moet het hele paradigma – alle theorieën, modellen en opvattingen – achter de technologie ingrijpend veranderen. En niemand weet op dit moment hoe.

Daar komt bij dat AI meestal alleen optimaal kan functioneren in samenwerking met de mens. Techno-optimisten dromen van ‘mensloze’ fabrieken, waarin robots het hele arbeidsproces uitvoeren terwijl wij op het strand liggen met een margarita. Maar in de praktijk kunnen er duizend-en-één dingen gebeuren waar de computer geen rekening mee houdt. Een papiertje dwarrelt neer bij een productielijn, blokkeert een machine en het hele proces stokt. Mensen moeten het probleem vervolgens komen oplossen. Het blijkt beter om de technologie om mensen heen te ontwerpen, zodat iemand dat papiertje snel kan pakken en de boel door kan blijven draaien.

Robots

Een mogelijke manier waarop AI de wereld wél beter kan leren begrijpen, is door die te ervaren via een eigen lichaam. Ik werk zelf aan AI met een fysieke vorm, zoals robots, auto’s, melkrobots en stofzuigers. Deze technologie kan handelingen verrichten in, en reageren op, de echte wereld. Onderzoekers zoals Akshara Rai van Meta – maar ook techmiljardair Elon Musk – zetten in op robots, omdat ze denken dat AI-systemen die geen lichaam hebben nooit echt intelligent zullen zijn. Om AGI te bereiken en de wereld volledig te begrijpen, zo stellen zij, is het essentieel om ermee te interacteren en de resultaten van die interacties te observeren. AI met een lichaam zou kunnen leren zoals baby’s dat doen. Die pakken dingen vast en stoppen ze in hun mond, en ze observeren hun ouders. Zo leren ze razendsnel hoe de wereld in elkaar zit.

Hoewel je logisch kunt beredeneren dat AGI uiteindelijk mogelijk zou moeten zijn, moeten we AGI niet zien als een soort ongrijpbaar en onontkoombaar resultaat van AI-onderzoek. De ratrace naar AGI mag niet het zicht ontnemen op de veiligheid van de AI-systemen die er nu al zijn, of die nog gebouwd gaan worden. De kans dat iemand (of een staat) verschrikkelijke dingen doet met AI voordat we AGI hebben, is volgens mij veel groter dan dat AGI bij haar ontstaan dat zelf doet.


Lees ook

AI in de muziek gaan we niet tegenhoud

AI in de muziek gaan we niet tegenhouden