Hysterie over AI verbloemt tekortkomingen tech-industrie

Informatica De vrees dat machines de macht overnemen gaat terug tot de 19de eeuw. De recente paniek over Chat-GPT is volgens een hype. Die ontneemt het zicht op de echte problemen.


Foto wesvandinter

Op 29 maart riepen ongeveer 1.800 wetenschappers, historici, filosofen en zelfs enkele miljardairs en anderen – onze tech-adel – in een open brief, gepubliceerd op de website van de Future of Life, alle AI-laboratoria ertoe op „om de training van AI-systemen die krachtiger zijn dan GPT-4 […] onmiddellijk voor minstens zes maanden te pauzeren”.

In een reactie op deze brief schreef tech-filosoof Eliezer Yudkowsky dat dit niet ver genoeg gaat. Hij drong erop aan dat overheden „alle grote GPU-clusters sluiten”, en bereid moet zijn om „criminele datacenters te vernietigen door middel van een luchtaanval”.

De roep om dergelijke extreme maatregelen tegen kunstmatige of artificiële intelligentie (AI) is gebaseerd op de vrees dat AI een existentieel risico inhoudt. Na de publicatie van zogeheten large language models (LLM) door onder meer OpenAI (GPT-4) groeit de bezorgdheid dat verdere updates, bijvoorbeeld in een GPT-5, ons in de richting van een ‘singularity’ kunnen sturen – dat is wanneer de AI even slim wordt als de mens en zichzelf kan verbeteren. Het resultaat zou een intelligentie-explosie kunnen zijn. Er zijn vele manieren waarop dit dan het einde van de mensheid zou kunnen betekenen – een recent artikel somt er 25 op.

Tech-adel

Open brieven over AI – zoals die van 29 maart – zijn niets nieuws in de technologiesector. Op 28 oktober 2015 zagen we een soortgelijke grote openbare ondertekening door vrijwel dezelfde tech-adel – ook gepubliceerd als open brief op de website van de Future of Life – waarin zij echter niet opriepen tot een pauze in het AI-onderzoek, maar in plaats daarvan de voordelen van AI benadrukten en „uitgebreid onderzoek” adviseerden.

In acht korte jaren leek de technologie-industrie dus van hype naar hysterie te zijn gegaan: er werd niet meer opgeroepen tot verder onderzoek, maar zelfs tot luchtaanvallen om rogue datacenters te vernietigen.

Wat is er gebeurd?

Ten eerste is de hysterie rond AI dramatisch toegenomen. Dit was te verwachten – de angst dat AI een existentiële bedreiging vormt zit diepgeworteld. Samuel Butler schreef bijvoorbeeld in 1863 al een essay met de titel Darwin onder de machines, waarin hij voorspelde „dat de tijd zal komen dat de machines de werkelijke heerschappij over de wereld zullen hebben”.

De toenemende hysterie rond AI is ook het gevolg van het groeiende wantrouwen van het publiek tegen AI. Geen van de voordelen die in de open brief van 2015 werden aangeprezen, zijn werkelijkheid geworden. In plaats daarvan zagen we dat AI tijdens de wereldwijde Covid-crisis waardeloos was, zagen we dat een select aantal rijke bedrijven meer monopoliemacht kreeg en rijker werd door het verzamelen van privégegevens van mensen, en zagen we de opkomst van de bewakingsstaat. AI was zelfs gedeeltelijk verantwoordelijk voor de Toeslagenaffaire.

Het existentiële risico van AI ligt momenteel alleen op filosofisch en literair gebied

Tegelijkertijd zijn productiviteit, onderzoeksefficiëntie, technologische vooruitgang en wetenschap in de meest geavanceerde economieën afgenomen. Mensen geloven eerder het ergste over AI. De razendsnelle oprichting sinds 2015 van instituten die hun brood verdienen met het verkondigen van existentiële risico’s, voedt alleen maar het aantal krantenartikelen dat de hysterie aanwakkert.

De tweede reden waarom de tech-industrie tussen 2015 en 2023 van hype naar hysterie is omgeslagen, is dat er wellicht een nieuwe AI-winter voor de deur staat. De tech-adel wordt hier gek van. Niet alleen worden ze geconfronteerd met een groeiend publiek wantrouwen – en toenemende controle door overheden – maar de tech-industrie heeft de afgelopen maanden ernstige klappen gekregen.

Deze omvatten meer dan 100.000 verloren banen in de industrie in de VS, de ondergang van Silicon Valley Bank – het op één na grootste bankfaillissement in de geschiedenis van de VS – dalende aandelenprijzen en de groeiende vrees dat de techbubbel op het punt staat te barsten.


Lees ook:Een bankrun kent alleen verliezers

Aan deze problemen ligt een groeiend besef ten grondslag dat veel nieuwe technologieën niet aan de verwachtingen hebben voldaan.

Deze problemen wijzen erop dat de kosten van AI wellicht hoger zijn dan de voordelen. AI is duur – het ontwikkelen en uitrollen van LLM’s zoals GPT-4 vergt grote investeringen. Het trainen van één AI-model kan evenveel koolstof uitstoten als vijf auto’s in hun levensduur. De infrastructuur en opleidingskosten kost miljarden dollars. GPT-4 heeft 1.000 miljard parameters en de totale trainingscapaciteit die daarvoor nodig is, wordt geschat op ongeveer 18 miljard petaflop. Ter vergelijking: het beroemde programma AlphaGo, dat de beste menselijke Go-speler versloeg, had minder dan een miljoen petaflop aan rekenkracht. Dat is een enorme input voor een instrument voor ‘hightech-plagiaat’ en een ‘mislukking’ zoals Chomsky en Marcus GPT-4 noemden.

Muren

Het punt is dat deze recente LLM’s tegen de muren aanlopen van wat technisch en economisch haalbaar is met machine learning en rekenkracht. Het impliceert ook dat geavanceerde AI-systemen voor de meeste bedrijven – en zelfs de meeste overheden – buiten bereik zijn. Het is dan ook niet verrassend dat de toepassing van AI-systemen door bedrijven in de VS, waarschijnlijk het land dat het verst gevorderd is op het gebied van AI, zeer laag is: uit een onderzoek van het Amerikaanse bureau voor de statistiek (US Census Bureau) onder 800.000 bedrijven bleek dat slechts 2,9 procent in 2018 gebruik maakte van machine learning.

Het existentiële risico van AI ligt momenteel alleen op filosofisch en literair gebied. Dit betekent niet dat de AI die we hebben geen ernstige schade kan aanrichten – er zijn vele voorbeelden van Awful AI – we moeten in dit opzicht waakzaam blijven. Het betekent ook niet dat het existentiële risico ooit in de toekomst niet reëel zal zijn, maar we zijn er nog te ver van verwijderd om te weten hoe we er iets zinnigs tegen kunnen doen.

De oproep in de Open Brief om AI-onderzoek zes maanden te pauzeren is eerder tekenend voor de wanhoop in een industrie die op hol slaat. Hysterie over AI als existentieel risico leidt af – en verbloemt de tekortkomingen van de tech-industrie