N.B. Het kan zijn dat elementen ontbreken aan deze printversie.
Column Veel miljardairs uit Silicon Valley denken met kunstmatige intelligentie het voortbestaan van de mensheid veilig te stellen. Ten onechte, stelt Margriet van der Heijden.
Natuurlijk heb ik met ChatGPT gespeeld. De taalgenerator bleek een salarisverhoging empathisch te kunnen afwijzen, schreef betere brieven dan de gemeente en kon eenvoudige tentamenvragen maken. Maar na een reeks bloedeloze teksten, zouteloze grappen en verzonnen berichten, neig ik toch naar experts die ChatGPT een ‘stochastische papegaai’ vinden – zelfs al tilt ChatGPT het hersenloze papegaaien naar een ‘next level’.
Over de keerzijden van ChatGPT hoorde ik ook. Veel ervan komen terug in het recentste rapport van het Stanford Institute for Human Centered Artifical Intelligence. Zo zijn het energieverbruik en de bijbehorende CO2-uitstoot van ChatGPT gigantisch. Omdat ChatGPT níét is ontworpen om waarheidsgetrouw te zijn, slingert het nepnieuws de wereld in. En met de vooroordelen die terloops in dit soort algoritmes sluipen en tallozen kunnen duperen, zijn we in Nederland dankzij de toeslagenaffaire natuurlijk bekend.
Maar Sam Altman, de baas van OpenAI dat ChatGPT ontwikkelde, zit er niet mee. Liever kijkt hij in gesprekken, zoals laatst met The New York Times, naar een toekomst waarin een kunstmatige algemene intelligentie (AGI) zich kan meten met het brein van mensen of dat zelfs kan overtreffen. En dat zo’n AGI er komt, staat voor Altman vast. Technologie valt nu eenmaal niet te stoppen, citeert hij fysicus Robbert Oppenheimer. Sterker, Altman wil met OpenAI zelf zo’n AGI gaan ontwikkelen. In The New York Times vergelijkt hij die onderneming met het Manhattan-project waaraan Oppenheimer leiding gaf en waarin tijdens de Tweede Wereldoorlog de atoombom werd ontwikkeld.
State-of-the-artapparatuur
Is die analogie lukraak of trefzeker? Het klopt dat het Manhattan-project vaak wordt aangehaald om de overgang te markeren naar het moderne tijdperk van Big Science. Vervlogen waren de ‘romantische’ eeuwen waarin Benjamin Franklin een vlieger opliet om de bliksem te meten, en waarin Wilhelm Röntgen zijn eerste röntgenopname huiselijk van de hand van zijn echtgenote maakte. Passé waren ook de goed geoutilleerde maar kleinschalige labs van de vroege twintigste eeuw, zoals Marie Curies Radium Lab in Parijs. In het Big Science-tijdperk joegen en jagen grote groepen wetenschappers met ruime budgetten en state-of-the-artapparatuur vastomlijnde onderzoeksdoelen na.
Het menselijkgenoomproject dat de structuur van het menselijke dna ophelderde is er een voorbeeld van. Net als Cern waar duizenden fysici met deeltjesversnellers de bouwstenen van de natuur in kaart brengen, en waar trouwens in 1989 het world wide web ontstond. Maar dat Altman deze projecten buiten beschouwing laat, is niet zomaar.
Altman is net als zoveel Silicon Valley-miljardairs in de ban geraakt van ‘longtermism’ en effectief altruïsme. Longtermism is het idee dat de belangen van de mensen die nu op aarde rondlopen niet zwaarder wegen dan die van toekomstige generaties – en daaronder vallen alle mensen (of wezens die uit hen voortkomen) tot misschien wel miljoenen jaren vanaf nu. Effectief altruïsme berust op de gedachte dat de wereld het best wordt gediend door die problemen op te lossen die zoveel mogelijk mensen in die enorme tijdspanne treffen. Hussel zulk gedachtengoed nog wat en AGI duikt op als effectieve technologie om het voortbestaan van de mensheid veilig te stellen.
Tegelijk beredeneren Altman en collega’s vanuit het ‘rationalisme’ in hun filosofische potpourri dat AGI de mensheid óók kan vernietigen. En inderdaad, wat past daarbij beter dan een verwijzing naar het Manhattan-project en naar Oppenheimer die op 16 juli 1945 tijdens een atoomproef in New Mexico de eerste paddenstoelwolk aanschouwde en achteraf zei te hebben gedacht: „Nu ben ik de Dood; de vernietiger van Werelden.”
De wereld redden
Creepy? Best wel. Maar de vergelijking gaat ook mank. De fysici van het Manhattan-project werkten voor de overheid en dachten tijdens de Tweede Wereldoorlog de wereld te redden van een reëel gevaar. Daarentegen zijn Altman en de Silicon Valley-miljardairs allereerst zakenmannen die een hypothetische vernietiging in een wazige verte prediken.
Nog iets: na de kernbommen op Hiroshima en Nagasaki zetten fysici als Einstein, Joseph Rotblath en tot op zekere hoogte Oppenheimer zelf zich hun verdere leven in om kernwapens te beperken of zelfs uit te bannen. Het half jaartje pauze op AI-ontwikkelingen dat Altmans collega’s deze maand in een brief voorstelden, is zo toch een beetje een gotspe.
Anders gezegd, gaat het hier niet om eenzelfde trucje als waarmee Oudhollandse dominees zieltjes wonnen? Proberen deze mannen niet gewoon hun macht veilig te stellen door donderpreken te houden en tegelijk zichzelf als redder van de verdoemenis aan te prijzen?
Gevaarlijk is het zeker, vinden veel academische experts. Want al dat ge-orakel versluiert de problemen die huidige AI-toepassingen veroorzaken en blokkeert vrije uitwisseling van gedachten. Kortom, overrompeld raken door doem lijkt een slecht idee – net als door beloftes van paradijzen trouwens.