Volop ontwikkelen aan AI én ervoor waarschuwen. Hoe oprecht zijn de waarschuwingen van techbazen?

Analyse

Kunstmatige intelligentie De grote bedrijven die kunstmatige intelligentie (AI) ontwikkelen, waarschuwen zélf voor de gevaren van hun technologie. Is dat een tegenspraak, of een sluwe afleidingsmanoeuvre?

De Britse premier Rishi Sunak (rechts) met bestuurders van AI-bedrijven Dario Amodei (Anthropic, uiterst links), Demis Hassabis (Deepmind) en Sam Altman (OpenAI).
De Britse premier Rishi Sunak (rechts) met bestuurders van AI-bedrijven Dario Amodei (Anthropic, uiterst links), Demis Hassabis (Deepmind) en Sam Altman (OpenAI). Foto Simon Walker

Het waren maar 22 woorden, maar wel hele grote woorden. Niets minder dan het voorbestaan van de mensheid zou op het spel staan.

Drie van de grote ontwikkelaars van kunstmatige intelligentie (AI) waarschuwden dinsdag in een verklaring voor het gevaar van hun eigen product. Met iets meer woorden in het Nederlands: „Beperking van het risico op uitsterving door AI zou een wereldwijde prioriteit moeten zijn, naast andere risico’s die de hele samenleving raken zoals pandemieën en kernoorlogen.”

Inmiddels hebben meer dan 350 mensen, van wie er velen zelf aan AI werken, de verklaring ondertekend. Uit dezelfde hoek verscheen in maart al een bezorgde open brief, waarin werd opgeroepen tot een pauze van zeker zes maanden in de ontwikkeling van AI. De bedrijven die AI ontwikkelen zouden „verstrikt zijn in een uit de hand gelopen race om steeds krachtiger digitale breinen te ontwikkelen en in te zetten, die niemand kan begrijpen, voorspellen of betrouwbaar onder controle kan houden”.

Een belangrijk verschil met die open brief is dat de verklaring van dinsdag is ondertekend door niemand minder dan de topmannen van drie bedrijven die voorop lopen bij de ontwikkeling van AI. Naast Sam Altman van OpenAI, het bedrijf achter taalbot ChatGPT, zijn dat Demis Hassabis van Google DeepMind en Dario Amodei van het pas twee jaar oude AI-bedrijf Anthropic.

Het lijkt een eigenaardige tegenspraak. Alsof de AI-bazen zeggen: „Pas op voor ons, we spelen met vuur!” Twee zogenoemde ‘peetvaders van AI’, Geoffrey Hinton en Yoshua Bengio, hebben hun naam ook onder de verklaring gezet.

Extra opmerkelijk aan de jongste waarschuwing voor mogelijke rampspoed is dat die weliswaar een hele grote noodklok luidt, maar toch slechts bestaat uit één zin. Wat die grote gevaren precies zijn wordt er niet in gezegd, en evenmin hoe we ze nog zouden kunnen afwenden.

Niet-menselijke breinen

De open brief in maart deed dat wel. Daarin werd gewaarschuwd dat AI ervoor kan zorgen dat de media overstroomd worden met propaganda en onjuiste informatie. Dat „niet-menselijke breinen” ons mensen op den duur overbodig kunnen maken. Dat alle banen, „ook de bevredigende”, geautomatiseerd kunnen worden, en dat we zo „de controle over onze beschaving verliezen”. Nader onderzoek naar de gevaren werd bepleit, en ook regulering, om te komen tot kunstmatige intelligentie die veilig, betrouwbaar, transparant en zelfs, alsof het om een menselijke wezen gaat, „loyaal” is.

De afgelopen maanden hebben AI-critici ook andere sombere scenario’s geschetst. AI zou leiden tot een tsunami van hacks van zo’n beetje alle vormen van digitale beveiliging die we nu kennen. Autonome wapensystemen zouden met AI tot een revolutie in de oorlogsvoering kunnen leiden. Het maken van chemische en biologische wapens zou opeens binnen ieders bereik komen. En op de achtergrond duikt steeds het vage schrikbeeld op van computersystemen met menselijke eigenschappen die de echte mens overvleugelen.

Critici werpen de vraag op hoe oprecht de zorgen van de voormannen van de AI-bedrijven zijn, als ze tegelijkertijd met volle kracht, en in hoog tempo, doorwerken aan de verdere ontwikkeling van kunstmatige intelligentie en toepassingen ervan, zoals de chatbot ChatGPT. Die worden immers zonder terughoudendheid en zonder externe toetsing massaal ter beschikking gesteld aan het publiek.

Een van die critici is Emily Bender, linguïst en expert op het gebied van zogeheten large language models (LLM’s), de reusachtige datasets die gebruikt worden voor de ontwikkeling van AI. Zij en haar medestanders wijzen al jaren op de gevaren van AI. Maar niet door te waarschuwen voor de ondergang van de mensheid over een onbekend aantal jaren, maar door aandacht te vragen voor wat de AI-bedrijven nú al voor negatieve effecten teweegbrengen. Zij ziet het verspreiden van doemscenario’s door de sector als een berekenende afleidingsmanoeuvre.

Kijk uit, een monster!

Dinsdag schreef Bender op het sociale medium Mastodon: „Als de jongens van AI roepen ‘Kijk uit, een monster!’ – om iedereen af te leiden van hun praktijken (diefstal van data, verkwisting van energie, versterking van vooroordelen, vervuiling van het informatie-ecosysteem) – dan zouden we hun masker moeten afrukken.” Bender hekelt ook de concentratie van kennis, geld en macht in de hand van een klein aantal bedrijven en hun topmannen en de maatschappelijke ongelijkheid die daardoor versterkt wordt. En de voorstelling van AI als een systeem met menselijke eigenschappen, zou miskennen dat AI bestaat uit systemen die patronen erkennen en ‘napraten’ als papegaaien.

De voormannen van de AI-ontwikkeling op hun beurt betogen dat van AI, ondanks de risico’s, juist ook veel goeds verwacht kan worden, van de ontwikkeling van medicijnen tegen kanker tot bacteriën die plastic opeten en een oplossing voor het klimaatprobleem. Als we maar overleggen hoe we het veilig aanpakken, betogen ze, kan AI de mensheid juist vooruit helpen.

Dat ze de risico’s van hun technologie erkennen, zij het die op de wat langere termijn, lijkt bij politici in gode aarde te vallen. Altman en Amodei mochten begin mei, vergezeld van de topmannen van Google en Microsoft, in het Witte Huis met president Biden komen spreken over AI. Biden wees hen op hun verantwoordelijkheid om „de risico’s te beperken” – precies de formulering waar ze zich in de verklaring van dinsdag achter schaarden.

Lees ook: AI: het nieuwe goud in San Francisco

Twee weken geleden werd Altman in de Senaat over de risico’s van AI ondervraagd. Anders dan bij ondervragingen van Mark Zuckerberg van Meta en andere bazen van Big Tech die op Capitol Hill hard en soms vijandig zijn ondervraagd, werd Altman door de senatoren met respect en ontzag onthaald. Door de mogelijke gevaren van AI te erkennen, en zich in algemene termijn open te tonen voor regulering, nam hij kritische ondervragers de wind uit de zeilen.

Maar het Amerikaanse Congres is al jaren te verdeeld om het eens te kunnen worden over regulering van de technologiesector. In Europa is dat anders. Het Europees parlement is vergevorderd met een wetsontwerp met regels voor AI (zoals verplichte risico-analyse en transparantie over de gebruikte data).

Ergernis

Altman van OpenAI kon zijn ergernis daarover vorige week niet verhullen, tijdens de trip door Europa waar hij op zoek ging naar een goede locatie voor een Europees hoofdkantoor (en waar hij sprak met de regeringsleiders en staatshoofden van het VerenIgd Koninkrijk, Frankrijk, Duitsland, Spanje en Polen). In de Senaat had hij nog maar net verklaard hoe belangrijk hij regulering van AI vindt, maar op bezoek in Londen dreigde hij Brussel dat zijn bedrijf zal overwegen Europa de rug toe te keren als de regels te streng worden. Het leek een steuntje in de rug voor de Amerikaanse lobbyisten, die in Brussel proberen het wetsontwerp af te zwakken.

Maar een dag later in Parijs was al tot Altman doorgedrongen dat het dreigement niet goed gevallen was. Hij haastte zich te verklaren dat OpenAI heus van plan is om aan de nieuwe Europese regels te voldoen. „We willen onze diensten in Europa aanbieden.”