N.B. Het kan zijn dat elementen ontbreken aan deze printversie.
De open brief van het Future of Life Institute die woensdag door meer dan 1.100 mensen is ondertekend, inclusief Elon Musk, heeft ‘Artificial Intelligence safety governance’ eindelijk tot voorpaginanieuws gemaakt. Eindelijk, omdat er in 2015 al een soortgelijke open brief was, toen met meer dan 11.000 ondertekenaars. De focus lag destijds op het verantwoord ontwikkelen van kunstmatige intelligentie. De toon van de brief van woensdag is veel verontrustender, omdat we inmiddels al acht jaar verder zijn en de ontwikkelingen steeds sneller gaan.
De boodschap is helder en minder diplomatiek dan voorheen: als we nu niet oppassen, is het straks te laat. Herkenbaar, maar momenteel vooral van klimaatverandering.
In 2014 stelde Elon Musk in The Guardian ook al dat AI een existentiële dreiging kan gaan vormen. Hij riep destijds ook al om meer toezicht.
Hoewel beleid in algemene zin nagenoeg altijd achter de feiten aanloopt, kunnen wij ons dat in dit geval niet permitteren. Dit is hét moment om het essentiële onderwerp van de dreiging van ongecontroleerde kunstmatige intelligentie en de existentiële risico’s die ermee gepaard gaan deel uit te laten maken van het publieke debat. Er liggen fundamentele uitdagingen op de loer als ontwikkelaars zonder moreel en juridisch raamwerk hun gang kunnen gaan.
Het gaat daarbij niet om potentieel misbruik van toepassingen door criminelen, waar onder andere Europol deze week over schreef. Dergelijk misbruik vormt ook een gevaar, maar vormt geen existentieel risico. Het is een gevaar waar wij al enigszins mee bekend zijn door de continue aanwezigheid van cybercrime. Toepassingen als ChatGPT zullen daar geen fundamentele veranderingen introduceren maar eerder bestaande dreigingen effectiever maken.
Lees ook dit opiniestuk: Artificial intelligence is niet intelligent
Aantrekkelijk voor Hollywood, dus fictie?
De dreiging van AI voor het voortbestaan van de mensheid verdient meer aandacht. De denktank Existential Risk Observatory probeert daar verandering in te brengen. Jaren geleden deed ik onderzoek naar de ‘Singularity’: een scenario waarin technologische groei menselijke controle voorbij streeft. Dit hypothetische scenario is tot op heden vooral een aantrekkelijk ingrediënt geweest voor Hollywood, en wordt daardoor door de bevolking eerder gezien als fictie dan mogelijk toekomstig feit.
De landen van de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO) hebben in 2019 de OESO AI Principles aangenomen die hun focus hebben op hoe overheden en andere partijen vorm kunnen geven aan betrouwbare AI waarin de mens centraal staat. Maar principles zijn een vorm van guidance: een zachte prikkeling om organisaties te stimuleren het juiste te doen, of beter gezegd te werken vanuit een maatschappelijk belang. Het lijkt mij duidelijk dat bedrijven vooral financieel willen presteren. Dat is geen oordeel, maar een observatie. Zij werken vanuit een commercieel belang en introduceren daardoor regelmatig producten en diensten die ook negatieve gevolgen hebben voor de bevolking, van frisdrank tot sociale media.
Bij kunstmatige intelligentie kunnen die gevolgen desastreus zijn: wij kunnen – als mensheid – de controle verliezen, waardoor repareren en reactief reguleren geen opties meer zijn. Tijdelijk de ontwikkelingen stopzetten is dus een goed idee. Een soort rode knop die de trein stopt, om te onderzoeken wat bedrijven eigenlijk aan het vervoeren zijn. Wat als er een bom in zit? Dan kan helaas niemand – zelfs niet Elon Musk – achteraf zeggen: wij hebben u gewaarschuwd. Want dan zijn wij allemaal verleden tijd.