Opinie | Beteugelen van militaire kunstmatige intelligentie is een illusie

Algoritme De koppeling van wapensystemen aan kunstmatige intelligentie heeft in razend tempo catastrofale gevolgen en niemand lijkt meer iets te kunnen doen, waarschuwt .

Militaire kunstmatige intelligentie (AI) laat een ongekende wildgroei zien en dijt volgens topmannen uit de sector uit met de snelheid van het licht. Begin mei was al duidelijk dat AI uit de hand loopt in de militaire wereld. Volautomatische drones zoeken hun doelen op het slagveld uit. Het fameuze NORAD-systeem dat Amerika (en dus haar bondgenoten) al vijftig jaar lang waarschuwt tegen inkomende intercontinentale kernraketten leunt op AI-algoritmes en generatieve AI heeft ons inmiddels al ChatGTP-versies opgeleverd die valse informatie verspreiden en de wereld geopolitiek op zijn kop kunnen zetten.

Sindsdien is de geest alleen maar verder uit de fles geraakt. In het bestek van slechts maanden, niet jaren, kan aan eerder sombere verwachtingen nog toegevoegd worden het plotse opstappen van topman Geoffrey Hinton bij Google, die de Cassandraboodschap herhaalde. Verder was er een spoedbijeenkomst op 5 mei op het Witte Huis met alle topmensen van de AI-bedrijven en een open brief van honderden AI-experts die verklaarden dat men de greep op AI volkomen verloren had en misschien een moratorium van zes maanden wel het minste was om de mensheid voor een catastrofe te behoeden.

Het kan geen kwaad er hier bij te zeggen dat AI natuurlijk ook positieve perspectieven biedt. Dat schept juist het dilemma. De ‘ongebreidelde’ research belooft ongekende progressie in de geneeskunde (veel betere scans en navenante behandelingsvooruitzichten, veel snellere besluitvorming in nu nog door enorme datasets van onoplosbare bestuursdilemma’s, enz.). Ik ben de laatste om dit AI-optimisme te negeren maar vrees dat de militaire bijvangst angstwekkender is.

Tefalpannetje

Eigenlijk is ‘bijvangst’ niet eens het juiste woord, de militaire AI-research is wellicht leidend en laat zich niet beteugelen door de (ook in Nederland) beleden mantra dat een ‘betekenisvolle’ menselijke interventie ons van onbedoelde rampen zal vrijwaren. Dat vertrouwen is hopeloos naïef. Die euforie doet denken aan het onschuldige tefalpannetje dat ter rechtvaardiging van de militaire radar werd aangevoerd tijdens en na de Tweede Wereldoorlog. Wie kon er nu tegen zulke civiele spin-off van militaire research zijn?

Met zo’n 200 miljoen actieve ChatGPT- gebruikers is het beest los en is er geen houden meer aan

Vlak na WO II was er ook het naïeve geloof dat kernenergie ons niet alleen ‘de Bom’ maar ook gratis voorspoed zou geven. Elke ethische beteugeling van AI glijdt af naar bedenkelijke criteria; een Amerikaanse herziening in 2022 formuleerde dat ‘betekenisvolle menselijke interventie’ niet langer als rem moest gelden op wapengebruik, maar voortaan ‘verantwoord’ gebruik moest gelden – wat de deur in principe nog verder openzet.

Lees ook: Ook bij kernwapens zal AI gebruikt worden

Op de Amerikaanse begroting van 2021 stonden 685 grote materieelprojecten die je gerust AI-projecten mag noemen, amper gecontroleerd, de geheime niet meegeteld. Uit recente berichten blijkt dat de voorsprong van de VS in AI-research veel groter is dan tot dusver werd gevreesd. Topman Andrej Szenasy biechtte vorige week op dat AI al in 2014 in staat was tot perfecte gezichtsherkenning: uit een dataset van 14.000 kinderfoto’s plukte een AI-gezichtsherkenningsmachine zonder omhaal het juiste kiekje er uit toen hij even met het ‘echte’ gezicht werd geconfronteerd. Dat was nog tot daaraan toe, maar verbijsterd was hij toen AI ook de goede kinderfoto eruit haalde toen hij de zoonfoto verruilde voor zijn eigen ‘volwassen’ foto in de dataset: AI bleek ook familieverwantschap in zijn repertoire mee te nemen. Tien jaar later breekt Szenasy zich nog het hoofd hoe ‘zijn’ AI tot zulke prestaties in staat is. Niemand begrijpt het.

Medio juli riep VN-secretaris-generaal António Guterres tijdens een speciale AI-zitting nog op tot het maken van ‘vangrails’ in (uiterlijk) 2026 om de wereld te redden – maar wie luistert nog naar hem? Intussen las ik ook hoe het bedrijf MARSS reclame maakt met mobiele commandocentra waar AI de gevechtshandelingen en andere operationele beslissingen in willekeurig welk terrein binnen een straal van 30 km van de mens overneemt.

Het beest

ChatGTP heeft op dit moment wereldwijd zo’n 200 miljoen actieve gebruikers, dus elke beheersing lijkt een illusie: het beest is los en er is geen houden meer aan. Een enkele deskundige waagt zich nog aan de (lastige) vergelijking met de uitvinding van de atoomenergie en de atoombom, en de wijze poging van president Harry Truman eind jaren 40 om via de Atomic Energy Commission het nieuwe goud te collectiviseren en buiten de handen van de militairen van het Strategic Air Command te houden. Jammer genoeg mislukt, de doelenlijsten werden al royaal opgesteld in de hoofdkwartieren. De ultieme vernietigingskracht won het van de goede bedoelingen. Een recente poging om zo snel mogelijk een Humane Comittee voor (dus tegen wildgroei van) Kunstmatige Intelligentie op te richten lijkt eenzelfde lot beschoren.