De schok was vergelijkbaar met toen de computer voor het eerst de wereldkampioen schaken versloeg en later ’s werelds beste go-speler. Een AI-programma van Darpa, de onderzoekspoot van de Amerikaanse krijgsmacht, klopte in 2020 tijdens een gesimuleerd gevecht de beste F-16-vlieger van de VS. De uitslag van 5-0 was, zei Darpa, te danken aan de „agressieve en precieze manoeuvres” van het programma.
Terwijl de publieke aandacht voor kunstmatige intelligentie (AI) uitgaat naar spectaculaire toepassingen als het getrainde taalmodel ChatGPT, de diagnoses van ziekten en echtheidsonderzoek aan schilderijen, heeft na de dogfight-simulatie de militaire AI in betrekkelijke luwte een nog hogere vlucht genomen. Oekraïne is een snelkookpan. Zwermen Oekraïense drones vinden met behulp van beeldherkenning doelen als tanks en gebouwen, terwijl Russische luchtafweersystemen met AI steeds beter de komst en doelen van die drones voorspellen.
Daarbuiten steken landen als de VS, China, Israël en Iran tientallen miljarden in militaire AI. Denk aan programma’s die uit een oceaan van satellietbeelden kleine, maar verdachte veranderingen filteren, zoals een haven waarin ineens meer bootjes liggen. Denk ook aan de onbemande vlieg-, vaar- en voertuigen die meer of minder autonoom opereren met behulp van AI.
Nederland werkt ook aan zulke onbemande systemen voor het uitvoeren van „dull, dangerous en dirty taken”. Dit staat in een begin 2023 verschenen defensienota, waarin bijvoorbeeld ook het inlichtingenwerk wordt aangemerkt als een typische AI-activiteit. Beelden van de gepantserde rups- en wielvoertuigen, die deels zelfstandig rondrijden op het oefenterrein bij de kazerne in Oirschot, doken onlangs op in een CNN-documentaire over AI.
Met die opmars van militaire AI groeit de roep om regelgeving voor de ontwikkeling en het gebruik ervan. Bij een in Nederland georganiseerde conferentie riepen de tachtig deelnemende landen begin 2023 op tot een „verantwoorde” ontwikkeling en inzet van militaire AI – zonder overigens concreet te worden. Vredesorganisaties en experts in het internationaal recht ageren al langer tegen de mogelijke komst van ‘killer robots’, die zelfstandig doelen zouden kunnen selecteren en doden.
„Met dit soort beelden over volledig autonome wapens wordt de discussie over AI gekaapt”, zegt Roy Lindelauf (46) in een fraaie zaal van de officiersopleiding in Breda: „Daar stoor ik me aan.” Lindelauf onderzoekt als hoogleraar militaire AI bij de Nederlandse Defensie Academie (NLDA) en bij Tilburg University. „Ook bij AI-gedreven wapensystemen blijft de mens beslissen; ‘betekenisvolle menselijke controle’ wordt dat genoemd. Toch wordt in de discussie steeds de nadruk gelegd op autonome wapens. Daardoor schiet defensie in een risicomijdende houding en missen we kansen.”
Welke kansen?
„Gewoon academisch inhoudelijke mogelijkheden om onderzoek te doen. Vergeet niet dat onze tegenstanders, die vaak minder last hebben van die hele juridische en ethische discussies, wel volop aan het ontwikkelen zijn. Daarnaast zijn het de grote techbedrijven die op dit moment de technologische ontwikkelingen als ChatGPT aanjagen. Dus zullen we zelf systemen moeten ontwikkelen, al was het maar om te begrijpen hoe die werken – en hoe we ons ertegen moeten verdedigen.”
Zelf bouwde Lindelauf met zijn collega’s een model waarmee grensconflicten tussen de aartsrivalen China en India voorspeld kunnen worden. Ook gaat hij onderzoek doen aan de inspectievluchten die Nederlandse militairen boven het Caribisch gebied maken met een drone, waarbij AI voorspelt welke routes het meeste zullen opleveren.
Hoewel beide projecten een toepassing zijn van kunstmatige intelligentie, verschillen ze fundamenteel. Bij het eerste is een zeer omvangrijke dataset met onder meer gegevens over eerdere grensconflicten op de computer geanalyseerd met ‘klassieke’ algoritmen. Bij het tweede is gebruikgemaakt van zogeheten ‘deep learning’, waarbij netwerken die lijken op menselijke hersens worden getraind met zeer veel data. Waar in het eerste geval uiteindelijk is te achterhalen hoe een voorspelling tot stand is gekomen, is dat in het tweede geval niet of nauwelijks mogelijk.
Hoe kan een mens ‘betekenisvolle controle’ houden als de technologie feitelijk een ‘black box’ is?
„Ik zou tegenwoordig eerder spreken van een grey box, omdat we steeds beter in staat zijn om aan het apparaat te vragen hoe een besluit tot stand is gekomen. Stel dat een AI-programma voor beeldherkenning ergens een tank ziet staan. Dan vraag je: waarom vind jij dat? Dan kleurt-ie dat deel van het beeld waarvoor de meeste informatie is gebruikt. Die kleuren zitten hopelijk precies rondom die tank. Is dat bij een boompje náást de tank, dan zul je je keuzes en besluiten opnieuw moeten wegen.
„Dit is een voorbeeld van explainable AI, een nieuw onderzoeksveld. Dat veld is extreem belangrijk, omdat we altijd moeten kunnen verklaren waarom we tot bepaalde keuzes zijn gekomen – zeker als we bijvoorbeeld een doel willen aanvallen.”
Maar dat is nog in ontwikkeling?
„Ja. Intussen kun je ook algoritmes gebruiken die misschien niet zo nauwkeurig zijn, maar wel beter uitlegbaar aan een mens. Sowieso is er nu wel erg veel nadruk op lerende algoritmes, terwijl machine learning maar een klein deel van AI is. Ik zeg vaak tegen mijn studenten en promovendi: begin wat eenvoudiger, er zijn zoveel niet-lerende algoritmen die nut kunnen opleveren. Ons model om de Chinees-Indiase conflicten te voorspellen is gemaakt met methoden uit de statistiek en de speltheorie [de tak van wiskunde die zich bezighoudt met strategische interventies; is onder meer gebruikt bij de veiling van gsm-licenties]. De vraag is of lerende algoritmen veel toevoegen.”
Wat betekent het precies dat de machine de F-16-vlieger verslaat?
„Het plaatst ons voor een dilemma, waarvoor we steeds vaker zullen komen te staan: wat is de rol van de mens als de machine het beter doet bij bepaald militair optreden? Als er raketten op ons afkomen, moet dan een mens betrokken zijn bij het uit de lucht halen van die raketten? Of laat je dat doen door het systeem, dat maakt dat we minder hard worden geraakt? Nu al reageren luchtverdedigingssystemen zoals de Goalkeeper volautomatisch.”
Critici van militaire AI hebben niet zoveel moeite met dit soort systemen, omdat die defensief en begrensd zijn. De kritiek richt zich toch vooral op offensieve systemen, waarvoor nog geen normen zijn.
„Eigenlijk zijn die normen er al wel. Onze militairen opereren bij de oorlogsvoering al binnen juridische en ethische kaders. Er is een hele keten van militaire besluitvorming voor bijvoorbeeld het afschieten van een kanon. Het NAVO-bondgenootschap heeft zijn principles of responsible use van wapens en die zijn leidend voor ons. Het spookbeeld is het op afstand uitschakelen van doelwitten met bewapende drones, zoals de Amerikanen doen. Nederland doet niet aan zulke targeted killing en gaat dat wat mij betreft ook niet doen. Wij moeten ons richten op dreigingen.”
Wat ziet u als een dreiging?
„Nepnieuws en deepfake.”
Deepfake is de term voor met AI gemaakte nep-video’s, waarin mensen overtuigend dingen doen of zeggen die ze niet hebben gedaan of gezegd. Prominente slachtoffers van deepfake zijn bijvoorbeeld (bekende) vrouwen die zichzelf terugzien in pornofilms – ook wel deepnude genoemd. Het bekendste voorbeeld van militaire deepfake is waarschijnlijk de video waarin de Oekraïense president Zelensky zijn militairen in maart 2022 opriep de wapens neer te leggen in de oorlog tegen Rusland.
De Zelensky-video werd snel ontmaskerd als een – waarschijnlijk Russische – vervalsing en daarna onmiddellijk verwijderd door webplatformen als YouTube. Toch kunnen meer geloofwaardige nepvideo’s in conflicten gevaarlijk zijn, staat in een gezaghebbend Brookings-rapport, door het vervalsen van militaire bevelen, het zaaien van verwarring tussen publiek en krijgsmacht en het ondermijnen van het vertrouwen in instituties.
„Deepfake is tegenwoordig gratis, makkelijk te maken en technisch van een indrukwekkende kwaliteit. De producten verspreiden zich ook erg makkelijk. Die komen nog eens bij wat er verder aan nepnieuws wordt gemaakt en bij teksten en beelden die programma’s als ChatGPT produceren. De verwachting van AI-experts is dat binnen enkele jaren 90 procent van alle content op het web ‘synthetisch’ is. Dus hoe weet je straks nog of iets door bestaande personen of instituten is voortgebracht? Er worden al technische systemen ontwikkeld waarmee je informatie kan voorzien van een soort watermerk, waardoor de consument weet dat de bron een betrouwbaar kanaal is.”
Democratische landen kunnen ook in de verleiding komen om in een oorlog deepfake te gebruiken, waarschuwt het Brookings-rapport, bijvoorbeeld om de geloofwaardigheid van een terroristenleider te ondergraven. Hoe groot is die kans?
„Ik denk niet dat Nederland zoiets ooit zal gaan doen. Het zou tactisch-operationeel wel effectief kunnen, maar de kans dat dit zich tegen je gaat keren is natuurlijk enorm. Voor mij is het van belang dat we onderzoeken hoe we ons wapenen tegen deepfake en ander nepnieuws.”
Hoe?
„Een promovendus van mij kijkt naar het detecteren van fake news. Het idee is dat de verspreiding van nepnieuws significant anders verloopt dan die van echt nieuws. We kijken bijvoorbeeld naar het aantal keer dat een nepbericht vanaf een bepaalde knoop in het netwerk wordt verspreid binnen een bepaalde tijdspanne. Door de structuur van die nieuwsverspreiding te analyseren, hopen we te kunnen vaststellen of een land bezig is met een campagne van desinformatie. Bij dat onderzoek is AI heel behulpzaam.”
De nederlaag van de F-16-vlieger in het gevecht met AI werd door de Amerikaanse krijgsmacht gepresenteerd als een stap in de samenwerking van mens en machine.
„Zo kijk ik ook naar kunstmatige intelligentie. Voor mij is het niet mens of machine dan wel mens tegen machine, maar mens mét machine. Vergeet niet dat mensen ook verkeerde besluiten nemen, door ingebakken vooroordelen. Dan kan de computer juist helpen om een beter besluit te nemen. Dus laten we gaan experimenteren en kijken wat er uitkomt.”