Je kúnt een motie door een chatbot laten schrijven. Maar beter doe je het niet

AI Essay | In een tijd waarin data en algoritmes ons gedrag sturen moeten we gezamenlijk op zoek naar een nieuwe rechtsopvatting, schrijft .


Foto’s Andriy Onufriyenko / Getty Images

Recht en democratie zijn geen producten. Ze zijn niet de uitkomst van een proces, althans niet primair, ze worden vooral gedefinieerd door het proces zelf. Dat besefte ik meer dan ooit toen ik anderhalf jaar geleden Amor Fati las, het verslag dat schrijver en jurist Abel Herzberg schreef over zijn ervaringen in Bergen-Belsen. De gevangenen in dat vernietigingskamp richtten een rechtbank op, met Herzberg als openbaar aanklager, om recht te spreken zodra iemand werd verdacht van liegen of stelen.

Veel effect of output viel hier niet te meten, om het in moderne termen te zeggen, want tijdens de processen stierven een voor een de verdachten, getuigen, advocaten en rechters door de barre omstandigheden in het kamp. Toch lieten de uitgehongerde gevangenen zich door de procureur-generaal aanklagen wegens het stelen van een brood, omdat ze elkaar en zichzelf wilden blijven zien als leden van een morele gemeenschap. Een rechtsgemeenschap. Door samen te komen voor het proces op de appèlplaats onder de linden werd recht gedaan.

Hier werd zichtbaar dat het zoeken naar rechtvaardigheid een samenlevingsproces is en dat daarvoor mensen, beraadslagingen en bijeenkomsten nodig zijn. Pas als je recht en democratie ziet als producten, als output, ligt het voor de hand ze niet te laten ontstaan uit overleg op locatie, maar ze te laten fabriceren door technologie. Begin deze maand dienden twee parlementariërs van D66 een motie in die door ChatGPT was geschreven. „Parlementaire historie, zojuist een unieke motie ingediend! De ingediende motie is door ChatGPT gemaakt”, schreef Hind Dekker-Abdulaziz op Twitter. „AI is ook een kans!”

Natuurlijk had ze gelijk. AI is een kans. Snelheid en schaal van functioneren maken veel mogelijk. Een chatbot kan geweldig productie draaien en zodra grote hoeveelheden besluiten genomen moeten worden, werkt rekenkracht sneller en efficiënter dan menselijk overleg. Deze motie van ChatGPT drong bij de regering aan op het ontwikkelen van een AI-strategie, en als je flauw wilt zijn, kun je opmerken dat een chatbot die zo’n motie kan schrijven vast ook wel zo’n strategie kan ontwerpen; dan zijn parlement en regering binnenkort helemaal overbodig.

Moeten we technologie temmen? Maar het is juist ons denken, ons gebruik van de machines, dat lastig te temmen is

Volstrekt overdreven is dit toekomstbeeld overigens niet. Er zijn weliswaar nog niet zo veel stemmen die erop aandringen de democratische rechtsstaat vanaf nu volledig over te laten aan AI, toch wordt overal ijverig gewerkt aan technologieën die morele en juridische beslissingen voor ons nemen: fraude opsporen, kindermishandeling signaleren, publiek geld verdelen over sociale doelen.

En hoe meer beslissingen je zo uitbesteedt, hoe minder je nog bij elkaar hoeft te komen in het praathuis van het parlement, in de rechtszaal, in het café of in de krant. De uitkomst wordt belangrijker dan het proces, het besluit komt in de plaats van het gesprek dat voor draagvlak zou moeten zorgen. De morele gemeenschap verliest haar samenhang.

Zo ontstaat een lastige tegenstrijdigheid. Enerzijds moeten we hoognodig een democratisch gesprek aangaan over de maatschappelijke risico’s van onze omgang met data en algoritmes. Er is draagvlak vereist voor de inzet van technologieën die inderdaad kansen bieden, maar die ook ontwrichtend kunnen werken. Anderzijds trekken die technologieën het tapijt juist onder de democratische processen vandaan.

Dit is de wankele situatie waarin de democratie op het moment verkeert: de min of meer intelligente technologieën veranderen het democratische proces dat nodig is om diezelfde technologieën te controleren. De verstoring van het proces komt daarbij niet alleen van welwillende chatbots die parlementaire moties schrijven. Of van kwaadwillende chatbots die via sociale media propaganda rondsturen en daarmee wereldwijd de verkiezingen kapen. Er zijn tal van manieren waarop de democratie en ook de rest van de rechtsstaat veranderen.

Afwijken van de statistiek

Op het gebied van het recht zijn er opeens nieuwe partijen die ons gedrag reguleren. Terwijl ik zit na te denken over een mooi voorbeeld komt er post binnen. Een krant waarop ik een online abonnement heb, schrijft me dat ik haar artikelen ’s steevast middags lees, terwijl de meeste mensen ze toch echt ’s morgens lezen. Wat betekent dit, vraag ik me geïnteresseerd af. Waarom vindt de krant dat ik dit moet weten? Moet ik mijn gedrag aanpassen aan de norm, staat er een sanctie op afwijking van de statistiek, wordt mijn abonnement voortaan duurder?

Bij de kranten moet iemand ooit hebben besloten mijn online leesgedrag bij te houden en te verwerken. Die beslissing spreekt niet vanzelf: je kunt het ook niet doen. Maar AI is een kans, dat hoorden we al, en uitgevers en marketeers grijpen hem. Het vastleggen van leesgedrag is daarbij allereerst een commercieel verschijnsel: het intieme gedrag van de lezer wordt omgezet in gedragsgegevens, behavioral data, die bedrijven commercieel kunt uitbaten. Tegelijk heeft deze dataficering van het lezen meteen morele en wellicht zelfs juridische consequenties, want uit de bakken met data komen na bewerking statistische normen bovendrijven en aan de hand daarvan wordt je gedrag niet alleen bestudeerd, maar ook beoordeeld en beïnvloed.

Volgens de analyses van je leesgegevens lees je de krant te laat. Volgens analyses van je overige gedrag past je uitgavenpatroon niet bij je postcode, waardoor er verdenkingen rijzen van criminaliteit. Je kind draagt te oude schoenen, wat kan duiden op verwaarlozing. Vervolgens kunnen aan deze oordelen al dan niet automatisch rechtsgevolgen worden verbonden: tariefverhogingen, sancties of ondertoezichtstellingen. Je abonnement wordt duurder, je komt op een lijst, je opvoeding wordt bijgestuurd. Dit is de normerende invloed van technologie.


Lees ook: De taal is van ons, niet van ChatGPT

Temmen van technologie

Natuurlijk kunnen we een tegenzet doen: als technologieën ons normeren, als ze ons gedrag sturen, kunnen wij stappen ondernemen om hen op hun beurt te normeren. Dan onderwerpen we AI aan menselijke waarden, aan procedure- en proceseisen, we regelen dat mensen verantwoordelijkheid dragen voor besluiten die algoritmes nemen en we beperken het verzamelen van gegevens over ons gedrag. Nederland is daarmee actief bezig. ‘How the Netherlands Is Taming Big Tech’, kopte The New York Times in januari opgewonden. Zoom, Microsoft en Google waren tot de orde geroepen door Nederlandse onderhandelaars op het gebied van gegevensbescherming.

Toch is dat temmen van technologie, hoe nuttig ook, vrij beperkt in zijn mogelijkheden. Dat heeft te maken met twee dingen: het karakter van de mens en het karakter van technologie. En eigenlijk vooral ook met een derde: de verwevenheid van mens en technologie.

De neiging bestaat Artificiële Intelligentie te zien als een exotische en superieure vorm van intelligentie buiten ons die op ons neerziet en ons koeioneert. Maar in feite maken wij deel uit van de kunstmatig intelligente systemen. AI is een verzamelterm voor allerhande algoritmische processen en vormen van automatisering; het leren, zien en spreken van machines behoort daartoe (‘machine learning’, ‘computer vision’, ‘natural language processing’), maar ons eigen denken net zo goed. En het is ons denken, ons gebruik van de machines, dat lastig te temmen is.

De beslissing om het gedrag van de krantenlezer te registreren spreekt niet vanzelf, zei ik al, je kunt het ook niet doen. Maar het verlangen om de machines aan te zetten is groot en zelfs als de mens zich bewust is van de gevaren, valt dat verlangen nauwelijks te beteugelen. In december oordeelde het College voor de Rechten van de Mens dat de Vrije Universiteit bij het afnemen van tentamens antispieksoftware had ingezet die studenten met een donkere huidskleur discrimineerde. De software ‘zag’ de studenten niet. ‘Face not found.’

Nu is dit probleem met gezichtsherkenning al jarenlang bekend, toch had de universiteit er niet aan gedacht. „De factor huidskleur van studenten is niet opgevat als een mogelijk risico.” Dat is een beetje dom, maar het is niet heel zinvol de VU voor idioot uit te maken en ervan uit te gaan dat we zelf zoiets nooit zouden doen. De onachtzaamheid, de drang software in te zetten waarvan je zou moeten weten dat die niet deugdelijk is, is karakteristiek voor onze omgang met nieuwe technologie. Wij zijn, als onderdeel van het AI-systeem, feilbaar, dus is AI feilbaar.


Als ik zojuist schreef dat Nederland door Big Tech te temmen de technologie temt, klopte dat daarom ook niet echt. Nederland probeert in feite het winstbejag van de mens te temmen. Hier en daar worden bezielde pogingen gedaan een rem te zetten op de handel in behavioral data – en op de neiging de mens te zien als een bron van data en menselijk gedrag als een optelsom van meetbare prestaties. Maar het zal niet lukken, want onachtzaamheid en gretigheid zijn helaas niet goed te temmen.

Is democracy computable?” vraagt Mireille Hildebrandt, hoogleraar Interfacing Law and Technology te Brussel zich af. Nee, zegt ze, je kunt de democratie niet computeriseren, maar het zal toch gebeuren, omdat te veel mensen denken dat het wel kan. Zodra we denken dat democratie output is, en niet een gemeenschappelijk proces van overleg en overweging, zullen we software inzetten en datagestuurde besluitvormingsprocessen om tot resultaat te komen.

Samenkomen op het dorpsplein

Zo staan we ervoor. We moeten eigenlijk met elkaar samenkomen op het dorpsplein om eens te praten en te beraadslagen over de inzet van de nieuw in te voeren Europese digitale identiteit, de ‘eID’. We moeten het hebben over de inzet van apps bij het bestrijden van pandemieën. Over het lastig tembare karakter van slimme technologieën, die met elkaar in verbinding staan en onderling samenwerken op een niet altijd doorgrondelijke manier. We moeten gezamenlijk op zoek naar een nieuwe rechtsopvatting in een tijd waarin data en algoritmes ons gedrag sturen.

Maar terwijl we dat moeten, blijken de instellingen van de democratie en het recht al te schuiven. We besteden het gezag erover uit en misschien veranderen democratie en recht onherkenbaar – en wat dan? Deze situatie vraagt om meer dan het temmen van Big Tech: ze vraagt om grondige gezamenlijke heroriëntatie op de democratische rechtsstaat. Om een gesprek waaraan iedereen deelneemt en dat zorgt voor draagvlak voor alle veranderingen, nu het nog kan.

Of het uiteindelijk goed komt. Eigenlijk wil iedereen dat alleen maar weten als je over de toekomst van het recht en de democratie begint te praten. Is de morele gemeenschap reddeloos verloren nu machines oprukken en chatbots Kamermoties schrijven, luidt de bange vraag. Of is er nog een uitweg uit de dystopie waar we ons in hebben gemanoeuvreerd?

Dat is ook precies wat u op dit moment van de schrijver wilt weten. U kijkt verwachtingsvol naar hem op. Alsof de democratie alvast is afgeschaft. Alsof hij is aangesteld als de dictator die de toekomst in zijn eentje moet heroveren op kunstmatig intelligente systemen. In feite, vrees ik, is het niet zo simpel. U zult moeten meedenken.

Bijna dertien jaar schreef Maxim Februari wekelijks een column. Hij heeft de redactie laten weten andersoortige verhalen te willen gaan maken, bij gelegenheid ook voor NRC. Volgende week verschijnt zijn laatste column.