Opinie | AI? We zijn onderdeel van een levensgroot experiment

Kunstmatige intelligentie Voor een goed geïnformeerd debat over risico en wetgeving moet onafhankelijk onderzoek naar AI worden afgedwongen, stelt .
Foto Getty images

Er gaat nauwelijks een dag voorbij zonder een nieuw statement over de gigantische risico’s van kunstmatige intelligentie (AI). Vooral sinds de laatste doorbraken op het gebied van generatieve toepassingen klinkt „de mensheid dreigt te worden uitgeroeid” en „AI betekent het einde van de democratie”. Het bizarre is dat juist de leiders van de techbedrijven voor het grote gevaar waarschuwen. Toch leggen ze, een uitzondering daargelaten, hun werk niet neer. Ze stoppen niet met het in de markt zetten van nieuwe versies en producten die het gebruik van AI alleen maar doen toenemen en versnellen. Van een zes maanden durende pauze in het trainen van krachtigere AI-toepassingen, waartoe meer dan dertigduizend mensen opriepen, zijn al twee maanden voorbij. Intussen gingen bedrijven eerder sneller dan langzamer in de concurrentiestrijd om marktdominantie. We zijn allemaal onderdeel van een levensgroot experiment.

Critici horen in het luiden van de alarmbellen niet alleen een verantwoordelijk geluid van de technologiebonzen. Ze zijn bang dat een focus op groteske uitwassen in de toekomst, de bewezen negatieve impact van kunstmatige intelligentie in het hier en nu overschaduwt. Een slimme afleidingsmanoeuvre dus. En als de mensheid toch niet wordt uitgeroeid door kunstmatige intelligentie, dan lijkt elk kleiner risico mee te vallen! Intussen zijn discriminatie, propaganda en fraude met behulp van AI al aan de orde van de dag. Gelijke behandeling, maatschappelijk vertrouwen in nieuws, wetenschap en democratie en onze digitale veiligheid zijn al in het geding. Er zijn zorgen over werkloosheid.

Fictieve rechtszaken

Ondertussen wordt vrolijk verder geëxperimenteerd met ChatGPT, Dall-E en Midjourney. Soms werken de handige of vermakelijke toepassingen als pijnlijke eyeopener. Een tweet met een foto van het Pentagon gehuld in rook zorgde voor onrust op de Amerikaanse aandelenbeurs. Pas later werd duidelijk dat er van een aanslag geen sprake was; de beelden die de kwaliteit van een foto hadden, bleken door een computer gegenereerd. Een Ierse krant werd in verlegenheid gebracht door een opiniestuk dat door een niet bestaand persoon was ingestuurd, gemaakt met kunstmatige intelligentie. In New York liep een advocaat tegen de lamp toen hij wat extra gegevens wilde toevoegen aan zijn briefing, maar de rechtszaken die aangehaald werden in de door ChatGPT gegenereerde tekst waren fictief. Zo ondervinden mensen op allerlei manieren hoe toepassingen die tekst, software, afbeeldingen of geluiden op een synthetische manier kunnen genereren, voor problemen kunnen zorgen.

Is kunstmatig gegenereerde kinderporno ook strafbaar?

Het gat tussen de verschillende praktische toepassingen en de vergaande risico-analyses kan behoorlijk verwarrend zijn. Gaan we er binnenkort allemaal aan? Of moeten we ons vooral zorgen maken over discriminatie door algoritmes? Opereert AI nu in een wetteloos vacuüm? Om al deze vragen te kunnen beantwoorden is systematische transparantie essentieel. De bevoegde toezichthouders moeten onafhankelijk kunnen vaststellen of met het ontwikkelen van de grote taalmodellen die nodig zijn om AI voort te stuwen ook privacyregels geschonden zijn, of het auteursrecht van schrijvers en kunstenaars is gerespecteerd, of mededingingsregels zijn overtreden. Risico’s moeten onafhankelijk worden onderzocht, zodat in het publieke belang maatregelen kunnen worden genomen.

Ferme handhaving

Van Beijing tot Silicon Valley, van Brussel tot Washington zijn politici het eens over de noodzaak van wetgeving die de krachtige en onvoorspelbare technologie in kaders dwingt. Ze zijn het alleen niet eens over de juiste aanpak. De Amerikaanse president Biden nodigde de topmannen van de belangrijke bedrijven uit in het Witte Huis, maar er is weinig kans dat er wetgeving door een diep verdeeld Congres komt.

De ferme handhaving van bestaande wetgeving biedt wel mogelijkheden. In een verklaring werd benadrukt dat de Federal Trade Commission (FTC) en het ministerie van Justitie „niet zullen aarzelen om onze wettelijke bevoegdheden volledig te gebruiken”. Deze week oordeelde diezelfde FTC dat Amazon het gebruik van onrechtmatig verkregen gegevens verzameld met Ring deurbellen moet terugdraaien. Als die beslissing in brede zin wordt geïnterpreteerd en onrechtmatig verkregen data niet voor nieuwe AI-toepassingen mogen worden gebruikt, kan dat bedrijven behoorlijk raken.

Lees ook: Volop ontwikkelen aan AI én ervoor waarschuwen. Hoe oprecht zijn de waarschuwingen van techbazen?

Hier kunnen Europeanen van Amerikanen leren. Behalve het onderstrepen dat bestaande wetgeving geldt, zou het helpen te weten op welke manier de wet wordt geïnterpreteerd in de context van kunstmatige intelligentie. Hoe is de Algemene Verordening Persoonsgegevens (AVG) van toepassing op datasets waarmee AI getraind werd? Waar zullen discriminerende algoritmes worden gecontroleerd? Hoe zal het auteursrecht op tekst, muziek en beeld worden gehandhaafd? En is kunstmatig gegenereerde kinderporno ook strafbaar? Naast helderheid over de geldigheid van bestaande regels zal het optuigen van nieuwe wetten en handhavingskracht nodig zijn. Hier kunnen de Verenigde Staten een voorbeeld nemen aan de Europese Unie. In de EU wordt de laatste hand gelegd aan een specifieke AI wet (de EU AI Act). Maar nog voor de inkt van de handtekeningen onder de wet droog is, beginnen de ceo’s al te sputteren.

Vangrails

Zo vroeg Sam Altman van OpenAI plechtig om wetgeving tijdens een hoorzitting voor de Amerikaanse Senaat, maar veroordeelt hij de AI Act wetgeving in de EU. Eric Schmidt, die aan zijn werk voor Google miljarden overhield en nu de Amerikaanse overheid adviseert over kunstmatige intelligentie, stelt dat alleen mensen in de AI-industrie zelf genoeg weten om vangrails op te tuigen tegen de slechtste uitwassen. Daarmee benadrukt hij onbedoeld hoe belangrijk het is om juist onafhankelijk te kunnen vaststellen wat de risico’s van kunstmatige intelligentie zijn, en niet te accepteren dat een handvol topmannen en -vrouwen de enigen zijn die onder de motorkap kunnen kijken.

Het waarschuwen voor existentieel risico zonder het nemen van enige verantwoordelijkheid door dezelfde bedrijven moet ophouden. Voor een goed geïnformeerd debat over risico en wetgeving moet onafhankelijk onderzoek naar AI worden afgedwongen. Alleen dan zullen feiten het beleid informeren. Er zal een combinatie van duidelijkheid over de interpretatie van bestaande wetgeving, gerichte transparantie en nieuwe aansprakelijkheid nodig zijn om ervoor te zorgen dat AI wordt gebruikt en ontwikkeld in lijn met democratische waarden en bestuur. Vooralsnog wordt het gat tussen de nieuwe technologische realiteit en de reactie van wetgevers op allerlei manieren uitgebuit. Dat gebeurt vaak door dezelfde mensen die noodkreten over AI de wereld in slingeren. We zijn dus dubbel gewaarschuwd.