Opinie | AI wordt niet ethisch van regels maar van betrokkenheid

Stel dat een zorgverzekeraar dankzij kunstmatige intelligentie (AI) kan gaan werken met gepersonaliseerde premies op basis van gezondheid, gedrag en leefomstandigheden. Dat levert nauwkeurige risicobeoordelingen op. Veel verzekerden zouden een lagere premie kunnen krijgen. Maar vooral mensen met een lagere sociaal-economische status zouden waarschijnlijk méér moeten betalen. Moet de verzekeraar zo’n systeem gaan gebruiken?

Dit dilemma heb ik in mijn jaren van onderzoek naar ethische AI aan allerlei groepen voorgelegd. De reacties zijn vrijwel altijd dat zo’n systeem onwenselijk is, want het is niet solidair. Maar als ik vervolgens vraag wat de verzekeraar daadwerkelijk zou doen als het bedrijf over deze AI kan beschikken, blijkt dat respondenten verwachten dat solidariteit en ethiek het afleggen tegen concurrentiedruk en winstprikkels.

Wie (of wat) bepaalt nu eigenlijk of, en hoe, AI wordt ingezet? Nu steeds meer van onze keuzes geïnformeerd, gestuurd (en uiteindelijk gemaakt) worden door AI, zou die vraag leidend moeten zijn als we het hebben over verantwoord gebruik van de technologie. De grootste uitdagingen zitten namelijk niet op het niveau van de technologie. Maar eerder in de interactie tussen AI en de omgeving waarin ze wordt ingezet. Welke keuzes worden daar gemaakt, vanuit welke logica en in wiens belang?

Technische bril

De huidige gereedschapskist voor verantwoorde AI – vol met normenkaders, ontwerpmethodes, wetgeving, algoritmeregisters en impacttoetsen – kijkt vooral door een technische bril naar de ethische aspecten van AI. Als iets dat binnen het ontwerp van de technologie moet worden opgelost. Daarmee missen we allerlei zaken rondóm AI, zowel binnen de bedrijven die de technologie gebruiken als erbuiten, die veel bepalender zijn voor de keuzes die deze organisaties maken.

Die organisatiepraktijk is al uitdagend voor AI. Organisaties ontwikkelen zich lineair maar technologie groeit exponentieel. Dat betekent dat er in hoog tempo nieuwe ethische uitdagingen bijkomen waar bestaande wetgeving en organisatiestructuren onvoldoende op zijn toegerust. Denk aan vraagstukken over ingebakken vooroordelen en discriminatie, afhankelijkheid van AI-systemen die uitkomsten opleveren waarvan niemand precies weet hoe ze tot stand komen, en de aanprakelijkheid voor onwenselijke gevolgen van deze semi-autonome systemen.

Als we ethiek een betekenisvolle rol willen geven bij het beantwoorden van deze vraagstukken, volstaat het niet om af en toe over een specifieke ethische kwestie een discussie te hebben. De verantwoordelijkheid dan maar delegeren aan AI-specialisten is evenmin toereikend: zo’n human in the loop wordt dan al gauw een human in de knoop.

Om grip te krijgen op de ethische aspecten van AI moeten organisaties zich richten op wat ik ‘ethische infrastructuur’ noem.

Dat lijkt een wat onlogische koppeling van begrippen. Bij ethiek denken we aan nobele maar abstracte principes, bij infrastructuur aan betonnen bruggen of elektriciteitsnetwerken.

Toch legt de term een aspect van ethiek bloot dat vaak onderbelicht blijft. Namelijk: dat een organisatie die ethisch te werk wil gaan, daar structuren en processen voor nodig heeft die systematisch worden gebouwd, onderhouden en gecontroleerd. Zie het zo: als we een heel bedrijf van licht willen voorzien, moet de bedrading door alle lagen van de organisatie worden getrokken.

Verantwoorde inzet van AI krijg je niet door te hopen op wereldverbeteraars in de AI-teams

Om dat voor elkaar te krijgen, moeten organisaties de boel flink anders gaan aanpakken en drie voorname zaken veranderen: de besluitvorming (wie heeft invloed en wordt gehoord), de verantwoording (wie houdt toezicht en kan corrigeren), en het organisatie-ontwerp (de structuur).

Neem de coöperatieve onderneming Mondragon uit Spaans Baskenland, die een miljardenomzet draait en een van de grootste bedrijven van het land is. Daar stemmen uiteindelijk de werknemers over de strategische richting en de ethische koers. Het onderstreept dat besluitvorming ook collectief kan worden ingericht. Zo zouden bij de inzet van AI op terreinen als werk, zorg, toeslagen of fraudebestrijding ook vertegenwoordigers van bijvoorbeeld vakbonden betrokken kunnen worden. Of op z’n minst in staat worden gesteld om besluiten te controleren en indien nodig te corrigeren. Dat kan alleen als er in organisaties vaste ethiekfuncties komen die invloed hebben, middelen en vaste momenten waarop ze hun controles uitvoeren.

Wereldverbeteraars

We leunen nu nog te veel op het ‘morele ambitie’-idee van ethiek – ethiek als iets individueels, dat we in het geval van AI overlaten aan de ontwikkelaars ervan. Maar als we andere ethische keuzes willen maken, schiet het niet op om de AI-ontwikkelaars van de zorgverzekeraar uit het begin van dit stuk te overladen met kaders en moreel bewustzijn. Verantwoorde inzet van AI krijg je niet door te hopen op wereldverbeteraars in de AI-teams, maar door organisaties zó in te richten dat moreel handelen structureel wordt ondersteund – ook op de lange termijn.

Een ethische infrastructuur verandert de logica van marktwerking niet van de ene op de andere dag. Ze voorkomt niet automatisch dat winstprikkels zwaarder wegen dan morele overwegingen. We kunnen er nu eenmaal niet op vertrouwen dat mensen altijd ethisch handelen en bedrijven hun eigenbelang opzij zetten.

Maar juist daarin zit ook de kracht van een goede ethische infrastructuur. Want wat ze wél doet, is ethische aspecten zichtbaar en bespreekbaar maken, en de mogelijkheid geven aan medewerkers, klanten, maatschappelijke organisaties en toezichthouders om mee te denken vragen te stellen en invloed uit te oefenen op de richting die organisaties inslaan met AI. Zo kunnen we van de kunstmatige toekomst ook een menswaardige toekomst maken.


Lees ook

Behandel je chatbot eens als mens, maar vergeet hem niet weer uit te zetten

Foto: Patricia Marroquin