Opinie | Waarom algoritmes geen heilige graal zijn maar toch nuttig kunnen zijn

Automatisering Organisaties gaan grote hoeveelheden data graag te lijf met algoritmes. Maar die zijn, volgens , ongeschikt om morele, ethische en sociale vraagstukken aan te pakken.
Foto Getty Images

De Nederlandse Zorgautoriteit (NZa) verzamelt privacygevoelige informatie van GGZ-patiënten om een algoritme te voeden dat de zorgvraag zou moeten voorspellen. Terwijl de Tweede Kamer eerder tegen dit project stemde en een grote groep professionals uit het veld bezwaren heeft – ze zijn nu zelfs naar de rechter gestapt om het project te stoppen – gaat de NZa door. De NZa hoopt „dat de zorgvraag met behulp van dat algoritme beter voorspeld kan worden. Op die manier zouden de wachtlijsten kunnen worden weggewerkt en de kwetsbaarste mensen voorrang krijgen” (NOS Nieuws). Het algoritme als heilige graal.

De NZa is niet de enige organisatie die moeilijke organisatievraagstukken met algoritmes te lijf wil gaan. In tijden van groeiende prestatiedruk, bezuinigingen op de zorg, een krimpende werkbevolking en toenemende vergrijzing lonkt de belofte van de magie en macht van het algoritme. Immers, als we maar genoeg data hebben dan moet het toch lukken om vraag, aanbod, prestaties, gedrag en nog zo wat dingen te voorspellen – toch?

In de praktijk is het gebruik van algoritmes echter helemaal geen recept voor succes, zo laten tal van voorbeelden zien. Sterker nog, wanneer algoritmes verkeerd en overmatig worden ingezet, kunnen ze grote schade veroorzaken. Waar we algoritmes willen gebruiken om de pijn te beperken, blijkt dat we met diezelfde algoritmes juist nieuwe pijn veroorzaken.

‘Meten is weten’

Een welbekend voorbeeld is de Toeslagenaffaire: er werd blind vertrouwd op de uitkomsten van een algoritme, zonder menselijk ingrijpen, waardoor tienduizenden mensen zijn beschadigd. De Belastingdienst in Nederland is niet de enige: vergelijkbare zaken gebeuren over de hele wereld, denk aan de Robodebt casus in Australië waar bijstandsgerechtigden onterecht werden beschuldigd, Amazon waar vrouwelijke sollicitanten werden gediscrimineerd, of het Verenigd Koninkrijk waar een algoritme middelbare schoolprestaties bepaalde.

Ondanks de vele slechte voorbeelden blijven organisaties, zoals de NZa, blind vertrouwen op algoritmes, soms met onethisch gebruik van data. In mijn onderzoek vind ik daarvoor tenminste drie oorzaken. Ten eerste is het voor organisaties makkelijk om dingen in getallen uit te drukken -onder het motto ‘meten is weten’. Dit past goed bij algoritmes, die immers alleen met getallen overweg kunnen. Maar niet alles is uit te drukken in getallen. Iedereen snapt dat een vraag zoals „Op een schaal van 1 tot 10, hoe voelt liefde/teleurstelling/angst?” niet de lading dekt. Sommige dingen kun je niet meten.

Lees ook: ‘Pas op met deze visumaanvraag’, waarschuwt het algoritme dat discriminatie in de hand werkt. Het ministerie negeert kritiek

Ten tweede zijn algoritmes agnostisch wat cultuur en omgeving betreft: het algoritme maakt het niet uit of het in Nederland, de VS of Madagaskar wordt gebruikt. Dit is voor organisaties makkelijk, omdat ze overal hetzelfde algoritme kunnen uitrollen. Voor mensen maakt de omgeving wél uit.

Tenslotte zijn de resultaten van algoritmes, bijvoorbeeld scores of percentages, machtig en overtuigend. Dit klinkt vreemd omdat we normaliter denken dat wij, de mensen, de baas zijn over technologie. Echter, wanneer we geconfronteerd worden met zo’n getal dan is het heel moeilijk om níet mee te gaan in de logica van het getal. Daarnaast hebben mensen veel vertrouwen in algoritmes: wanneer de computer iets zegt, dan moet het toch wel kloppen. Het zijn immers ‘harde’ cijfers.

Dit alles samen zorgt ervoor dat mensen en organisaties vaak blind vertrouwen op algoritmes en hun resultaten. Cathy O’Neil heeft dit fenomeen in 2016 gedocumenteerd in het boek Weapons of Math Destruction en laat overtuigend zien hoe het blinde vertrouwen in de output van algoritmes sociale structuren en publiek vertrouwen vernielt.

Gepasseerd station

Dit alles betekent niet dat we helemaal geen algoritmes meer moeten gebruiken in organisaties. Dit station is gepasseerd, en bovendien zijn er veel vraagstukken en toepassingen die baat hebben bij het gebruik van algoritmes. Maar wat de recente geschiedenis laat zien is dat algoritmes niet geschikt zijn om morele, ethische, en sociale vraagstukken aan te pakken. Ook al is het vraagstuk van de NZa, namelijk de optimalisering van wachtlijsten, op het eerste oog een planningsvraagstuk, dan nog wordt hier op een onethische manier gebruik gemaakt van data. En bij elk gebruik van algoritmes moet gezorgd worden dat het algoritme getest, geëvalueerd en periodiek bijgesteld wordt, net zoals we dat met andere gebruikstechnologie in het dagelijks leven ook doen.

Praat mee over dit onderwerp en stuur een brief!

Wilt u reageren op een artikel? Stuur via dit formulier een brief (maximaal 250 woorden) naar de opinieredactie van NRC.

Als uw brief gepubliceerd wordt, dan nemen we per e-mail contact met u op. Anonieme brieven en brieven die aan verschillende media zijn gestuurd, plaatsen wij niet. De opinieredactie kan uit uw brief citeren in de zaterdagrubriek ‘Inbox van de redactie’.