AI in de zorg kan werkdruk verminderen, maar ongelijkheid vergroten

AI in de zorg Datamodellen zijn vaak gebouwd op aannames. Dat kan leiden tot vooringenomenheid. Hoe ga je daar als zorgverlener mee om?

Bij het gebruik van AI-modellen in de zorg kunnen er aannames in sluipen die niet gebaseerd zijn op representatieve data. Daarom is het zaak dat bij beslissingen artsen de leiding blijven houden.
Bij het gebruik van AI-modellen in de zorg kunnen er aannames in sluipen die niet gebaseerd zijn op representatieve data. Daarom is het zaak dat bij beslissingen artsen de leiding blijven houden. Foto Getty Images/Maskot

Een algoritme dat getraind is om huidkanker te voorspellen, maar waarvan slechts 4 procent van de gebruikte data mensen met een donkere huid betreft, doet voor hen minder goede voorspellingen. Een Amerikaans model dat gezondheidsrisico’s van patiënten berekent en zich baseert op gemaakte zorgkosten, biedt de zwarte bevolking minder zorg – omdat die eerder al minder zorg kreeg.

Dit zijn voorbeelden van kunstmatig intelligente modellen (AI-modellen) in de gezondheidszorg die beter uitpakken voor de een dan voor de ander. Voor zulke modellen zijn data alles. Maar pas als die data echt 100 procent representatief zijn, kunnen deze modellen voor élke groep goed presteren. In de gezondheidszorg is dat van groot belang. Al in 2021 waarschuwden deskundigen in een rapport voor ‘algoritmische discriminatie’ vanwege vooringenomenheid.

Een model dat beter werkt voor de ene groep dan voor de andere, kan ongelijkheid in stand houden of zelfs verergeren, zegt Michel van Genderen. Hij is internist-intensivist in het Erasmus MC in Rotterdam en mede-initiatiefnemer van het Responsible and Ethical AI in Healthcare Lab van dat ziekenhuis. Dat lab ging deze maand van start. Artsen, technici, verpleegkundigen en ethici denken hier na over ethisch verantwoorde toepassing van kunstmatige intelligentie in de zorg. Het idee erachter: samenspraak van mensen uit de klinische praktijk, technici die de modellen ontwerpen en ethici met hún overwegingen kan problemen boven water brengen en leiden tot oplossingen.

Zorgverlening ontlasten

Voor die overpeinzingen is weinig tijd, zegt Van Genderen. De zorgvraag neemt toe, net als het personeelstekort. De grens aan het zorgstelsel is bereikt, bleek deze maand uit een rapport van de Raad voor Volksgezondheid en Samenleving. „Een groot deel van de oplossing zit in AI-modellen die de zorgverlening kunnen ontlasten. De innovatie stilleggen gaat niet: het is nu juist hard nodig, we hebben genoeg problemen om op te lossen. Maar we moeten wel kaders bedenken waarmee dat op een veilige manier kan.”

Aannames en vooroordelen kunnen „verankerd” raken in AI-modellen

De zorg heeft bepaalde toepassingen van kunstmatige intelligentie al in gebruik. Zo zetten het OLVG-ziekenhuis in Amsterdam en het Maasstad Ziekenhuis in Rotterdam sinds kort ontslagsoftware op de intensive care in. Hier berekent een computermodel de kans dat een patiënt na ontslag van de IC snel terugkeert of overlijdt. Ook het Erasmus MC heeft zulke ontslagsoftware in gebruik, voor patiënten die een kankeroperatie hebben ondergaan. Dit ziekenhuis ontwikkelt bovendien een ‘decubitusmodel’ dat de kans op doorligwonden op de IC moet voorspellen. En het werkt aan een model dat aangeeft wat de beste behandeling zal zijn voor patiënten met hartfalen.

Die toepassingen moeten de druk op de zorg verlagen. Bij hartpatiënten kan het bijvoorbeeld betekenen dat artsen sneller overgaan op medicatie die de patiënt thuis kan innemen, zodat het ziekenhuis die niet hoeft toe te dienen. Daardoor kunnen patiënten eerder naar huis. Ontslagsoftware dient die functie ook, en kan de arts bovendien helpen sneller beslissingen te nemen.

Van Genderen: „De grote vrees is dat AI de mens vervangt in de zorg. Maar als we AI op de juiste manier inzetten, houdt dat de zorg juist menselijk: personeel kan meer aandacht besteden aan patiënten in plaats van amechtig van bed naar bed te hollen.”

Lees ook: AI moet alles in de medische zorg gaan verbeteren, maar is intussen allang tot in de medische praktijk doorgedrongen

Maar: hoe weet je of het model voor patiënt A even goed presteert als voor patiënt B? Als mensen kiezen, gebruiken ze veelal voorkennis, aannames, overtuigingen – wat hun keuze vooringenomen maakt: er zit ‘bias’ in. En mensen maken en voeden de modellen, waardoor die bias daarin „verankerd” raakt, zegt Van Genderen. „Als we de tekortkomingen van elk model in een vroeg stadium kunnen identificeren, kunnen we er ook naar handelen.” Door meer data van ondervertegenwoordigde groepen toe te voegen, bijvoorbeeld, of met wiskundige methoden daarvoor te corrigeren.

De ontslagsoftware voor oncologische chirurgie van het Erasmus MC is ontwikkeld met patiëntendata van dat ziekenhuis zelf. Van Genderen: „Dat is een heel andere populatie dan in bijvoorbeeld Noord-Nederland. Maar je wil dat het model daar even goed presteert.” Daarom pleit hij voor uitwisseling van ‘intelligentie’ tussen ziekenhuizen.

Belangrijk is dat de arts altijd kan controleren hoe en waarom een model tot een voorspelling komt, zegt Jessica Workum, intensivist in het Elisabeth-TweeSteden Ziekenhuis en AI-consultant bij softwarebedrijf Pacmed. „Ontwikkelaars en leveranciers moeten inzichtelijk maken hoe een model tot stand is gekomen en hoe het beslissingen neemt. Wat weegt daarin mee?”

Zorgverleners zelf moeten „AI-geletterd” worden, zegt ze. „We moeten weten wat een model is en kunnen herkennen of het geschikt is voor de patiënt tegenover ons. Bijvoorbeeld door ons bewust te zijn van de dataset waarop het model getraind is.”

Het is bij elke beslissing zaak dat dokters de leiding houden, zegt de Amerikaanse expert Reggie Townsend. Hij is ethisch adviseur op het gebied van kunstmatige intelligentie bij softwarebedrijf SAS en lid van het AI-comité NAIAC dat de Amerikaanse regering adviseert. „De grootste valkuil is dat we te veel vertrouwen op AI. Afgaand op het nieuws zou je denken dat AI alle wereldproblemen gaat oplossen, óf de mensheid overbodig maakt.”

Wat te doen als je ‘bliep’ hoort

De mens – de dokter, in dit geval – moet zélf keuzes maken, geholpen door adviezen van AI-modellen. Townsend: „Als je door een ziekenhuis loopt, hoor je overal ‘bliep’. Het zijn de dokters die bepalen wat ze met die ‘bliep’ doen. Dat moet met kunstmatige intelligentie net zo zijn; laat de arts bepalen wat hij met de uitslagen van zo’n systeem doet.”

Van Genderen vergelijkt het met de Toeslagenaffaire, waar ambtenaren op basis van ‘bevooroordeelde’ algoritmes mensen dupeerden. „Hoezeer is het model daar blindelings gevolgd? Wat was daarin de rol van de ambtenaar? Wij moeten nu al bedenken wat de zorgverlener nodig heeft om beslissingen te nemen op basis van AI-modellen. Het is niet zoals met ChatGPT: laat de mensen het maar gebruiken en zo leren we verder. In de zorg kunnen we geen fouten maken en zien waar het misloopt.”