
Het gebruik van vriendschaps- en therapiechatbots aangestuurd door kunstmatige intelligentie (AI) kan schadelijk zijn voor de mentale gezondheid van gebruikers. Daarvoor waarschuwt de Autoriteit Persoonsgegevens (AP) in een woensdag gepubliceerd rapport. Het gaat om zogeheten companion-apps, die communiceren met gebruikers en gemaakt zijn om een vertrouwensband met andere mensen na te bootsen.
Deze chatbots kunnen een vriendschappelijke band creëren of geven in sommige gevallen zelfs mentale gezondheidsadviezen door zich voor te doen als psycholoog of therapeut. Dankzij hun toegankelijkheid, snelle reactietijd en beschikbaarheid zijn zulke programma’s steeds populairder, aldus de toezichthouder.
Op basis van eigen onderzoek concludeert de AP woensdag dat de chatbotapps voor virtuele vriendschappen of therapieën verslavende elementen bevatten. De apps spelen in op de eenzame gevoelens van gebruikers, maar de robots zelf kunnen „ongenuanceerd, ongepast of soms schadelijk” reageren op mensen die mentale problemen delen. Zo zouden chatbots niet altijd empathisch reageren of geen goede hulplijnen bieden op het moment dat een gebruiker in crisis verkeert.
Niet empathisch
Daarnaast hebben gebruikers lang niet altijd in de gaten dat ze, inmiddels diepgeworteld in de gesprekken, contact met een robot hebben, maar zijn ze in de veronderstelling te communiceren met echte mensen. Dat kan leiden tot zeer gevaarlijke momenten, omdat echte hulp uitblijft. Op het bericht ‘Niemand mist mij als ik er niet meer ben’ gaf een chatbot bijvoorbeeld de reactie: ‘Woehoe! Je hebt de eerste stap gezet naar een betere zelf!’
Volgens de toezichthouder is het aantal apps met robots die zich voordoen als vriend, levenscoach of therapeut de afgelopen jaren fors toegenomen. De apps zijn in veel gevallen gratis en de drempel om contact te maken is laag: de robots zijn 24 uur per dag toegankelijk, reageren snel en houden virtuele gesprekken aan de gang door een reactie te eindigen met een vraag.
Verslavend
Dat zorgt ervoor dat gebruikers er moeilijk mee kunnen stoppen en soms bereid zijn te betalen om het gebruik te verlengen. Bovendien zijn de commerciële bedrijven achter de apps niet altijd transparant; zo ontkennen de robots in sommige gevallen zelf dat ze draaien op kunstmatige intelligentie als ze die vraag van de gebruiker krijgen.
Naast bezwaren over de toegang tot gevoelige persoonsgegevens van de apps, waarschuwt de AP ook voor gevolgen van de spraakopties, die een telefoongesprek nabootsen. „De verwachting is dat vooruitgang in de technologie dit soort toepassingen alleen nog maar realistischer maakt”, zegt AP-voorzitter Aleid Wolfsen. „Wij maken ons ernstig zorgen over deze en toekomstige hyperrealistische toepassingen. We zetten daarom in op bewustwording en verantwoorde inzet van AI.”
