Nieuwsmedia waarschuwen: ChatGPT kan verdienmodel journalistiek ondermijnen

Chatbots De populariteit van AI-chatbots baart uitgevers grote zorgen. Herman Wolswinkel, directeur van branche-organisatie NDP Nieuwsmedia, ziet grote risico’s voor het vertrouwen in media en hun verdienmodel, „als ze aan de haal gaan met wat journalisten produceren”.

Chatbot ChatGPT, van het Amerikaanse bedrijf OpenAI, gebruikt nieuwsartikelen als bron, maar geeft tegelijk aan dat de chatbot kan ‘hallucineren’. Wolswinkel: „Voor ons is dat een groot punt van zorg. Want betrouwbaarheid van de nieuwsvoorziening is het kostbaarste bezit dat media hebben.”
Chatbot ChatGPT, van het Amerikaanse bedrijf OpenAI, gebruikt nieuwsartikelen als bron, maar geeft tegelijk aan dat de chatbot kan ‘hallucineren’. Wolswinkel: „Voor ons is dat een groot punt van zorg. Want betrouwbaarheid van de nieuwsvoorziening is het kostbaarste bezit dat media hebben.”

Foto AFP

De snelle opkomst van computerprogramma’s als ChatGPT, die met behulp van kunstmatige intelligentie complete teksten kunnen produceren, brengt behalve voordelen ook grote risico’s met zich mee. Daarvoor waarschuwt de koepelorganisatie van Nederlandse nieuwsmedia.

„Deze ontwikkeling baart ons ernstig zorgen en is in potentie heel schadelijk”, zegt Herman Wolswinkel, directeur van NDP Nieuwsmedia, de branche-organisatie van uitgevers van kranten, opiniebladen, nieuwssites en ook RTL Nieuws en BNR. In binnen- en buitenland vrezen uitgevers dat de chatbots zowel de betrouwbaarheid als het verdienmodel van de journalistiek in gevaar kunnen brengen.

Sinds de lancering voor het grote publiek van ChatGPT, in november, hebben wereldwijd meer dan 100 miljoen mensen er gebruik van gemaakt. Microsoft heeft het programma geïntegreerd in zijn zoekmachine Bing. Google heeft zijn eigen chatbot Bard gelanceerd, en het Chinese Baidu kwam deze maand met chatbot Ernie.

„Deze ontwikkeling van kunstmatige intelligentie, AI, biedt de journalistiek veel mogelijkheden”, zegt Wolswinkel. „Om bijvoorbeeld sneller onderzoek te kunnen doen, bij taalcorrectie, bij personalisatie van het nieuws en misschien ook wel bij het toegankelijker maken van het nieuws.


Lees ook: Microsoft wil met de miljardeninvestering in ChatGPT aan AI-imperium bouwen

„Maar als uitgevers kijken wij ook naar wat deze zogeheten generatieve AI-modellen voor informatie presenteren wanneer je ze een vraag voorlegt. En dan zie je dat ChatGPT in zoekmachine Bing weliswaar journalistieke bronnen gebruikt, kwaliteitsmedia, maar dat dat bepaald niet foutloos gaat. Dan wordt er in voetnoten naar een artikel verwezen, terwijl in zo’n artikel soms heel iets anders staat dan wat de chatbot beweert.

„Als bijvoorbeeld NRC als bron of verwijzing wordt gebruikt, dan geeft dat geloofwaardigheid aan de informatie die ChatGPT via Bing levert – ook al kan die informatie onjuist zijn. OpenAI, de organisatie achter ChatGPT, zegt zélf dat dit software-model kan gaan hallucineren, dingen kan gaan verzinnen, verhaspelen, en zo kan formuleren dat het niet meer overeenkomt met het artikel waar naar verwezen wordt. De scheiding tussen feit en fictie, die we in de journalistiek heel belangrijk vinden, wordt daarmee onduidelijk. En dat kan de verspreiding van nepnieuws en desinformatie helpen. Vooral als staten dit soort AI-technologie gaan inzetten is dat heel onwenselijk.

„Voor ons is dat een groot punt van zorg. Want betrouwbaarheid van de nieuwsvoorziening is het kostbaarste bezit dat media hebben.”

Vrezen uitgevers ook dat zo’n chatbot zich tot concurrent kan ontwikkelen?

„Dan kom je bij de vraag wat er in zo’n AI-model wordt gestopt om het te trainen, met informatie te voeden en actueel te houden. Daar worden ontegenzeggelijk nieuwsartikelen voor gebruikt. Maar met de uitgevers zijn daar geen afspraken over gemaakt.

„Als een AI-model aan de haal gaat met wat journalisten produceren, en dat op een eigen manier presenteren aan het brede publiek, dan droogt de inkomstenstroom van de nieuwsuitgevers, waar journalisten van betaald worden, op. En dat kan negatieve gevolgen hebben voor de vitaliteit van de journalistiek.”

Zijn deze chatbots dus een existentiële bedreiging voor de media?

„In de eerste plaats is het een maatschappelijk risico. Maar het kan ook een zakelijk risico worden. We moeten beseffen dat Microsoft, dat zich nu zo sterk verbonden heeft met ChatGPT, na Apple het grootste bedrijf ter wereld is qua marktkapitalisatie.”

Stelt zo’n chatbot auteursrechtelijk beschermd materiaal beschikbaar?

„We weten niet precies wat er met auteursrechtelijk beschermd werk van onze uitgevers gebeurt. Dat is een ander punt van zorg. Het is niet transparant wat ze doen. We willen op z’n minst weten hoe onze artikelen gebruikt worden.”

Mógen de bedrijven achter die chatbots dit eigenlijk wel doen?

„Volgens ons niet. En ook minister Adriaansens (Economische Zaken, VVD) zei in de Tweede Kamer dat het gebruiken van auteursrechtelijk beschermd werk niet mag. Ook ChatGPT moet zich aan de regels houden, zei ze.

„En als achter de betaalmuur wordt gehengeld is extra duidelijk dat we daar een probleem mee hebben. Op basis van tests die wij hebben gedaan krijgen we de indruk dat er artikelen van achter de betaalmuur worden gebruikt. We zien ook dat illegale kopieën van artikelen die op internet te vinden zijn, gebruikt worden om de inhoud aan te bieden van journalistieke artikelen die achter de betaalmuur staan.”

In de VS praten uitgevers al over het eisen van compensatie voor het gebruik van hun materiaal.

„Dat begrijp ik. Maar als je afspraken over geld gaat maken, wil je wel dat de informatie die de chatbot op basis van jouw artikelen naar buiten brengt betrouwbaar is. En dat is nu absoluut niet het geval. Als wij ongewild bijdragen aan desinformatie zou dat een gevaarlijke ontwikkeling zijn.”


Lees ook: Democratie is geen product, maar een gemeenschappelijk proces. En dat wankelt door AI

Uitgevers maken zó veel gebruik van allerlei diensten van Google en Microsoft, dat ze afhankelijk van ze zijn. Maakt dat het niet moeilijk om op het punt van de chatbots tegenover ze te staan?

„Lastig is vooral dat de verhoudingen zo ongelijk zijn. Dat die techbedrijven zo enorm groot en machtig zijn.”

Wat kan de politiek doen?

„Allereerst een goede Europese AI-verordening aannemen. Daar wordt in Brussel al twee jaar aan gewerkt, maar toen ChatGPT gelanceerd werd, vergde die AI-Act opeens aanpassing. Uitgevers in Europa zijn het er over eens dat transparantie van wat de kunstmatige intelligentie precies doet, een basisvoorwaarde is.

„Met ChatGPT is een onvolmaakte technologie gelanceerd en aan de wereld ter beschikking gesteld die een negatieve maatschappelijke impact kan hebben. Wij vinden het belangrijk dat er een maatschappelijk debat over komt.”