Ineens spreekt het niet meer voor zich dat de krant mensenwerk is

Je zou haast denken dat 20 april AI-dag was. In NRC verscheen donderdag een reportage over de London Book Fair (waar toepassingen van kunstmatige intelligentie het gesprek van de dag waren), een uitlegartikel over hoe AI de stemmen aanstuurt die op de NRC-site artikelen ‘voorlezen’ („mijn assertieve zusje” zei redacteur Mischa Spel, wier stem voor het project werd gebruikt) en een verslag van een „masterclass ChatGPT” in de Tweede Kamer. Online verscheen die dag een pleidooi om journalistieke codes aan te passen met het oog op AI (goed idee, zie verderop). Plus een bericht over een nepinterview met oud-coureur Michael Schumacher.

Vorige week deed Japke-d. Bouma een poging om de AI-tekstgenerator ChatGPT een geestige column te laten schrijven. Het resultaat bleef ver onder de Japke-d.-lat, het was „alsof een CDA-ouderling een samenvatting van de handleiding van m’n stofzuiger stond voor te lezen” (formulering van Bouma, niet van de tekstrobot). Intussen filosofeerde vorige week zaterdag topman Erik Roddenhof van krantenuitgever DPG over welke journalistieke taken door bots overgenomen zouden kunnen worden. In gedachten bladerde hij van achter naar voren langs tv-gegevens, de puzzels en het ‘kookbericht’ tot je op het punt kwam waarop „er opeens mensen bij moeten zijn”. Meer dan van een AI-dag, lijkt er sprake van een AI-maand te zijn of misschien zelfs van een AI-eeuw.

Werk aan de winkel, dus. De opkomst van AI gaat NRC op twee vlakken aan: het is een onderwerp om over te schrijven en het is een middel om te gebruiken – of om juist niet te willen gebruiken. Het eerste kreeg een forse stimulans toen ChatGPT afgelopen november beschikbaar kwam. Zo publiceerde de opinieredactie een door ChatGPT gegenereerde verhandeling over de risico’s van ChatGPT. Het is niet moeilijk om de teksten van dat programma te ridiculiseren. Als het geen online informatie vindt, kan het gaan „hallucineren”, dat wil zeggen dingen verzinnen als een panikerende puber tijdens een proefwerk, type: Mark Rutte verdient de Nobelprijs omdat hij vrede bereikte tussen de Farc en de Colombiaanse regering (uit de masterclass voor de Tweede Kamer). Niets menselijks is de machine vreemd.

Risico’s

Economieredacteur Stijn Bronzwaer, die zich sinds deze maand volledig op de verslaggeving over AI richt, schrijft onder meer over de machtsstrijd tussen bedrijven die elkaar de hegemonie op de AI-markt betwisten. „Er gaat ongelooflijk veel geld naartoe; ongetwijfeld zit hier de nieuwe Facebook of Google tussen.” Enthousiasme en bezorgdheid gaan hand in hand, ziet hij. „Er zal een enorme hoeveelheid door computers gemaakte tekst over ons worden uitgestort. Daar moeten we ons toe verhouden.”

Bronzwaer gebruikt ChatGPT zelf tijdens het schrijven. Niet om informatie te zoeken, daar vindt hij het niet betrouwbaar genoeg voor. Wel om suggesties voor koppen of formuleringen te krijgen. Hij laat voorbeelden zien van hoe ChatGPT moeizaam lopende zinnen in een artikel weet te versoepelen. „Ik zie het als een assistent die je soms om hulp kunt vragen.” Daarbij kun je ook denken aan het uitwerken van een opname of het inkorten van een tekst.


Adjunct-hoofdredacteur Melle Garschagen kijkt met een groepje redacteuren naar de mogelijkheden en risico’s van de toepassing van AI. In, bijvoorbeeld, de datajournalistiek ziet hij kansen om de techniek toe te passen zonder de controle te verliezen. „We zien dat rekenmodellen waar beleid op is gebaseerd steeds complexer worden. Zie het stikstofdossier. AI kan voor journalisten gereedschap zijn om die complexere wereld te ontsluiten.” NRC moet zich niet te terughoudend opstellen, vindt hij: „We willen experimenteren en transparant zijn.”

Vooringenomenheid en plagiaat

In die transparantie kun je gradaties zien. Tot voor kort kon een lezer of luisteraar ervan uitgaan dat wat NRC maakte, mensenwerk was. Dat impliciete etiket zou, lijkt mij, gezelschap moeten krijgen van een expliciete vermelding van wat géén mensenwerk is in de journalistiek (zoals de NRC-stemmen die artikelen ‘voorlezen’) en van een heldere verklaring over wat NRC zich aan AI-ondersteuning toestaat. Het techonologieblad Wired publiceerde in maart de uitleg ‘How WIRED Will Use Generative AI Tools’. Daarin zijn de regels strikt. Wired publiceert geen teksten (of beelden) die door AI zijn gegenereerd, tenzij het feit dat de betreffende tekst door AI is gemaakt, het onderwerp van het verhaal is. Dat geldt ook voor tekstfragmenten. Die zijn vatbaar voor fouten, vooringenomenheid en onopgemerkt plagiaat. Bovendien vindt Wired dat zijn journalisten moeten blijven nadenken over hoe zij complexe ideeën in hun eigen woorden uitdrukken. Ook bij het inkorten van een artikel komt oordeelsvermogen kijken en dat zou niet uit handen gegeven moeten worden. Mensen bij Wired mogen AI wel gebruiken om kopsuggesties te verzinnen, te brainstormen over een onderwerp of om grote hoeveelheden gegevens te analyseren of samen te vatten. Bij dat laatste geldt dat ze zich uiteindelijk moeten baseren op het oorspronkelijke materiaal.

NRC zou er goed aan doen om ook op korte termijn voor zichzelf en voor de lezers en luisteraars duidelijkheid te scheppen over waar kunstmatige intelligentie wel en niet voor gebruikt kan worden. Ik zou die regels lekker strak houden: verruimen op basis van nieuwe ontwikkelingen – die zeker komen – kan altijd. De mens moet hoe dan ook het laatste woord voor publicatie houden. Als je de kwestie van richtlijnen voor AI in de journalistiek voorlegt aan (sorry, ik kon het niet laten) ChatGPT, rollen er fluks acht punten met toelichting uit: transparantie, verantwoording, accuratesse, onpartijdigheid, bescherming van privacy, menselijke controle, educatie en ethiek. Ik was vast niet de eerste die de vraag stelde.

Arjen Fortuin

Reacties: [email protected]