In november stelden zijn contacten bij techgigant Meta Maarten Schenk nog gerust. Zijn bedrijf Lead Stories dat sinds 2018 wordt ingehuurd door Meta, kon doorgaan met het factchecken van misinformatie op de Meta-platforms Facebook en Instagram. Nee, Amerikaanse basisscholen hebben geen kattenbakken, voor kinderen die zich als kat identificeren. En nee, geheim agenten lachten niet nadat Trump in zijn oor was geschoten – hun lach was gefotoshopt.
Toch had Schenk, een Belgische informaticus en factchecker die medeoprichter is van het Amerikaanse Lead Stories, een unheimisch gevoel, vertelt hij via Teams. Hij spreekt vanuit zijn woning annex kantoor in het plaatsje Houthalen bij Hasselt. Hij wist dat de top van Meta zich ongemakkelijk voelde over het factcheckprogramma, dat het schoorvoetend had opgetuigd na alle negatieve publiciteit over ‘fake news’ rond de presidentsverkiezingen van 2016, en waar factcheckorganisaties uit ruim honderd landen aan deelnemen. En zie: vorige week besloot topman Mark Zuckerberg de samenwerking met factcheckorganisaties in de VS te stoppen. Schenk moet een deel van zijn twaalf medewerkers in de VS ontslaan. „Dat doet mij ook persoonlijk iets”, zucht hij. „Ik heb jaren met ze samengewerkt.”
Waar Zuckerbergs boodschap in de buitenwereld insloeg als een bom – „beschamend” zei de Amerikaanse president Biden – waren factcheckers hooguit verrast over de timing. „Ik maakte me zorgen over het programma, maar verwachtte niet dat het besluit te stoppen zo snel na Trump’s verkiezing zou komen”, zegt Angie Holan, directeur van het International Fact-Checking Network (IFCN), dat richtlijnen opstelt voor de mondiale factcheckgemeenschap. „Zuckerberg probeert duidelijk in het gevlij te komen bij de nieuwe regering.”
Trump en zijn aanhangers zijn geen fan van de volgens hen ‘vooringenomen’ factcheckers. Zuckerberg zei daarentegen altijd dat hij hun missie steunde en noemde Meta’s programma „gezichtsbepalend voor de branche”. Tot hij zich vorige week tot het kamp-Trump bekeerde. „Er is een breed publiek debat gevoerd over mogelijke schade door online content”, zei de topman in een Instagramvideo. „Veel hiervan is duidelijk politiek. We hebben een punt bereikt waarop er te veel […] censuur is. Daarbij voelden de afgelopen verkiezingen ook als een cultureel omslagpunt in de richting van prioriteit voor de vrijheid van meningsuiting.”
Factcheckers hebben grote moeite met die typering van hun werk. Want dat heeft niets met censuur te maken. „Factchecken is juist het tegenovergestelde van censuur”, zegt Schenk. „Ik zeg altijd: een waarschuwingslabel op een pakje sigaretten is niet het censureren van sigaretten. Het is informatie toevoegen. Factcheckers hebben nooit de bevoegdheid gehad om op Facebook en Instagram posts of accounts te verwijderen. Alle voorbeelden van onterecht verwijderde content, waren het gevolg van overmatig modereren door Meta zelf.”
De argumenten van Schenk klinken door in de kritische open brief die het IFCN vorige week schreef aan Zuckerberg: „Trump zei zelf dat uw aankondiging ‘waarschijnlijk’ een reactie was op de bedreigingen die hij tegen u heeft geuit (Trump dreigde Zuckerberg in de cel te gooien als die pro-Trump-content van Facebook zou weren, red). Sommige leden van onze factcheckinggemeenschap hebben soortgelijke bedreigingen ervaren van overheden in de landen waar ze werken, dus we begrijpen hoe moeilijk het is deze druk te weerstaan.”
Hoewel Meta vooralsnog alleen de samenwerking met factcheckorganisaties in de VS stopzet, verwacht het IFCN dat het bedrijf het programma in andere landen ook spoedig zal beëindigen. En dat baart de organisatie ernstige zorgen. „Sommige van deze landen zijn zeer kwetsbaar voor misinformatie die politieke instabiliteit, inmenging in verkiezingen, straatgeweld, en zelfs genocide aanwakkert”, waarschuwt de organisatie in haar open brief.
Meta was de afgelopen jaren het middelpunt van een aantal schandalen rond misinformatie die volgens critici tastbare schade aanrichtten. Het zou tribalisme aanwakkeren en democratie ondermijnen. Zo hebben misleidende Facebook-advertenties van de Ethiopische overheid voor huishoudelijk personeel in Saoedi-Arabië bijgedragen aan dwangarbeid. Facebook-groepen zoals ‘Stop the Steal’ hebben gefungeerd als rekruteringsmiddel voor de gewelddadige bestorming van het Capitool in Washington in 2021. Facebooks algoritmes hebben er volgens de VN voor gezorgd dat schadelijke anti-Rohingya-inhoud in Myanmar enorm werd verspreid, wat het etnische geweld tegen deze moslimminderheid aanwakkerde.
Prominente journalisten en activisten waarschuwen voor de gevolgen van Zuckerbergs besluit om de sluizen voor misinformatie verder open te zetten. De Filippijnse journalist Maria Ressa, die in 2021 de Nobelprijs voor de Vrede ontving voor haar inspanningen de vrijheid van meningsuiting in de Filippijnen te beschermen, waarschuwde in een interview met AFP dat er „uiterst gevaarlijke tijden” aankomen voor de journalistiek, de democratie en de gebruikers van sociale media. Ressa is een prominent criticus van de autocratische president Duterte, die aan de macht kwam dankzij een slimme campagne op Facebook.
Schipperen
Zuckerbergs video is niet verrassend voor wie nagaat hoe Meta zich tot nu toe heeft verhouden tot contentmoderatie op zijn platformen, vlaggenschip Facebook voorop. Groei was altijd de belangrijkste maatstaf voor het bedrijf, dat zijn aantal actieve maandelijkse gebruikers zag toenemen van 1 miljoen in 2004 tot ruim 3 miljard in 2024. Om toezicht te houden op een platform van die omvang, zette Zuckerberg al vroeg in op kunstmatige intelligentie (AI). Een voordeel is dat algoritmes – terecht of niet – minder snel beschuldigd worden van partijdigheid. Voor die beschuldiging is Zuckerberg altijd uiterst beducht geweest, observeerden techjournalisten zoals Jeff Horwitz (van het boek Broken Code) en Ben Smith (Traffic), die spraken met mensen uit de bedrijfstop van het bedrijf en de hand legden op duizenden geheime interne documenten.
De AI-detectie bleek niet genoeg om de enorme hoeveelheid misinformatie te stuiten. Zeker toen het bedrijf als onderdeel van zijn groeistrategie nieuws en politiek meer ruimte gaf, omdat het meer wilde zijn dan een gezellig sociaal medium om babyfoto’s te delen en vrienden te feliciteren. Facebook wilde ook graag een politiek platform zijn. Maar het succes kwam met een bittere bijsmaak.
De zege van Trump kwam in 2016 als een schok voor progressief Amerika; al snel werd deze geweten aan misinformatie op sociale media. Hoewel Zuckerberg deze beschuldigingen publiekelijk naar het rijk der fabelen verwees, waren veel van de overwegend progressieve medewerkers van Facebook toch geneigd tot zelfonderzoek. Het zelfbeeld van het bedrijf was immers dat Facebook mensen bij elkaar brengt en zo de wereld mooier maakt. Uit later gelekte interne data bleek evenwel dat voorafgaand aan de verkiezingen nepnieuws wel degelijk de meest virale vorm van verkiezingsgerelateerde content was geweest op Facebook. En het meeste was pro-Trump.
Om te tonen dat het serieus werk maakte van de strijd tegen misinformatie, introduceerde Facebook na de verkiezingen ‘third party fact-checkers’. Het ging samenwerken met gevestigde media, universiteiten en andere organisaties die zich hadden toegelegd op factchecken. Zo hoopte het een onomstreden, onpartijdige manier te hebben gevonden om misinformatie op zijn platformen te bestrijden.
„Meta lanceerde het factcheckingprogramma na gigantische druk vanuit de politiek en veel negatieve media-aandacht”, zegt IFCN-directeur Holan. „Het was niet dat ze dachten: laten we een innovatief programma opzetten om mensen te helpen correcte informatie te vinden. Het was: iedereen is ons aan het bekritiseren, we moeten iets doen.”
Een van de organisaties die in 2017 werden gevraagd mee te werken aan het programma, was de Universiteit Leiden, waar de docent-onderzoekers Peter Burger en Alexander Pleijter in 2009 een factcheckproject voor studenten hadden opgezet: Nieuwscheckers. „Het programma was ontzettend interessant voor ons”, zegt Burger. „Wij kregen de kans om achter de schermen te kijken. We vergaderden met medewerkers van Facebook, en kregen toegang tot het dashboard van het bedrijf.”
Op dat dashboard kregen factcheckers voorbeelden van door algoritmes uitgefilterde misinformatie te zien. Om een idee te krijgen welke misinformatie viraal ging, gebruikten ze CrowdTangle, een softwareprogramma dat inzicht geeft in wat er op Facebook en Instagram rondgaat. „We konden zelf een selectie maken van belangrijke onderwerpen”, vertelt Burgers. „Bijvoorbeeld omdat ze veel bereik hadden, omdat we het op allerlei verschillende plekken zagen opduiken, omdat het onderwerp belangrijk was.” Veel misinformatie die Burger en zijn studenten voorbij zagen komen, was wat hij pulpnieuws of junknieuws noemt. „Dat werd geproduceerd door Nederlandse ondernemers die het goedkoopste van het goedkoopste sensationele nieuws verspreidden. Een deel was gekopieerd uit andere media, een deel was uit de duim gezogen. Veel berichten gingen over gezondheid en misdaad, en veel hadden een duidelijke politieke boodschap. Maar ze waren niet geproduceerd met een politiek doel. Ze werden alleen verspreid om geld te verdienen.”
Hoewel diverse hooggeplaatste medewerkers van Meta dit soort content als een probleem zagen, en ook voorstellen hebben gedaan om het aan banden te leggen, lag Zuckerberg altijd dwars, schrijft Horwitz. De topman vindt dat de tijdlijn van gebruikers hun persoonlijke smaak weerspiegelt, en dat Facebook zich daar zo min mogelijk mee moet bemoeien. Bovendien heeft hij nooit maatregelen willen nemen die maken dat gebruikers minder tijd spenderen op de platformen van Meta. Holan: „Het hele verdienmodel is erop gericht de aandacht van mensen zo lang mogelijk vast te houden.”
Nieuwscheckers was net als de andere partners van Meta aangesloten bij het IFCN, dat strikte eisen stelt aan neutraliteit en onafhankelijkheid. Toch werd het factcheckprogramma van Meta steeds vaker van linkse vooringenomenheid beschuldigd. In 2019 werd het ingeperkt: de factcheckers mochten – tot hun eigen ongenoegen – geen uitspraken van politici meer checken. Te gevoelig.
Het maakte weinig verschil. In 2023 noemde de techmogul Elon Musk Meta’s factcheckers „enorme leugenaars en onvoorstelbaar vooringenomen”. Toen Meta het programma in 2016 begon, was de Amerikaanse techwereld nog wat meer op de hand van de Democraten, denkt IFCN-directeur Holan. „Het Trump-stemmende contingent is daar sindsdien sterk gegroeid.”
Zuckerberg deed tot dusverre zijn best politiek géén kleur te bekennen. Dat hij zich nu plots naar het Trumpisme plooit, is vooral opportunisme, denkt Holan. Het bedrijf heeft „een track record van reactief omgaan” met politieke veranderingen. Onder Trump hoeft Meta niet, zoals onder de Democratische president Biden, te vrezen voor strenge regels die het zouden dwingen meer te doen tegen misinformatie. Integendeel: Trump en zijn gevolg pleiten er juist voor om de vrije expressie, waaronder de soms buitenissige standpunten van zijn bondgenoten op de rechterflank, alle ruimte te geven.
Dat berichten uit conservatieve hoek relatief vaak gefactcheckt worden, komt volgens IFCN-directeur Holan simpelweg doordat conservatieven vaker inaccurate informatie delen – wat uit onderzoek inderdaad blijkt. Bovendien is het ecosysteem van alternatieve media in de VS aan de conservatieve kant veel groter dan aan de progressieve. „Ik denk dat je wel kunt zeggen dat Trump en zijn aanhangers structureel moeite hebben om zich accuraat uit te laten.”
Verpaupering
De factcheckers zijn overigens de eersten om toe te geven dat het factcheckprogramma niet zaligmakend is. Zo gaat op sociale media in Nederland momenteel een verhaal rond over hondenvrije zones voor moslims. Een verzinsel, en dus werd één van de meest virale posts met die strekking op Meta’s platformen voorzien van een factchecklabel. Nieuwscheckers ontdekte echter dat zestig andere versies van het verhaal ongelabeld viraal blijven gaan.
„Het bleef dweilen met de kraan open”, zegt Schenk. „De algoritmes van Meta zijn nu eenmaal ontworpen om engagement te maximaliseren.” En misinformatie ontlokt sneller ‘engagement’, oftewel reacties, omdat het boosheid en andere heftige emoties oproept. Toch zag hij soms een positief effect. „Dat een vals bericht of gemanipuleerd filmpje megaviraal ging, en dat dit na de factcheck ineens afvlakte.” Deze functie, om gefactcheckte berichten lager te zetten in de tijdlijn van gebruikers, heeft Meta onlangs eveneens lamgelegd, zo bleek deze week.
Nu Meta misinformatie meer ruimte geeft, is de vraag wat de doorsnee gebruiker daarvan gaat merken. Nadat Musk X overnam, keerden sommige gebruikers het platform de rug toe uit frustratie over de hoeveelheid porno, haat en misinformatie die daar nu rondgaat. Dat kan ook met Facebook en Instagram gebeuren, denkt Holan. Uit onderzoek blijkt volgens haar dat de meeste mensen dingen willen zien die „ongeveer waar zijn, en niet voortdurend alles zelf willen factchecken”.
Als het bedrijf zijn programma ook in andere landen stopzet, betekent dat een flinke aderlating zijn. Het is wereldwijd immers de belangrijkste individuele werkgever van factcheckers. Sommige gevestigde organisaties hebben ook andere inkomstenbronnen, zoals Lead Stories van Schenk. Maar hoeveel factcheck-organisaties zullen Zuckerbergs besluit overleven? Schenk waagt zich als rechtgeaard factchecker niet aan voorspellingen hierover. „Dat is één van onze mantra’s: voorspellingen kun je niet factchecken.”