Memes van een jongetje dat ijverig afkijkt en het huiswerk overpent van het jongetje naast hem, X staat er op dit moment vol mee. Ze verwijzen naar Mark Zuckerberg, de baas van Meta (Facebook, Instagram en Threads) die dinsdag aankondigde dat Meta stopt met externe factcheckers en moderatoren. Hij treedt daarmee in de voetsporen van Elon Musk, die daar op socialemediaplatform X al eerder mee begon.
Wat houdt die werkwijze van X precies in? En wat betekent het dat Meta die nu overneemt? Acht vragen over hoe X functioneert en welke weg Meta nu inslaat.
1
Wat heeft Musk dan gedaan op X?
Toen Musk ruim twee jaar geleden Twitter overnam en er X van maakte, voerde hij een aantal radicale veranderingen door. Het bedrijf moest hierdoor niet alleen veel efficiënter en innovatiever worden, maar vooral veel minder politiek. Er moest een einde komen aan ‘censureren’, zoals Musk het noemt. Een term die Donald Trump ook vaak gebruikt en die Zuckerberg dinsdag ook een aantal keer in de mond nam.
Mensen van wie het X-account was geblokkeerd, onder wie Donald Trump zelf, kregen onder Musk gelijk de toegang terug. Ook ontsloeg hij de teams die moesten beoordelen of inhoud over wettelijke en morele grenzen ging.
De beleving op X is sindsdien behoorlijk veranderd. Er wordt minder omstreden inhoud geweerd, zoals mogelijk discriminerende opmerkingen en propaganda.
2
Is dat erg?
Daarover kun je van mening verschillen. Sommige mensen vinden dat X vrijer is geworden en er daardoor op vooruit is gegaan. Anderen dat het een soort onoverzichtelijk open riool is geworden en daarmee geen plek meer voor grappig, snel en actueel debat.
Uiteindelijk tellen de gebruikersaantallen en daarover weten we weinig zeker. X is een bedrijf en het aantal (actieve) gebruikers is concurrentiegevoelige informatie.
Volgens de zelfrapportages aan de Europese Commissie heeft X ruim 100 miljoen gebruikers in de EU. De verschillende Meta-platformen bij elkaar opgeteld hebben zo’n 259 miljoen gebruikers in de EU.
3
Wordt er bij X dan niets meer gecontroleerd?
Jawel. X heeft – overigens net als andere grote online platformen – systemen die geautomatiseerd filteren op verboden uitingen, zoals het verspreiden van kindermisbruikmateriaal of het aanzetten tot terrorisme. Die systemen (algoritmen) kunnen geautomatiseerd posts onvindbaar maken en accounts blokkeren. Dat gebeurt met miljoenen posts per dag.
Bij twijfel of klachten kijkt er in uitzonderlijke gevallen nog een mens naar.
4
En hoe gaat dat bij moeilijkere categorieën zoals misinformatie (onjuiste berichten), desinformatie (opzettelijk onjuiste berichten) en bijvoorbeeld racisme?
Voorheen waren daar mensen voor ingehuurd, die konden ingrijpen als bijvoorbeeld een bericht viral ging met klinkklare en gevaarlijke onzin. Moeilijk werk, omdat er een grote grijze categorie is. Zowel Twitter als Meta kwamen om die reden tijdens de Covid-pandemie herhaaldelijk onder vuur te liggen en werden beschuldigd van censuur.
Direct na de overname van Twitter ontsloeg Musk zo’n 4.400 medewerkers die dit werk deden. Het is niet helemaal duidelijk hoeveel het er voor die tijd waren. Wel dat het ontslag een expliciete beleidswijziging betekende.
Nu zijn er geen mensen meer die voortdurend actief de inhoud monitoren en in de gaten houden of misinformatie groot wordt gemaakt.
Dat systeem is vervangen door wat X ‘Community Notes’ noemt. Dat komt er op neer dat een selecte groep vrijwilligers een briefje met context aan posts van andere gebruikers kan hangen, om op die manier duidelijk te maken dat de inhoud discutabel is. Zo’n notitie moet een bronvermelding hebben.
Of een notitie daadwerkelijk wordt toegevoegd, wordt beslist door een algoritme. Dat zou zo zijn geprogrammeerd dat het er steeds voor waakt dat verschillende perspectieven zijn gewogen.
5
Hoeveel moderatoren zijn er nog bij de grote socialemediabedrijven?
De belangrijkste bron van informatie voor dit soort aantallen zijn de transparantierapporten die grote online platformen moeten publiceren volgens de Europese Digitaledienstenwet (DSA). Daardoor is er iets meer informatie beschikbaar gekomen waardoor de bedrijven onderling te vergelijken zijn en over de werking van hun algoritmen.
Daaruit blijkt dat er voor X wereldwijd nu nog 1.275 mensen aan de inhoudmoderatie werken. Tot eind 2023 sprak één daarvan Nederlands, maar in mei 2024 bleek die ook geschrapt.
Meta heeft momenteel zo’n 40.000 mensen die werken aan ‘trust and safety’. Van hen zijn er zo’n 15.000 specifiek bezig met het beoordelen van inhoud, 54 daarvan voor het Nederlandse taalgebied.
6
Is Community Notes een effectief systeem?
Matig. Er zijn de afgelopen twee jaar veel voorbeelden gedocumenteerd waaruit blijkt dat het systeem te traag is om de verspreiding van desinformatie en misinformatie te stoppen, bijvoorbeeld over de oorlog in Gaza. Een groot deel van misleidende posts krijgt geen ‘note’. De berichten die dat wel krijgen, zijn tegen die tijd al zo vaak gedeeld en dus zo ver verspreid dat het briefje met context niet zoveel zin meer heeft. De kwaliteit van de notes en de bronvermelding is wel goed, blijkt uit steekproeven.
7
Hoe ging Meta de afgelopen jaren om met inhoudschecks?
Het is een langdurige worsteling gebleken. Daarbij is de achterliggende vraag voor alle online platformen: in hoeverre zijn ze slechts neutrale doorgeefluiken, en wanneer zijn ze ook verantwoordelijk voor de inhoud die ze helpen verspreiden? Vragen waar uitgevers van ‘traditionele’ media bekend mee zijn.
Na de verkiezingen van 2016 (waarbij Trump voor het eerst aan de macht kwam) kreeg Facebook veel kritiek vanwege de vele misinformatie en desinformatie , die in de verkiezingscampagne op het platform was verspreid. In reactie daarop zette het bedrijf een uitgebreid systeem van moderatie op. Het ging ook gebruikmaken van externe factcheckers, waaronder internationale persbureaus zoals AP en AFP.
Het werk van moderatoren kwam al snel onder vuur te liggen. Het bleken nare onderbetaalde banen. Terwijl het om complexe beslissingen gaat met soms veel impact voor betrokkenen. Met name rechtse en conservatieve opiniemakers klaagden de afgelopen jaren steen en been dat onder het mom van veiligheid en fatsoen eigenlijk censuur werd bedreven op hun meningen.
Meta deed voortdurend bijstellingen. Er werd bijvoorbeeld een toezichtsorgaan (Oversight Board) opgericht van vooraanstaande externe deskundigen, die achteraf over omstreden besluiten oordeelden, zoals over het blokkeren van accounts van publieke figuren. En de algoritmen worden voortdurend aangepast. Dan weer meer nieuws en actuele discussies, dan juist weer meer kinderfoto’s en kattenvideos.
8
Gelden de aankondigingen van Zuckerberg ook voor gebruikers in Europa?
Zuckerberg benadrukte in zijn boodschap dat de wijzigingen in eerste instantie alleen voor de VS zijn. Woensdag bleek echter dat het bedrijf ook een andere aanpak in de EU wil. Het heeft voornemens daaromtrent naar de Europese Commissie (EC) gestuurd, die daar nog op moet reageren, zo meldt de NOS.
De wetgeving in de VS is heel anders dan in de EU. De EU heeft sinds 2022 de Digitaledienstenwet. Onder die wet hebben vooral de grote online platformen (met meer dan 45 miljoen gebruikers per maand in de EU) een stuk meer verplichtingen en verantwoordelijkheden gekregen. Niet zozeer voor wat gebruikers publiceren, maar wel voor de manier waarop de bedrijven daarmee omgaan. Want het maakt nogal uit of je iemand ergens in een hoekje iets laat roeptoeteren, of dat je die persoon een megafoon geeft als blijkt dat mensen er graag op klikken.
De DSA eist transparantie over de werking van de algoritmen. En verantwoordelijke inzet daarvan. Dus bijvoorbeeld niet om kinderen commercieel te exploiteren en te bombarderen met op hen gerichte advertenties. De EC is tegen meerdere platformen een onderzoek gestart, vanwege vermoedelijke overtreding van de DSA. Daaronder X en Meta.
De EU hoopt dat de wetgeving in andere delen van de wereld wordt gekopieerd. Dat is gemakkelijker in de handhaving van mondiaal opererende bedrijven.
Zuckerberg gebruikte zijn videoboodschap ook voor een soort oorlogsverklaring aan andere jurisdicties, waaronder de EU, die hij als een soort vijanden van de vrijheid van meningsuiting typeert.
„Europa heeft een steeds groeiende hoeveelheid wetten die censuur institutionaliseren en het moeilijk maken daar iets innovatiefs te bouwen.”
Samen met de nieuwe Amerikaanse regering wil Meta daartegen ten strijde trekken. Het ziet er dus niet naar uit dat de VS op korte termijn Europese wetgeving zullen kopiëren.