Pro-Palestijnse uitingen ‘stelselmatig onderdrukt’ op Facebook en Instagram

Meta, moederbedrijf van Facebook en Instagram, krijgt van verschillende kanten zware kritiek voor zijn rol in de oorlog tussen Israël en Hamas. Het Amerikaanse concern onderdrukt systematisch vreedzame pro-Palestijnse uitingen op Facebook en Instagram, stelde Human Right Watch (HRW) vorige week op basis van eigen onderzoek. De mensenrechtenorganisatie spreekt van censuur – „en wat het nog erger maakt, is dat het plaatsvindt tijdens onbeschrijflijke gruwelijkheden en onderdrukking, wat de uitingsmogelijkheden van Palestijnen toch al ernstig beperkt”.

HRW wijst erop dat Meta zich weliswaar vaak heeft verontschuldigd voor het onterecht verwijderen of onderdrukken van pro-Palestijnse geluiden, en ook beterschap beloofde, maar daar onvoldoende werk van maakt. Dat Meta een aanzienlijke hoeveelheid berichten ongemoeid laat die pro-Palestijns zijn en kritisch over het Israëlische regeringsbeleid, is geen excuus voor „de buitensporige beperking van vreedzame uitingen ter ondersteuning van Palestina en Palestijnen”. Die beperking, aldus HRW, is „in strijd met het universele recht op vrije meningsuiting en op toegang tot informatie”.

Ook de onafhankelijke raad van beroep van Meta, de zogeheten Oversight Board, hekelde het bedrijf onlangs. Anders dan de brede aanklacht van Human Right Watch, dat 1.050 gevallen bekeek, diepte de raad uit wat er in twee specifieke gevallen was misgegaan. De raad behandelt klachten van gebruikers, vanuit het idee dat zijn oordelen en argumenten daarover voor Meta als een soort jurisprudentie kunnen dienen. De oordelen van de Oversight Board laten ook zien hoe lastig de afwegingen soms zijn die sociale media moeten maken. Daarbij gaat het vaak om de spanning tussen de vrijheid van meningsuiting en de zorg om veiligheid op het platform en daarbuiten.

Niet te snel verwijderen

Ten onrechte heeft Meta twee video’s van de oorlog tussen Israël en Hamas, die gewelddadige en bloedige beelden bevatten, van zijn platformen verwijderd, oordeelde de raad afgelopen week. De raad waarschuwt Meta om berichten en beelden niet te snel te verwijderen als ze mogelijk bewijzen bevatten van schendingen van de mensenrechten, oorlogsmisdaden en misdaden tegen de menselijkheid. Het bedrijf zou dergelijk materiaal ook na de standaardtermijn van een jaar nog moeten bewaren, voor het geval het tot vervolging van de daders komt.

Het grootschalige gebruik van geautomatiseerde systemen om potentieel schadelijke berichten van Facebook en Instagram te blokkeren, stelt de raad, „vergroot de kans dat waardevolle berichten verwijderd worden die de wereld informeren over menselijk lijden aan beide kanten van het conflict in het Midden-Oosten”.

Veel socialemediabedrijven worstelen met de manier waarop ze moeten omgaan met beelden en andere berichten die geweld of andere gruwelijkheden tonen, haat zaaien of nepnieuws verspreiden. De meeste platforms hebben daar regels voor en op de naleving wordt meestal toegezien door een combinatie van geautomatiseerde systemen en (bij twijfelgevallen) een oordeel door menselijke moderatoren.

Alleen Meta heeft een onafhankelijke raad van beroep ingesteld, die in reactie op klachten beslissingen over Facebook en Instagram kan terugdraaien. Ook kan de raad Meta ongevraagd advies geven over zijn moderatiebeleid. In scherp contrast daarmee heeft Elon Musk nadat hij Twitter, nu X, had overgenomen de moderatie op dat platform drastisch ingekrompen. Sindsdien is de hoeveelheid antisemitische en racistische berichten, en nepnieuws, er volgens verschillende onderzoeken sterk toegenomen.

Sinds de overval van Hamas op Israël op 7 oktober ontvangt de Oversight Board van Meta dagelijks bijna drie keer zoveel klachten als normaal. Het gaat daarbij om gebruikers die beroep aantekenen tegen besluiten om bepaalde berichten weg te halen, of juist te laten staan.

Daarom, en ook gezien de ernst van de situatie in de oorlog tussen Israël en Gaza, besloot de Board eerder deze maand voor het eerst om twee gevallen met spoed in behandeling te nemen. In normale omstandigheden moet de raad binnen negentig dagen uitspraak doen, nu was die periode verkort tot twaalf dagen.

Het eerste geval betrof een op Instagram geplaatste video die de gevolgen leek te tonen van een aanval op, of in de buurt van, het Al-Shifa ziekenhuis in Gaza-Stad tijdens het Israëlische grondoffensief in het noorden van de Gaza-Strook. Er zijn gewonde of gedode Palestijnen, ook kinderen, op te zien. Het andere geval draaide om een op Facebook geplaatste video van een Israëlische vrouw, die haar ontvoerders tijdens de terreuraanval van Hamas op 7 oktober smeekt haar niet de doden. In beide gevallen verwerpt de raad het besluit de filmpjes te verwijderen.

In het geval van de gijzeling voerde Meta als argument de vrees aan dat dergelijke video’s gebruikt worden om de acties van Hamas te vieren, of navolging ervan te bevorderen. Maar na enkele dagen begonnen ook familieleden van de gegijzelden de video’s te delen, om de actie te veroordelen en er meer bekendheid aan te geven.

Ook de Israëlische regering en media verspreidden de beelden, onder meer om opkomende verhalen te ontzenuwen als zouden de gebeurtenissen van 7 oktober helemaal niet hebben plaatsgehad. Meta stond vanaf 20 oktober alsnog toe dat beelden van gijzelaars gedeeld konden worden, maar alleen door bepaalde geverifieerde accounts, en pas vanaf 16 november door alle gebruikers.

Automatische systemen

In het geval van het ziekenhuis waren Meta’s besluit om de beelden te verwijderen, en ook het besluit om protest daartegen te verwerpen, louter gebaseerd op automatische systemen, zonder menselijke tussenkomst. „Dat leidde tot onderdrukking van belangrijke communicatie over het lijden van mensen in Gaza.”

Co-voorzitter van de Oversight Board Michael McConnell zei in een persverklaring dat dit bijzonder moeilijke beslissingen waren, na lange en complexe discussies. „De Board heeft zich gericht op bescherming van de uitingsvrijheid van mensen aan alle kanten van deze afschuwelijke gebeurtenissen, en tegelijk ervoor willen instaan dat geen berichten oproepen tot geweld of haat.” McConnell stelt dat sociale media tijdens gewapende conflicten vaak de enige manieren zijn om informatie te verstrekken, vooral als de toegang voor journalisten tot het oorlogsgebied is beperkt of geblokkeerd.