Meta et les contenus pro-palestiniens : une modération pas si modérée ?

Eléna Roney
9 min read6 days ago

--

Depuis les attaques extrêmement violentes d’Israël dans la bande de Gaza, en réponse aux tueries du 7 octobre perpétrées par le Hamas, les soutiens aux Palestinien·nes se multiplient sur les réseaux sociaux. De nombreuses ONG s’inquiètent d’une « censure » de ces contenus, dont certains se retrouvent supprimés, suspendus, ou invisibilisés sans raison valable.

Les comptes Instagram en soutien de la Palestine se multiplient — Source : Instagram

Multiplication des emojis drapeaux palestiniens sur Instagram, bannières noires, vertes, blanches et rouges aux couleurs de la Palestine sur Facebook, pluie de hashtags Free Palestine sur X. C’est ce que peuvent observer les internautes depuis la réponse armée d’Israël à l’attaque terroriste du Hamas le 7 octobre dernier sur le sol israélien, qui a provoqué la mort de près de 1 200 personnes et la prise en otage de 250 civils. L’offensive militaire israélienne à l’encontre des Palestinien·nes, a fait plus de 120 000 mort·es et blessé·es depuis le 7 octobre selon l’ONU.

Cela faisait déjà plusieurs années que des internautes se mobilisaient sur les réseaux sociaux afin de soutenir la Palestine et demandaient son indépendance, face au gouvernement israélien, qui revendique qu’une partie de la bande de Gaza lui appartient. Depuis le début de cette mobilisation, les Organisations non gouvernementales (ONG), alertent sur une « censure » de ces contenus sur les réseaux sociaux, notamment sur Facebook et Instagram, possédés par l’entreprise Meta, dirigée par Mark Zuckerberg. Deborah Brown, chercheuse senior chargée du plaidoyer sur les droits numériques, auprès de la division Technologies et droits humains de Human Rights Watch (HRW), a enquêté sur ce sujet et explique : « Nous avons découvert que des contenus pacifiques, qui ne contenaient rien de haineux ou de choquant étaient retirés des plateformes sans explication. Certains comptes sont suspendus, quelques heures, ou de façon permanente, sans que l’on ne comprenne pourquoi. » Marwa Fatafta, directrice de la politique et du plaidoyer pour la région Moyen-Orient et de l’Afrique du Nord chez Access Now, une organisation internationale de défense des droits de l’homme, s’en inquiète : « Les suppressions arbitraires de contenu et les restrictions de compte menacent directement les droits fondamentaux à la liberté d’expression, à l’accès à l’information et à la non-discrimination, et étouffent la participation politique en ligne. »

Violation des droits humains

En mai 2021, durant les affrontements violents opposant des Palestinien·nes habitant dans le quartier de Jérusalem, Cheikh Jarrah, à l’armée israélienne, des cas de suppressions, de suspension et d’invisibilisation de contenus défendant les droits des Palestinien·nes sur Facebook et Instagram, avaient déjà été relevés. Dans un rapport publié par Business for Social Responsibility (BSR), un cabinet de conseil, et commandé par Meta, il était révélé que « les actions de Meta en mai 2021 semblent avoir eu un impact négatif sur les droits des utilisateurs palestiniens à la liberté d’expression, à la liberté de réunion, à la participation politique et à la non-discrimination. » En effet, il y était par exemple indiqué que les contenus en arabe faisaient « l’objet d’une application excessive [de la politique de Meta] par utilisateur », à l’image des suspensions de contenus palestiniens qui ne contrevenaient pas aux conditions d’utilisations des plateformes. A la suite de cela, Meta avait affirmé que des efforts seraient faits afin de mieux modérer les contenus, et de laisser en ligne ceux ne violant pas sa politique.

Pourtant, depuis le 7 octobre, des ONG de défense des droits de l’homme comme HRW et des ONG de défense des libertés numériques comme SMEX, 7amleh ou Access Now s’inquiètent de pratiques qui perdurent. En décembre 2023, HRW a ainsi publié une étude sur le sujet, intitulée « Les promesses brisées de Meta », qui s’appuie sur 1 050 cas dans 60 pays différents de suspension et suppression de contenus en relation avec le conflit israélo-palestinien. « 1 049 concernaient des contenus pacifiques en faveur de la Palestine qui ont été censurés ou indûment supprimés, tandis qu’un cas concernait la suppression de contenus en faveur d’Israël » fait savoir le rapport, tout en précisant que « cette répartition des cas ne reflète pas nécessairement la répartition globale de la censure. » « Le nombre de cas relevé n’est pas très important en soit, le plus significatif est que nous avons identifié un schéma, une tendance » souligne Deborah Brown, qui a mené cette étude. « Souvent les utilisateurs ne sont pas avertis que leurs contenus ont été supprimés, ou ils le sont pour des motifs qui ne correspondent pas à la publication, par exemple « nudité » ou « contenu sexuel. » »

C’est par exemple le cas de Juliette*, militante pro-palestinienne, qui a vu plusieurs de ses stories Instagram supprimées. Le 6 juin, elle a ainsi posté une photo du bombardement qui a touché une école gérée par l’UNRWA, une agence de l’ONU. Quelques heures plus tard, elle découvre stupéfaite que sa story a été retirée, au motif qu’elle allait à l’encontre des normes d’Instagram en raison de la politique de Meta quant à la nudité et les pratiques sexuelles. Adnan Barq, un activiste pro-palestinien vivant à Jérusalem, a quant à lui vu son compte être restreint en octobre 2023, les gens ne le suivant pas ne pouvant alors plus le rechercher, et son contenu n’apparaissait plus dans la partie découvrir ou les recommandations. Par ailleurs, il ne pouvait plus faire de « live. » Access Now, a également relevé des cas dans lesquels des commentaires où apparaissaient le drapeau palestinien sous des contenus pacifiques étaient « cachés par Instagram. »

Les messages envoyés par Instagram à Adnan Barq pour lui notifier le shadow-ban de son compte — Source : AccessNow (https://www.accessnow.org/publication/how-meta-censors-palestinian-voices/)
Les messages envoyés par Instagram à Adnan Barq pour lui notifier le shadow-ban de son compte — Source : AccessNow

Un véritable flou autour des politiques de modération

Mais comment expliquer cette modération défectueuse de certains contenus pro-palestiniens sur Facebook et Instagram ? Dionysia Peppa, analyste des politiques à SMEX, « une organisation à but non lucratif qui défend et fait progresser les droits de l’homme dans les espaces numériques en Asie occidentale et en Afrique du Nord », énonce : « C’est très compliqué de comprendre les raisons de cette censure car il y a un véritable manque de transparence de la part de Meta sur ses politiques de modération. » Marwa Fatafta renchérit : « Meta fait aussi preuve de peu de transparence par rapport aux entreprises qu’elle engage pour modérer les contenus. » Ce que confirme Jules*, modérateur de contenus : « Pour la modération de contenus, Meta engage des entreprises extérieures, et leur donnent des règles à suivre. Mais elles n’affichent pas publiquement le fait de travailler pour Facebook ou Instagram par exemple. » Kévin*, un autre modérateur de contenus, énumère : « Quelques unes des entreprises employées sont Teleperformance, Concentrix, GrowthFn ou Accenture. »

Il reste possible d’identifier certains facteurs responsables de la suppression, de la suspension ou du « shadow-ban » — c’est-à-dire l’invisibilisation — de contenus. C’est ce qu’indique Deborah Brown : « C’est lié à ce que Meta interdit sur ses plateformes, notamment depuis l’avènement de la politique sur les « organismes et individus dangereux » [Dangerous Organizations Individuals-DOI], qui définit l’approche de l’entreprise à l’égard des contenus impliquant des individus ou des événements violents. En raison de la manière dont cette politique s’est développée, à savoir de façon très large, elle finit par inclure un grand nombre de contenus condamnant le terrorisme ou documentant des contenus violents, mais ne prônant absolument pas la violence. »

Le problème est également lié à l’automatisation de la modération de contenu, comme le révèle Marwa Fatafta : « Les récents rapports de transparence publiés dans le cadre du Digital Service Act (DSA) [règlement européen sur les services numériques qui date de 2022] soulignent la dépendance excessive de certaines plateformes de médias sociaux à l’égard de la modération automatisée du contenu. » Ainsi, Meta facilite grandement la suppression de contenus comportant les noms d’organisations considérées terroristes par les Etats-Unis, comme le Hamas. Ils sont donc très souvent retirés des plateformes, du moins dans un premier temps, même s’ils les dénoncent ou les critiquent. Rachid*, un modérateur de contenus, raconte : « On a une liste d’organisations terroristes fournies par l’entreprise, qui correspond à la liste donnée par les Etats-Unis. Et quand le mot apparaît dans une publication, elle peut être retirée, ou le compte démonétisé par exemple. »

Des modérateur·ices en sous-effectif

L’automatisation de la modération de contenus n’est pas suffisante, et derrière il est nécessaire qu’il y ait un nombre suffisant de modérateur·ices de contenus dans toutes les langues. Le rapport BSR pointait par exemple un manque de modérateur·ices parlant correctement l’arabe palestinien. Ce que confirme Deborah Brown : « Il y a des modérateurs parlant arabe. Le problème est qu’il y a des variations selon les endroits où cette langue est parlée. Il y a donc des mauvaises traductions de l’arabe palestinien, et certaines choses sont comprises comme des incitations à la haine, alors que non. C’est simplement une façon différente de dire les choses. » En automne 2020, Facebook employait 766 modérateur·ices arabophones — pour 220 millions d’utilisateur·ices arabophones — dont 11 parlant l’arabe palestinien.

Les rapports de transparence des réseaux sociaux publiés en novembre 2023, à la suite du DSA, apprenaient par exemple qu’il n’y avait que 1 362 modérateur·ices en langues européennes et 2 000 pour analyser les images. Les chiffres des autres langues n’ont pas été donnés. Pour Facebook, il était écrit que 94% des décisions étaient prises via l’Intelligence artificielle, un pourcentage montant à 98% pour Instagram. Les décisions prises par les modérateur·ices concernent majoritairement des contenus signalés par d’autres utilisateur·ices. C’est pourquoi les ONG défendant les droits numériques des militant·es palestinien·nes et pro-palestinien·nes s’inquiètent de « biais algorithmiques. » « On n’est pas en nombre suffisant pour modérer les contenus, qui sont toujours plus nombreux » affirme Rachid*.

Kévin*, spécifie : « L’entreprise donne un certain nombre de règles à suivre. Toute la journée, on vérifie des contenus, soit pour lesquels on a reçu des signalements, soit l’outil d’intelligence artificielle nous a avertis d’un potentiel problème. Sinon, on regarde aussi des contenus au hasard, et on vérifie que tout est en règle. » Il poursuit : « Pour la formation, on est suivis entre une et huit semaines, ça dépend.» Rachid* précise : « On reçoit des formations, et des précisions chaque semaine sur les politiques de modération qui changent très souvent. Comme après le 7 octobre on nous a dit d’être plus vigilants sur les contenus qui concernaient la conflit israélo-palestinien. »

Une mission d’information

Une autre des raisons pour lesquelles des contenus palestiniens et pro-palestiniens sont retirés de Facebook et Instagram est liée au fait que les contenus violents ou choquants, ainsi que ceux comportant du sang sont interdits. Le DOI stipule par exemple : « Nous n’autorisons pas (…) les images de tiers illustrant le moment de telles attaques [des attaques terroristes, des (tentatives) de tueries, des crimes de haine, des évènements violents en infraction] sur des victimes visibles. » C’est pourquoi, des campagnes, comme « Stop Silencing Palestine », menées par différentes ONG, dont Amnesty International, SMEX, Access Now, 7amleh, Fight for the Future, demandent à ce qu’une exception soit faite à ce niveau là, afin de pouvoir informer les gens sur ce qu’il se passe dans la bande de Gaza.

Mais améliorer la modération s’avère plus que complexe. Marwa Fatafta met en garde « Si certaines lois étaient mises en place, elles pourraient être utilisées pour limiter davantage la liberté d’expression. Mais le DSA est prometteur. » Deborah Brown conclut : « Actuellement nous sommes en discussion avec Meta, et nous leur faisons des recommandations afin d’améliorer leur modération. Je ne sais pas si ça fonctionnera, mais on voit de plus en plus de sénateurs américains, comme Bernie Sanders ou Elizabeth Warren, qui écrivent des lettres afin de demander plus de transparence à l’entreprise, et des réponses aux problèmes rencontrés, notamment sur la censure des contenus pro-palestiniens. » Meta a affirmé ne discriminer en rien les Palestinien·nes et pro-Palestinien·nes, mais a refusé d’en fournir les preuves, affirmait en mars dernier la sénatrice démocrate Elizabeth Warren dans The Intercept.

Au sein de l’entreprise, les choses commencent également à bouger. Des employé·es de Meta ont ainsi envoyé une lettre ouverte à Mark Zuckerberg, dans laquelle ils dénoncent une « censure interne et externe » à l’égard des contenus pro-palestiniens, et demandent une réponse humaine ainsi qu’un respect pour les victimes palestiniennes.

*Les prénoms ont été modifiés

Sollicité, Meta avait initialement accepté de répondre à une liste de questions écrites, mais n’a plus donné suite après avoir reçu nos questions.

--

--