A demonstrator takes part in a rally against Israeli airstrikes and to show solidarity with Palestinian people living in Gaza and Lebanon, in Pakistan, Sunday, Oct. 6

Jean Delaunay

Les ONG de défense des droits humains affirment que les réseaux sociaux continuent de censurer les contenus pro-palestiniens

Un an après l’escalade entre Israël et le Hamas, certaines ONG affirment que peu de progrès ont été réalisés pour mettre fin à la suppression des contenus pro-palestiniens.

Les ONG de défense des droits de l’homme affirment que peu de progrès ont été réalisés pour mettre fin à la censure numérique des voix pro-palestiniennes sur les réseaux sociaux, un an après l’escalade du conflit Israël-Hamas.

La guerre a éclaté l’année dernière lorsque le groupe militant palestinien Hamas a lancé une attaque dans le sud d’Israël, où ils ont pris 250 personnes en otages et en ont tué 1 200.

Israël a répondu par des frappes aériennes et en envoyant des troupes terrestres dans la bande de Gaza, la guerre tuant environ 42 000 Palestiniens, selon le ministère de la Santé de Gaza.

Depuis l’attaque du 7 octobre, l’Observatoire palestinien des violations des droits numériques a enregistré plus de 1 350 cas de censure en ligne sur les principales plateformes via un appel ouvert sur son site Web jusqu’au 1er juillet 2024, la plupart des rapports étant liés à Meta, TikTok, X. , et Youtube.

L’échantillon comprend des histoires de suspensions, de retraits de contenu et de restrictions de compte.

Le Centre arabe pour l’avancement des médias sociaux (7amleh) a interprété ces résultats dans un rapport de septembre comme une « décision délibérée » de « sur-modérer de manière agressive les contenus liés à la Palestine ».

« Lorsque les plateformes en ligne autorisent les discours de haine et l’incitation à la haine sur leurs plateformes, elles pourraient se rendre coupables d’avoir contribué à la diffusion de contenus déshumanisant les Palestiniens et justifiant leurs punitions collectives », indique le rapport.

Des groupes pro-israéliens ont cependant critiqué ce qu’ils considèrent comme des tentatives visant à lever les restrictions sur les réseaux sociaux concernant l’antisémitisme.

Comment le contenu ou les comptes sont supprimés

L’ONG Human Rights Watch avait déjà documenté comment les utilisateurs avaient vu leur contenu bloqué ou supprimé par Meta dans un rapport publié en décembre dernier.

Les utilisateurs verraient d’abord un seul message, une histoire ou un commentaire faisant référence à la Palestine examiné puis supprimé avec peu ou pas d’explications pointant vers une violation spécifique de la politique, selon Rasha Younes, chercheuse principale à Human Rights Watch.

Ensuite, Younes a déclaré avoir entendu des utilisateurs dont les comptes avaient été empêchés de commenter d’autres contenus pro-palestiniens ou désactivés pendant une période allant de 24 heures à trois mois.

Il y en a d’autres qui ont décrit avoir été « bannis de l’ombre », l’idée que leurs publications étaient moins visibles pour les autres utilisateurs sur Instagram et Facebook, a poursuivi Younes.

Younes a déclaré que les utilisateurs qui ont tenté de contester ces restrictions ont trouvé le message « nous avons fait une erreur ? » bouton désactivé, ce qui, selon elle, « viole les propres politiques de Meta ».

Pour ceux qui sont bloqués, Younes a déclaré qu’ils « n’auraient peut-être aucun endroit où aller » pour exprimer leur activisme politique ou vivre la réalité pendant le conflit.

Les rapports de HRW et de 7amleh s’appuient tous deux sur l’expérience directe des utilisateurs, mais les chercheurs des deux groupes souhaitent pousser les sociétés de médias sociaux comme Meta à publier des données sur les publications bloquées par la modération automatique afin de pouvoir effectuer des recherches plus approfondies.

« Ce que nous voyons, ce sont des gens qui travaillent dans ces entreprises, ils veulent ces changements… mais malheureusement, ils ne sont pas les décideurs, donc ils ne peuvent pas vraiment changer quoi que ce soit », a déclaré à L’Observatoire de l’Europe Taysir Mathlouthi, responsable du plaidoyer européen de 7amleh. .

Les entreprises technologiques « affinent leur approche » pendant le conflit

Meta et TikTok ont ​​refusé de répondre à des questions directes sur leurs politiques de modération de contenu et ont plutôt renvoyé L’Observatoire de l’Europe Next à des rapports récents sur leurs réponses.

Dans le rapport de Meta de septembre, la société a déclaré avoir affiné son approche pour « refléter la dynamique changeante » de la crise humanitaire à Gaza et de la prise d’otages par le Hamas.

Mais l’entreprise a admis que certaines de ses décisions politiques, comme l’abaissement des seuils d’application automatisée, « limitent par inadvertance la discussion sur des événements mondiaux critiques ».

Un porte-parole de Meta a cependant déclaré à L’Observatoire de l’Europe l’année dernière que le rapport de HRW « ignore les réalités de l’application de nos politiques à l’échelle mondiale dans un conflit intense, hautement polarisé et en évolution rapide », ajoutant que « l’implication selon laquelle nous supprimons délibérément et systématiquement une voix particulière » est faux ».

Pour TikTok, la société a déclaré dans un rapport du 2 octobre avoir supprimé 4,7 millions de vidéos et suspendu 300 000 diffusions en direct entre le 7 octobre 2023 et le 15 septembre 2024, soit pour promotion du Hamas, pour discours de haine ou pour désinformation.

Plus tôt cette année, la société a déclaré avoir ajouté du contenu « sioniste » à sa politique en matière de discours de haine « lorsqu’il est utilisé… (comme) proxy d’une identité juive ou israélienne ».

« Cette politique a été mise en œuvre au début de cette année après avoir observé une augmentation de la manière dont le mot était de plus en plus utilisé de manière haineuse », a déclaré TikTok.

L’Observatoire de l’Europe Next a contacté YouTube et X mais n’a pas reçu de réponse immédiate.

L’UE est invitée à « faire pression » sur les sociétés de médias sociaux

Il y a une responsabilité que l’UE doit également assumer, même si le conflit ne se déroule pas directement à l’intérieur de ses frontières, selon Mathlouthi de 7amleh.

La Commission européenne a récemment adopté la loi sur les services numériques (DSA), qui introduit de nouveaux mécanismes pour lutter contre les contenus illégaux en ligne, selon une description de la nouvelle loi.

Cependant, Mathlouthi a déclaré qu’il n’y avait pas de véritable définition de ce que la loi considère comme « l’incitation ou le contenu préjudiciable », ce qui rend difficile de faire pression sur ces grandes entreprises par le biais de la loi.

« Nous voulons plus de réglementation, plus de contrôle et plus de transparence, et cela ne se fera jamais sans pression. »

Taysir Mathlouthi

7amleh Chargée de plaidoyer auprès de l’UE

« Nous voulons plus de réglementation, nous voulons plus de contrôle et nous voulons plus de transparence et cela ne se fera jamais sans pression », a déclaré Mathlouthi.

En octobre dernier, l’UE a demandé à X, Meta et TikTok des informations sur la manière dont ils réglementaient les contenus relatifs au conflit. C’est la première étape pour déterminer si une enquête complète est nécessaire dans le cadre du DSA.

En décembre, la Commission européenne a ouvert une procédure formelle contre X pour répondre, entre autres préoccupations, à « la diffusion de contenus illégaux dans le contexte des attaques terroristes du Hamas contre Israël », indiquait alors un communiqué de presse.

L’UE a depuis lancé des enquêtes formelles contre Meta, TikTok et TikTok Lite pour d’autres violations possibles de la DSA, mais n’a pas explicitement mentionné les contenus liés à Israël ou à la Palestine comme l’une de leurs raisons.

L’Observatoire de l’Europe Next a contacté la Commission européenne pour confirmer si les informations reçues de Meta et TikTok sur leurs politiques de modération sur la guerre Israël-Hamas étaient satisfaisantes, mais n’a pas reçu de réponse immédiate.

Laisser un commentaire

20 − 4 =