En seulement deux jours, des chercheurs de l’Université de Stanford ont trouvé des centaines de messages sur Mastodon avec du contenu d’abus sexuels sur des enfants.
Mastodon, une plate-forme de médias sociaux devenue populaire en tant qu’alternative possible à Twitter, regorge de contenus d’abus sexuels sur des enfants, selon un nouveau rapport des chercheurs de l’Université de Stanford.
En seulement deux jours, les chercheurs ont trouvé 112 cas de matériel d’abus sexuel d’enfants sur environ 325 000 publications analysées.
Ils ont également trouvé « 554 instances de contenu identifié comme sexuellement explicite avec la plus grande confiance par Google SafeSearch », selon le rapport de l’Observatoire Internet de Stanford.
Il n’a fallu qu’environ cinq minutes pour trouver la première instance de contenu d’abus sexuels sur des enfants.
Mastodon est un site de médias sociaux décentralisé, contrairement aux grandes entreprises telles que Facebook, Twitter et YouTube.
Cela signifie que plusieurs serveurs appelés instances sont exécutés indépendamment avec des utilisateurs capables de créer leurs propres comptes. Chaque instance crée son propre code de conduite et ses propres règlements.
Ceux-ci sont appliqués « localement et non de haut en bas comme les médias sociaux d’entreprise, ce qui en fait le plus flexible pour répondre aux besoins de différents groupes de personnes », déclare Mastodon.
Les chercheurs de Stanford ont analysé les 25 meilleures instances de Mastodon, déterminées par leur nombre total d’utilisateurs. Le média a été soumis à PhotoDNA et à SafeSearch de Google pour analyse.
Ils ont également examiné le plus grand Fediverse, qui est un groupe de plateformes de médias sociaux décentralisées comprenant Mastodon, Bluesky, Pleroma et Lemmy.
Sur le Fediverse, les chercheurs ont trouvé 713 utilisations des 20 principaux hashtags liés aux abus sexuels sur des enfants sur des publications avec médias et 1 217 publications sans médias.
Les médias sociaux décentralisés présentent des problèmes de modération de sécurité
« À une époque où l’intersection de la modération et de la liberté d’expression est un sujet délicat, les réseaux sociaux décentralisés ont attiré une attention considérable et plusieurs millions de nouveaux utilisateurs », ont écrit les chercheurs de Stanford David Thiel et Renée DiResta dans le rapport publié lundi et rapporté pour la première fois dans le Washington Post.
Ils disent que cette approche « décentralisée » des médias sociaux présente des défis pour la sécurité car il n’y a pas d’équipe de modération centrale pour supprimer les images d’abus d’enfants.
« Alors que Mastodon autorise les signalements d’utilisateurs et dispose d’outils de modération pour les examiner, il ne dispose d’aucun mécanisme intégré pour signaler le CSAM (matériel d’abus sexuel d’enfants) aux organisations de sécurité des enfants concernées », écrivent Thiel et DiResta.
« Il n’a pas non plus d’outils pour aider les modérateurs en cas d’exposition à un contenu traumatisant, par exemple, des mécanismes de niveaux de gris et de flou à grain fin. »
Mastodon a gagné en popularité depuis le rachat de Twitter par Elon Musk.
La semaine dernière, le fondateur et PDG Eugen Rochko a déclaré que la plate-forme le nombre mensuel d’utilisateurs actifs a atteint 2,1 millions, ce qui n’est « pas loin » de son dernier pic.
Thiel et DiResta affirment que si les médias sociaux décentralisés pourraient contribuer à « favoriser un environnement plus démocratique », ils devront résoudre des problèmes de sécurité pour « prospérer ».