Meta prévoit de masquer les publications sur le suicide et les troubles de l’alimentation des flux Instagram et Facebook des adolescents.
Meta a annoncé mardi qu’elle commencerait à cacher les contenus inappropriés des comptes d’adolescents sur Instagram et Facebook, notamment les publications sur le suicide, l’automutilation et les troubles de l’alimentation.
Le géant des médias sociaux basé à Menlo Park, en Californie, a déclaré dans un article de blog que même s’il avait déjà pour objectif de ne pas recommander de tels contenus « inappropriés à leur âge » aux adolescents, il ne les montrerait désormais plus dans leurs flux, même s’ils le sont. partagé par un compte qu’ils suivent.
« Nous voulons que les adolescents vivent des expériences sûres et adaptées à leur âge sur nos applications », a déclaré Meta.
Les utilisateurs adolescents – à condition qu’ils n’aient pas menti sur leur âge lorsqu’ils se sont inscrits sur Instagram ou Facebook – verront également leurs comptes placés sur les paramètres les plus restrictifs des plateformes, et ils ne pourront plus rechercher de termes susceptibles d’être nuisibles.
« Prenons l’exemple d’une personne qui publie un article sur sa lutte continue contre des pensées d’automutilation. Il s’agit d’une histoire importante qui peut aider à déstigmatiser ces problèmes, mais c’est un sujet complexe qui ne convient pas nécessairement à tous les jeunes », a déclaré Meta.
« Maintenant, nous allons commencer à supprimer ce type de contenu des expériences des adolescents sur Instagram et Facebook, ainsi que d’autres types de contenu inapproprié pour leur âge. »
L’annonce de Meta intervient alors que l’entreprise fait face à des poursuites judiciaires de la part de dizaines d’États américains qui l’accusent de nuire aux jeunes et de contribuer à la crise de santé mentale des jeunes en concevant sciemment et délibérément des fonctionnalités sur Instagram et Facebook qui rendent les enfants accros à ses plateformes.
Les critiques ont déclaré que les actions de Meta ne vont pas assez loin.
« L’annonce d’aujourd’hui par Meta est une nouvelle tentative désespérée d’éviter la réglementation et une gifle incroyable pour les parents qui ont perdu leurs enfants à cause de méfaits en ligne sur Instagram », a déclaré Josh Golin, directeur exécutif du groupe de défense des droits des enfants en ligne Fairplay.
« Si l’entreprise est capable de cacher du contenu pro-suicide et sur les troubles de l’alimentation, pourquoi a-t-elle attendu jusqu’en 2024 pour annoncer ces changements ?