Un comité chargé de rendre des jugements sur la liberté d’expression en ligne pour Meta a exhorté l’entreprise à modifier sa politique à l’égard des médias manipulés.
Un conseil de surveillance critique les politiques du propriétaire de Facebook, Meta, concernant les médias manipulés, les qualifiant d’« incohérentes et déroutantes pour les utilisateurs », et insuffisantes pour faire face au flot de désinformation en ligne qui a déjà commencé à cibler les élections à travers le monde cette année.
Le conseil d’administration quasi-indépendant a déclaré lundi que son examen d’une vidéo modifiée du président Joe Biden diffusée sur Facebook avait révélé des lacunes dans la politique.
Le conseil d’administration a déclaré que Meta devrait étendre sa politique pour se concentrer non seulement sur les vidéos générées avec l’intelligence artificielle (IA), mais également sur les médias, quelle que soit la manière dont ils ont été créés. Cela inclut de faux enregistrements audio, qui ont déjà usurpé l’identité de candidats politiques de manière convaincante aux États-Unis et ailleurs.
L’entreprise devrait également clarifier les dommages qu’elle tente de prévenir et étiqueter les images, vidéos et clips audio comme étant manipulés au lieu de supprimer complètement les publications, a déclaré le Meta Oversight Board.
Les commentaires du conseil reflètent l’examen minutieux auquel sont confrontées de nombreuses entreprises technologiques pour leur gestion des mensonges électoraux au cours d’une année où les électeurs de plus de 50 pays se rendront aux urnes.
Alors que les deepfakes issus de l’intelligence artificielle générative et les « contrefaçons bon marché » de moindre qualité sur les réseaux sociaux menacent d’induire les électeurs en erreur, les plateformes tentent de rattraper leur retard et de répondre aux faux messages tout en protégeant les droits des utilisateurs à la liberté d’expression.
« Dans l’état actuel des choses, la politique n’a pas beaucoup de sens », a déclaré lundi le coprésident du Conseil de surveillance, Michael McConnell, à propos de la politique de Meta. Il a déclaré que l’entreprise devrait combler les lacunes de la politique tout en garantissant que le discours politique soit « inébranlablement protégé ».
Meta a déclaré qu’elle examinait actuellement les orientations du Conseil de surveillance et qu’elle répondrait publiquement aux recommandations dans un délai de 60 jours.
Le porte-parole Corey Chambliss a déclaré que même si les deepfakes audio ne sont pas mentionnés dans la politique de l’entreprise en matière de manipulation des médias, ils peuvent faire l’objet d’une vérification des faits et seront étiquetés ou déclassés si les vérificateurs les jugent faux ou modifiés. La société prend également des mesures contre tout type de contenu s’il viole les standards de la communauté de Facebook, a-t-il déclaré.
Facebook, qui a fêté ses 20 ans cette semaine, reste le réseau social le plus populaire auprès des Américains pour s’informer, selon Pew. Mais d’autres sites de médias sociaux, parmi lesquels Instagram, WhatsApp et Threads de Meta, ainsi que X, YouTube et TikTok, sont également des plateformes potentielles où des médias trompeurs peuvent se propager et tromper les électeurs.
Meta a créé son conseil de surveillance en 2020 pour servir d’arbitre du contenu sur ses plateformes. Ses recommandations actuelles font suite à l’examen d’un clip modifié du président Biden et de sa petite-fille adulte qui était trompeur mais ne violait pas les politiques spécifiques de l’entreprise.
Les images originales montraient Biden plaçant un autocollant « J’ai voté » haut sur la poitrine de sa petite-fille, selon ses instructions, puis l’embrassant sur la joue. La version qui est apparue sur Facebook a été modifiée pour supprimer le contexte important, donnant l’impression qu’il l’avait touchée de manière inappropriée.
La décision du conseil d’administration rendue lundi a confirmé la décision de Meta de 2023 de laisser le clip de sept secondes sur Facebook, car il ne violait pas la politique actuelle de l’entreprise en matière de manipulation des médias.
La politique actuelle de Meta stipule qu’elle supprimera les vidéos créées à l’aide d’outils d’IA qui dénaturent le discours de quelqu’un.
« Étant donné que la vidéo de ce message n’a pas été modifiée à l’aide de l’IA et qu’elle montre le président Biden faisant quelque chose qu’il n’a pas fait (pas quelque chose qu’il n’a pas dit), elle ne viole pas la politique existante », indique le jugement.
Le conseil d’administration a conseillé à l’entreprise de mettre à jour la politique et de qualifier les vidéos similaires de manipulées à l’avenir. Il a fait valoir que pour protéger les droits des utilisateurs à la liberté d’expression, Meta devrait étiqueter le contenu comme étant manipulé plutôt que de le supprimer de la plateforme s’il ne viole aucune autre politique.
Le conseil a également noté que certaines formes de médias manipulés sont conçues à des fins d’humour, de parodie ou de satire et devraient être protégées. Au lieu de se concentrer sur la manière dont une image, une vidéo ou un clip audio déformé a été créé, la politique de l’entreprise devrait se concentrer sur les dommages que les publications manipulées peuvent causer, comme la perturbation du processus électoral, selon la décision.
Meta a déclaré sur son site Web qu’elle se félicitait de la décision du Conseil de surveillance sur le message de Biden et qu’elle mettrait à jour le message après avoir examiné les recommandations du conseil.
Meta est tenu de tenir compte des décisions du Conseil de surveillance sur des décisions de contenu spécifiques, bien qu’il ne soit pas obligé de suivre les recommandations plus larges du conseil. Néanmoins, le conseil d’administration a amené l’entreprise à apporter certains changements au fil des ans, notamment en rendant plus spécifiques les messages destinés aux utilisateurs qui enfreignent ses politiques pour leur expliquer ce qu’ils ont fait de mal.
Jen Golbeck, professeur au College of Information Studies de l’Université du Maryland, a déclaré que Meta est suffisamment important pour être un leader dans l’étiquetage des contenus manipulés, mais que le suivi est tout aussi important que le changement de politique.
« Vont-ils mettre en œuvre ces changements, puis les appliquer face à la pression politique de ceux qui veulent faire de mauvaises choses ? C’est la vraie question », a-t-elle déclaré.
« S’ils apportent ces changements et ne les appliquent pas, cela contribue en quelque sorte à cette destruction de confiance qui accompagne la désinformation. »