L’Observatoire de l’Europe Next examine dans quelle mesure le monde a réussi ou non à protéger les électeurs contre la désinformation en ligne au cours de l’année électorale historique de 2024.
Les experts en désinformation affirment que de nombreux pays ont réussi à limiter un large éventail d’informations fausses ou trompeuses alors que les électeurs du monde entier se sont rendus aux urnes cette année, le contenu généré par l’intelligence artificielle (IA) ayant eu moins d’impact que prévu.
Plus de 1,6 milliard de personnes ont voté lors de plus de 70 élections tout au long de l’année, faisant de 2024 la plus grande année électorale de l’histoire de l’humanité, selon l’Institut international pour la démocratie et l’assistance électorale (IDEA).
L’Europe seule a vu les élections européennes, les élections nationales en Finlande, au Portugal, en France, au Royaume-Uni, en Autriche, en Belgique, en Bulgarie, en Géorgie, en Hongrie, en Islande, en Irlande, en Lituanie, en Moldavie, en Slovaquie et en Roumanie, ainsi que le premier tour de l’élection présidentielle. en Croatie.
Nous examinons dans quelle mesure les gouvernements du monde entier ont réussi à contenir la désinformation et quel impact, le cas échéant, cela a eu sur les résultats à l’aube de 2025.
L’IA est moins importante que prévu
À la veille de la plus grande année électorale de l’histoire, les experts dans le domaine de la désinformation s’inquiétaient du rôle que l’IA générative pourrait jouer dans la propagation de la désinformation liée aux élections.
Mais lorsque l’IA a été utilisée dans les campagnes de cette année, cela n’a pas été comme prévu par les experts.
Il y a eu moins de deepfakes créés dans des intentions malveillantes, et à la place davantage de vidéos générées par l’IA qui humiliaient ou glorifiaient les candidats, ont déclaré des experts à L’Observatoire de l’Europe Next.
Il y a eu quelques exemples isolés d’utilisation de l’IA pour créer des deepfakes visant à induire en erreur, comme l’audio généré par l’IA d’un hymne national en soutien au Français Jordan Bardella, de fausses publicités vidéo avec l’ancien Premier ministre britannique Rishi Sunak, ou des images générées par l’IA de Taylor Swift et ses fans soutiennent le président élu américain Donald Trump, mais ils ont été rapidement reconnus et démystifiés.
La préoccupation des experts avant les élections de cette année était que des contenus générés par l’IA plus avancés, plus authentiques et plus difficiles à détecter pourraient être utilisés par les décideurs pour tromper les électeurs, mais cela ne s’est pas produit, selon Giorgos Verdi, une politique chercheur auprès du Conseil européen des relations étrangères (ECFR).
« L’IA est un outil qui est apparu il y a à peine quelques années… on peut affirmer que ces outils ne sont pas assez mûrs », a déclaré Verdi.
« À mesure que ces outils commencent à se développer, nous pourrions voir ces lignes s’estomper », a-t-il ajouté.
D’autres méthodes de diffusion de la désinformation sont plus souvent utilisées que l’IA et restent efficaces, a déclaré Licinia Güttel de l’Oxford Internet Institute.
Certains pays avaient également mis en place une législation pour limiter la propagation de la désinformation générée par l’IA.
Dans l’UE, certaines grandes entreprises de technologie et d’IA ont signé un code de bonnes pratiques sur la désinformation (CoP) avant les élections, dans lequel elles se sont engagées à mettre en place un système de réponse rapide pour identifier et empêcher la propagation de fausses informations, selon le Centre de transparence de l’UE pour le Code de désinformation.
Plus la démocratie est forte, plus les protections sont fortes
En général, les pays sans démocratie ou dotés de démocraties plus récentes et plus fragiles ont connu des taux de désinformation plus élevés tout au long de l’année électorale, a déclaré Güttel.
Les Russes, qui votaient lors de leur élection présidentielle en mars dernier, ont vu davantage de discours pro-Poutine avant le vote, même s’il était « garanti » qu’il gagnerait l’élection, a ajouté Güttel.
Paolo Cesarini, directeur du programme de l’Observatoire européen des médias numériques (EDMO), a déclaré qu’il existe tout un « écosystème » de soutien dans les démocraties plus établies comme l’UE, qui a assez bien réussi à lutter contre l’ingérence étrangère sous forme de désinformation avant les élections.
L’ajout de protections législatives telles que la loi sur les services numériques (DSA) et la loi sur les marchés numériques (DMA) a forcé certaines grandes plateformes en ligne, comme TikTok, Instagram, Facebook et d’autres, à procéder à des évaluations des risques systémiques pour évaluer la manière dont la désinformation se propage sur leurs plateformes et trouver des moyens de les atténuer, a déclaré Verdi de l’ECFR.
La « résilience » de la Finlande face aux allégations de campagne hybride
En janvier, la Finlande s’est rendue aux urnes pour choisir son prochain président.
Alors que la préparation au jour du vote a été largement conviviale, le parti finlandais a été accusé d’une opération « d’influence hybride » sur les réseaux sociaux pour minimiser l’importance de ses candidats.
Les récits faisant ces affirmations ont également tenté de discréditer Yle, la chaîne publique du pays, et ont partagé des contenus anti-immigrés et anti-musulmans, selon un reportage d’L’Observatoire de l’Europe à l’époque.
Faktabaari, une ONG finlandaise de vérification des faits, a également constaté qu’un « effet d’entonnoir » sur YouTube a dirigé de nombreux électeurs finlandais vers des vidéos d’extrême droite pendant la campagne électorale qui « ont potentiellement influencé leurs points de vue ».
Paula Gori, secrétaire générale de l’EDMO, a déclaré que le pays est connu pour sa résilience face à la désinformation, car le gouvernement a lancé dès 2014 une solide initiative anti-fake news dans les écoles. Le pays nordique est également régulièrement en tête des classements en matière d’éducation aux médias.
Ainsi, Gori estime que les systèmes mis en place par la Finlande qui en font une société « résiliente » à la désinformation et constituent un bon exemple de ce qui a fonctionné lors du cycle électoral de cette année.
Roumanie : la désinformation sur les réseaux sociaux a mal tourné
Les récentes élections en Roumanie ont vu une victoire choquante au premier tour de Călin Georgescu, une figure marginale de la politique du pays.
Les élections ont été annulées en raison de rapports des services de renseignement faisant état d’une ingérence agressive de Moscou à travers une campagne de propagande anti-occidentale, en grande partie sur TikTok, pour modifier le vote.
Moscou maintient qu’elle ne s’est pas immiscée dans les élections, a rapporté la BBC.
Selon Cesarini, de l’EDMO, ce qui se passe en Roumanie confirme qu’exercer une pression législative sur les sociétés de médias sociaux est une bonne chose, compte tenu de la montée de la désinformation provenant de ces plateformes.
« Ce que Georgescu a fait, c’est exactement reproduire ce que les Russes… font depuis des années en créant de faux comptes, en achetant de faux engagements », a déclaré Cesarini.
Mais, selon Güttel de l’Oxford Internet Institute, il est trop tôt pour savoir si ce qui s’est passé en Roumanie pourrait se produire ailleurs.
Pour elle, le pays était déjà vulnérable à ce type de résultat en raison de son faible niveau d’éducation aux médias et de sa profonde méfiance à l’égard des médias traditionnels.
En 2022, la Roumanie était classée avant-dernière en matière d’éducation aux médias dans l’UE et 29e sur 38 en matière de confiance dans les médias traditionnels, selon l’EU Disinfo Lab, une organisation à but non lucratif.
Regard vers l’avenir
L’année prochaine sera encore une année importante en termes d’élections, avec des élections nationales attendues en Biélorussie, en Albanie, en République tchèque, en Allemagne, au Kosovo, en Norvège, en Pologne et une deuxième tentative pour les élections roumaines.
Même si l’IA n’a pas nécessairement joué un rôle aussi important qu’on le pensait cette année, Verdi estime que c’est quelque chose que les experts doivent encore réglementer car la technologie continuera de s’améliorer.
La désinformation nationale se poursuit également bien au-delà d’un cycle électoral, a déclaré Cesarini, il faut donc garder à l’esprit la stratégie à long terme des acteurs malveillants qui la créent.
« C’est une leçon de ne pas baisser la garde maintenant, mais d’agir avec plus de force et d’énergie… pour détecter ces campagnes », a-t-il déclaré.