Meta

Jean Delaunay

Les grandes entreprises technologiques signent un accord pour lutter contre la désinformation électorale générée par l’IA

Meta, OpenAI, TikTok, Microsoft et Amazon figuraient parmi les signataires de l’accord lors de la conférence sur la sécurité de Munich. Le X d’Elon Musk s’est également inscrit.

Les grandes entreprises technologiques ont signé vendredi un pacte pour adopter volontairement des « précautions raisonnables » pour empêcher que les outils d’intelligence artificielle (IA) ne soient utilisés pour perturber les élections démocratiques dans le monde.

Des dirigeants d’Adobe, d’Amazon, de Google, d’IBM, de Meta, de Microsoft, d’OpenAI et de TikTok se sont réunis lors de la conférence sur la sécurité de Munich pour annoncer un nouveau cadre sur la façon dont ils réagissent aux deepfakes générés par l’IA qui trompent délibérément les électeurs.

Douze autres sociétés, dont X d’Elon Musk, ont également signé l’accord.

« Tout le monde reconnaît qu’aucune entreprise technologique, aucun gouvernement, aucune organisation de la société civile n’est en mesure de faire face seule à l’avènement de cette technologie et à son éventuelle utilisation néfaste », a déclaré Nick Clegg, président des affaires mondiales de Meta, l’association. société mère de Facebook et Instagram, dans une interview avant le sommet.

L’accord est en grande partie symbolique, mais cible des images, des fichiers audio et vidéo de plus en plus réalistes générés par l’IA « qui falsifient ou modifient de manière trompeuse l’apparence, la voix ou les actions des candidats politiques, des responsables électoraux et d’autres parties prenantes clés d’une élection démocratique, ou qui fournir de fausses informations aux électeurs sur le moment, le lieu et la manière dont ils peuvent voter légalement ».

Les entreprises ne s’engagent pas à interdire ou à supprimer les deepfakes. Au lieu de cela, l’accord décrit les méthodes qu’ils utiliseront pour tenter de détecter et d’étiqueter le contenu trompeur de l’IA lorsqu’il est créé ou distribué sur leurs plateformes.

Il note que les entreprises partageront leurs meilleures pratiques et fourniront des « réponses rapides et proportionnées » lorsque ce contenu commencera à se diffuser.

Absence d’exigences contraignantes

Le flou des engagements et l’absence d’exigences contraignantes ont probablement contribué à convaincre un large éventail d’entreprises, mais les défenseurs déçus recherchaient des assurances plus solides.

« Le langage n’est pas aussi fort qu’on aurait pu s’y attendre », a déclaré Rachel Orey, directrice associée principale du projet élections au Bipartisan Policy Center.

« Je pense que nous devrions rendre à César ce qui appartient à César et reconnaître que les entreprises ont tout intérêt à ce que leurs outils ne soient pas utilisés pour saper des élections libres et équitables. Cela dit, c’est volontaire et nous garderons un œil attentif. s’ils donnent suite ».

Clegg a déclaré que chaque entreprise « a à juste titre son propre ensemble de politiques en matière de contenu ».

« Il ne s’agit pas ici d’imposer une camisole de force à tout le monde », a-t-il déclaré.

« Et de toute façon, personne dans l’industrie ne pense que l’on peut faire face à un tout nouveau paradigme technologique en balayant les choses sous le tapis et en essayant de jouer à la taupe et de trouver tout ce qui, selon vous, pourrait induire quelqu’un en erreur ».

Plusieurs dirigeants politiques d’Europe et des États-Unis se sont également joints à l’annonce de vendredi. La vice-présidente de la Commission européenne, Vera Jourova, a déclaré que même si un tel accord ne peut pas être exhaustif, « il contient des éléments très percutants et positifs ».

Elle a également exhorté ses collègues politiques à prendre leurs responsabilités et à ne pas utiliser les outils d’IA de manière trompeuse et a averti que la désinformation alimentée par l’IA pourrait entraîner « la fin de la démocratie, pas seulement dans les États membres de l’UE ».

L’ingérence de l’IA dans les élections est déjà en cours

L’accord conclu lors de la réunion annuelle sur la sécurité de la ville allemande intervient alors que plus de 50 pays doivent organiser des élections nationales en 2024. Le Bangladesh, Taiwan, le Pakistan et plus récemment l’Indonésie l’ont déjà fait.

Les tentatives d’interférence électorale générées par l’IA ont déjà commencé, comme lorsque les appels automatisés de l’IA imitant la voix du président américain Joe Biden ont tenté de décourager les gens de voter aux élections primaires du New Hampshire le mois dernier.

Quelques jours seulement avant les élections slovaques de novembre, des enregistrements audio générés par l’IA ont usurpé l’identité d’un candidat discutant de projets visant à augmenter les prix de la bière et à truquer les élections. Les vérificateurs de faits se sont empressés de les identifier comme étant faux au fur et à mesure qu’ils se propageaient sur les réseaux sociaux.

Les politiciens ont également expérimenté cette technologie, depuis l’utilisation de chatbots IA pour communiquer avec les électeurs jusqu’à l’ajout d’images générées par l’IA aux publicités.

L’accord appelle les plateformes à « prêter attention au contexte et en particulier à sauvegarder l’expression éducative, documentaire, artistique, satirique et politique ».

Il a déclaré que les entreprises se concentreraient sur la transparence de leurs politiques envers les utilisateurs et s’efforceraient d’éduquer le public sur la manière dont ils peuvent éviter de tomber dans le piège des contrefaçons d’IA.

La plupart des entreprises ont déjà déclaré qu’elles mettaient en place des garanties sur leurs propres outils d’IA générative capables de manipuler des images et du son, tout en s’efforçant d’identifier et d’étiqueter le contenu généré par l’IA afin que les utilisateurs des médias sociaux sachent si ce qu’ils voient est réel. Mais la plupart des solutions proposées n’ont pas encore été déployées et les entreprises ont été contraintes d’en faire davantage.

Cette pression est accrue aux États-Unis, où le Congrès n’a pas encore adopté de lois réglementant l’IA dans la politique, laissant les entreprises se gouverner elles-mêmes.

La Federal Communications Commission a récemment confirmé que les clips audio générés par l’IA dans les appels automatisés sont contraires à la loi, mais cela ne couvre pas les deepfakes audio lorsqu’ils circulent sur les réseaux sociaux ou dans les publicités de campagne.

De nombreuses sociétés de médias sociaux ont déjà mis en place des politiques pour dissuader les publications trompeuses sur les processus électoraux – générées ou non par l’IA.

Meta affirme qu’il supprime les informations erronées sur « les dates, lieux, heures et méthodes de vote, d’inscription des électeurs ou de participation au recensement » ainsi que d’autres faux messages destinés à interférer avec la participation civique d’une personne.

Les absents de l’accord

Jeff Allen, co-fondateur de l’Integrity Institute et ancien data scientist de Facebook, a déclaré que l’accord semble être une « étape positive », mais il aimerait quand même voir les sociétés de médias sociaux prendre d’autres mesures pour lutter contre la désinformation, comme la création de recommandations de contenu. des systèmes qui ne donnent pas la priorité à l’engagement par-dessus tout.

Lisa Gilbert, vice-présidente exécutive du groupe de défense Public Citizen, a fait valoir vendredi que l’accord n’est « pas suffisant » et que les sociétés d’IA devraient « retenir la technologie » telle que les générateurs texte-vidéo hyperréalistes « jusqu’à ce qu’il y ait des résultats substantiels et des garanties adéquates en place pour nous aider à éviter de nombreux problèmes potentiels ».

Outre les entreprises qui ont aidé à négocier l’accord de vendredi, les autres signataires incluent les développeurs de chatbots Anthropic et Inflection AI ; la startup de clone vocal ElevenLabs ; le concepteur de puces Arm Holdings ; les sociétés de sécurité McAfee et TrendMicro ; et Stability AI, connu pour avoir créé le générateur d’images Stable Diffusion.

Un autre générateur d’images IA populaire, Midjourney, est particulièrement absent. La startup basée à San Francisco n’a pas immédiatement répondu à une demande de commentaires vendredi.

L’inclusion de X – non mentionnée dans une annonce précédente concernant l’accord en cours – a été l’une des surprises de l’accord de vendredi.

Musk a considérablement réduit les équipes de modération de contenu après avoir repris l’ancien Twitter et s’est décrit comme un « absolutiste de la liberté d’expression ».

Dans un communiqué vendredi, la PDG de X, Linda Yaccarino, a déclaré que « chaque citoyen et chaque entreprise a la responsabilité de garantir des élections libres et équitables ».

« X s’engage à jouer son rôle, en collaborant avec ses pairs pour lutter contre les menaces de l’IA tout en protégeant la liberté d’expression et en maximisant la transparence », a-t-elle déclaré.

Laisser un commentaire

dix-neuf − 18 =