Voici comment OpenAI, le créateur de ChatGPT, prévoit de dissuader la désinformation électorale en 2024.
Le créateur de ChatGPT, OpenAI, a présenté un plan pour empêcher que ses outils soient utilisés pour diffuser des informations erronées sur les élections alors que les électeurs de plus de 50 pays se préparent à voter aux élections nationales de cette année.
Les garanties énoncées par la startup d’intelligence artificielle (IA) basée à San Francisco dans un article de blog cette semaine comprennent un mélange de politiques préexistantes et d’initiatives plus récentes pour empêcher l’utilisation abusive de ses outils d’IA générative très populaires.
Ils peuvent créer de nouveaux textes et images en quelques secondes, mais aussi être utilisés comme armes pour concocter des messages trompeurs ou de fausses photographies convaincantes.
Les étapes s’appliqueront spécifiquement à OpenAI, seul acteur dans un univers en expansion d’entreprises développant des outils avancés d’IA générative.
La société, qui a annoncé ces mesures lundi, a déclaré qu’elle prévoyait de « poursuivre le travail de sécurité de sa plateforme en fournissant des informations de vote précises, en appliquant des politiques mesurées et en améliorant la transparence ».
Il a déclaré qu’il interdirait aux gens d’utiliser sa technologie pour créer des chatbots qui se font passer pour de vrais candidats ou gouvernements, pour déformer le fonctionnement du vote ou pour décourager les gens de voter. Il a déclaré que jusqu’à ce que davantage de recherches soient effectuées sur le pouvoir de persuasion de sa technologie, il ne permettra pas à ses utilisateurs de créer des applications à des fins de campagne politique ou de lobbying.
À partir du « au début de cette année », a déclaré OpenAI, il marquera numériquement les images d’IA créées à l’aide de son générateur d’images DALL-E. Cela marquera de manière permanente le contenu avec des informations sur son origine, ce qui permettra d’identifier plus facilement si une image qui apparaît ailleurs sur le Web a été créée à l’aide de l’outil d’IA.
La société a également déclaré qu’elle s’associe à l’Association nationale des secrétaires d’État pour orienter les utilisateurs de ChatGPT qui posent des questions logistiques sur le vote vers des informations précises sur le site Web non partisan de ce groupe, CanIVote.org.
Mekela Panditharatne, avocate du programme démocratie au Brennan Center for Justice, a déclaré que les plans d’OpenAI constituent une étape positive dans la lutte contre la désinformation électorale, mais cela dépendra de la manière dont ils seront mis en œuvre.
« Par exemple, dans quelle mesure les filtres seront-ils exhaustifs et complets lors du signalement de questions sur le processus électoral ? » » dit-elle. « Y aura-t-il des éléments qui passeront entre les mailles du filet ?
ChatGPT et DALL-E d’OpenAI comptent parmi les outils d’IA générative les plus puissants à ce jour. Mais il existe de nombreuses entreprises dotées d’une technologie tout aussi sophistiquée qui n’ont pas mis en place autant de mesures de protection contre la désinformation électorale.
Bien que certaines sociétés de médias sociaux, telles que YouTube et Meta, aient introduit des politiques d’étiquetage de l’IA, il reste à voir si elles seront en mesure d’attraper systématiquement les contrevenants.
« Il serait utile que d’autres entreprises d’IA générative adoptent des lignes directrices similaires afin que des règles pratiques puissent être appliquées à l’échelle du secteur », a déclaré Darrell West, chercheur principal au Center for Technology Innovation de la Brooking Institution.
Sans l’adoption volontaire de telles politiques dans l’ensemble du secteur, la réglementation de la désinformation générée par l’IA en politique nécessiterait une législation. Aux États-Unis, le Congrès n’a pas encore adopté de loi visant à réglementer le rôle politique de l’industrie, malgré un certain soutien bipartisan. Pendant ce temps, plus d’un tiers des États américains ont adopté ou présenté des projets de loi pour lutter contre les deepfakes dans les campagnes politiques alors que la législation fédérale est au point mort.
Sam Altman, PDG d’OpenAI, a déclaré que même avec toutes les mesures de protection mises en place par son entreprise, son esprit n’était pas à l’aise.
« Je pense que c’est une bonne chose que nous ayons beaucoup d’anxiété et que nous allons faire tout ce que nous pouvons pour que les choses se passent aussi bien que possible », a-t-il déclaré mardi lors d’une interview lors d’un événement Bloomberg lors du Forum économique mondial de Davos, en Suisse.
« Nous allons devoir surveiller cela de très près cette année. Surveillance ultra serrée. Boucle de rétroaction très serrée.