Plus de 250 000 demandes adressées aux plateformes OpenAI pour réaliser des deepfakes de candidats aux élections américaines ont été rejetées, indique la société.
ChatGPT a refusé plus de 250 000 demandes visant à générer des images des candidats aux élections américaines à l’aide de sa plateforme d’intelligence artificielle (IA).
OpenAI, la société à l’origine du chatbot IA, a déclaré vendredi dans une mise à jour de son blog que sa plateforme DALL-E, utilisée pour générer des images et des vidéos, avait rejeté les demandes de création d’images du président élu Donald Trump, son choix pour le vice-président JD Vance, le président actuel Joe Biden, la candidate démocrate Kamala Harris et son choix à la vice-présidence, Tim Walz.
Les refus étaient dus aux « mesures de sécurité » mises en place par OpenAI avant le jour du scrutin, indique le blog.
« Ces garde-fous sont particulièrement importants dans un contexte électoral et constituent un élément clé de nos efforts plus larges pour empêcher que nos outils soient utilisés à des fins trompeuses ou nuisibles », indique la mise à jour.
Les équipes derrière OpenAI affirment qu’elles « n’ont vu aucune preuve » d’opérations d’influence liées aux élections américaines devenant virales en utilisant leurs plateformes, poursuit le blog.
La société a déclaré en août qu’elle avait empêché une campagne d’influence iranienne appelée Tempête-2035 de générer des articles sur la politique américaine et de se présenter comme un média conservateur et progressiste.
Les comptes liés à Storm-2035 ont ensuite été interdits d’utiliser les plateformes d’OpenAI.
Une autre mise à jour en octobre a révélé qu’OpenAI avait perturbé plus de « 20 opérations et réseaux trompeurs » du monde entier qui utilisaient leurs plates-formes.
Parmi ces réseaux, les opérations liées aux élections américaines qu’ils ont trouvées n’ont pas été en mesure de générer un « engagement viral », selon le rapport.