Les deepfakes se propagent dans les escroqueries et sur les réseaux sociaux plus rapidement que prévu, selon un nouveau rapport.
Les deepfakes sont devenus un outil utilisé par les cybercriminels, les hacktivistes, les faux médias et d’autres plus rapidement que prévu, selon un nouveau rapport
Publié jeudi par la société de surveillance des deepfakes Sensity, le rapport examine l’état des différentes menaces posées par la technologie.
« Les cybercriminels, les hacktivistes, les pays antagonistes, les fraudeurs, les fausses informations et les cybersoldats ont rapidement intégré les technologies de l’IA dans leurs cadres d’attaque et de tromperie, plus rapidement que quiconque dans les secteurs public et privé ne l’aurait imaginé », peut-on lire dans l’introduction du rapport.
Fondée en 2018, la société européenne Sensity est spécialisée dans la détection des deepfakes.
Ils ont utilisé les données anonymisées de leurs clients pour recueillir des informations sur les risques posés par les deepfakes en 2023 et au premier semestre 2024.
Le premier point souligné par le rapport est la sophistication croissante des technologies et la pléthore d’outils permettant de les rendre disponibles.
Les politiciens sont la catégorie la plus imitée
Les hommes politiques représentent près de 40 pour cent des personnes ciblées par les deepfakes, suivis par les célébrités qui en représentent près de 30 pour cent.
Les entreprises, quant à elles, représentent près de 20 pour cent des imitations hyperréalistes.
Les hommes politiques sont principalement visés par des imitations d’eux-mêmes qui font de fausses déclarations pour influencer les élections ou faire évoluer l’opinion publique.
Par exemple, le reportage donne l’exemple d’un deepfake d’un homme politique ukrainien affirmant dans une fausse interview télévisée que son pays était à l’origine d’une attaque terroriste à Moscou.
« Bien que la campagne électorale n’en soit qu’à ses débuts, nous avons trouvé des premières preuves d’une militarisation profonde lors des élections primaires, en particulier contre les principaux opposants à Donald Trump », note le rapport concernant les prochaines élections américaines.
Les escroqueries impliquent de plus en plus de deepfakes
Les célébrités et les entreprises sont souvent victimes de deepfakes utilisés dans des escroqueries.
Un récent deepfake a par exemple permis de transférer 23 millions d’euros à des fraudeurs.
Plusieurs célébrités comme Tom Hanks, Elon Musk ou le YouTuber MrBeast ont été usurpées pour promouvoir des arnaques.
Habituellement, les escroqueries sont partagées sur les réseaux sociaux en raison de leur potentiel viral et de la possibilité de publicités ciblées, permettant aux fraudeurs d’atteindre des groupes spécifiques plus susceptibles d’être intéressés par le trading, les jeux de hasard ou la cryptographie, selon le rapport.
Le commerce est de loin le secteur le plus ciblé par les escroqueries deepfake, représentant environ 35 pour cent d’entre elles, suivi par le commerce de détail et les jeux de hasard, tous deux avec environ 15 pour cent. Les escroqueries aux subventions publiques représentent 12,5 pour cent.
Le rapport souligne également les escroqueries high-tech qui consistent à contourner la vérification biométrique pour accéder aux services bancaires ou financiers en ligne.
Le marché de la détection des deepfakes
Nombreux sont ceux qui rattrapent les Big Tech qui développent actuellement de nouvelles techniques pour repérer le contenu photo et vidéo généré par l’IA.
Sensity dispose de son propre outil d’analyse des pixels et de la structure du fichier pour détecter s’il a été modifié.
Intel a lancé en 2022 un détecteur de deepfake en temps réel qui inspecte la façon dont la lumière interagit avec les vaisseaux sanguins du visage.
Les plateformes de Meta étiqueteront également bientôt le contenu généré par l’IA pour leurs utilisateurs.