L’IA générative alimente la propagation de la pornographie deepfake sur Internet

Milos Schmidt

L’IA générative alimente la propagation de la pornographie deepfake sur Internet

Une analyse a révélé que l’écrasante majorité des vidéos deepfake trouvées en ligne sont de la pornographie.

Selon une analyse, le nombre de vidéos deepfake trouvées en ligne a augmenté de 550 % cette année par rapport à 2019, la grande majorité d’entre elles étant des vidéos pornographiques deepfake.

L’essor des nouvelles technologies telles que l’intelligence artificielle générative (IA) a conduit à une augmentation considérable de la création de contenu deepfake, c’est-à-dire du contenu modifié ou généré numériquement prétendant représenter une personne ou un scénario réel, que ce soit par le biais d’une vidéo, d’une image ou d’un son.

Les victimes de deepfake pornographie ont décrit comment le fait de se voir représenté dans ces scénarios fictifs peut détruire des vies, l’une d’entre elles qualifiant cela de « peine à perpétuité ».

Le contenu Deepfake est créé via des algorithmes d’apprentissage automatique qui peuvent produire un contenu hyperréaliste. Les mauvais acteurs peuvent l’utiliser pour cibler leurs victimes, faire chanter des personnes ou comme forme de manipulation criminelle ou politique.

Un rapport complet sur les deepfakes publié en 2023 a révélé que la pornographie deepfake représente 98 % de toutes les vidéos deepfake trouvées en ligne, tandis que 99 % des victimes ciblées par la pornographie deepfake sont des femmes.

Les analystes d’un site Web visant à protéger les personnes contre la fraude à l’identité en ligne – appelé homesecurityheroes.com – ont étudié 95 820 vidéos deepfakes, 85 chaînes en ligne dédiées et plus de 100 sites Web liés à l’écosystème deepfake, produisant leur rapport 2023 sur l’état des Deepfakes.

L’une des principales conclusions du rapport est qu’il faut désormais moins de 25 minutes et ne coûte rien pour créer une vidéo pornographique deepfake d’une minute de n’importe qui en utilisant une seule image claire du visage de la victime.

La majorité des vidéos pornographiques deepfake analysées par le site Web concernaient des femmes sud-coréennes. Les nationalités les plus représentées en termes de victimes de deepfake pornographie après la Corée du Sud étaient les États-Unis, le Japon et le Royaume-Uni.

Épidémie de deepfake porn en Corée du Sud

La Corée du Sud est de loin la nationalité qui compte le plus de victimes de deepfake porn, ce que les analystes du rapport attribuent à la popularité mondiale de la K-pop. Trois des quatre membres de Blackpink, considéré comme le plus grand groupe pop féminin de Corée, figurent parmi les 10 personnes les plus ciblées.

« Les idoles de la K-pop sont connues pour leur grande visibilité et le nombre de leurs fans, tant en Corée du Sud qu’à l’étranger », a expliqué Chris Nguyen, responsable de l’analyse de la recherche pour le rapport. « Leurs profils publics et leur vaste base de fans signifient que la création et la distribution de pornographie deepfake les impliquant sont plus susceptibles d’atteindre un public plus large.

En plus de leur grande visibilité, il existe également une demande « exceptionnellement élevée » pour du contenu mettant en vedette des idoles de la K-pop, a déclaré Nguyen. « Certains exploitent cette demande en créant du contenu deepfake explicite, notamment sur des sites Web dédiés aux adultes, dans le but d’attirer l’attention et de générer plus de trafic. »

Il a également souligné que les réglementations strictes de la Corée du Sud en matière de pornographie jouaient probablement un rôle dans la création et la distribution de ce type de contenu.

« Cela pourrait être lié à « l’effet Streisand », un résultat involontaire d’une tentative de dissimulation, de suppression ou de censure d’informations. Dans de tels cas, le résultat est un retour de flamme, car cela amplifie en réalité la sensibilisation et l’intérêt pour cette information. »

Les deepfakes se propagent sur Internet

En examinant la prévalence de la pornographie deepfake, les analystes ont constaté que sept des dix sites Web pornographiques les plus visités hébergeaient du contenu deepfake.

Sur les dix principaux sites Web dédiés à la pornographie deepfake, il y a eu plus de 303 millions de vues de vidéos, ce qui, selon les analystes, montre à quel point ce contenu est répandu et populaire.

Ils appellent à des discussions sur les attitudes à l’égard de ce type de contenu, en mettant l’accent sur les considérations éthiques liées à la création de ce contenu.

Les chercheurs attribuent l’augmentation soudaine du contenu deepfake à deux choses. Premièrement, l’émergence d’un type de cadre d’apprentissage automatique utilisé pour l’IA générative, appelé réseau contradictoire génératif (GAN), a fourni les moyens techniques nécessaires pour créer du contenu deepfake.

Deuxièmement, l’accès facile aux outils construits sur les GAN signifie que presque tout le monde peut créer rapidement et à moindre coût du contenu deepfake.

« Ces plateformes offrent une gamme de fonctionnalités, du simple échange de visages à des manipulations vidéo plus complexes », explique le rapport. Les auteurs ajoutent que la croissance des communautés en ligne dédiées à la création de deepfakes a « favorisé la collaboration, le partage de connaissances et le développement de projets open source ».

Laisser un commentaire

13 + dix =