There have been a rising number of reports about AI-generated child sex abuse material, according to a UK charity.

Jean Delaunay

« La société doit être vigilante » : la plupart des gens ignorent que l’IA est utilisée pour créer du contenu pédopornographique

Selon une organisation caritative britannique, un nombre croissant de rapports font état de matériels pédopornographiques générés par l’IA.

Même si la majorité des gens sont préoccupés par l’intelligence artificielle (IA), environ 70 % ignorent qu’elle est déjà utilisée pour créer des contenus pédopornographiques, selon une nouvelle enquête.

La Fondation Lucy Faithfull, une organisation caritative de protection de l’enfance basée au Royaume-Uni, a interrogé plus de 2 500 personnes au Royaume-Uni et environ 88 % des personnes interrogées ont convenu que les images sexuelles de moins de 18 ans générées par l’IA devraient être illégales.

Cependant, seulement 40 pour cent des personnes interrogées ne savaient pas que c’était le cas ou pensaient que ce contenu était légal au Royaume-Uni.

Dans l’UE et au Royaume-Uni, il est illégal de créer, visualiser ou partager des images sexuelles de mineurs, y compris du matériel créé à l’aide de la technologie de l’IA.

C’est une façon de sexualiser les enfants. Les enfants méritent notre respect. Ils ont des droits. Nous ne devons pas piétiner leurs droits et cela aura des conséquences

Donald Findlater

Directeur de la ligne d’assistance Stop It Now

L’association caritative britannique, qui gère également la ligne d’assistance téléphonique Stop It Now, un service confidentiel destiné à aider les personnes inquiètes de leurs pensées et de leur comportement à l’égard des enfants ou du comportement d’un autre adulte, tire la sonnette d’alarme.

Donald Findlater, directeur de la ligne d’assistance, a souligné que l’évolution rapide de l’IA est déjà exploitée chaque jour en ligne par des agresseurs sexuels d’enfants.

« Chaque jour, nous sommes appelés par des personnes arrêtées par la police ici au Royaume-Uni pour avoir vu des abus sexuels sur des enfants, y compris un nombre croissant qui regardent des images générées par l’IA », a-t-il déclaré à L’Observatoire de l’Europe Next, expliquant qu’il y avait eu un Augmentation du nombre de rapports sur du matériel pédopornographique généré par l’IA au cours de l’année dernière.

« La société doit être attentive à ce problème », a-t-il déclaré, car il existe « de sérieuses lacunes dans les connaissances du public » sur la manière dont l’IA est utilisée pour créer des contenus préjudiciables.

« Ce n’est pas bien de regarder ces images. C’est une façon de sexualiser les enfants. Ce n’est pas une chose appropriée à faire. Les enfants méritent notre respect. Ils ont des droits. Nous ne devons pas piétiner leurs droits et cela aura des conséquences », a-t-il ajouté, invitant les personnes directement ou indirectement concernées à demander de l’aide.

Plus de 217 000 personnes ont contacté la ligne d’assistance Stop It Now en 2023, et environ 80 % d’entre elles s’inquiètent pour elles-mêmes.

Phénomène croissant du contenu sexuel de l’IA

La diffusion de matériels d’abus sexuels sur enfants générés par l’IA a fait l’objet d’un rapport alarmant publié l’année dernière par l’Internet Watch Foundation (IWF).

Sur 11 000 images générées par l’IA sur un forum d’abus sexuels sur des enfants sur le Web sombre évaluées par des analystes de l’IWF, plus de 2 500 ont été considérées comme criminelles.

« Nous voyons des images AI CSAM (matériel d’abus sexuels sur enfants) utilisant les visages de victimes connues et réelles. Nous assistons au ‘dévieillissement’ des célébrités et AI CSAM utilisant l’image d’enfants célèbres », a déclaré le PDG de l’IWF. Susie Hargreaves.

« Nous voyons comment la technologie « nudifie » les enfants dont les images habillées ont été mises en ligne pour des raisons parfaitement légitimes. Et nous voyons comment tout ce contenu est commercialisé.

Findlater a ajouté que les gens « ne devraient pas se leurrer en pensant qu’il n’y a aucune conséquence à faire cela ».

« Là où va la technologie, les abus suivent. Nous sommes confrontés aux impacts des images sexuelles d’enfants générées par l’IA ici et maintenant, dans tout le pays », a déclaré Ian Critchley, responsable du Conseil national des chefs de police (NPCC) pour la protection de l’enfance et les enquêtes sur les abus, dans un communiqué.

« Créer, visionner et partager des images sexuelles d’enfants – y compris celles réalisées par l’IA – n’est jamais sans victimes et est contraire à la loi. Et nous vous trouverons », a ajouté Critchley.

La police britannique a procédé à 1 700 arrestations en un an en faisant appel à des agents infiltrés en ligne, même si toutes n’étaient pas liées à du contenu créé par l’IA.

Le contenu généré par l’IA crée également de nouvelles difficultés pour les enquêteurs lorsqu’il s’agit d’identifier les victimes à partir de créations virtuelles, un article récent du New York Times rapportant que les forces de l’ordre rencontrent des difficultés à mesure que la technologie de l’IA progresse.

Les plateformes n’en font pas assez

Les experts souhaiteraient également voir davantage de réglementation des entreprises d’IA et des plateformes de médias sociaux sur cette question.

Les chercheurs ont trouvé l’année dernière plus de 3 200 images d’abus sexuels présumés sur des enfants dans l’ensemble de données créé par LAION, une organisation à but non lucratif, utilisée pour former l’outil d’IA générative Stable Diffusion.

Quelques semaines auparavant, Stable Diffusion avait été souligné comme un « outil privilégié par les producteurs d’images d’abus sexuels sur des enfants » car il « ne peut en pratique empêcher ses modèles de générer des images qui contreviendraient à ses conditions d’utilisation », a déclaré l’Internet Watch Foundation.

« J’aimerais voir une réglementation accrue. J’aimerais voir ce type d’outils développés par les sociétés d’IA développer leur technologie de manière à ce qu’ils ne puissent pas être utilisés à mauvais escient et que, par conséquent, les images d’abus sexuels sur des enfants ne puissent pas être créées et partagées », a déclaré Findlater.

X (anciennement Twitter) a été condamné à une amende de 366 742 € par l’Australie en octobre 2023 pour ne pas avoir pleinement expliqué comment il luttait contre les contenus liés à l’exploitation sexuelle des enfants.

Plus récemment, la décision de Meta de déployer le cryptage de bout en bout en décembre 2023 a également suscité des inquiétudes quant au fait que cela offrirait un refuge en ligne aux agresseurs d’enfants.

Reconnaissant que les processus de détection sont insuffisants, l’UE a décidé de prolonger une mesure provisoire visant à lutter contre les contenus pédopornographiques jusqu’au 3 avril 2026.

Il permet aux fournisseurs d’accès Internet de rechercher ce type de contenu dans leurs services et de le signaler aux autorités.

Laisser un commentaire

18 − 2 =