L’augmentation déjà inquiétante des images d’abus sexuels sur des enfants sur Internet pourrait s’aggraver si des mesures ne sont pas prises, a prévenu un organisme de surveillance.
La prolifération déjà alarmante d’images d’abus sexuels sur des enfants sur Internet pourrait s’aggraver si rien n’est fait pour contrôler les outils d’intelligence artificielle qui génèrent de fausses photos, a prévenu mardi une agence de surveillance.
Dans un rapport écrit, l’Internet Watch Foundation (IWF), basée au Royaume-Uni, exhorte les gouvernements et les fournisseurs de technologies à agir rapidement avant qu’un flot d’images d’abus sexuels sur enfants générées par l’IA ne submerge les enquêteurs des forces de l’ordre et n’étende considérablement le bassin de victimes potentielles.
« Nous ne parlons pas du mal que cela pourrait causer », a déclaré Dan Sexton, directeur de la technologie du groupe de surveillance.
« Cela se produit en ce moment et il faut y remédier immédiatement ».
L’IWF a enquêté sur plus de 11 000 images partagées sur les forums du dark web sur une période d’un mois. Parmi eux, plus de 2 500 décrivaient des abus envers des enfants et un sur cinq était classé dans la catégorie A, ce qui signifie qu’ils décrivaient les abus les plus graves.
Dans une affaire unique en son genre en Corée du Sud, un homme a été condamné en septembre à deux ans et demi de prison pour avoir utilisé l’intelligence artificielle pour créer 360 images virtuelles d’abus sur des enfants, selon le tribunal du district de Busan, dans le sud-est du pays. .
Dans certains cas, les enfants utilisent ces outils les uns sur les autres.
Dans une école du sud-ouest de l’Espagne, la police a enquêté sur l’utilisation présumée par des adolescents d’une application téléphonique pour faire apparaître nus leurs camarades de classe entièrement habillés sur des photos.
Une enquête sur les forums du dark web
Le rapport expose le côté obscur de la course à la création de systèmes d’IA générative qui permettent aux utilisateurs de décrire avec des mots ce qu’ils souhaitent produire – des e-mails aux nouvelles illustrations ou vidéos – et de laisser le système le recracher.
Si cela n’est pas stoppé, le flot d’images d’abus sexuels sur des enfants pourrait enliser les enquêteurs qui tentent de sauver des enfants qui se révèlent être des personnages virtuels. Les auteurs pourraient également utiliser les images pour préparer et contraindre de nouvelles victimes.
Sexton a déclaré que les analystes de l’IWF ont découvert des visages d’enfants célèbres en ligne ainsi qu’une « demande massive pour la création de davantage d’images d’enfants qui ont déjà été maltraités, peut-être il y a des années ».
« Ils prennent le contenu réel existant et l’utilisent pour créer du nouveau contenu sur ces victimes », a-t-il déclaré. « C’est tout simplement incroyablement choquant. »
Sexton a déclaré que son organisation caritative, qui se concentre sur la lutte contre les abus sexuels sur enfants en ligne, a commencé à produire des rapports sur des images abusives générées par l’IA plus tôt cette année.
Cela a conduit à une enquête sur les forums du dark web, une partie d’Internet hébergée dans un réseau crypté et accessible uniquement via des outils garantissant l’anonymat.
Les analystes de l’IWF ont découvert que des agresseurs partageaient des conseils et s’émerveillaient de la facilité avec laquelle ils transformaient leurs ordinateurs personnels en usines pour générer des images sexuellement explicites d’enfants de tous âges.
Certains font également du commerce et tentent de tirer profit de ces images qui semblent de plus en plus réalistes.
« Ce que nous commençons à voir, c’est cette explosion de contenu », a déclaré Sexton.
Bien que le rapport de l’IWF vise à signaler un problème croissant plutôt qu’à proposer des solutions, il exhorte les gouvernements à renforcer les lois pour faciliter la lutte contre les abus générés par l’IA.
Il cible particulièrement l’Union européenne, où il y a un débat sur les mesures de surveillance qui pourraient analyser automatiquement les applications de messagerie à la recherche d’images suspectées d’abus sexuels sur des enfants, même si les images ne sont pas connues auparavant des forces de l’ordre.
L’un des principaux objectifs du groupe est d’empêcher que d’anciennes victimes d’abus sexuels ne soient à nouveau victimes d’abus grâce à la redistribution de leurs photos.
Un plaidoyer pour plus de réglementation
Le rapport indique que les fournisseurs de technologies pourraient faire davantage pour rendre plus difficile l’utilisation des produits qu’ils ont construits de cette manière, même si cela est compliqué par le fait que certains outils sont difficiles à remettre dans la bouteille.
Une série de nouveaux générateurs d’images IA ont été introduits l’année dernière et ont séduit le public par leur capacité à créer des images fantaisistes ou photoréalistes sur commande. Mais la plupart d’entre eux ne sont pas favorisés par les producteurs de matériel pédopornographique car ils contiennent des mécanismes permettant de bloquer ce contenu.
Les fournisseurs de technologies qui ont fermé leurs modèles d’IA, avec un contrôle total sur la façon dont ils sont formés et utilisés – par exemple, le générateur d’images DALL-E d’OpenAI – semblent avoir mieux réussi à bloquer les utilisations abusives, a déclaré Sexton.
En revanche, un outil privilégié par les producteurs d’images d’abus sexuels sur des enfants est le logiciel open source Stable Diffusion, développé par la startup londonienne Stability AI.
Lorsque Stable Diffusion a fait son apparition à l’été 2022, un sous-ensemble d’utilisateurs a rapidement appris à l’utiliser pour générer de la nudité et de la pornographie. Même si la plupart de ces documents représentaient des adultes, ils étaient souvent non consensuels, comme lorsqu’ils étaient utilisés pour créer des photos de nus inspirées par des célébrités.
Stability a ensuite déployé de nouveaux filtres qui bloquent les contenus dangereux et inappropriés, et une licence d’utilisation du logiciel de Stability s’accompagne également d’une interdiction des utilisations illégales.
Dans un communiqué publié mardi, la société a déclaré qu’elle « interdit strictement toute utilisation abusive à des fins illégales ou immorales » sur ses plateformes.
« Nous soutenons fermement les efforts d’application de la loi contre ceux qui utilisent nos produits à des fins illégales ou néfastes », indique le communiqué.
Les utilisateurs peuvent cependant toujours accéder aux anciennes versions non filtrées de Stable Diffusion, qui sont « dans une très grande majorité des logiciels de choix… pour les personnes créant du contenu explicite impliquant des enfants », a déclaré David Thiel, technologue en chef de l’Observatoire Internet de Stanford, un autre groupe de surveillance étudiant le problème.
« Vous ne pouvez pas réglementer ce que les gens font sur leur ordinateur, dans leur chambre. Ce n’est pas possible », a ajouté Sexton. « Alors, comment arrivez-vous au point où ils ne peuvent pas utiliser de logiciels librement disponibles pour créer un contenu nuisible comme celui-ci ? »
La plupart des images d’abus sexuels sur enfants générées par l’IA seraient considérées comme illégales en vertu des lois en vigueur aux États-Unis, au Royaume-Uni et ailleurs, mais il reste à voir si les forces de l’ordre disposent des outils nécessaires pour les combattre.
Le rapport de l’IWF est programmé avant un rassemblement mondial sur la sécurité de l’IA la semaine prochaine organisé par le gouvernement britannique et auquel participeront des participants de haut niveau, dont la vice-présidente américaine Kamala Harris et des dirigeants technologiques.
« Bien que ce rapport dresse un tableau sombre, je suis optimiste », a déclaré Susie Hargreaves, PDG de l’IWF, dans une déclaration écrite préparée.
Elle a déclaré qu’il est important de communiquer les réalités du problème à « un large public car nous devons avoir des discussions sur le côté le plus sombre de cette technologie étonnante ».