L’incapacité de la commissaire à répondre aux questions que nous soulevons montre qu’elle sait que le règlement de la Commission européenne sur le matériel pédopornographique ne peut pas réussir. Au lieu de cela, le message répond à des déclarations que nous n’avons jamais faites, écrivent Carmela Troncoso et Bart Preneel.
Le 4 juillet, nous avons publié une lettre ouverte critiquant le projet de règlement de la Commission européenne sur la détection de matériel d’abus sexuel impliquant des enfants, ou CSAM.
Cette lettre a été initialement signée par plus de 300 scientifiques de renom de 32 pays ; il compte aujourd’hui plus de 450 signataires.
La semaine dernière, la commissaire européenne aux affaires intérieures, Ylva Johansson, a publié une réponse.
Cette réponse ne répond pas aux problèmes soulevés par la lettre – au lieu de cela, elle attaque les hommes de paille.
La technologie n’est tout simplement pas encore là
La réponse souligne que la proposition, naturellement, n’impose pas une technologie concrète.
Une solution technologique spécifique sera toutefois nécessaire pour répondre aux exigences du règlement.
Pourtant, à l’heure actuelle, il n’existe aucune technologie capable de détecter de manière fiable les nouveaux contenus CSAM ou le toilettage. De plus, les scientifiques pensent qu’une telle technologie ne sera pas réalisable dans les décennies à venir.
Les techniques de détection basées sur l’IA entraîneront toujours un grand nombre de faux positifs avec des conséquences majeures pour les services en ligne et pour les citoyens innocents pris dans ce filet.
Dans la course aux armements pour développer de telles technologies de détection, les méchants gagneront : les scientifiques ont montré à plusieurs reprises qu’il est facile d’échapper à la détection et d’inculper des citoyens innocents. La réponse du commissaire Johansson ignore cette question.
La réponse dit que nous appelons la détection de CSAM « une nouvelle situation ». Ce faisant, la réponse ignore le fait que les technologies de détection actuelles de contenus CSAM connus ne fonctionnent qu’en raison de l’absence de chiffrement de bout en bout dans certains services.
Ainsi, le règlement proposé créerait en effet une nouvelle situation dans laquelle les fournisseurs de services devront soit désactiver le chiffrement de bout en bout, soit activer l’analyse obligatoire côté client.
L’une ou l’autre de ces solutions rendrait la société dans son ensemble plus vulnérable au crime organisé et aux États-nations antagonistes, ce qui porterait gravement atteinte à la sécurité.
Nous nous ouvrons aux abus
La réponse du commissaire Johansson indique que la numérisation ne sera appliquée que pour identifier les CSAM.
Mais alors que nous sommes prêts à croire ses bonnes intentions, l’histoire regorge d’exemples où de telles autorités sont inévitablement étendues.
Il est clair qu’après approbation de cette proposition, les forces de l’ordre demanderont d’y ajouter la détection du terrorisme et du crime organisé.
Pendant ce temps, les gouvernements moins démocratiques insisteront immédiatement pour que la même technologie soit appliquée pour détecter les contenus critiquant leurs régimes.
Pour des raisons de proportionnalité, la Commission européenne doit tenir compte de la dérive et de l’abus de fonctions à l’intérieur et à l’extérieur de l’UE lorsqu’elle cherche à imposer de telles technologies de surveillance – mais, jusqu’à présent, elle n’a pas réussi à le faire.
La réponse du commissaire Johansson prétend également à tort que notre lettre se concentre uniquement sur la maltraitance des adolescents, négligeant la maltraitance des enfants plus jeunes.
Ce n’est pas vrai, mais notre lettre souligne que les adolescents expérimentateurs courent un risque élevé d’être pris comme des spectateurs innocents dans le filet de détection de CSAM que la Commission prévoit de déployer. Le commissaire Johansson ignore ce problème.
Les technologies illusoires ne remplacent pas le travail acharné
Enfin, la réponse de la Commission européenne indique que « les prestataires doivent prévenir les abus sexuels sur les enfants sur leurs services ».
Soit la commissaire ne comprend pas comment fonctionne la technologie, soit elle fait une affirmation qu’elle sait être fausse.
L’abus sexuel des enfants se produit dans le monde réel; les services en ligne ne sont utilisés que pour diffuser le matériel.
Nous appelons à prendre des mesures efficaces pour prévenir la maltraitance des enfants en premier lieu – une solution qui nécessite un travail acharné et des investissements dans les services sociaux et une société résiliente.
Au lieu de cela, la Commission européenne réitère son appel à la création d’un règlement qui postule des technologies illusoires qui seront plutôt nocives pour la société – y compris les enfants que nous voulons tous protéger.
L’incapacité du commissaire Johansson à répondre aux questions que nous soulevons montre que le commissaire sait que le règlement de la Commission européenne ne peut pas réussir. Au lieu de cela, le message répond à des déclarations que nous n’avons jamais faites.
Il est temps de mettre cette résolution au lit.