Pour protéger nos droits, la loi européenne sur l’IA doit inclure des garanties relatives à l’État de droit.

Jean Delaunay

Pour protéger nos droits, la loi européenne sur l’IA doit inclure des garanties relatives à l’État de droit.

L’IA fait partie de la vie quotidienne à bien des égards, et la manière dont nous choisissons de la réglementer façonnera nos sociétés. Les législateurs européens doivent profiter de cette opportunité pour élaborer une loi qui exploite les opportunités sans porter atteinte à la protection de nos droits ou à l’État de droit, écrivent Eva Simon et Jonathan Day.

La loi européenne sur l’intelligence artificielle – le premier cadre juridique complet au monde pour l’IA – en est aux dernières étapes des négociations avant de devenir une loi.

Aujourd’hui, alors que les derniers détails sont réglés, les législateurs européens doivent saisir l’opportunité de sauvegarder les droits de l’homme et de réglementer fermement l’utilisation de l’intelligence artificielle.

Cependant, le débat autour de la loi sur l’IA n’a pas accordé suffisamment d’attention à un élément clé : la loi doit établir un lien clairement défini entre l’intelligence artificielle et l’État de droit.

Bien que l’inclusion de garanties en matière de droits de l’homme dans la loi ait été largement discutée, l’établissement d’un lien avec l’État de droit est tout aussi important.

La démocratie, les droits de l’homme et l’État de droit sont des concepts interconnectés mais néanmoins individuels qui dépendent les uns des autres et ne peuvent être séparés sans causer des dommages à la société.

Une opportunité de renforcer l’État de droit en Europe

Le principe de l’État de droit est fondamental pour l’UE. C’est une condition préalable à la réalisation d’autres valeurs fondamentales et à la jouissance des droits de l’homme.

Notoirement difficile à définir, l’État de droit englobe néanmoins un ensemble de valeurs indispensables à une société démocratique : un processus législatif transparent et pluraliste ; la séparation des pouvoirs et des freins et contrepoids ; des tribunaux indépendants et impartiaux et la possibilité d’y accéder ; et non-discrimination et égalité devant la loi.

La loi sur l’IA est l’occasion de créer un environnement réglementaire solide et sécurisé fondé sur les droits fondamentaux ainsi que sur des normes et garanties fondées sur l’État de droit.

Michal Dyjuk/Copyright 2023 L'AP.  Tous droits réservés
Le bâtiment de la Cour suprême de Pologne se trouve à côté du monument aux héros de l’insurrection de Varsovie, à Varsovie, en février 2023.

Compte tenu de l’intégration croissante de l’IA dans les secteurs privé et public, nous avons besoin de garde-fous solides pour protéger les fondements mêmes de notre Union : l’utilisation abusive des systèmes d’IA constitue une menace importante pour l’État de droit et la démocratie.

Dans les États membres où ces lacunes sont fragiles, les lacunes réglementaires pourraient être exploitées pour affaiblir les institutions et processus démocratiques ainsi que l’État de droit.

La loi sur l’IA est l’occasion de créer un environnement réglementaire solide et sécurisé fondé sur les droits fondamentaux ainsi que sur des normes et garanties fondées sur l’État de droit.

Surveillance adéquate de l’IA utilisée dans les systèmes judiciaires

Au cœur de ces garanties se trouve l’inclusion d’analyses d’impact obligatoires sur les droits fondamentaux.

Ils sont inclus dans la version du Parlement européen de la loi sur l’IA et il est impératif qu’ils soient intégrés dans le texte final de la loi.

Ces évaluations d’impact sur les droits fondamentaux sont essentielles pour garantir que les technologies d’IA et leur déploiement respectent les principes de justice, de responsabilité et d’équité.

Pour garantir l’indépendance judiciaire, le droit à un procès équitable et la transparence, l’IA utilisée dans les systèmes judiciaires doit être soumise à une surveillance appropriée et conforme à l’État de droit.

AP Photo/François Mori
Entrée du tribunal à Paris, octobre 2022

Mais au-delà, les normes relatives à l’état de droit devraient être ajoutées aux évaluations d’impact, avec un cadre structuré pour évaluer les risques potentiels, les biais et les conséquences involontaires du déploiement de l’IA.

Au-delà de la simple identification des risques potentiels, elles peuvent englober des stratégies d’atténuation, des examens périodiques et des mises à jour.

Cela permet également de lutter contre les violations de l’État de droit résultant de l’utilisation de l’IA en utilisant tous les moyens dont dispose l’UE – par exemple, lorsqu’elles se produisent dans les systèmes de justice pénale, dont beaucoup utilisent l’IA pour des processus décisionnels automatisés afin de limiter le fardeau et la pression du temps qui pèsent sur les juges.

Mais pour garantir l’indépendance judiciaire, le droit à un procès équitable et la transparence, l’IA utilisée dans les systèmes judiciaires doit être soumise à une surveillance appropriée et conforme à l’État de droit.

Risques de profilage et de surveillance illégale

Il est important que les législateurs jettent les bases d’une protection adéquate de l’État de droit dans la loi sur l’IA en laissant de côté une exemption générale pour la sécurité nationale.

Les systèmes d’IA développés ou utilisés à des fins de sécurité nationale doivent entrer dans le champ d’application de la loi ; sinon, un État membre pourrait facilement les utiliser – par exemple pour surveiller le public ou analyser le comportement humain – simplement en invoquant l’exclusion relative à la sécurité nationale.

La sécurité nationale peut signifier différentes choses à travers l’UE selon les lois des États membres.

AP Photo/Francisco Seco
Le chef du Parti socialiste espagnol, Pedro Sanchez, s’exprime au téléphone lors d’une session au Parlement espagnol à Madrid, en juillet 2016.

Le scandale du logiciel espion Pegasus, dans lequel des journalistes, des militants des droits de l’homme et des hommes politiques ont été surveillés par leurs propres gouvernements, démontre la nécessité évidente de garantir que les systèmes développés ou utilisés à des fins de sécurité nationale ne soient pas exemptés du champ d’application de la loi sur l’IA.

En outre, la sécurité nationale peut signifier différentes choses à travers l’UE selon les lois des États membres.

Le profilage des citoyens sur la base des intérêts des gouvernements nationaux créerait des inégalités au sein de l’UE, représentant une menace égale à la fois pour l’État de droit et pour les droits fondamentaux.

Aucune exception générale

À l’approche des élections polonaises et européennes, il ne fait aucun doute que l’IA peut et sera utilisée pour cibler des individus avec des messages personnalisés, notamment pour diffuser de la désinformation, avec le potentiel de fausser des élections par ailleurs équitables.

D’autre part, des outils d’IA seront déployés pour vérifier les faits, bloquer les robots et le contenu, ainsi qu’identifier les fermes de trolls. Ces techniques doivent être transparentes pour éviter les abus ou abus de pouvoir.

La nécessité de lier explicitement l’état de droit à la loi sur l’IA est claire, tout comme l’importance d’exiger des évaluations d’impact qui prennent en compte à la fois les droits fondamentaux et l’état de droit – sans exemption générale pour des raisons de sécurité nationale.

L’intelligence artificielle fait partie de la vie quotidienne d’innombrables manières, et la manière dont nous choisissons de la réglementer façonnera nos sociétés.

Les législateurs européens doivent profiter de cette opportunité pour élaborer une loi qui exploite les opportunités de l’IA sans porter atteinte à la protection de nos droits ou à l’État de droit.

Laisser un commentaire

2 × cinq =