Eurovues.  La régression vers l’autorégulation signifie que la loi européenne sur l’IA ne parviendra pas à remédier aux dommages

Jean Delaunay

Eurovues. La régression vers l’autorégulation signifie que la loi européenne sur l’IA ne parviendra pas à remédier aux dommages

En avril 2021, lorsque Bruxelles a proposé la première réglementation intersectorielle sur l’IA au monde, elle prétendait protéger les droits fondamentaux et promouvoir l’innovation. En 2023, les droits fondamentaux pourraient ne plus rester fondamentaux dans cette réglementation, écrit le Dr Kris Shrishak.

Une coalition de gouvernements français, allemand et italien a proposé que les entreprises autorégulent les systèmes d’IA comme GPT, qui peuvent être utilisés dans diverses applications. Cette proposition fait suite à leur opposition du 9 novembre à la réglementation de tels systèmes d’IA dans la loi sur l’IA.

Cette poussée en faveur de l’autorégulation au sein de l’UE ne doit pas être considérée de manière isolée. Cela fait suite à une série de petites mesures prises par les législateurs qui rendent cette nouvelle proposition décevante, mais pas surprenante.

Les preuves de la négligence de l’industrie de la publicité en ligne à l’égard de la protection des données et celles de divers lanceurs d’alerte de Facebook, entre autres, montrent que l’approche d’autorégulation dans l’industrie technologique a contribué à des préjudices importants.

Et pourtant, la réglementation technologique phare de l’UE, la loi sur l’IA, repose sur l’auto-évaluation, dès le moment où la Commission européenne l’a proposée en 2021.

Un pas en avant, puis un pas en arrière ?

Les entreprises pourraient s’auto-évaluer si elles doivent répondre aux exigences relatives aux systèmes d’IA à haut risque. Ils pourraient volontairement fournir des informations et gérer les risques. Même lorsque leurs systèmes d’IA à haut risque rencontrent de graves problèmes, ils ne doivent informer les régulateurs que dans un ensemble restreint de conditions et pourraient facilement se soustraire à leurs responsabilités.

On aurait pu espérer que le Parlement européen et le Conseil de l’UE reconnaissent les problèmes soulevés par les auto-évaluations. Au lieu de cela, ils sont allés encore plus loin.

Ils ont créé des dispositions qui permettent aux entreprises de choisir si leurs systèmes d’IA présentent ou non un risque élevé. En d’autres termes, les entreprises peuvent décider d’être réglementées ou non, car la loi sur l’IA ne réglemente que les systèmes d’IA à haut risque.

La présidente de la Commission européenne, Ursula von der Leyen, examine l'invention « Parlez-vous robot ? »  au AI Xperience Center de la VUB à Bruxelles, février 2020
La présidente de la Commission européenne, Ursula von der Leyen, examine l’invention « Parlez-vous robot ? » au AI Xperience Center de la VUB à Bruxelles, février 2020

Outre les auto-évaluations, la proposition de la Commission européenne de 2021 présentait une autre lacune béante. Il ne considérait que les systèmes d’IA ayant un « objectif prévu ».

En 2021 déjà, les preuves des dommages causés par les systèmes d’IA sans objectifs prédéfinis, tels que GPT-2 et GPT-3, s’accumulaient. Cependant, la Commission européenne n’a pas abordé ces questions dans sa proposition.

Pourtant, en novembre 2022, ChatGPT, construit sur GPT-3, a été publié et les préjudices ont été largement rapportés dans les médias populaires.

Le Parlement européen a fixé des règles pour de tels systèmes d’IA dans sa position de juin de cette année. Ces règles ont encore été modifiées par la présidence espagnole du Conseil en octobre-novembre.

Il semblait que les législateurs avaient trouvé un accord sur la réglementation de ces systèmes d’IA – jusqu’à ce que la France, l’Allemagne et l’Italie s’y opposent.

Un tour gratuit pour ceux qui enfreignent les règles

Les gouvernements de ces pays ont désormais proposé « une autorégulation obligatoire au moyen de codes de conduite » sans aucune sanction en cas de violation.

Comment une règle est-elle obligatoire à suivre s’il n’y a ni application ni sanction ? Et pourquoi une entreprise suivrait-elle ces règles ?

Ceux qui enfreignent les règles bénéficieront d’un avantage tandis que ceux qui les suivent trouveront cela coûteux. Cela favorisera le déploiement de systèmes d’IA nuisibles et mal testés dans l’UE.

Cela pourrait même promouvoir « l’innovation » en contournant les règles, comme on l’a vu dans le scandale Volkswagen. La concurrence entre ceux qui enfreignent les règles sera la seule concurrence sur ce marché.

La nouvelle proposition permettra à l’industrie de l’IA de poursuivre ses pratiques actuelles et de rester irresponsable. Les atteintes aux droits fondamentaux continueront de se propager et la loi sur l’IA ne parviendra pas à remédier à ces atteintes.

Des militants portant des masques du chancelier allemand Olaf Scholz et du président français Emmanuel Macron posent avec des pelles devant le siège de l'UE à Bruxelles, en février 2022.
Des militants portant des masques du chancelier allemand Olaf Scholz et du président français Emmanuel Macron posent avec des pelles devant le siège de l’UE à Bruxelles, en février 2022.

En octobre, Neil Clarke du Clarkesworld Magazine l’a clairement déclaré lors d’un discours à la Federal Trade Commission : « La réglementation de cette industrie (de l’IA) est nécessaire le plus tôt possible, et chaque instant où elle est autorisée à poursuivre ses pratiques actuelles ne fait que causer encore plus de tort. Leurs actions jusqu’à présent démontrent qu’on ne peut pas leur faire confiance pour le faire eux-mêmes.

La régression de l’UE vers l’autorégulation est exactement le contraire de ce qui est exigé d’une superpuissance réglementaire.

La nouvelle proposition permettra à l’industrie de l’IA de poursuivre ses pratiques actuelles et de rester irresponsable. Les atteintes aux droits fondamentaux continueront de se propager et la loi sur l’IA ne parviendra pas à remédier à ces atteintes.

En avril 2021, lorsque la Commission européenne a proposé le premier règlement intersectoriel sur l’IA au monde, elle prétendait protéger les droits fondamentaux et promouvoir l’innovation.

D’ici fin 2023, les droits fondamentaux pourraient ne plus rester fondamentaux dans cette réglementation.

Laisser un commentaire

15 − 12 =