An LG CLOi CoBot is configured to wash dishes in a mock restaurant.

Jean Delaunay

Le nouveau Parlement va travailler sur les règles de responsabilité de l’IA, malgré les inquiétudes des lobbies technologiques

Les groupes de consommateurs soutiennent la nouvelle loi visant à protéger les personnes contre les défauts causés par l’IA.

Le Parlement européen va poursuivre ses travaux sur un cadre juridique pour déterminer qui est responsable en cas de défaillance des produits d’intelligence artificielle, maintenant que la loi sur l’IA entrera en vigueur le 1er août. Mais le lobby technologique bruxellois et les organisations de consommateurs restent divisés sur la nécessité de règles supplémentaires.

La Commission européenne a proposé la directive sur la responsabilité de l’IA en 2022 dans le but de moderniser les règles de responsabilité existantes avec de nouvelles dispositions couvrant les dommages causés par les systèmes d’IA afin de garantir l’uniformité de la protection.

Le dossier n’a pas avancé au sein du Parlement au cours de la dernière législature : les législateurs ont décidé de le mettre en attente jusqu’à ce qu’un accord soit trouvé sur la loi sur l’IA – le cadre principal qui réglemente les systèmes d’IA selon une approche basée sur les risques.

La loi sur l’IA, première réglementation stricte au monde visant à réglementer les systèmes d’apprentissage automatique à haut risque, entrera officiellement en vigueur le mois prochain. Les règles générales sur l’IA s’appliqueront un an après leur entrée en vigueur et les obligations relatives aux systèmes à haut risque dans trois ans.

Le législateur chargé de faire passer la directive sur la responsabilité de l’IA au Parlement est Axel Voss (Allemagne/PPE). Réélu aux élections européennes de juin, M. Voss a déclaré à L’Observatoire de l’Europe qu’il serait « préférable de mettre en place un régime de responsabilité de l’IA ».

Le lobby technologique à Bruxelles craint toutefois que les règles de responsabilité spécifiques à l’IA ne créent des obstacles réglementaires supplémentaires pour les entreprises. CCIA Europe, une organisation représentant les entreprises de l’informatique et des télécommunications, a déclaré qu’elle était « fermement opposée à l’ajout de règles inutiles et contraignantes pour les entreprises qui tentent de rivaliser sur un marché déjà hautement réglementé ».

Ils affirment que les problèmes sont déjà couverts par la directive révisée sur la responsabilité du fait des produits (PLD) : des règles adoptées en 2023 par le Parlement européen et les États membres, pour remplacer un ensemble de cadres vieux de 40 ans, qui prennent en compte les évolutions technologiques.

Boniface de Champris, responsable principal des politiques de la CCIA Europe, a déclaré qu’avec l’adoption récente de la loi sur l’IA et de la PLD, « l’introduction de règles supplémentaires en matière de responsabilité de l’IA est hautement discutable et probablement inutile ».

Thomas Boué, directeur général de la politique EMEA chez BSA, The Software Alliance, a fait écho à ces commentaires. « La proposition est relativement courte et recoupe largement la directive sur la responsabilité du fait des produits récemment adoptée. La première étape devrait être pour le Parlement européen et le Conseil d’évaluer si ce texte est toujours nécessaire », a-t-il déclaré.

Redresser

Les associations de consommateurs estiment néanmoins que le cadre juridique actuel présente encore des lacunes. Agustín Reyna, le nouveau directeur général de l’association de défense des consommateurs BEUC, a déclaré à L’Observatoire de l’Europe qu’il s’agissait de « la pièce manquante du puzzle ».

« Il s’agit de savoir ce qui se passe si quelque chose ne va pas et si un produit cause des dommages. Nous avons des règles pour la sécurité des produits, il est donc logique d’examiner également la question sous l’angle du risque posé par ces nouvelles technologies », a déclaré Reyna.

Els Bruggeman, responsable de la politique et de l’application de la loi chez Euroconsumers, un groupement paneuropéen de consommateurs, a déclaré que pour ses organisations membres, il s’agissait également d’un dossier prioritaire. Pour que la directive sur la responsabilité de l’IA soit efficace, l’organisation demande aux législateurs d’éviter une approche fondée sur la faute.

« Cela rendrait très difficile, voire impossible, pour les consommateurs d’obtenir réparation. Après tout, comment les consommateurs pourront-ils prouver la faute ? Même s’ils ont accès aux données et aux algorithmes, ils auront presque besoin d’un diplôme d’ingénieur pour pouvoir comprendre et démontrer leur fonctionnement », a déclaré Bruggeman.

« Nous souhaitons que les législateurs aillent plus loin et instaurent un renversement de la charge de la preuve : les consommateurs devraient uniquement prouver le dommage qu’ils ont subi et l’implication d’un système d’IA. Et nous avons également besoin que la directive inclue tous les types de prise de décision automatisée – pas seulement entièrement automatisée – et tous les types de dommages », a-t-elle ajouté.

Des discussions préliminaires ont eu lieu entre les 27 pays membres de l’UE au niveau des groupes de travail. Peu de progrès sont attendus avant la fin de l’année : le dossier n’a pas été mentionné comme prioritaire pour la Hongrie, pays qui préside les réunions entre les gouvernements au second semestre de cette année.

Laisser un commentaire

11 − un =