La loi européenne sur l’IA est proche d’un accord malgré trois obstacles majeurs – co-rapporteur

Milos Schmidt

La loi européenne sur l’IA est proche d’un accord malgré trois obstacles majeurs – co-rapporteur

Alors que le Parlement européen, le Conseil européen et les États membres se préparent cette semaine pour le cinquième cycle de négociations sur la loi sur l’IA, trois obstacles majeurs subsistent dans les négociations, a déclaré l’eurodéputé Dragoș Tudorache à L’Observatoire de l’Europe dans une interview.

Tudorache est vice-président du groupe Renew Europe, rapporteur de la commission des libertés civiles, de la justice et des affaires intérieures du PE sur la loi sur l’IA, et siège également à la commission des affaires étrangères du PE. Il a présidé la commission spéciale du Parlement européen sur l’intelligence artificielle à l’ère numérique.

Un cinquième cycle de négociations en trilogue débute demain (24 octobre) au Conseil de l’UE. Quels sont, selon vous, les points de discorde restants ?

Je vois trois blocages majeurs dans les négociations en cours et une question connexe mais moins controversée.

Il y a d’abord la question des diverses exemptions demandées par le Conseil de l’UE à des fins d’application de la loi dans le contexte des interdictions de l’article 5 du projet de loi. Tout cela est lié : le Conseil souhaite des exemptions pour des raisons de sécurité nationale ; le PE préconise une approche plus stricte en matière de technologie de reconnaissance faciale, pour laquelle nous souhaitons une interdiction stricte de son utilisation dans les lieux publics mais pour laquelle le Conseil recherche des exemptions pour les forces de l’ordre ; et concernant l’utilisation de certaines applications à haut risque pour lesquelles le Conseil souhaite plus de latitude en matière d’application de la loi, nous, au Parlement, recherchons une approche plus stricte. Ce blocage dans les discussions peut être pris et négocié dans son ensemble d’un seul coup à mon avis.

La deuxième question litigieuse concerne les modèles de fondation. La proposition initiale de la Commission européenne (CE) et la position d’ouverture du Conseil sur la loi sur l’IA ne traitaient pas de ce problème, mais au PE, nous avons introduit un nouveau régime dans le texte afin d’imposer des obligations strictes aux modèles faîtiers d’IA (tels que ChatGPT). et Barde). Cela crée un autre blocage dans les discussions et sera abordé lors du trilogue de cette semaine.

Le troisième blocage concerne les questions de gouvernance et d’application de la loi, pour lesquelles le texte a considérablement évolué, dans la mesure où nous, au Parlement, sommes allés plus loin que ce que la CE envisageait et où le Conseil l’avait anticipé, par exemple en ce qui concerne le niveau des amendes, et cela sera également discuté dans le trilogue de cette semaine.

Une quatrième et dernière question relative à l’approche de l’article 6 concernant la manière dont nous traitons les demandes à haut risque est moins controversée puisque des progrès ont été réalisés jusqu’à présent dans les trilogues et que les institutions ne sont pas si éloignées les unes des autres, le Conseil et le Parlement acceptent tous deux qu’il Il doit y avoir une certaine forme de qualification pour les obligations imposées par l’article 6, mais nous avons donné mandat aux équipes techniques d’envisager plusieurs options et je pense qu’il y a eu des progrès au niveau technique sur cette question, donc peut-être que cela pourrait être convenu cette semaine.

Il y a d’autres problèmes en jeu, mais ceux-ci sont les principaux à mon avis.

Dans quelle mesure existe-t-il une unité derrière la position de négociation du PE entre les différentes parties ?

Ce n’est un secret pour personne que lorsque l’on examine le mode de vote sur le mandat initial au Parlement européen, il y avait des divisions sur la question des exemptions pour l’application de la loi au titre de l’article 5. Finalement, le Parlement a adopté le mandat avec une majorité confortable, mais cela était évident dans le vote selon lequel le Parti populaire européen et d’autres groupes estimaient que l’interdiction de l’utilisation de l’IA à des fins répressives allait trop loin. C’est pourquoi, dans les négociations, nous devons prendre en compte tous les points de vue et parvenir à un compromis qui sera finalement capable de passer par le Parlement.

Il doit y en avoir, nous devons trouver un compromis si nous voulons fermer le dossier, et nous voulons fermer le dossier ; Aucune des institutions ne peut se permettre de négocier à partir des positions de la ligne rouge, il faut des concessions mutuelles.

Je ne vois aucun scénario dans lequel il disparaîtrait. Lorsque le Conseil a adopté son mandat à la fin de l’année dernière, ChatGPT n’était pas vraiment apparu comme un phénomène et l’accent était donc mis sur la chaîne de valeur et l’IA à usage général. Le Conseil reconnaît qu’il n’y a pas d’autre choix que de traiter des modèles de fondation, ce qui signifie que nous devons décider comment. Je ne pense pas que la solution consiste à diminuer les niveaux de responsabilité imposés aux modèles de fondation, mais plutôt à affiner la portée de la définition. Le Parlement veut s’assurer que nous trouvons la bonne note dans ce qui relève du champ d’application de la rédaction, nous sommes conscients qu’il est nécessaire de mieux cibler ces règles. Donc, si je me permets de deviner la direction à prendre par rapport à ces modèles de fondations, il est probable que ce qui relève réellement de cette disposition sera encore affiné.

Quel modèle serait désormais inclus, et peut-être pas ?

Il est certain qu’une application comme ChatGPT restera car elle se situe au sommet de la chaîne alimentaire en termes de puissance. Notre intention est précisément celle-là : nous concentrer, en matière de responsabilité, sur ces modèles puissants en raison de leur capacité à être utilisés pour le meilleur et pour le pire. Cependant, la nomenclatura entourant les modèles de fondations est fluide et a évolué pour englober des modèles de fondations plus petits. Nous devons trouver des critères techniques qui classent avec précision un modèle de fondation qui devrait être couvert, et nous travaillons dur pour essayer de les déterminer.

Selon vous, combien de trilogues supplémentaires seront nécessaires après celui de cette semaine pour parvenir à un accord ?

Je pense que si nous obtenons tout ce que nous souhaitons cette semaine, nous pourrons parvenir à un accord politique final lors d’un trilogue supplémentaire, qui pourrait avoir lieu à la mi-novembre, soit juste avant, soit pendant la semaine du PE à Strasbourg (20-23 novembre).

Pensez-vous que la loi sur l’IA fera l’objet d’un vote final au PE cette année ?

Je ne suis pas sûr pour cette année, beaucoup dépend de la quantité de travail que les juristes linguistes devront accomplir une fois qu’un accord politique final aura été obtenu. il s’agit d’un projet de loi très long et complexe, qui pourrait nécessiter deux mois de travail. Si nous parvenons à un accord politique d’ici la fin novembre, je pense que la perspective de tenir la plénière de décembre pour un vote final pourrait être irréaliste, et nous devrons peut-être tenir la plénière de janvier de l’année prochaine. Mais il ne s’agit là que d’une question de procédure : ce qui compte, c’est de parvenir à un accord politique.

Laisser un commentaire

19 − quinze =