Les législateurs coprésideront le groupe, qui comprendra également des membres de la commission des affaires juridiques du Parlement.
Le groupe de surveillance de l’IA du Parlement européen, chargé de superviser la mise en œuvre de la loi sur l’IA, sera dirigé par les législateurs Michael McNamara (Irlande/Renew) et Brando Benifei (Italie/S&D), a déclaré à L’Observatoire de l’Europe un porte-parole de l’institution européenne.
McNamara sera coprésident du groupe au nom de la commission des libertés civiles, de la justice et des affaires intérieures (LIBE) et Benifei au nom de la commission du marché intérieur et de la protection des consommateurs (IMCO).
Benifei a dirigé les travaux du Parlement sur la loi sur l’IA au cours du mandat précédent, en tant que co-rapporteur. McNamara est entré au parlement en juillet après les élections européennes et était auparavant membre du parlement irlandais.
La commission des affaires juridiques (JURI) a également demandé l’adhésion au groupe interparlementaire, mais n’a pas encore pris de décision sur son représentant.
L’AI Act – qui vise à réguler les systèmes d’IA en fonction du risque qu’ils représentent pour la société – est entrée en vigueur début août. Les règles générales sur l’IA s’appliqueront un an après leur entrée en vigueur et les obligations pour les systèmes à haut risque trois ans après.
Aucune date n’a été fixée pour une première réunion, la plupart de leurs discussions se dérouleront probablement à huis clos.
Des groupes de travail similaires ont été créés lors du dernier mandat du Parlement, sur la loi sur les services numériques (DSA) et la loi sur les marchés numériques (DMA), qui se poursuivront sous la prochaine législature.
Davantage de travaux sur l’IA sont prévus au Parlement et dans la nouvelle législature de la Commission européenne, des règles supplémentaires sur le lieu de travail ainsi que sur le droit d’auteur sont attendues.
En outre, la Commission a annoncé le mois dernier une liste d’experts indépendants de l’UE, des États-Unis et du Canada chargés de diriger les travaux de rédaction d’un code de bonnes pratiques sur l’intelligence artificielle à usage général, qui comprend des modèles linguistiques tels que ChatGPT et Google Gemini.
Le Code est conçu pour faciliter l’application des règles de la loi sur l’IA pour les entreprises, notamment en matière de transparence et de règles liées au droit d’auteur, à la taxonomie des risques systémiques, à l’évaluation des risques et aux mesures d’atténuation.