European Union lawmakers vote on an Artificial Intelligence Act at the European Parliament in Strasbourg, March 2023

Milos Schmidt

Euroviews. Un moment clé pour la réglementation européenne en matière d’IA : qui dirigera le code de bonnes pratiques du GPAI ?

L’expertise et la vision des (vice)présidents seront cruciales pour guider les règles du GPAI pour l’avenir et garantir que la voie européenne vers la confiance dans l’écosystème de l’IA perdure, écrivent Kai Zenner et Cornelia Kutterer.

Au cours des trois prochaines semaines, le Bureau de l’IA nommera probablement un groupe important de personnes externes qui façonneront la mise en œuvre d’un élément clé de la loi européenne sur l’IA : les présidents et vice-présidents des modèles de code de pratiques pour l’IA à usage général (GPAI).

Pour donner un peu de contexte : l’essor de l’IA générative — y compris des applications populaires telles que ChatGPT d’OpenAI — n’a pas seulement été perturbateur en termes économiques, il a également créé un suspense politique à la fin des négociations en trilogue sur l’IA Act.

Des États membres comme la France, l’Allemagne et l’Italie craignaient qu’une intervention réglementaire à la base de la pile d’IA soit prématurée et freine les start-ups européennes telles que Mistral ou Aleph Alpha, même si – on s’en souvient – ​​la France a réussi à changer d’avis à plusieurs reprises avant d’adopter cette position.

Le Parlement européen a fait le contraire. Préoccupé par la concentration du marché et les violations potentielles des droits fondamentaux, il a proposé un cadre juridique complet pour l’IA générative, ou, comme le précise la loi finale, les modèles GPAI.

Face à ces points de vue contradictoires, les colégislateurs de l’UE ont opté pour une troisième voie, une approche de corégulation qui précise les obligations des fournisseurs de modèles GPAI dans des codes et des normes techniques.

C’est notamment le commissaire Thierry Breton qui a suggéré d’utiliser cet instrument, en empruntant une page du Code de bonnes pratiques sur la désinformation de 2022.

Des similitudes fondamentales se cachent au-delà de l’approche de gouvernance, ce qui rend les codes flexibles particulièrement appropriés à la sécurité de l’IA : la technologie en évolution rapide, les valeurs sociotechniques et la complexité des politiques de contenu et des décisions de modération.

Cependant, tout le monde ne s’accorde pas à dire que les codes constituent l’instrument réglementaire approprié. Les détracteurs de ces codes pointent le risque que les entreprises s’engagent sur le minimum et agissent trop peu trop tard.

C’est du moins l’impression que de nombreux auditeurs ont eu de la version initiale du Code de bonnes pratiques de l’UE sur la désinformation en 2018.

Après un examen rigoureux, l’équipe de désinformation de la Commission a poussé les entreprises à faire mieux, a invité la société civile à la table des discussions et a fait pression sur les participants pour qu’ils nomment un universitaire indépendant pour présider le processus.

Techniquement réalisable et propice à l’innovation

La bonne nouvelle est que – pour revenir aux prochaines nominations de (vice) présidents à la mi-septembre – le Bureau de l’IA a également utilisé cette expérience spécifique comme modèle pour son approche de corégulation du GPAI.

Le 30 juin, il a proposé un système de gouvernance solide pour l’élaboration des codes de pratiques du GPAI au moyen de quatre groupes de travail.

Tous les acteurs intéressés ont ainsi la possibilité de contribuer et de façonner le texte final, notamment par le biais d’une consultation publique et de trois séances plénières. Les entreprises du GPAI continueront de dominer le processus de rédaction car elles seront invitées à des ateliers supplémentaires.

Ils ne sont pas non plus tenus d’adhérer aux résultats finaux puisque les codes sont volontaires.

Pour atteindre la plus haute qualité, le Bureau de l’IA devrait sélectionner les (vice) présidents en fonction du mérite : une solide expertise technique, sociotechnique ou de gouvernance sur les modèles GPAI combinée à une expérience pratique sur la manière de diriger les travaux des comités sur la scène européenne ou internationale.

Les drapeaux de l'Union européenne flottent au vent avant un sommet européen à Bruxelles, en juin 2024
Les drapeaux de l’Union européenne flottent au vent avant un sommet européen à Bruxelles, en juin 2024

En revenant au Code sur la désinformation, il est donc juste de dire que les critères d’indépendance des (vice-)présidents deviendront cruciaux pour préserver la crédibilité et le bon équilibre du processus de rédaction.

Les personnes nommées auront une grande influence, car elles sont de facto les rédacteurs chargés de rédiger les textes et de présider les quatre groupes de travail.

Un neuvième président supplémentaire pourrait même jouer un rôle de coordination. Ensemble, ils pourraient chercher à trouver le juste équilibre entre des règles ambitieuses à la lumière des risques systémiques tout en préservant la faisabilité technique des obligations et leur caractère propice à l’innovation.

Leur objectif devrait être de parvenir à un code GPAI qui reflète une interprétation pragmatique de l’état de l’art. Pour atteindre la plus haute qualité, le Bureau de l’IA devrait sélectionner les (vice) présidents en fonction de leur mérite : une solide expertise technique, sociotechnique ou de gouvernance sur les modèles GPAI combinée à une expérience pratique de la gestion des travaux des comités sur la scène européenne ou internationale.

Un choix d’une importance primordiale

Le processus de sélection sera difficile. La sécurité de l’IA est un domaine de recherche naissant et en pleine évolution, marqué par des essais et des erreurs.

Le Bureau de l’IA doit gérer un large éventail d’horizons professionnels, équilibrer un grand nombre d’intérêts vérifiés et adhérer aux considérations typiques de l’UE en matière de diversité des pays et des sexes, tout en reconnaissant que de nombreux experts de premier plan en matière de sécurité de l’IA sont basés en dehors de l’UE.

Bien entendu, le Code GPAI doit se concentrer sur les valeurs de l’UE et il est important de garantir une forte représentation de l’UE parmi les (vice-)présidents. Cependant, compte tenu de son importance mondiale et du fait que la loi sur l’IA exige que les approches internationales soient prises en compte, de nombreux experts internationaux réputés ont exprimé leur intérêt pour ces rôles.

L’UE gagnerait également à nommer un nombre significatif d’experts de renommée internationale à la présidence ou à la vice-présidence. Une telle démarche augmenterait les chances de succès, garantirait la légitimité du code dans son ensemble et inciterait davantage les entreprises non européennes à s’aligner sur le processus.

En conclusion, la sélection des (vice) présidents du Code GPAI revêt une importance primordiale à ce stade.

Leur leadership donnera le ton à la manière dont l’exercice de corégulation évoluera au fil du temps, en particulier lorsqu’il devra faire face à des défis sociotechniques complexes et à des politiques sensibles telles que les droits de propriété intellectuelle, le CSAM et les seuils critiques qui déterminent les obligations auxquelles les modèles GPAI respectifs devront faire face.

L’expertise et la vision des (vice)présidents seront cruciales pour guider les règles du GPAI pour l’avenir et garantir que la voie européenne vers la confiance dans l’écosystème de l’IA perdure.

Laisser un commentaire

9 − deux =