La loi européenne sur l’IA n’est toujours pas gravée dans le marbre et les élections européennes pourraient bousculer la donne. Mais pour le moment, l’industrie technologique craint que la loi n’étouffe la concurrence. Pendant ce temps, les artistes et les auteurs se sont montrés plus accueillants.
Adoptée après 36 heures de négociations marathon ce mois-ci, la loi européenne sur l’IA est saluée comme historique, mais les réactions du secteur technologique du continent, des groupes de défense des droits et des politiciens sont mitigées.
L’Union européenne a accepté vendredi dernier un premier ensemble de règles provisoires au monde pour réglementer l’intelligence artificielle (IA), mais les détails du texte législatif sont encore en cours d’élaboration avant d’être gravés dans le marbre.
Les règles classent les applications d’IA en quatre niveaux de risque et imposent les règles les plus strictes sur l’IA à haut risque et interdite.
L’un des points de friction qui ont conduit aux négociations était la manière dont les modèles de base, la technologie qui sous-tend ChatGPT d’OpenAI, seraient réglementés.
« Jamais une bonne idée »
La France et l’Allemagne ont mis en garde contre une réglementation excessive, car elles souhaitent protéger leurs start-ups championnes de l’IA.
« Nous pouvons décider de réglementer beaucoup plus rapidement et beaucoup plus fort que nos principaux concurrents. Mais nous régulerons des choses que nous ne produirons ni n’inventerons plus. Ce n’est jamais une bonne idée », a déclaré le président français Emmanuel Macron lundi 11 décembre.
« Quand je regarde la France, c’est probablement le premier pays en matière d’intelligence artificielle en Europe continentale. Nous sommes au coude à coude avec les Britanniques. Ils n’auront pas cette réglementation sur les modèles fondateurs. Mais surtout, nous sommes tous très loin derrière les Chinois et les Américains », a-t-il ajouté en faisant référence à la start-up française d’IA Mistral.
L’UE prévoit de réglementer les modèles de fondation en garantissant que les développeurs fournissent une documentation comprenant des méthodes et des données de formation. Ils seront également réglementés en donnant aux utilisateurs le droit de déposer des plaintes et en leur interdisant toute discrimination.
Les entreprises qui ne respectent pas ces règles s’exposent à des amendes de 35 millions d’euros, soit 7 pour cent du chiffre d’affaires mondial. Certains disent que cela va trop loin.
« Des conséquences potentiellement désastreuses »
L’Association de l’industrie de l’informatique et des communications a déclaré que le texte s’écartait largement de « l’approche raisonnable basée sur les risques » proposée par la Commission, qui donnait la priorité à l’innovation plutôt qu’à une réglementation trop prescriptive.
L’organisation a déclaré que la loi imposait des « obligations strictes » aux développeurs de technologies de pointe qui sous-tendent de nombreux systèmes en aval et qu’elle est donc susceptible d’entraver l’innovation en Europe. Cela pourrait conduire à un exode des talents en IA, prévient-il.
« Malheureusement, la rapidité semble avoir pris le pas sur la qualité, avec des conséquences potentiellement désastreuses pour l’économie européenne. L’impact négatif pourrait être ressenti bien au-delà du seul secteur de l’IA », a déclaré Daniel Friedlaender, vice-président senior et directeur de CCIA Europe.
« Ne soutient pas les champions d’Europe »
France Digitale, une organisation indépendante qui représente les start-ups et les investisseurs européens, a déclaré que l’IA à haut risque devra obtenir le marquage CE, ce qui est un processus long et coûteux, qui pourrait nuire aux start-ups.
Mais le groupe salue le fait que les start-up opérant dans des secteurs à haut risque puissent déposer une pétition contre ce statut et démontrer que leur IA ne présente pas de risque élevé et doit être reclassée.
Quant à l’IA générative et aux modèles de fondation, France Digitale a déclaré que la réglementation est « très stricte » et pourrait également nuire aux entreprises, car elles devront divulguer leurs modèles économiques privés, que d’autres entreprises pourraient ensuite copier.
« Nous avons appelé à ne pas réglementer la technologie en tant que telle, mais à réglementer les utilisations de la technologie. La solution adoptée aujourd’hui par l’Europe revient à réglementer les mathématiques, ce qui n’a pas beaucoup de sens », a déclaré le groupe.
France Digitale a également prévenu que la Commission pourrait ajouter des critères supplémentaires par le biais d’actes délégués, ce qui peut être risqué pour les start-up qui « ont besoin de visibilité et de prévisibilité pour développer leur modèle économique ».
« Nous ne pouvons à aucun moment changer les règles du jeu », a déclaré le groupe.
« Adopter » les règles du droit d’auteur
La plupart des modèles d’IA sont formés à partir de matériel trouvé en ligne, ce qui a donné lieu à une série de poursuites en matière de droits d’auteur de la part des artistes et des entreprises qui les représentent contre les sociétés d’IA.
La loi contient des règles strictes en matière de droit d’auteur, qui incluent le respect de la loi européenne actuelle sur le droit d’auteur. Les entreprises doivent également rendre public un résumé du contenu qu’elles utilisent pour former des modèles d’IA à usage général.
Cette exigence de transparence et cette politique de respect des règles actuelles de l’UE ont été saluées par les sociétés d’auteurs européennes (GESAC), qui représentent 32 sociétés d’auteurs européennes et plus d’un million d’auteurs.
« Une mise en œuvre solide permettant aux titulaires de droits d’exercer correctement leurs droits en vertu du droit européen est cruciale pour garantir que les principes convenus aient un réel impact dans la pratique », a déclaré Véronique Desbrosse, directrice générale de l’association.
« Les sociétés d’auteurs ont hâte d’embrasser ce nouveau marché et de générer de la valeur pour les créateurs et les entreprises tout en contribuant à la fois à l’innovation et à la création en Europe ».
Cybersécurité et reconnaissance faciale
La loi de l’UE sur l’IA met en œuvre des restrictions strictes sur la technologie de reconnaissance faciale et d’autres signaux comportementaux, sauf exceptions répressives.
Les restrictions sur la technologie utilisée pour la reconnaissance faciale ont été bien accueillies, tout comme les règles en matière de protection des données.
Bien qu’il n’existe pas de législation spécifique pour protéger les données, la loi est conçue pour fonctionner parallèlement aux règles du RGPD de l’UE, le règlement de l’UE sur la protection des données.
Cependant, Valmiki Mukherjee, responsable du secteur de la cybersécurité, a déclaré à L’Observatoire de l’Europe Next que la loi pourrait être confrontée à des défis similaires à ceux du RGPD.
« Appliquer la loi aux systèmes d’IA à usage général sans restreindre leur utilisation en les étiquetant tous comme à haut risque pourrait s’avérer difficile », a-t-il déclaré.
« Il existe également un problème potentiel lié à la création d’un vaste système de surveillance international pour empêcher l’IA basée sur la surveillance. On ne sait pas exactement comment cela fonctionnera avec les normes de cybersécurité qui sont encore en cours d’élaboration.
« Une technologie puissante à l’épreuve du temps »
Alors que le projet de texte initial est encore en cours de finalisation, un processus qui, selon certains commentateurs, pourrait se poursuivre jusqu’en janvier 2024, voire au-delà, il existe une autre pression temporelle, les nouvelles élections du Parlement européen en juin, qui pourraient bouleverser les points encore en suspens. doivent être convenus.
« Il ne semble pas y avoir suffisamment de temps avant les élections parlementaires pour faire passer la directive sur la responsabilité en matière d’IA à travers le processus législatif, ce qui devra donc être repris par le nouveau Parlement et la nouvelle Commission qu’il nommera », a déclaré Benjamin. Docquir, responsable informatique et données, au cabinet juridique international Osborne Clarke.
Le nouveau Parlement européen devra peut-être également se prononcer sur une législation sur l’IA sur le lieu de travail.
Un autre facteur à trancher sera la réglementation des logiciels d’IA open source, qui permettent de copier et de réutiliser librement le code informatique, ce qui donne à chacun la permission de créer son propre chatbot. OpenAI et Google ont averti que les logiciels open source peuvent être dangereux car la technologie peut être utilisée pour diffuser de la désinformation.
Étant donné que la technologie de l’IA se développe rapidement et qu’il est peu probable que la loi européenne sur l’IA soit appliquée par les membres de l’UE avant deux ans, la réglementation pourrait déjà être trop ancienne malgré les efforts visant à la rendre plus flexible.
« Quant à ce qui pourrait changer dans la loi sur l’IA, les législateurs se sont efforcés de la rendre flexible, mais l’émergence de l’IA générative a démontré la difficulté de pérenniser une technologie aussi puissante », a déclaré Docquir.