FILE - The California State Capitol in Sacramento, Calif., is seen on Monday, Aug. 5, 2024.

Milos Schmidt

« Une grande victoire pour l’UE » ? Comparaison entre le projet de loi californien sur l’IA et la loi européenne sur l’IA

La Californie pourrait voir un nouveau projet de loi sur l’IA, mais comme l’a prouvé la loi européenne sur l’IA, tout le monde n’est pas satisfait de la réglementation.

Plus de 100 employés actuels et anciens d’OpenAI, de DeepMind de Google, de Meta et d’Anthropic ont envoyé une déclaration en soutien au nouveau projet de loi californien sur la régulation de l’intelligence artificielle (IA), qui attend la signature ou le veto du gouverneur de Californie Gavin Newsom d’ici la fin du mois.

Les gouvernements du monde entier tentent de réglementer l’IA, la Californie étant le dernier endroit à tenter de le faire après que l’Assemblée de l’État et le Sénat ont adopté un projet de loi sur la sécurité de l’IA en août.

« Nous pensons que les modèles d’IA les plus puissants pourraient bientôt présenter de graves risques, comme un accès élargi aux armes biologiques et des cyberattaques contre des infrastructures critiques », peut-on lire dans le communiqué soutenant le projet de loi publié lundi. Il comprend les signatures de Geoffrey Hinton, lauréat du prix Turing, ainsi que d’employés actuels de Google DeepMind et d’OpenAI, qui ont souhaité garder l’anonymat.

La nouvelle législation ajouterait également des protections pour les lanceurs d’alerte pour les employés qui dénoncent les risques liés aux modèles d’IA développés par leurs entreprises, ainsi que d’autres mesures.

La décision de la Californie fait suite au projet européen AI Act, finalisé plus tôt cette année. Voici comment ils se comparent et pourquoi une nouvelle réglementation pourrait avoir des implications pour les entreprises d’IA du monde entier.

Comment les lois régulent-elles l’IA ?

La loi européenne sur l’IA dispose d’un système basé sur les risques qui classe les modèles d’IA en risques inacceptables, élevés, limités et minimes.

Les systèmes d’IA les plus risqués, comme ceux utilisés dans les soins de santé et les infrastructures critiques, sont soumis à des réglementations plus strictes. Les systèmes à haut risque sont soumis à des tests rigoureux, à une gestion des risques et doivent se conformer à des normes européennes strictes.

Le risque systémique posé par la loi européenne sur l’IA est en réalité plus large. Il couvre davantage de choses. Il couvre les victimes massives, mais il couvre également la discrimination structurelle qui y est associée et bien plus encore.

Risto Uuk

Institut de l’Avenir de la Vie

La législation californienne, officiellement appelée « Loi sur l’innovation sûre et sécurisée pour les modèles d’intelligence artificielle de pointe » (projet de loi du Sénat 1047), vise à établir des protocoles de sécurité critiques pour les systèmes d’IA à grande échelle, en particulier ceux qui nécessitent plus de 100 millions de dollars (90 millions d’euros) de données pour la formation, ce qu’aucune entreprise d’IA ne fait actuellement.

Les développeurs d’IA doivent tester leurs modèles de manière approfondie et divulguer publiquement leurs mesures de sécurité.

Le procureur général de l’État de Californie aurait également le pouvoir de poursuivre les entreprises d’IA pour tout préjudice grave, qu’il définit comme des pertes massives ou des dommages matériels dépassant 500 millions de dollars (450 millions d’euros).

La législation californienne permettrait également de fermer rapidement un modèle d’IA s’il s’avère dangereux et de maintenir des tests pour évaluer s’il pourrait causer ou « permettre un préjudice critique ».

Quel acte va plus loin ?

« On pourrait dire que le projet de loi californien semble d’une certaine manière plus sérieux parce qu’il définit très clairement les seuils, indique 500 millions de victimes en masse et ce genre de seuils très concrets », a déclaré Risto Uuk, responsable de la recherche européenne au Future of Life Institute.

« Mais en réalité, le risque systémique de la loi européenne sur l’IA est plus large. Il couvre davantage de choses. Il couvre les victimes massives, mais il couvre également la discrimination structurelle qui y est associée, et bien plus encore », a-t-il déclaré à L’Observatoire de l’Europe Next.

« C’est sans doute pour cela que certains diront que le projet de loi californien est très léger », a-t-il ajouté.

La législation californienne est également plus tournée vers l’avenir que la loi sur l’IA de l’UE, car elle se concentre spécifiquement sur les modèles d’IA qu’elle définit comme « couverts », qui n’existent pas encore.

Ils sont définis comme des modèles qui sont entraînés à l’aide d’une certaine quantité de puissance de calcul ou qui ont des performances similaires à celles d’un modèle de base de pointe.

La loi californienne semble être une bonne mise à jour de l’approche de l’UE à partir de 2023.

Kai Zenner

Chef de cabinet et conseiller en politique numérique du député européen Axel Voss

L’UE couvre en revanche un large éventail de systèmes d’IA différents, tels que l’IA pour l’éducation ou le recrutement.

D’autres soutiennent cependant que le projet de loi californien va plus loin dans d’autres aspects car il est plus spécifique.

« Le projet de loi SB 1047 introduit des règles beaucoup plus détaillées pour les modèles de fondation, par exemple sur la transparence », a déclaré à L’Observatoire de l’Europe Next Kai Zenner, chef de bureau et conseiller en politique numérique du député européen Axel Voss et qui a travaillé sur la loi européenne sur l’IA.

« La loi californienne semble être une bonne mise à jour de l’approche de l’UE à partir de 2023, prenant en compte la plupart des nouvelles observations et développements techniques des derniers mois », a-t-il ajouté.

Les réactions négatives liées à la technologie : ce qu’elles ont en commun

Les critiques de la loi européenne sur l’IA et du projet de loi californien affirment que les règles sur l’IA ralentiraient l’innovation.

Ce ne sont pas seulement les entreprises d’IA qui le disent, mais aussi les politiciens. Nancy Pelosi, ancienne présidente de la Chambre des représentants des États-Unis et actuelle représentante de Californie, ainsi que la maire de San Francisco, London Breed, se sont opposées au projet de loi, affirmant qu’il ajouterait une bureaucratie inutile qui pourrait étouffer l’innovation.

Lors des négociations sur la loi européenne sur l’IA, les entreprises d’IA se sont montrées réticentes, mais pas autant que les hommes politiques, à l’exception du président français Emmanuel Macron qui, à la toute dernière minute, s’est prononcé contre une réglementation « punitive » de l’IA.

« Aux États-Unis, vous pouvez vous en sortir en cochant votre nom et en ayant un million d’abonnés et en disant (sur les réseaux sociaux) que ce projet de loi va conduire à l’emprisonnement des fondateurs de start-up et que beaucoup de gens réagissent, l’aiment et le partagent », a déclaré Hamza Chaudhry, spécialiste des politiques américaines au Future of Life Institute, une organisation à but non lucratif basée à Washington DC.

Lobbying de l’IA

« Je pense que ce genre de choses se produit beaucoup moins à Bruxelles qu’à Sacramento », a-t-il déclaré à L’Observatoire de l’Europe Next, ajoutant que les efforts de lobbying sont « nettement plus importants qu’à Washington et à Sacramento qu’à Bruxelles », pour des « raisons largement historiques ».

« Ce qui est intéressant dans l’opposition à ce projet de loi (californien), c’est que le lobby technologique a pu nationaliser ce débat d’une manière qui n’aurait pas dû l’être », a-t-il déclaré.

« L’ancienne présidente de la Chambre des représentants, une grande décideuse politique à part entière, a donné son avis sur un projet de loi d’État pour la première fois depuis de très nombreuses années. La commission scientifique de la Chambre des représentants à Washington DC a donné son avis sur un projet de loi d’État en Californie, je crois que c’était la première fois depuis au moins 20 ans ».

Chaudhry a déclaré que cela posait alors la question de savoir s’il s’agissait d’un projet de loi controversé ou « l’un des pires projets de loi que vous ayez jamais vu ».

Des implications mondiales

La loi californienne s’appliquerait à l’État, qui abrite 35 des 50 plus grandes entreprises d’IA au monde, comme OpenAI. Mais elle s’appliquerait également aux entreprises d’IA qui font des affaires dans l’État, et pas seulement aux entreprises basées en Californie.

Avec la réglementation de l’IA déjà en place en Europe et en Chine, avoir un autre ensemble de règles faciliterait en réalité la tâche des entreprises.

« Si le projet de loi californien est adopté ou est assorti d’une réglementation, que l’UE a une réglementation, que la Chine a une réglementation sur l’IA et qu’un autre grand pôle d’innovation dans le monde a une réglementation, alors il sera beaucoup plus facile pour tout le monde de faire des affaires à l’international, surtout si ces réglementations sont quelque peu alignées », a déclaré Uuk.

Le projet de loi californien serait « une grande victoire pour l’UE et contribuerait également à aligner les approches réglementaires à l’échelle mondiale », a ajouté Zenner.

« En Californie comme à Bruxelles, les lois dans un domaine aussi dynamique et nouveau seront toujours imparfaites au début. Elles doivent être ajustées et précisées régulièrement – ​​l’UE le fait avec des codes et des normes », a-t-il déclaré.

Laisser un commentaire

cinq + dix-sept =