FILE - California Gov. Gavin Newsom speaks during a press conference in Los Angeles, Wednesday, Sept. 25, 2024.

Jean Delaunay

Le gouverneur de Californie, Gavin Newsom, oppose son veto à un projet de loi historique sur l’IA qui nécessiterait des tests de sécurité

Le projet de loi, qui aurait été la première loi sur l’IA aux États-Unis, aurait obligé les entreprises technologiques à tester leurs modèles et aurait fourni aux travailleurs une protection contre les dénonciateurs.

Le gouverneur de Californie, Gavin Newsom, a opposé son veto à un projet de loi historique visant à établir des mesures de sécurité, les premières au pays, pour les grands modèles d’intelligence artificielle (IA), auquel plusieurs entreprises technologiques ont exprimé leur opposition.

La décision de dimanche constitue un coup dur pour les efforts visant à freiner une industrie locale qui évolue rapidement sans aucune surveillance.

Le projet de loi aurait établi certaines des premières réglementations sur les modèles d’IA à grande échelle dans le pays et aurait ouvert la voie à des réglementations sur la sécurité de l’IA dans tout le pays, ont déclaré ses partisans.

Plus tôt ce mois-ci, le gouverneur démocrate a déclaré lors d’un auditoire à Dreamforce, une conférence annuelle organisée par le géant du logiciel Salesforce, que la Californie devait prendre la tête de la réglementation de l’IA face à l’inaction fédérale, mais que la proposition « peut avoir un effet dissuasif sur l’industrie ».

La proposition, qui a suscité une opposition farouche de la part des startups, des géants de la technologie et de plusieurs membres démocrates de la Chambre, aurait pu nuire à l’industrie locale en établissant des exigences rigides, a déclaré Newsom.

Le plan alternatif

Newsom a annoncé dimanche que l’État s’associerait à plusieurs experts du secteur, dont le pionnier de l’IA Fei-Fei Li, pour développer des garde-fous autour de puissants modèles d’IA. Li s’est opposé à la proposition de sécurité de l’IA.

La mesure, visant à réduire les risques potentiels créés par l’IA, aurait obligé les entreprises à tester leurs modèles et à divulguer publiquement leurs protocoles de sécurité pour empêcher que les modèles ne soient manipulés pour, par exemple, anéantir le réseau électrique de l’État ou aider à fabriquer des armes chimiques.

La vérité est que les engagements volontaires de l’industrie ne sont pas exécutoires et fonctionnent rarement bien pour le public.

Scott Weiner

Sénateur de l’État de Californie

Les experts affirment que ces scénarios pourraient être possibles à l’avenir, à mesure que l’industrie continue de progresser rapidement. Cela aurait également fourni aux travailleurs une protection contre les dénonciateurs.

L’auteur du projet de loi, le sénateur démocrate Scott Weiner, a qualifié le veto de « revers pour tous ceux qui croient en la surveillance des grandes entreprises qui prennent des décisions critiques qui affectent la sécurité et le bien-être du public et l’avenir de la planète ».

« Les entreprises qui développent des systèmes d’IA avancés reconnaissent que les risques que ces modèles présentent au public sont réels et augmentent rapidement. Même si les grands laboratoires d’IA ont pris des engagements admirables pour surveiller et atténuer ces risques, la vérité est que les engagements volontaires de l’industrie ne sont pas exécutoires. et fonctionnent rarement bien pour le public », a déclaré Wiener dans un communiqué dimanche.

Wiener a déclaré que le débat autour du projet de loi avait considérablement fait progresser la question de la sécurité de l’IA et qu’il continuerait à insister sur ce point.

Cette législation fait partie d’une multitude de projets de loi adoptés par le Parlement cette année pour réglementer l’IA, lutter contre les deepfakes et protéger les travailleurs. Les législateurs de l’État ont déclaré que la Californie devait prendre des mesures cette année, citant les dures leçons qu’ils ont tirées de leur incapacité à maîtriser les sociétés de médias sociaux alors qu’elles en auraient pu l’occasion.

Que contenait le projet de loi californien sur l’IA ?

Les partisans de la mesure, dont Elon Musk et Anthropic, ont déclaré que la proposition aurait pu injecter un certain niveau de transparence et de responsabilité autour des modèles d’IA à grande échelle, car les développeurs et les experts affirment qu’ils n’ont toujours pas une compréhension complète du comportement des modèles d’IA et pourquoi.

Le projet de loi ciblait les systèmes qui nécessitent un niveau élevé de puissance de calcul et dont la construction dépasse 100 millions de dollars (90 millions d’euros). Aucun modèle d’IA actuel n’a atteint ce seuil, mais certains experts estiment que cela pourrait changer au cours de la prochaine année.

« Cela est dû à l’augmentation massive des investissements au sein de l’industrie », a déclaré Daniel Kokotajlo, un ancien chercheur d’OpenAI qui a démissionné en avril en raison de ce qu’il considère comme le mépris de l’entreprise pour les risques liés à l’IA.

« Cela représente un pouvoir fou que de confier le contrôle d’une entreprise privée de manière inexplicable, et c’est aussi incroyablement risqué ».

Les États-Unis sont déjà à la traîne de l’Europe dans la réglementation de l’IA pour limiter les risques. La proposition californienne n’était pas aussi complète que la réglementation européenne, mais elle aurait été une bonne première étape pour mettre en place des garde-fous autour de la technologie en croissance rapide qui suscite des inquiétudes en matière de perte d’emploi, de désinformation, d’invasions de la vie privée et de biais d’automatisation, ont déclaré ses partisans.

L’année dernière, un certain nombre de grandes sociétés d’IA ont volontairement accepté de suivre les garanties fixées par la Maison Blanche, telles que les tests et le partage d’informations sur leurs modèles. Le projet de loi californien aurait obligé les développeurs d’IA à suivre des exigences similaires à ces engagements, ont déclaré les partisans de la mesure.

Mais les critiques, dont l’ancienne présidente de la Chambre des représentants Nancy Pelosi, ont fait valoir que le projet de loi « tuerait la technologie californienne » et étoufferait l’innovation. Cela aurait découragé les développeurs d’IA d’investir dans de grands modèles ou de partager des logiciels open source, ont-ils déclaré.

La décision de Newsom d’opposer son veto au projet de loi marque une autre victoire en Californie pour les grandes entreprises technologiques et les développeurs d’IA, dont beaucoup ont passé l’année dernière à faire du lobbying aux côtés de la Chambre de commerce de Californie pour empêcher le gouverneur et les législateurs de faire progresser la réglementation de l’IA.

Deux autres propositions radicales en matière d’IA, qui se sont également heurtées à une opposition croissante de la part de l’industrie technologique et d’autres acteurs, ont été abandonnées avant l’échéance législative du mois dernier.

Les projets de loi auraient obligé les développeurs d’IA à étiqueter le contenu généré par l’IA et à interdire la discrimination à l’égard des outils d’IA utilisés pour prendre des décisions en matière d’emploi.

« Ça ne va pas disparaître »

Le gouverneur a déclaré plus tôt cet été qu’il souhaitait protéger le statut de la Californie en tant que leader mondial de l’IA, soulignant que 32 des 50 plus grandes entreprises mondiales d’IA sont situées dans cet État.

Il a présenté la Californie comme l’un des premiers à l’adopter, car l’État pourrait bientôt déployer des outils d’IA générative pour lutter contre la congestion routière, fournir des conseils fiscaux et rationaliser les programmes de lutte contre les sans-abri.

L’État a également annoncé le mois dernier un partenariat volontaire avec le géant de l’IA Nvidia pour aider à former des étudiants, des professeurs d’université, des développeurs et des scientifiques des données. La Californie envisage également de nouvelles règles contre la discrimination liée à l’IA dans les pratiques d’embauche.

Mais même avec le veto de Newsom, la proposition californienne en matière de sécurité incite les législateurs d’autres États à prendre des mesures similaires, a déclaré Tatiana Rice, directrice adjointe du Future of Privacy Forum, une organisation à but non lucratif qui travaille avec les législateurs sur des propositions en matière de technologie et de confidentialité.

« Ils vont potentiellement le copier ou faire quelque chose de similaire lors de la prochaine session législative », a déclaré Rice. « Donc ça ne va pas disparaître ».

Laisser un commentaire

3 × cinq =