Dernières nouvelles.  Les pays de l’UE et les députés européens parviennent à un accord sur la loi sur l’intelligence artificielle après des négociations longues et intenses

Jean Delaunay

Dernières nouvelles. Les pays de l’UE et les députés européens parviennent à un accord sur la loi sur l’intelligence artificielle après des négociations longues et intenses

Les États membres et le Parlement européen sont parvenus à un accord préliminaire sur la loi sur l’intelligence artificielle, la première tentative au monde de réglementer cette technologie en évolution rapide de manière globale et fondée sur l’éthique.

L’accord a été conclu au niveau politique vendredi soir, après des négociations qui ont occupé toute la journée et fait suite à un marathon infructueux entre mercredi et jeudi après-midi. Au total, l’ensemble du projet a duré plus de 35 heures.

Cette avancée décisive s’est produite au milieu d’un lobbying agressif de la part des géants de la technologie et des start-ups, d’avertissements sévères de la société civile et d’une surveillance intense des médias, car la législation de Bruxelles pourrait très bien influencer des efforts de réglementation similaires à travers le monde.

« Historique ! L’UE devient le tout premier continent à fixer des règles claires pour l’utilisation de l’IA », a déclaré Thierry Breton, le commissaire européen chargé du marché intérieur qui a participé au débat. « Le #AIAct est bien plus qu’un livre de règles : c’est une rampe de lancement permettant aux startups et aux chercheurs européens de mener la course mondiale à l’IA. »

Les négociations ont été un va-et-vient âprement disputé entre les gouvernements et les législateurs sur une série de questions très complexes et techniques.

Après avoir scellé jeudi un compromis provisoire pour freiner les modèles de base qui alimentent les chatbots comme ChatGPT d’OpenAI, les discussions de vendredi ont été fortement axées sur l’utilisation de la biométrie en temps réel, y compris la reconnaissance faciale, dans les espaces publics.

Au cœur du débat se trouvait la question de savoir si les autorités de l’État devraient être autorisées à déployer des systèmes biométriques basés sur l’IA, capables d’identifier et de catégoriser les personnes en fonction de caractéristiques sensibles telles que le sexe, la race, l’origine ethnique, la religion et l’affiliation politique, ainsi que des systèmes. de la reconnaissance des émotions et de la politique prédictive.

Dans leur mandat commun, les députés ont déclaré que ces pratiques étaient « intrusives et discriminatoires » et devraient donc être interdites sur le territoire de l’UE. Les États membres avaient cependant un avis tout à fait différent et estimaient que des exceptions en matière d’application de la loi étaient nécessaires pour traquer les criminels et contrecarrer les menaces contre la sécurité nationale.

La France a approuvé plus tôt cette année une législation autorisant le recours à la surveillance biométrique lors des Jeux olympiques et paralympiques de Paris en 2024, une décision qui, selon Amnesty International, « sape les efforts en cours de l’UE pour réglementer l’IA ».

L’affrontement entre sécurité nationale et droits fondamentaux a absorbé l’essentiel de l’énergie vendredi. L’Espagne, qui assure actuellement la présidence tournante du Conseil, a eu la lourde tâche de représenter les 27 États membres et de maintenir un front uni.

Les pourparlers ont été interrompus par une longue pause au cours de laquelle les législateurs ont discuté entre eux des exigences formulées par la présidence espagnole. Pendant ce temps, les universitaires et les militants s’est tourné vers les réseaux sociaux d’exhorter les députés européens à résister aux exemptions accordées aux forces de l’ordre.

Finalement, le Parlement a cédé et a signé une série de « conditions strictes » qui permettront aux autorités d’utiliser la biométrie en temps réel pour rechercher des victimes d’enlèvement, de traite et d’exploitation sexuelle ; prévenir les menaces terroristes ; et localiser les personnes soupçonnées d’avoir commis des crimes graves, tels que le terrorisme, les meurtres, les viols et les vols à main armée.

En revanche, la catégorisation biométrique basée sur des caractéristiques sensibles, des scores sociaux et la reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement sera interdite.

« Je salue l’accord historique sur la nouvelle loi sur l’IA. Une législation avant-gardiste, responsable et complète qui fixe des normes mondiales », a déclaré Roberta Metsola, la présidente du Parlement européen, célébrant la nouvelle.

Compte tenu de la complexité de la question en question, le compromis issu de négociations interminables nécessitera probablement des consultations et des ajustements supplémentaires pour aboutir à un texte législatif pleinement acceptable pour toutes les parties autour de la table.

Une fois réécrit le texte juridique, qui couvre des centaines de pages d’articles et d’annexes, il sera envoyé au Parlement européen pour un nouveau vote dans l’hémicycle, suivi du feu vert final des pays au Conseil.

Les votes devraient avoir lieu début 2024. La loi bénéficiera ensuite d’un délai de grâce avant de devenir pleinement applicable en 2026.

Une technologie en constante évolution

Présentée pour la première fois en avril 2021, la loi sur l’IA constitue une tentative révolutionnaire visant à garantir que la technologie la plus radicalement transformatrice du 21e siècle soit développée d’une manière centrée sur l’humain et éthiquement responsable, qui prévient et limite ses conséquences les plus néfastes.

La loi est essentiellement une réglementation sur la sécurité des produits qui impose un ensemble échelonné de règles que les entreprises doivent suivre avant d’offrir leurs services aux consommateurs partout sur le marché unique du bloc.

La loi propose une structure pyramidale qui divise les produits basés sur l’IA en quatre catégories principales en fonction du risque potentiel qu’ils représentent pour la sécurité des citoyens et leurs droits fondamentaux : minime, limité, élevé et inacceptable.

Ceux qui relèvent de la catégorie à risque minimal seront exemptés de règles supplémentaires, tandis que ceux qualifiés de risque limité devront respecter des obligations de transparence de base.

Les systèmes considérés comme à haut risque seront soumis à des règles strictes qui s’appliqueront avant leur entrée sur le marché de l’UE et tout au long de leur durée de vie, y compris des mises à jour substantielles. Ce groupe englobera des applications qui ont un impact direct et potentiellement déterminant sur la vie des citoyens, telles que les logiciels de tri de CV pour les entretiens d’embauche, la chirurgie assistée par robot et les programmes de notation d’examens dans les universités.

Les produits d’IA à haut risque devront subir une évaluation de conformité, être enregistrés dans une base de données de l’UE, signer une déclaration de conformité et porter le marquage CE – tout cela avant d’arriver aux consommateurs. Une fois disponibles, ils seront placés sous le contrôle des autorités nationales.

Selon l’accord préliminaire, les entreprises qui enfreignent les règles seront passibles d’amendes de plusieurs millions d’euros, soit 35 millions d’euros, soit 7 % du chiffre d’affaires mondial.

Les systèmes d’IA présentant un risque inacceptable pour la société, notamment les systèmes de notation sociale destinés à contrôler les citoyens et les applications exploitant les vulnérabilités socio-économiques, seront purement et simplement interdits sur l’ensemble du territoire de l’UE.

Bien que cette approche basée sur le risque ait été bien accueillie en 2021, elle a subi une pression extraordinaire fin 2022, lorsque OpenAI a lancé ChatGPT et a déclenché un tollé mondial autour des chatbots. ChatGPT a été rapidement suivi par Bard de Google, Bing Chat de Microsoft et, plus récemment, Q d’Amazon.

Les chatbots sont alimentés par des modèles de base, qui sont formés avec de vastes quantités de données, telles que du texte, des images, de la musique, de la parole et du code, pour accomplir un ensemble large et fluide de tâches qui peuvent changer au fil du temps, plutôt que d’avoir une tâche spécifique et non modifiable. but.

La proposition initiale de la Commission n’introduisait aucune disposition concernant les modèles de fondations, obligeant les législateurs à ajouter un tout nouvel article avec une longue liste d’obligations pour garantir que ces systèmes respectent les droits fondamentaux, sont économes en énergie et se conforment aux exigences de transparence en divulguant leur contenu est AI- généré.

Cette poussée du Parlement a suscité le scepticisme des États membres, qui ont tendance à préférer une approche douce en matière d’élaboration des lois. L’Allemagne, la France et l’Italie, les trois plus grandes économies du bloc, ont présenté une contre-proposition favorisant « l’autorégulation obligatoire par le biais de codes de conduite » pour les modèles de fondations. Cette décision a suscité une réaction de colère de la part des législateurs et a menacé de faire dérailler le processus législatif.

Mais la perspective intimidante de laisser cette loi historique dans les limbes à l’approche des élections européennes de l’année prochaine a servi de motivation pour combler les divergences sur les modèles de fondation et la biométrie et conclure un accord préliminaire.

« La loi sur l’IA est une première mondiale », a déclaré Ursula von der Leyen, la présidente de la Commission européenne. « Un cadre juridique unique sur lequel vous pouvez compter pour le développement de l’IA. Et pour la sécurité et les droits fondamentaux des personnes et des entreprises. Un engagement que nous avons pris dans nos orientations politiques – et que nous avons tenu. »

Laisser un commentaire

treize − 3 =