European Commission building with EU AI Act flags, illustration

Jean Delaunay

Eurovues. La loi européenne sur l’IA peut-elle répondre aux besoins des citoyens tout en redéfinissant les algorithmes ?

La législation phare de l’UE sur l’IA ne couvre pas tous les cas, scénarios ou terminologies, mais elle peut compléter la législation existante des États membres, notamment les lois sur l’accessibilité, l’égalité ou la protection sociale, écrit Yonah Welker.

Le 8 décembre, les négociateurs du Parlement européen et du Conseil européen sont parvenus à un accord provisoire sur la loi sur l’intelligence artificielle.

Le texte issu du trilogue devait être voté par le Parlement européen ainsi que par le Conseil européen.

L’approbation des deux institutions était nécessaire pour que le compromis politique obtenu devienne une loi. La semaine dernière, le texte final de la loi sur l’IA a été partagé avec les États membres. Elle sera suivie par les commentaires du groupe de travail technique et des États membres d’ici vendredi.

Suite aux commentaires précédents d’États membres comme la France, le texte final a laissé le public s’interroger sur la manière dont ce règlement affectera les PME, l’innovation et les mécanismes de transfert de technologie dans la région.

En particulier, outre des modèles de fondation largement discutés, l’écosystème de l’UE est connu pour produire une variété de projets technologiques réussis portant sur l’accessibilité des espaces publics, les déficiences cognitives et sensorielles, les technologies médicales et éducatives, telles que la robotique sociale pour les enfants autistes, les des systèmes de suivi prenant en charge les troubles de la lecture et la dyslexie, des tablettes intelligentes pour les personnes malvoyantes, une variété de technologies médicales et de rééducation.

Ces technologies sont associées à l’utilisation de la reconnaissance des émotions, du suivi oculaire et de la saisie de données complexes provenant de plusieurs parties prenantes.

En novembre, l’OCDE a publié un rapport et un référentiel couvrant plus d’une centaine de cas de technologies d’assistance, de travail et de lieu de travail, soutenant les handicaps liés à l’IA.

La disposition finale de la loi sur l’IA élargit les catégories de systèmes à risque élevé et inacceptable, introduit une conformité plus stricte en matière de reconnaissance des émotions, de lieux de travail et d’espaces éducatifs accessibles au public, de règles dédiées à l’IA à usage général, de « risques spécifiques en matière de transparence » et d’une liste de risques particuliers. cas, exceptions et commentaires, y compris les systèmes biométriques et l’application de la loi.

Comment ces règles peuvent-elles équilibrer la facilitation et la protection des systèmes émergents et du transfert de technologie, en traitant spécifiquement des algorithmes d’assistance et publics, associés aux groupes désignés et aux processus d’adoption complexes ?

Dispositions, classifications et algorithmes

À travers le prisme des catégories et algorithmes d’assistance, d’accessibilité et sociaux, plusieurs éléments des dispositions de la loi sur l’IA doivent être soulignés :

Dans un premier temps, parallèlement aux applications susceptibles de manipuler le comportement humain, au « score social » gouvernemental et à certaines applications de police prédictive, il introduit l’interdiction totale de certains cas publics et en temps réel de systèmes de biométrie et de reconnaissance des émotions.

Il interdit notamment l’utilisation de la reconnaissance des émotions dans quatre affaires publiques : les lieux de travail et les établissements d’enseignement, les forces de l’ordre et la migration.

(La loi sur l’IA) interdit également les systèmes visant à catégoriser ou à « évaluer » les personnes, y compris l’identification biométrique à distance en temps réel à des fins d’application de la loi dans des espaces accessibles au public – à l’exception des « situations énumérées de manière exhaustive et étroitement définies ».

Un policier grec utilise un dispositif acoustique à longue portée, LRAD, lors d'une patrouille le long de la frontière gréco-turque, près de la ville de Feres, en mai 2021.
Un policier grec utilise un dispositif acoustique à longue portée, LRAD, lors d’une patrouille le long de la frontière gréco-turque, près de la ville de Feres, en mai 2021.

Il interdit également les systèmes visant à catégoriser ou à « évaluer » les personnes, y compris l’identification biométrique à distance en temps réel à des fins d’application de la loi dans les espaces accessibles au public (sauf « situations énumérées de manière exhaustive et étroitement définies »).

Deuxièmement, la disposition récente déplace également les cas généraux de « identification ou déduction d’émotions ou d’intentions de personnes physiques sur la base de leurs données biométriques » vers la catégorie « à haut risque » qui comprend également les systèmes liés à certaines infrastructures critiques, dispositifs médicaux, systèmes pour déterminer l’accès aux établissements d’enseignement ou pour le recrutement de personnes, les forces de l’ordre et la justice.

Et même si tous les systèmes « d’informatique affective » n’appartiennent pas à la catégorie à haut risque, dans la disposition actuelle, cette catégorie exige la nécessité d’informer l’utilisateur si de tels algorithmes sont en place, d’introduire une atténuation des risques et une surveillance humaine, et d’assurer un niveau élevé de risque. -ensembles de données de qualité, robustesse et précision, documentation détaillée (pouvant impliquer des bacs à sable réglementaires).

La transparence au cœur

Le document introduit également la catégorie du « risque spécifique de transparence ». Cela signifie que lorsqu’ils utilisent des systèmes d’IA tels que les chatbots, les utilisateurs doivent être conscients qu’ils interagissent avec une machine.

Le contenu généré par l’IA devra être étiqueté comme tel et les utilisateurs devront être informés lorsque des systèmes de catégorisation biométrique ou de reconnaissance des émotions sont utilisés. En particulier, les cas d’assistance utilisant des systèmes de reconnaissance émotionnelle et expressive peuvent inclure des assistants sociaux et des robots ou des appareils intelligents prenant en charge les troubles du spectre autistique ou les déficiences cognitives associées à des émotions, des expressions et des processus sociaux perturbés.

Quatrièmement, l’AI Act introduit des règles dédiées à l’IA à usage général. De tels modèles, comprenant de larges applications de texte, d’image, de reconnaissance et de conversion vocales, de détection de formes et de mécanique basée sur le langage, peuvent alimenter les écosystèmes d’accessibilité, d’assistance et d’hébergement existants, nécessitant une communication ou une interaction avec le patient ou l’étudiant.

Personnes reflétées dans la fenêtre d'un immeuble de la Promenade de Davos avec un slogan sur l'IA en marge du Forum économique mondial de Davos, janvier 2024.
Personnes reflétées dans la fenêtre d’un immeuble de la Promenade de Davos avec un slogan sur l’IA en marge du Forum économique mondial de Davos, janvier 2024.

De tels algorithmes peuvent être utilisés dans une variété de contextes sociaux et publics, des robots éducatifs ou thérapeutiques, des assistants personnels, des outils pour les déficiences cognitives ou sensorielles, les troubles du spectre autistique ou la dyslexie.

Sur la base de dispositions, ces modèles devraient garantir la transparence à toutes les étapes de développement.

Pour les modèles très puissants susceptibles de présenter des risques systémiques, il existera des obligations contraignantes supplémentaires liées à la gestion des risques et à la surveillance des incidents graves, à la réalisation d’une évaluation du modèle et de tests contradictoires. En outre, les organisations à l’origine de grands modèles de langage open source doivent divulguer leurs données de formation.

Enfin, les dispositions politiques introduisent des mécanismes d’amendes et de pénalités. Les amendes s’échelonneraient de 35 millions d’euros, soit 7 % du chiffre d’affaires annuel mondial, pour les violations d’applications d’IA interdites, à 15 millions d’euros, soit 3 %, pour les violations d’autres obligations. Des plafonds plus proportionnés sont prévus pour les amendes administratives imposées aux PME et aux start-ups.

Équilibrer facilitation et protection

Malgré une conformité plus stricte à des catégories particulières, il est important de se rappeler que la topologie et le mécanisme basé sur les risques de la loi européenne sur l’IA ne sont pas créés en vase clos, mais élargissent plutôt le mécanisme déjà utilisé et qui a évolué au fil du temps.

Il retrace notamment l’histoire des critères d’évaluation mis à profit par le transfert de technologie, les PME et les écosystèmes d’innovation tels qu’Horizon 2020, le programme de financement de l’UE pour la recherche et l’innovation, avec près de 80 milliards d’euros de financement disponibles sur 7 ans.

La Commission européenne a reçu des appels et des commentaires concernant l’IA et les droits des personnes handicapées, l’utilisation de systèmes de reconnaissance biométrique, faciale et émotionnelle, ainsi que des cas affectant les réfugiés et les immigrants, y compris les systèmes automatisés d’évaluation des risques et de profilage.

La présidente de la Commission européenne, Ursula von der Leyen, prononce son discours au Parlement européen à Strasbourg, en janvier 2024.
La présidente de la Commission européenne, Ursula von der Leyen, prononce son discours au Parlement européen à Strasbourg, en janvier 2024.

Ces programmes exploitaient la sécurité, la confidentialité et l’impact comme l’un des critères d’évaluation des candidatures.

Au fil du temps, des programmes particuliers ont été complétés par d’autres critères spécifiques, notamment l’impact social et économique des États membres, et des techniques d’atténuation des risques ont été utilisées.

Il suit également logiquement la nature de la législation existante des États membres en matière de données et de confidentialité et des cadres à l’échelle de l’UE tels que le RGPD qui traitait auparavant des groupes désignés, des systèmes de profilage et de biométrie.

En outre, depuis la proposition initiale de la loi européenne sur l’IA en 2021, la Commission européenne a reçu des appels et des commentaires concernant l’IA et les droits des personnes handicapées, l’utilisation de systèmes de reconnaissance biométrique, faciale et émotionnelle, et des cas affectant les réfugiés et les immigrants, y compris l’évaluation automatisée des risques. et les systèmes de profilage. Ces considérations ont également affecté les dispositions de la loi.

Le public, les parties prenantes, l’adoption et la voie à suivre

Depuis sa création, l’AI Act vise à devenir le premier document au monde à déployer des systèmes et des algorithmes davantage centrés sur l’humain, garantissant à la fois sa facilitation et sa réglementation.

Cela a envoyé un signal puissant à l’écosystème technologique, le faisant passer de la boîte noire du travail de l’évaluateur à une société plus large.

Elle a été suivie par des réglementations et des efforts similaires sur la scène mondiale, notamment le Sommet britannique sur la sécurité et la Déclaration de Bletchley, la directive américaine sur l’IA, des cadres spéciaux pilotés par l’UNESCO, l’OMS et l’OCDE, traitant de grands modèles linguistiques dans les domaines de la santé, de l’éducation, du travail. et de travail, les systèmes publics, avec la contribution d’institutions spécialisées, de chercheurs, d’experts et d’acteurs.

La disposition finale de la loi a également été saluée par l’alliance Digital SME, soulignant une « approche basée sur les risques qui est promue par des définitions et des seuils précis, limités et internationalement reconnus », établissant des bacs à sable réglementaires et des opportunités de tests dans le monde réel.

En ce qui concerne les groupes désignés et les catégories spéciales de technologies d’assistance, la loi sur l’IA n’interdit pas l’utilisation d’algorithmes dans ce domaine mais prévoit une conformité et des exigences supplémentaires.

Au stade actuel, elle ne couvre pas tous les cas et scénarios, topologies et terminologies, mais elle peut compléter la législation existante des États membres, notamment les lois sur l’accessibilité, l’égalité ou la protection sociale.

Enfin, pour garantir une meilleure protection sociale et un meilleur accès aux groupes vulnérables, aux mineurs ou à des cas d’utilisation particuliers – tels que la manipulation de la plateforme, les risques invisibles ou la conception algorithmique addictive, également reflétés dans l’article 5.1 de la loi sur l’IA – elle pourrait être complétée par une législation non liée à l’IA. tels que la loi sur l’accessibilité, des articles particuliers de la loi sur les services numériques, des directives et lignes directrices spéciales.

Laisser un commentaire

trois × deux =