Le processus de normalisation doit s’accélérer, prévient l’organisme de surveillance, car les dispositions de la loi européenne sur l’IA commenceront bientôt à s’appliquer.
Le processus visant à établir des normes pour les systèmes et produits d’intelligence artificielle dans le cadre de la loi sur l’IA devra être plus rapide, a déclaré à L’Observatoire de l’Europe un haut responsable de l’organisme néerlandais de surveillance de la vie privée, Autoriteit Persoonsgegevens (AP).
« Les normes sont un moyen de créer une certitude pour les entreprises et de démontrer leur conformité. Il reste encore beaucoup de travail à faire avant que ces normes soient prêtes. Et bien sûr, le temps commence à manquer », a déclaré Sven Stevenson, directeur de la coordination et de la supervision des algorithmes à l’agence.
« Les processus de normalisation prennent normalement plusieurs années. Nous pensons certainement que cela doit être intensifié », a-t-il ajouté.
La Commission européenne a demandé aux organismes de normalisation CEN-CELENEC et ETSI en mai de l’année dernière de préparer les normes de base pour l’industrie, et ce processus est toujours en cours.
La loi sur l’IA – le premier ensemble de règles au monde visant à réglementer les outils d’apprentissage automatique, notamment les assistants virtuels et les grands modèles de langage tels que ChatGPT – est entrée en vigueur en août, mais les dispositions commenceront à s’appliquer progressivement. Par exemple, les règles applicables aux fournisseurs de modèles GPAI entreront en vigueur en août de l’année prochaine.
IA Clearview
L’AP – qui est également l’autorité de protection des données supervisant le règlement général sur la protection des données (RGPD) – aura probablement la compétence partagée pour vérifier la conformité des entreprises à la loi sur l’IA avec d’autres agences, dont le RDI, le régulateur néerlandais en charge des infrastructures numériques. . Jusqu’à présent, l’AP compte une vingtaine de personnes travaillant sur l’IA.
Tous les États membres de l’UE ont jusqu’en août de l’année prochaine pour nommer leur régulateur en charge de l’IA, et dans la plupart des pays de l’UE, les autorités nationales de protection des données semblent être une solution probable.
Dans son rôle de régulateur des données, l’AP a déjà abordé des situations dans lesquelles les outils d’IA des entreprises ont été jugés en violation du RGPD. Par exemple, en septembre, elle a infligé une amende de 30,5 millions d’euros à la société américaine de reconnaissance faciale Clearview AI pour avoir créé une base de données illégale contenant des photos, des codes biométriques uniques et d’autres informations liées aux Européens.
Dans des cas similaires à venir, l’AI Act serait complémentaire au RGPD, puisqu’il concerne avant tout le traitement des données personnelles. « La loi sur l’IA s’appliquerait dans le sens où elle concerne la sécurité des produits. Si nous interdisons cela aux Pays-Bas, il faudra que cela soit cohérent entre les États membres », a déclaré Stevenson.
Bac à sable utilisé aux Pays-Bas
À Bruxelles, la Commission a mis en place un « Pacte pour l’IA », qui aide les entreprises à se préparer à la nouvelle loi sur l’IA par le biais d’ateliers et d’engagements communs. Au niveau national, l’AP organise également un bac à sable et un projet pilote, avec le RDI et le ministère des Affaires économiques, pour aider les entreprises à se familiariser avec les règles.
« Pour le prochain bac à sable, qui sera opérationnel en 2026, nous souhaitons nous ouvrir aux systèmes d’IA qui auront un impact plus large et qui aideront les entreprises ayant des idées similaires. Nous voulons leur expliquer clairement comment travailler sur ce sujet, conformément à la loi sur l’IA », a déclaré Stevenson.
En outre, depuis décembre 2022, le gouvernement néerlandais a publié un registre public des algorithmes. L’administration souhaite que les algorithmes utilisés par le gouvernement soient légalement contrôlés pour détecter toute discrimination et tout arbitraire, dans le but de garantir la transparence et de rendre les résultats des algorithmes plus explicables.