Des représentants et des entreprises de 28 pays, dont les États-Unis et la Chine, ainsi que l’UE, ont signé l’accord qui vise à lutter contre les risques liés aux modèles d’IA dits frontières.
Un accord « inédit » sur la sécurité de l’intelligence artificielle (IA) a été conclu mercredi lors d’un sommet mondial au Royaume-Uni.
Des experts technologiques, des dirigeants mondiaux et des représentants de 27 pays et de l’Union européenne se sont rendus au Sommet britannique sur la sécurité de l’IA, qui se déroule jusqu’à jeudi à Bletchley Park, autrefois domicile des décrypteurs de la Seconde Guerre mondiale.
Voici les principaux points à retenir du premier jour.
L’accord sur l’IA
La Déclaration de Bletchley sur la sécurité de l’IA est une déclaration signée par des représentants et des entreprises de 28 pays, dont les États-Unis, la Chine et l’UE. Il vise à lutter contre les risques liés aux modèles d’IA dits frontières, à savoir les grands modèles de langage développés par des entreprises telles qu’OpenAI.
Le gouvernement britannique l’a qualifié de « première mondiale » entre les signataires, qui vise à identifier les « risques de sécurité de l’IA d’intérêt commun » et à élaborer « des politiques respectives basées sur les risques dans tous les pays ».
Cependant, on ne sait pas exactement comment ces accords se dérouleront.
La secrétaire d’État britannique à la Science, à l’Innovation et à la Technologie, Michelle Donelan, a déclaré que l’accord était une « réalisation historique » et qu’il « jetait les bases des discussions d’aujourd’hui ».
Le gouvernement britannique a également annoncé qu’il y aurait de futurs sommets sur la sécurité de l’IA.
La Corée du Sud lancera un autre mini sommet virtuel sur l’IA dans les six prochains mois et la France accueillera le prochain sommet en personne sur l’IA l’année prochaine.
Toutefois, les experts estiment que cet accord ne va pas assez loin.
« Réunir les grandes puissances pour approuver des principes éthiques peut être considéré comme un succès, mais l’entreprise de production de politiques concrètes et de mécanismes de responsabilisation doit suivre rapidement », a déclaré Paul Teather, PDG de la société de recherche sur l’IA AMPLYFI, à L’Observatoire de l’Europe Next.
« Une terminologie vague laisse place à des interprétations erronées, tandis que s’appuyer uniquement sur la coopération volontaire ne suffit pas pour susciter les meilleures pratiques mondialement reconnues en matière d’IA ».
Intervenants clés
L’entrepreneur technologique milliardaire Elon Musk est arrivé au sommet et est resté silencieux pendant les discussions, mais a déclaré que le rassemblement cherchait à établir un « arbitre » pour les entreprises technologiques.
« Je pense que ce que nous visons vraiment ici, c’est d’établir un cadre d’analyse afin qu’il y ait au moins un arbitre tiers, un arbitre indépendant, qui puisse observer ce que font les principales entreprises d’IA et au moins tirer la sonnette d’alarme si elles le font. j’ai des inquiétudes », a-t-il déclaré à l’agence de presse PA.
« Je pense que ce que nous visons ici, c’est… premièrement, établir qu’il devrait y avoir une fonction d’arbitre, je pense qu’elle devrait le faire.
Et puis, vous savez, soyez prudent dans la manière dont les réglementations sont appliquées, afin de ne pas vous lancer dans des réglementations qui inhibent le côté positif de l’IA ».
Musk s’entretiendra avec le Premier ministre britannique Rishi Sunak plus tard mercredi sur sa plateforme X, anciennement Twitter.
Le roi Charles III de Grande-Bretagne a envoyé un discours vidéo dans lequel il comparait le développement de l’IA à l’importance de diviser l’atome et d’exploiter le feu.
Il a déclaré que l’IA était « l’un des plus grands progrès technologiques de l’histoire de l’activité humaine » et qu’elle pourrait aider « à accélérer notre voyage vers le zéro net et à réaliser une nouvelle ère d’énergie verte propre potentiellement illimitée ».
Mais il a prévenu : « Nous devons également travailler ensemble pour lutter contre ses risques importants ».
La vice-présidente américaine Kamala Harris a déclaré qu’une action était nécessaire maintenant pour faire face à « l’ensemble du spectre » des risques liés à l’IA et pas seulement aux craintes « existentielles » concernant les menaces de cyberattaques ou le développement d’armes biologiques.
« Il existe des menaces supplémentaires qui exigent également notre action, des menaces qui causent actuellement du tort et qui semblent également existentielles pour de nombreuses personnes », a-t-elle déclaré à l’ambassade américaine à Londres.
Les ambitions du Royaume-Uni
Ce n’est un secret pour personne que Sunak souhaite que le Royaume-Uni soit un leader en matière d’IA. Cependant, d’autres pays établissent déjà leurs propres réglementations en matière d’IA.
La concurrence est rude de la part des États-Unis. Le président Joe Biden a déclaré que « l’Amérique montrera la voie pendant cette période de changement technologique » après avoir signé un décret sur l’IA le 30 octobre. Parallèlement, l’UE dispose également de son propre ensemble de lignes directrices en matière d’IA.
Cependant, contrairement à l’UE, le Royaume-Uni a déclaré qu’il n’envisageait pas d’adopter une nouvelle législation pour réglementer l’IA, mais qu’il exigerait plutôt que les régulateurs britanniques existants soient responsables de l’IA dans leurs secteurs.
La Chine a également fait adopter ses propres règles régissant l’IA générative.
Le vice-ministre chinois de la Technologie, Wu Zhaohui, a déclaré lors du sommet que la Chine contribuerait à un « mécanisme international (sur l’IA), élargissant la participation et à un cadre de gouvernance basé sur un large consensus apportant des bénéfices au peuple et construisant une communauté de destin ». pour l’humanité ».