Le Conseil de sécurité de l’ONU a tenu une réunion sur les risques de l’intelligence artificielle (IA) pour la paix et la sécurité mondiales, appelant à des garanties urgentes contre cette technologie « sans précédent ».
Le Conseil de sécurité des Nations Unies a convoqué une session historique pour faire face à la menace potentielle de l’intelligence artificielle pour la paix et la stabilité internationales.
Le secrétaire général António Guterres a averti le conseil que l’avènement de l’IA générative pourrait avoir des conséquences très graves pour la paix et la sécurité internationales, soulignant son utilisation potentielle par des terroristes, des criminels et des gouvernements causant « des niveaux horribles de mort et de destruction, des traumatismes généralisés et une profonde des dommages psychologiques d’une ampleur inimaginable.
L’IA pourrait aider à éradiquer la pauvreté, chasser la faim, guérir le cancer et stimuler l’action climatique, mais d’autres « applications militaires et non militaires de l’IA pourraient avoir de graves conséquences pour la paix et la sécurité mondiales », a déclaré António Guterres.
Dans un premier temps, le secrétaire général a appelé à la nécessité d’un organisme de surveillance mondial pour surveiller l’évolution rapide de la technologie et a déclaré que l’ONU nommerait un conseil consultatif de haut niveau pour l’IA qui fera rapport sur les options de gouvernance mondiale de l’IA d’ici la fin. de l’année.
L’agence envisagée comprendrait des spécialistes dans le domaine de l’IA, offrant leur expertise aux gouvernements et aux organismes administratifs qui pourraient manquer des connaissances techniques nécessaires pour relever efficacement les défis posés par les menaces de l’IA.
Les Nations Unies sont « l’endroit idéal » pour adopter des normes mondiales afin de maximiser les avantages de l’IA et d’atténuer ses risques, a-t-il déclaré.
Le chef de l’ONU a également déclaré qu’il saluait les appels de certains pays à créer un nouvel organe pour soutenir les efforts mondiaux de gouvernance de l’IA, « inspiré par des modèles tels que l’Agence internationale de l’énergie atomique, l’Organisation de l’aviation civile internationale ou le Groupe d’experts intergouvernemental sur l’évolution du climat. ”
Lors d’un briefing vidéo avec le Conseil de sécurité de l’ONU, le professeur Yi Zeng, directeur du laboratoire d’intelligence cognitive inspiré par le cerveau de l’Académie chinoise des sciences, a déclaré que l’ONU devrait établir un groupe de travail pour examiner les défis à court et à long terme que l’IA pose pour la paix et la sécurité internationales.
Mais il a également souligné que les récents systèmes d’IA générative « sont tous des outils de traitement de l’information qui semblent être intelligents » mais n’ont pas de réelle compréhension, et donc « ne sont pas vraiment intelligents ».
Zeng, qui codirige également le Centre de recherche sino-britannique sur l’éthique et la gouvernance de l’IA, a averti que « l’IA ne devrait jamais, jamais prétendre être humaine », insistant sur le fait que les vrais humains doivent garder le contrôle, en particulier de tous les systèmes d’armes.
Évaluer l’IA pour les abus et les défauts
Jack Clark, co-fondateur de la société d’intelligence artificielle Anthropic, et ancien directeur des politiques d’OpenAI – le créateur de laboratoire du chatbot le plus connu ChatGPT – est également intervenu dans le panel pour avertir qu’on ne peut pas faire confiance aux grandes entreprises de technologie pour garantir la sécurité de des systèmes que nous ne comprenons pas encore et qui sont sujets à « un comportement chaotique ou imprévisible », a-t-il déclaré.
« C’est comme si nous construisions des moteurs sans comprendre la science de la combustion », a-t-il noté.
L’entrepreneur en intelligence artificielle, qui travaille actuellement sur un chatbot de type ChatGPT appelé Claude, a déclaré qu’il était fondamental que le monde se réunisse et « travaille à développer des moyens de tester les capacités, les abus et les failles de sécurité potentielles de ces systèmes ».
« Toute approche sensée de la réglementation commencera par avoir la capacité d’évaluer un système d’IA pour une capacité ou un défaut donné », a déclaré Clark dans un briefing vidéo.
À l’heure actuelle, il n’y a pas de normes ou même de meilleures pratiques sur « comment tester ces systèmes frontaliers pour des choses comme la discrimination, l’abus ou la sécurité », ce qui rend difficile pour les gouvernements de créer des politiques et permet au secteur privé de profiter d’un avantage en matière d’information, a-t-il ajouté. .
Clark est également intervenu pour mettre en garde contre les « menaces potentielles pour la paix, la sécurité et la stabilité mondiales » dues au potentiel d’utilisation abusive et imprévisible de l’IA « ainsi que de la fragilité inhérente à leur développement par un ensemble d’acteurs aussi restreint ».
S’il n’y a pas d’évaluation solide, a-t-il déclaré, « nous courons le risque d’une capture réglementaire compromettant la sécurité mondiale et cédant l’avenir à un ensemble restreint d’acteurs du secteur privé ».
D’autres dirigeants de l’IA tels que le PDG d’OpenAI, Sam Altman, ont également appelé à une réglementation.
Mais les sceptiques disent que la réglementation pourrait finir par profiter aux entreprises établies disposant d’importantes ressources financières comme OpenAI, Google et Microsoft. Ces grandes entreprises technologiques, souvent qualifiées de « premiers arrivés aux poches profondes », disposent des ressources nécessaires pour gérer les coûts associés à la conformité de leurs grands modèles linguistiques aux exigences réglementaires.
Par conséquent, les petits acteurs de l’industrie de l’IA pourraient être désavantagés et trouver difficile de concurrencer des entreprises plus grandes et plus solides financièrement.
Le secrétaire britannique aux Affaires étrangères, James Cleverly, qui a présidé la réunion alors que le Royaume-Uni assure la présidence du Conseil ce mois-ci, a annoncé que son pays réunira les dirigeants mondiaux pour le premier grand sommet mondial sur la sécurité de l’IA cet automne.
« Nous sommes ici aujourd’hui parce que l’IA affectera le travail de ce conseil. Cela pourrait renforcer ou perturber la stabilité stratégique mondiale. Cela remet en question nos hypothèses fondamentales sur la défense et la dissuasion », a-t-il déclaré, ajoutant qu' »aucun pays ne sera épargné par l’IA ».
« Nous devons impliquer et engager la plus large coalition d’acteurs internationaux de tous les secteurs », a-t-il déclaré.
« Notre objectif commun sera d’examiner les risques de l’IA et de décider comment ils peuvent être réduits grâce à une action coordonnée. »
Le mois dernier, les législateurs de l’Union européenne ont approuvé avec succès le premier ensemble complet de réglementations au monde pour l’intelligence artificielle.
Cette étape représente une avancée significative alors que les autorités du monde entier s’efforcent de contrôler et de gérer l’impact des technologies d’IA.