De l’abrogation du décret de Biden à la nomination de personnes ayant des opinions différentes sur l’IA, L’Observatoire de l’Europe Next examine ce que Trump 2.0 pourrait signifier pour la technologie émergente.
Tout au long de sa campagne présidentielle de 2024, Donald Trump n’a pas dit grand-chose sur ses projets concernant l’industrie de l’intelligence artificielle (IA) aux États-Unis.
Le seul engagement du programme du Parti républicain en matière d’IA était d’abroger un décret de l’ère Biden, car il « entrave l’innovation en matière d’IA » et « impose des idées radicales de gauche sur le développement de cette technologie ».
Dans le cas contraire, la nouvelle administration Trump affirme qu’elle soutiendra « le développement de l’IA ancré dans la liberté d’expression et l’épanouissement humain ».
Depuis sa victoire, le président élu s’est entouré à la fois de partisans et d’opposants à la réglementation de l’IA, des rapports suggérant que ses alliés étudient les projets de Manhattan visant à développer la technologie militaire de l’IA. Il souhaite également mettre en place l’IA au sein du gouvernement américain.
En réalité, que pourrait signifier une deuxième administration Trump pour le développement de l’IA aux États-Unis ? L’Observatoire de l’Europe Next le détaille alors qu’une image plus claire de sa future présidence se dessine
Abrogation du décret de Biden sur l’IA
Le décret de 2023 du président Biden avait deux objectifs, selon Andrew Strait, directeur associé de l’Institut Ada Lovelace du Royaume-Uni, un groupe de réflexion sur l’IA.
La première consistait à créer un cadre défini sur la manière dont la technologie serait utilisée en matière de sécurité nationale.
L’autre était d’encourager un « ensemble de stratégies » et une « feuille de route » sur la manière dont le gouvernement américain pourrait aborder la manière dont les algorithmes d’IA pourraient avoir un impact sur l’accès des personnes aux aides gouvernementales, telles que l’aide sociale, le logement, les soins de santé ou l’éducation, a poursuivi Strait.
Si Trump décide de se débarrasser du décret de Biden, il devra tout supprimer et éventuellement en réintroduire certaines parties dans sa propre version, selon Susan Ariel Aaronson, professeure-chercheuse en affaires internationales à l’Université George Brown au Canada. .
En 2020, Trump a signé un décret définissant une IA digne de confiance, garantissant que les modèles sont valides, responsables, transparents et fiables, a déclaré Aaronson.
Le décret a également publié ce qu’il prétend être la première orientation réglementaire au monde en matière d’IA.
« Beaucoup de ces éléments de base (de Trump) ne peuvent être réalisés sans une certaine forme d’IA ou de réglementation des affaires », a-t-elle déclaré.
Trump pourrait également constater une certaine réticence à l’abrogation du décret de Biden de la part d’autres entreprises technologiques, car il « a apporté des clartés concernant l’utilisation de l’IA et son développement », a poursuivi Aaronson.
L’avenir de la recherche sur les risques liés à l’IA pourrait être menacé
L’une des principales créations du décret de Biden a été l’Institut américain de sécurité de l’IA, un organisme de recherche indépendant qui étudie les risques associés à l’IA et comment l’adopter en toute sécurité, selon Strait.
L’AI Safety Institute des États-Unis est chargé de « faire progresser la recherche et la science des mesures pour la sécurité de l’IA », conformément à sa vision stratégique.
Au cours des derniers mois, l’Institut a poussé toutes les grandes entreprises à faire des déclarations sur la manière dont elles évaluent les risques liés à l’IA et à divulguer les types de cadres qu’elles adoptent, a poursuivi Strait.
L’organisme a également commencé à effectuer des tests préliminaires avec des sociétés d’IA pour déterminer si un système est sûr ou non.
Par exemple, l’institut travaille avec Big Tech pour voir si leurs modèles d’IA génèrent du contenu raciste ou toxique, et mesure la fréquence à laquelle les chatbots d’IA « hallucinent » ou inventent des réponses trompeuses à des questions dont ils ne connaissent pas les réponses, a poursuivi Strait.
Si Trump annule le décret de Biden, il existe d’autres alliés des États-Unis dotés d’instituts de sécurité de l’IA, comme le Canada, le Royaume-Uni et l’Australie, qui pourraient combler le déficit de recherche que pourrait entraîner la fermeture des États-Unis, a poursuivi Strait.
Le président Biden pourrait encore protéger l’AI Safety Institute en demandant au Congrès de l’inscrire dans la législation avant la fin de son mandat, a déclaré Aaronson, mais elle ne sait pas s’il le fera.
L’Observatoire de l’Europe Next a contacté le National Institute of Standards and Technology (NIST), la branche gouvernementale qui héberge l’IA Safety Institute des États-Unis, pour connaître sa réaction aux récents résultats des élections américaines, mais a déclaré qu’il « ne pouvait pas spéculer sur le sujet ».
Influence de la (dé)réglementation du cercle restreint de Trump
Trump s’entoure également de personnes ayant des positions différentes sur la réglementation de l’IA, a déclaré Strait.
L’un des principaux partisans de Trump est le milliardaire Elon Musk, qui est un fervent partisan de la réglementation de l’IA afin de faire face aux risques potentiellement catastrophiques de la nouvelle technologie.
Musk a déjà été sollicité par Trump pour codiriger un nouveau « Département de l’efficacité gouvernementale » (DOGE) qui réduira considérablement les dépenses publiques, selon un article d’opinion du Wall Street Journal co-écrit par Musk.
Musk a également soutenu le projet de loi californien 1047, qui aurait créé un « devoir de diligence » pour les développeurs afin qu’ils atténuent ces types de risques catastrophiques, comme les systèmes qui pourraient devenir incontrôlables. Le projet de loi a finalement été rejeté par le veto du gouverneur Gavin Newsom en septembre.
Le co-responsable de Musk sur DOGE, Vivek Ramaswamy, demande également plus de réglementation autour de l’IA.
« Tout comme vous ne pouvez pas déverser vos produits chimiques, si vous êtes une entreprise chimique, dans la rivière de quelqu’un d’autre, eh bien, si vous développez aujourd’hui un algorithme d’IA qui a un impact négatif sur d’autres personnes, vous en portez la responsabilité. » Ramaswamy, un ancien candidat républicain à la présidentielle, a déclaré lors d’un débat télévisé dans l’Iowa l’année dernière.
Du côté des anti-réglementation, on trouve le vice-président élu JD Vance, qui a passé un peu moins de cinq ans en tant qu’investisseur en capital-risque et dirigeant en biotechnologie dans la Silicon Valley.
Vance a déclaré à un comité sénatorial en juillet que les entreprises se concentraient trop sur la réglementation de l’IA en raison des menaces que représente la technologie. Ces réglementations pourraient rendre plus difficile l’innovation des nouvelles entreprises, a-t-il poursuivi.
Marc Andreessen, directeur de l’influente société de capital-risque de la Silicon Valley Andreessen Horowitz (a16z), est également anti-réglementation sur l’IA.
Andreessen, dans son « Manifeste techno-optimiste » de l’année dernière, a déclaré que la « capture réglementaire » est l’ennemi.