Les régulateurs, les start-ups et les Big Tech sont divisés en deux camps dans le débat sur l’intelligence artificielle open source ou fermée, où la sécurité et le profit priment.
La bataille entre les entreprises d’intelligence artificielle (IA) générative est en cours avec deux camps concurrents : les logiciels open source versus les logiciels fermés.
La clé du débat est la manière dont la technologie est démocratisée, mais la sécurité et le profit priment dans le conflit.
De manière générale, les logiciels open source sont ceux où le code source est accessible à tous dans le domaine public pour être utilisé, modifié et distribué. Il encourage la créativité et l’innovation, car les développeurs peuvent s’appuyer sur des algorithmes d’IA et des modèles pré-entraînés pour modifier leurs propres produits et outils.
L’IA à source fermée, en revanche, signifie que le code source est limité à un usage privé et ne peut pas être modifié ou développé par les utilisateurs ; seule l’entreprise qui en est propriétaire le peut. Mais le financement de ces entreprises open source est plus facile, ce qui signifie qu’elles disposent de plus de capitaux pour innover.
La définition de ce qui rend une entreprise open source n’est pas non plus très claire.
La définition de la technologie open source
L’Open Source Initiative (OSI) est l’intendant de la définition de la technologie open source.
Il précise que « l’open source ne signifie pas seulement l’accès au code source » et qu’il doit respecter 10 critères, notamment disposer d’un moyen bien publicisé d’obtenir le code source à un coût raisonnable ou gratuitement, ne pas être discriminatoire. , et la licence ne restreint pas d’autres logiciels.
Mais se conformer à toutes les exigences de l’OSI est rare et la plupart des entreprises open source ne le sont que partiellement, comme le champion français de l’IA Mistral. Il ouvre les sources de ses pondérations de modèle – les paramètres numériques qui influencent les performances d’un modèle d’IA – mais pas les données ou le processus de formation.
La technologie pour tous
Les entreprises d’IA qui se disent open source affirment qu’elles rendent la technologie plus accessible à tous.
L’open source contribue à démocratiser l’économie technologique, a déclaré Alex Combessie, PDG de Giskard, cofondateur de la société française d’IA open source, à L’Observatoire de l’Europe Next.
« Cela uniformise les règles du jeu car si c’est open source, c’est gratuit, du moins en général. Cela signifie que les petits acteurs peuvent rivaliser avec les plus grands car ils ont accès aux produits gratuitement », a-t-il déclaré.
« Et c’est très important, surtout dans un monde tellement dominé par les monopoles technologiques ».
L’open source égalise également le champ politique, permettant à quiconque de vérifier le code tel qu’il est visible pour les régulateurs, alors qu’avec le code source fermé, les détails ne sont pas transparents.
Les préoccupations de sécurité
Mais les sociétés d’IA à source fermée, telles que le créateur de ChatGPT OpenAI (malgré son nom), affirment que l’open source menace notre sécurité.
OpenAI a été fondée à l’origine pour produire des systèmes d’IA open source, mais la société a déclaré en 2019 qu’il était trop dangereux de continuer à publier son modèle de langage GPT car il ressemblait trop à la parole humaine et s’il était placé entre de mauvaises mains, il pourrait générer de fausses nouvelles de haute qualité.
Avec l’IA à source fermée, il existe également des politiques d’utilisation qui refuseront poliment les demandes, telles que les instructions pour fabriquer une bombe ou concevoir un coronavirus plus mortel.
Vous pouvez techniquement jailbreaker la politique, ce qui signifie que vous pouvez la pirater pour contourner les protections d’une IA. Mais ces vulnérabilités sont souvent rapidement corrigées.
Les systèmes d’IA open source auront très probablement mis en place des garanties ou un guide d’utilisation responsable. Mais malgré tous leurs efforts pour lutter contre la discrimination ou le danger, une fois qu’une copie du modèle d’IA est accessible, celui qui la possède peut modifier lui-même les garanties.
Un excellent exemple en est la publication par Meta de son grand modèle de langage open source (LLM) Llama 2 en juillet de l’année dernière.
Quelques jours plus tard, des gens ont publié leurs propres versions non censurées de Llama 2, posant des questions sur la façon de construire une bombe nucléaire, auxquelles le LLM pouvait ensuite répondre.
Une fois que quelqu’un publie une version « non censurée » d’un modèle d’IA, le créateur d’origine de l’IA ne peut pratiquement rien faire, d’autant plus qu’il aura déjà été téléchargé par d’autres utilisateurs.
Grande entreprise technologique
En décembre, Meta et IBM ont lancé un groupe appelé AI Alliance, ce qui le met en contradiction avec les géants du code source fermé OpenAI, Google et Microsoft.
L’AI Alliance prône une approche « science ouverte » de l’IA et implique 74 entreprises, dont des start-ups, de grandes entreprises et des organisations à but non lucratif.
« Une approche ouverte, responsable et transparente de l’IA profite à tous : l’industrie, le monde universitaire et la société dans son ensemble », a déclaré Alessandro Curioni, IBM Fellow, vice-président Europe et Afrique et directeur d’IBM Research.
Interrogé sur la sécurité, il a déclaré que l’idée derrière une IA ouverte et transparente est de minimiser les craintes.
« Une IA ouverte, transparente et responsable contribuera à faire progresser la sécurité de l’IA, en garantissant que la communauté ouverte de développeurs et de chercheurs aborde les bons risques de l’IA et les atténue avec les solutions les plus appropriées », a-t-il déclaré à L’Observatoire de l’Europe Next.
« Cela ne signifie pas que toutes les technologies doivent être ouvertes – et, surtout, ouverte ne signifie pas non plus non gouvernée. La gouvernance est tout aussi importante, qu’il s’agisse d’IA ouverte ou propriétaire », a-t-il précisé.
Le problème du financement
Malgré l’argument open source selon lequel les développeurs peuvent librement s’appuyer sur les modèles d’IA open source et repousser les limites, l’argent est bien sûr au cœur du débat.
Certains investisseurs peuvent être dissuadés d’un modèle open source car ils peuvent se sentir plus à l’aise avec un protocole Internet (IP) sécurisé.
« Une conversation avec un grand modèle de langage en temps réel utilise également beaucoup de puissance de calcul et est liée à des solutions informatiques cloud, ce qui n’est pas vraiment bon marché », a déclaré le Dr Theodore Chen, data scientist chez Deloitte.
« À l’heure actuelle, je constate que cela repose réellement sur des investissements de monétisation. Les technologies les plus avancées ont donc besoin de financement », a-t-il déclaré à L’Observatoire de l’Europe Next.
« La monétisation est également utilisée pour le développement, ce qui pourrait être utilisé pour créer des modèles plus précis, ce qui permettrait à l’industrie dans son ensemble d’aller de l’avant ».
Mais faire progresser la technologie peut également se faire avec des modèles open source, car les développeurs peuvent faire preuve de créativité et créer de nouvelles utilisations de l’IA.
« Si davantage de gens avaient accès aux matières premières qui leur permettent de réaliser des choses vraiment créatives et très intéressantes, nous pourrions voir les choses se propager dans des directions que vous ou personne ne devineriez probablement », a déclaré Tiago Cardoso, chef de produit chez Hyland, à L’Observatoire de l’Europe Next.
Régulation
Le débat entre les sources ouvertes et les sources fermées a été un point de friction pour les régulateurs européens et américains qui ont des points de vue opposés.
En Europe, la loi européenne sur l’IA devrait obtenir l’approbation finale du Parlement en avril. Mais le texte en attente d’approbation indique que la loi ne s’appliquera pas aux systèmes d’IA open source à moins qu’ils ne soient interdits ou classés comme systèmes d’IA à haut risque.
Une bonne nouvelle pour la France et l’Allemagne qui, tout au long des négociations, ont insisté pour protéger leurs start-ups open source.
Pendant ce temps, aux États-Unis, le président Biden a adopté un décret radical à la fin de l’année dernière, selon lequel lorsque des modèles open source – qu’il a appelés modèles de fondation à double usage – sont « publiés publiquement sur Internet, il peut y avoir des avantages substantiels pour l’innovation, mais également des risques de sécurité importants, tels que la suppression des garanties au sein du modèle ».
Biden a donné à la secrétaire au Commerce, Gina Raimondo, jusqu’en juillet pour parler à des experts et revenir avec des recommandations.