Les entreprises d’IA qui prétendent être open source, comme la dernière entreprise d’IA de Musk, ouvrent les poids mais pas les données sur lesquelles elles sont formées ni le processus de formation.
Grok, le chatbot d’intelligence artificielle (IA) d’Elon Musk, n’est pas aussi open source qu’il le prétend, pas plus que les nombreuses entreprises qui prétendent l’être, selon l’intendant de la définition.
Fondée en 1998, l’Open Source Initiative (OSI) est une organisation à but non lucratif qui défend le terme open source. Il travaille actuellement à la mise à jour de sa définition pour inclure l’IA open source.
Open source signifie généralement que le code source du logiciel est accessible à tous dans le domaine public pour être utilisé, modifié et distribué.
La définition de l’OSI stipule qu’il doit également respecter 10 critères, notamment disposer d’un moyen bien publicisé d’obtenir le code source à un coût raisonnable ou gratuitement, ne pas être discriminatoire et la licence ne restreint pas d’autres logiciels.
Mais les systèmes d’IA sont plus difficiles à évaluer par rapport aux 10 points de l’OSI.
« La définition du logiciel open source que nous utilisons pour les logiciels ne s’applique pas vraiment aux systèmes d’IA », a déclaré Stefano Maffulli, directeur exécutif de l’OSI, à L’Observatoire de l’Europe Next.
Les entreprises d’IA qui prétendent être open source, comme la dernière entreprise d’IA de Musk, ouvrent en source les pondérations – les paramètres numériques qui influencent le fonctionnement d’un modèle d’IA – mais pas les données sur lesquelles il est formé ni le processus de formation.
Maffuli a déclaré que cela signifie qu’il ne peut pas être open source car il n’est pas transparent quant aux données utilisées pour entraîner le poids, ce qui peut entraîner des problèmes de droits d’auteur et des questions éthiques quant au caractère biaisé des données.
« Ces (les poids) sont des choses nouvelles, et c’est une toute nouvelle période dans l’histoire où nous avons un nouvel artefact qui est encore la production de l’ingéniosité, de l’intelligence et de la créativité humaines », a-t-il déclaré.
«Mais en même temps, il y a aussi l’élaboration de calculs semi-aléatoires effectués par de grands ordinateurs».
« À la recherche de la vérité »
Musk a précédemment déclaré dans un article sur sa plateforme de médias sociaux X que son IA open source est « de loin la plus transparente et la plus en quête de vérité », et a poursuivi OpenAI pour avoir abandonné sa mission initiale de bénéficier à l’humanité en s’associant à Microsoft. Pourtant, Grok de Musk ne divulgue pas sur quelles données le poids a été entraîné.
En fait, les entreprises ne sont guère incitées à le faire, car le moment où vous annoncez sur quoi vous construisez vos données est le moment où vous vous exposez à des poursuites en matière de droits d’auteur.
« Jusqu’à ce que nous ayons un peu de clarté sur ce plan juridique, je pense que nous serons encore témoins de ce genre de problèmes », a déclaré Maffulli.
Une autre raison pour laquelle les sociétés d’IA dites open source ne souhaitent pas être totalement transparentes est la préservation des secrets commerciaux.
L’OSI a donc une tâche difficile à accomplir lorsqu’il s’agit de définir l’IA open source. L’organisation a commencé sa quête il y a deux ans après que ChatGPT d’OpenAI soit catapulté sur la scène en novembre 2022.
Le plus grand obstacle, a-t-il déclaré, lorsqu’il s’agit de définir l’IA open source est de comprendre la dépendance entre les données des ensembles de formation et les pondérations du modèle, a déclaré Maffulli.
Comment définir l’IA open source
L’OSI a commencé par rassembler un groupe d’experts initiaux issus d’organisations telles que la Fondation Mozilla et Wikipédia, mais également de groupes de la société civile, d’universités et de grandes entreprises technologiques telles que Microsft et Meta.
Les groupes de travail ont ensuite évalué trois modèles d’IA génératifs : Meta’s Llama, Illusion AI et Bloom, ainsi qu’un modèle d’IA non génératif qui utilise l’apprentissage automatique.
Les groupes de travail ont voté sur les exigences minimales pour qu’un système d’IA soit open source.
Maffulli a déclaré que les groupes de travail « ont tous dit qu’il devait y avoir au minimum une exigence minimale de transparence des données ».
L’OSI peaufine actuellement ce projet de définition, qu’il prévoit de rendre public au cours de l’été.
Mais cela ne signifie pas qu’une fois la définition finalisée, l’OSI viendra après Musk ou d’autres sociétés d’IA open source autoproclamées.
« Nous sommes les gardiens et les gardiens de la définition, mais nous n’avons pas vraiment de pouvoirs puissants pour la faire respecter », a déclaré Maffulli.
Il a ajouté que les juges et les tribunaux du monde entier commencent à reconnaître que la définition de l’open source est importante, notamment lorsqu’il s’agit de fusions mais aussi de réglementation.
Des pays du monde entier sont en train de finaliser la manière dont ils réglementeront l’IA et les logiciels open source sont un sujet de discorde.
« La définition de l’open source sert de barrière pour identifier les fausses publicités », a déclaré Maffulli.
« Si une entreprise déclare être open source, elle doit véhiculer les valeurs que véhicule la définition de l’open source. Sinon, c’est juste déroutant ».