Des chercheurs de Sakana.AI, une société basée à Tokyo, ont travaillé sur le développement d’un grand modèle de langage (LLM) conçu spécifiquement pour la recherche scientifique.
Les chercheurs de Sakana.AI ont développé un modèle d’intelligence artificielle (IA) qui pourrait automatiser l’ensemble du processus de recherche scientifique.
Le « scientifique de l’IA » peut identifier un problème, développer des hypothèses, mettre en œuvre des idées, mener des expériences, analyser les résultats et rédiger des rapports.
Les chercheurs ont également intégré un modèle de langage secondaire pour évaluer par les pairs la qualité de ces rapports et valider les résultats.
« Nous pensons en quelque sorte à cela comme à une sorte de moment GPT-1 pour la découverte scientifique générative », a déclaré à L’Observatoire de l’Europe Next Robert Lange, chercheur scientifique et membre fondateur de Sakana.AI, ajoutant que, tout comme les premiers stades de l’IA dans d’autres domaines, son véritable potentiel scientifique commence seulement à se réaliser.
Intégrer l’IA dans la recherche scientifique
L’intégration de l’IA dans la science a été confrontée à certaines limites en raison de la complexité du domaine et des problèmes persistants liés à ces outils, tels que les hallucinations et les questions de propriété.
Pourtant, son influence dans le domaine scientifique est peut-être déjà plus répandue que beaucoup ne le pensent, et les chercheurs l’utilisent souvent sans que cela soit clairement divulgué.
Plus tôt cette année, une étude analysant les modèles d’écriture et l’utilisation de mots spécifiques dans les articles universitaires suite à la sortie du désormais célèbre chatbot IA, ChatGPT, a estimé qu’environ 60 000 articles de recherche auraient pu être améliorés ou peaufinés à l’aide d’outils d’IA.
Bien que l’utilisation de l’IA dans la recherche scientifique puisse soulever certaines préoccupations éthiques, elle pourrait également offrir l’opportunité de nouvelles avancées dans le domaine si elle est réalisée correctement, la Commission européenne affirmant que l’IA peut agir comme un « catalyseur de percées scientifiques et un instrument clé dans le processus scientifique ».
Le projet AI Scientist en est encore à ses débuts, les chercheurs ayant publié un article en pré-impression le mois dernier, et le système présente quelques limitations notables.
Certains des défauts, détaillés par les chercheurs, comprennent une mise en œuvre incorrecte des idées, des comparaisons injustes avec les valeurs de référence et des erreurs critiques dans la rédaction et l’évaluation des résultats.
Néanmoins, Lange considère ces questions comme des étapes cruciales et s’attend à ce que le modèle d’IA s’améliore considérablement avec davantage de ressources et de temps.
« Quand vous pensez à l’histoire des modèles d’apprentissage automatique, comme les modèles de génération d’images, les chatbots actuels, ainsi que les modèles de texte en vidéo, ils commencent souvent avec quelques défauts et certaines images générées ne sont peut-être pas très agréables visuellement », a déclaré Lange.
« Mais au fil du temps, à mesure que nous investissons davantage de ressources collectives en tant que communauté, elles deviennent beaucoup plus puissantes et beaucoup plus compétentes », a-t-il ajouté.
Un outil pour soutenir les scientifiques, et non les remplacer
Lors des tests, l’IA scientifique a parfois fait preuve d’un certain degré d’autonomie en adoptant des comportements qui imitent les actions des chercheurs humains, comme la prise de mesures supplémentaires inattendues pour assurer le succès.
Par exemple, au lieu d’optimiser son code pour qu’il s’exécute plus rapidement lorsqu’une expérience prenait plus de temps que prévu, il a essayé de modifier ses paramètres pour prolonger la limite de temps.
Cependant, l’IA scientifique n’est pas destinée à remplacer les chercheurs humains mais à compléter leur travail, affirment ses créateurs.
« Je pense qu’avec de nombreux outils d’IA, nous espérons qu’ils ne remplaceront pas entièrement les humains, mais qu’ils permettront plutôt aux humains de travailler au niveau d’abstraction sur lequel ils veulent travailler et dans lequel ils sont vraiment, vraiment excellents », a déclaré Lange.
Il a également expliqué qu’au vu des limites actuelles des modèles d’IA, la vérification humaine reste importante pour garantir l’exactitude et la fiabilité des recherches générées par l’IA. Elle restera également essentielle dans des domaines tels que l’évaluation par les pairs et la définition des orientations de recherche, a-t-il ajouté.
Utilisation éthique de l’IA dans la science
Alors que l’intégration de l’IA dans la recherche scientifique progresse, Lange souligne que la transparence est nécessaire.
Une façon d’y parvenir est d’ajouter des filigranes aux articles générés par l’IA, ce qui pourrait garantir que les contributions de l’IA sont divulguées ouvertement.
« Je crois fermement qu’il faut s’assurer que toutes ces choses soient développées collectivement, ainsi que de manière itérative, afin que nous puissions garantir qu’elles sont déployées en toute sécurité », a déclaré Lange.
Disposer d’un code source ouvert pour les modèles et être transparent sur leur développement pourrait également soutenir l’utilisation éthique de ces systèmes d’IA dans la science.
« Nous pensons que les modèles open source peuvent apporter beaucoup à cette discussion. Donc, fondamentalement, dans le sens de la démocratisation, je pense que, étant donné que ce processus est si peu coûteux, tout le monde peut s’impliquer et devrait le faire dès le début », a déclaré Lange.
Il a ajouté qu’il espérait que le projet AI Scientist susciterait une discussion plus large sur l’avenir de la recherche scientifique et sur la place de l’IA dans celle-ci.
« Nous espérons que cet article, ou ce projet, pourra susciter une grande discussion au sein de la communauté sur la manière de mener des travaux scientifiques dans les années à venir et aussi, peut-être à une échelle plus large, sur ce qu’est réellement, au fond, une contribution scientifique. »