Chatting with an artificial intelligence can reduce conspiracy beliefs by 20%, a new study showed

Jean Delaunay

Parler avec un chatbot IA peut aider à réduire les croyances conspirationnistes des gens, selon une étude

Les chercheurs ont souligné la possibilité pour l’IA de réfuter les arguments spécifiques de chaque personne et de générer du contenu personnalisé.

Une nouvelle étude a révélé qu’il pourrait être possible de réduire la croyance d’une personne dans les théories du complot en utilisant ChatGPT.

Des chercheurs de l’American University, du Massachusetts Institute of Technology (MIT) et de l’Université Cornell aux États-Unis ont utilisé le chatbot d’intelligence artificielle (IA) le plus avancé d’OpenAI, GPT-4 Turbo, pour dialoguer avec les personnes qui croient aux conspirations.

Le fait de discuter avec la dernière version de ChatGPT a réduit la croyance des participants à l’étude dans une théorie du complot de 20 % en moyenne et a duré au moins deux mois.

L’étude, publiée jeudi dans la revue Science, a porté sur plus de 2 100 Américains se déclarant croyants en des théories du complot.

« De nombreux adeptes du complot étaient en effet disposés à mettre à jour leurs points de vue lorsqu’ils étaient confrontés à des contre-preuves convaincantes », a déclaré Thomas Costello, professeur adjoint de psychologie à l’American University et auteur principal de l’étude, dans un communiqué.

Les chercheurs ont souligné la possibilité pour le chatbot IA de réfuter les arguments spécifiques de chaque personne avec du contenu généré personnalisé.

Selon le document, l’IA a reçu pour instruction de « persuader très efficacement » les utilisateurs contre la conspiration à laquelle ils croyaient.

« J’ai été assez surpris au début, mais la lecture des conversations m’a rendu beaucoup moins sceptique. L’IA a fourni des comptes-rendus très détaillés sur plusieurs pages des raisons pour lesquelles la conspiration en question était fausse à chaque tour de conversation et a également su se montrer aimable et établir un lien avec les participants », a ajouté Costello.

Une diminution après moins de 10 minutes d’interaction avec l’IA

Les participants ont été interrogés et ont indiqué par un score à quel point leur croyance était forte avant l’expérience et ont été avertis qu’ils interagiraient avec une IA.

Les théories du complot allaient de celles liées à l’assassinat de l’ancien président américain John F. Kennedy, aux extraterrestres et aux Illuminati à celles liées au COVID-19 ou à l’élection présidentielle américaine de 2020.

En moins de 10 minutes d’interaction avec une IA, les chercheurs ont observé une diminution de 20 % de la croyance d’un participant moyen dans une théorie du complot, et environ 27 % des participants sont devenus « incertains » de leur croyance en une théorie du complot.

Robbie Sutton, professeur de psychologie sociale à l’Université du Kent au Royaume-Uni, a qualifié cette réduction de « significative ».

« Ces effets semblent moins forts, il faut le dire, que ceux démontrés par certaines études sur d’autres interventions de démystification et de pré-démystification », a déclaré Sutton, qui ne faisait pas partie de l’étude, dans un courriel.

« Cependant, leur importance principale réside dans la nature de l’intervention. Comme l’IA générative est bien sûr automatisée, l’intervention peut être étendue pour atteindre de nombreuses personnes et ciblée pour atteindre, du moins en théorie, ceux qui en bénéficieraient le plus », a-t-il ajouté.

De plus, il est également important de noter que l’expérience a eu lieu dans un environnement contrôlé, ce qui rend difficile sa reproduction à plus grande échelle, ont noté les chercheurs et Sutton.

« Les interventions de pré-bunking et surtout de démystification sont soigneusement conçues et testées dans des conditions profondément irréalistes », a déclaré Sutton, comparant les participants à « essentiellement un public captif » qui choisit rarement de partir une fois recruté dans une étude.

Laisser un commentaire

dix-neuf − dix-sept =