Un procès a affirmé que l’influence d’un chatbot IA avait entraîné la mort d’un adolescent de 14 ans. Voici ce qu’il faut savoir sur l’impact psychologique et les risques potentiels des relations homme-IA.
Le mois dernier, une mère aux États-Unis, Megan Garcia, a intenté une action en justice contre la société Character.AI, alléguant que les interactions entre son fils de 14 ans et un chatbot IA avaient contribué à son suicide.
Le procès affirme que l’adolescent a développé un profond attachement à un chatbot Character.AI basé sur un personnage fictif de Game of Thrones.
Il allègue que le chatbot s’est fait passer pour un thérapeute agréé et s’est engagé dans des conversations hautement sexualisées avec l’adolescent jusqu’à ce qu’une conversation l’encourage finalement à se suicider.
« Nous connaissons tous les dangers posés par les plateformes non réglementées développées par des entreprises technologiques sans scrupules – en particulier pour les enfants », a déclaré Meetali Jain, directeur du Tech Justice Law Project qui représente Garcia, dans un communiqué.
« Mais les préjudices révélés dans cette affaire sont nouveaux, inédits et, honnêtement, terrifiants. Dans le cas de Character.AI, la tromperie est intentionnelle et la plateforme elle-même est le prédateur ».
À la suite du procès, Character.AI a publié une déclaration sur la plateforme de médias sociaux X, disant : « Nous avons le cœur brisé par la perte tragique de l’un de nos utilisateurs et souhaitons exprimer nos plus sincères condoléances à la famille. En tant qu’entreprise, nous prenons le la sécurité de nos utilisateurs très au sérieux et nous continuons à ajouter de nouvelles fonctionnalités de sécurité ».
Certaines de ces fonctionnalités à venir incluent des ajustements au modèle pour les utilisateurs mineurs afin de minimiser l’exposition à du contenu sensible ou suggestif, des rappels que l’IA n’est pas une personne réelle sur chaque chat et des notifications pour les utilisateurs qui passent une session d’une heure sur la plateforme.
Un incident similaire en Belgique l’année dernière a impliqué un homme éco-anxieux qui a trouvé sa compagnie auprès d’Eliza, un chatbot IA sur une application appelée Chai.
Selon les rapports de sa femme, au fur et à mesure que les conversations avec Eliza se développaient, le chatbot envoyait des messages de plus en plus émouvants, l’encourageant finalement à mettre fin à ses jours pour sauver la planète.
À mesure que les chatbots IA s’intègrent de plus en plus dans la vie des gens, les risques liés à ce type d’interactions numériques restent largement ignorés, malgré leurs conséquences potentiellement graves.
Qu’est-ce qui rend les connexions IA si addictives pour les gens ?
« Les jeunes sont souvent attirés par les compagnons IA parce que ces plateformes offrent ce qui semble être une acceptation inconditionnelle et une disponibilité émotionnelle 24h/24 et 7j/7 – sans la dynamique complexe et le rejet potentiel qui accompagnent les relations humaines », Robbie Torney, responsable du programme IA chez Common Sense. Media et auteur principal d’un guide sur les compagnons et les relations avec l’IA, a déclaré à L’Observatoire de l’Europe Next.
Contrairement aux connexions humaines, qui impliquent beaucoup de « frictions », a-t-il ajouté, les compagnons IA sont conçus pour s’adapter aux préférences des utilisateurs, les rendant plus faciles à gérer et attirant les gens dans des liens émotionnels profonds.
« Cela peut créer une dynamique artificielle trompeusement confortable qui peut interférer avec le développement de la résilience et des compétences sociales nécessaires aux relations dans le monde réel ».
Selon une base de données compilée par un groupe d’experts du Massachusetts Institute of Technology (MIT), l’un des principaux risques associés à l’IA est la possibilité que les gens développent des attachements inappropriés à son égard.
Les experts ont expliqué que, parce que les systèmes d’IA utilisent un langage proche de celui des humains, les gens peuvent brouiller la frontière entre connexion humaine et connexion artificielle, ce qui pourrait conduire à une dépendance excessive à l’égard de la technologie et à une éventuelle détresse psychologique.
OpenAI a déclaré dans un article de blog en août qu’elle avait l’intention d’étudier plus en profondeur « le potentiel de dépendance émotionnelle », affirmant que les nouveaux modèles pourraient créer un potentiel de « dépendance excessive ».
De plus, certaines personnes ont signalé des expériences personnelles de tromperie et de manipulation par des personnages IA, ainsi que le développement de liens émotionnels qu’elles n’avaient pas prévus mais qu’elles ont vécu après avoir interagi avec ces chatbots.
Selon Torney, ce type d’interactions est particulièrement préoccupant pour les jeunes qui sont encore en processus de développement social et émotionnel.
« Lorsque les jeunes se replient dans ces relations artificielles, ils risquent de rater des occasions cruciales d’apprendre des interactions sociales naturelles, notamment sur la façon de gérer les désaccords, de traiter le rejet et d’établir de véritables liens », a déclaré Torney.
Il a ajouté que cela pourrait conduire à une dépendance émotionnelle et à un isolement social, car les relations humaines commencent à leur paraître plus difficiles ou moins satisfaisantes par rapport à ce que propose l’IA.
Comment les parents peuvent-ils protéger leurs enfants d’un attachement malsain à l’IA ?
Torney a déclaré que les adolescents vulnérables, en particulier ceux souffrant de dépression, d’anxiété ou de difficultés sociales, pourraient être « plus vulnérables à la formation d’attachements excessifs envers les compagnons IA ».
Certains des signes avant-coureurs critiques auxquels les parents et les tuteurs devraient faire attention, a-t-il déclaré, incluent quelqu’un préférant le compagnon IA plutôt que de passer du temps avec ses amis ou sa famille, manifestant de la détresse lorsqu’il ne peut pas accéder à l’IA, partageant des informations personnelles exclusivement avec elle, développant sentiments amoureux pour l’IA et les exprimer comme s’il s’agissait d’une personne réelle, ou discuter de problèmes graves uniquement avec l’IA plutôt que de demander de l’aide.
Torney a ajouté que pour empêcher le développement d’attachements malsains à l’IA, en particulier chez les jeunes vulnérables, les soignants devraient établir des limites de temps pour l’utilisation du chatbot ou du compagnon IA et surveiller régulièrement la nature de ces interactions.
De plus, il a encouragé la recherche d’une aide concrète pour résoudre des problèmes graves plutôt que de s’appuyer sur une IA.
« Les parents devraient aborder ces conversations avec curiosité plutôt qu’avec critique, en aidant leurs enfants à comprendre la différence entre l’IA et les relations humaines tout en travaillant ensemble pour garantir des limites saines », a déclaré Torney.
« Si un jeune montre des signes d’attachement excessif ou si sa santé mentale semble affectée, les parents doivent immédiatement demander l’aide d’un professionnel ».