OpenAI accusé de ne pas pouvoir corriger les fausses informations utilisées par son populaire chatbot.
Les défenseurs autrichiens de la protection de la vie privée ont déposé une plainte aujourd’hui (29 avril) contre le développeur de logiciels américain OpenAI concernant son chatbot populaire ChatGPT. Le groupe a demandé à l’organisme autrichien de protection de la vie privée d’enquêter, affirmant que la start-up technologique enfreint les règles de l’UE en matière de protection des données en étant incapable de corriger les fausses informations générées par son outil d’intelligence artificielle.
Le Règlement Général sur la Protection des Données (RGPD) stipule que les informations sur les individus doivent être exactes et que les citoyens doivent avoir un accès complet à toutes les données personnelles qu’une entreprise pourrait détenir. Mais OpenAI ne peut pas dire quelles informations ChatGPT stocke sur les individus ni même d’où proviennent les données utilisées par le programme, affirme NOYB.
« Inventer de fausses informations est en soi assez problématique. Mais lorsqu’il s’agit de fausses informations sur des individus, les conséquences peuvent être graves. Il est clair que les entreprises ne sont actuellement pas en mesure de rendre les chatbots comme ChatGPT conformes au droit de l’UE lorsqu’ils traitent des données sur des individus », a déclaré Maartje de Graaf, avocat spécialisé en protection des données au sein du groupe, dans un communiqué.
« Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur les individus », a ajouté de Graaf.
L’ONG a également allégué que l’entreprise ne répondait pas aux demandes d’accès aux données, bien que le RGPD oblige les entreprises à fournir sur demande des détails sur toutes les données personnelles qu’elles détiennent.
Enquêtes
Le lancement de ChatGPT en novembre 2022, qui a depuis rassemblé plus de 180 millions d’utilisateurs dans le monde, a déclenché un débat intense sur les utilisations et les dangers de l’intelligence artificielle. L’impact rapide du produit et des systèmes d’apprentissage automatique concurrents a également soulevé des inquiétudes quant à l’absence de législation pour empêcher les utilisations malveillantes telles que la violation du droit d’auteur ou la création de fausses séquences audio et vidéo.
L’action des défenseurs autrichiens de la vie privée n’est pas la première mesure de ce type contre OpenAI. L’entreprise fait déjà l’objet d’une enquête sur la protection des données en Italie, dont l’organisme national de surveillance de la vie privée a lancé une enquête en mars, citant des inquiétudes concernant les violations de données et la divulgation des conversations des utilisateurs et des informations de paiement.
En outre, le Comité européen de la protection des données (EDPB) – un organisme comprenant les autorités nationales de protection des données des membres de l’UE – a mis en place ce mois-ci un groupe de travail sur ChatGPT pour aider à coordonner les mesures d’application.
La Commission européenne a annoncé en janvier qu’elle prévoyait d’examiner si l’investissement de Microsoft dans OpenAI enfreignait les règles de concurrence de l’UE. Le géant américain du logiciel souhaitait investir 13 milliards de dollars (11,8 milliards d’euros) dans la start-up florissante derrière ChatGPT.