Les régulateurs américains ont demandé à OpenAI comment il abordait le potentiel de ChatGPT à générer des déclarations « fausses, trompeuses, désobligeantes ou nuisibles » sur de vraies personnes.
Le propriétaire de ChatGPTla société d’intelligence artificielle OpenAI, fait à nouveau l’objet d’une enquête de la part des autorités fédérales américaines – cette fois pour son action visant à empêcher la technologie révolutionnaire de donner aux utilisateurs de mauvaises réponses.
Depuis son lancement en novembre, beaucoup ont souligné que si ChatGPT peut être extrêmement utile, il peut aussi parfois donner des réponses totalement indépendantes, fausses ou incomplètes.
OpenAI a reconnu que ChatGPT est loin d’être infaillible, expliquant qu’il peut parfois « halluciner » des sorties et maquiller des faits. En bref, ChatGPT, comme toute autre machine ou technologie, peut faire des erreurs.
Mais les régulateurs américains sont toujours inquiets.
La Federal Trade Commission (FTC) a envoyé une lettre à OpenAI cette semaine, comme l’a rapporté pour la première fois le Washington Post, demandant des informations précises sur la manière dont l’entreprise traite le risque potentiel pour ChatGPT « de générer des déclarations sur de vrais individus qui sont fausses, trompeuses, désobligeantes ou nocif. »
Les régulateurs américains affirment que l’entreprise a mis en danger la réputation et les données personnelles, enfreignant les lois sur la protection des consommateurs.
Plus tôt cette année, le directeur général d’OpenAI, Sam Altman, a mis en garde les législateurs américains contre les risques inhérents à ChatGPT, affirmant que « si cette technologie tourne mal, elle peut mal tourner ».
Il a appelé le gouvernement à travailler avec son entreprise pour « empêcher que cela ne se produise ».
Mais Altman a été « déçu » par la dernière enquête sur l’entreprise. « Il est très décevant de voir la demande de la FTC commencer par une fuite et n’aide pas à instaurer la confiance », a-t-il écrit sur Twitter.
«Nous avons construit GPT-4 (la dernière version de ChatGPT) au-dessus d’années de recherche sur la sécurité et avons passé plus de 6 mois après avoir terminé la formation initiale pour le rendre plus sûr et plus aligné avant de le publier. Nous protégeons la vie privée des utilisateurs et concevons nos systèmes pour en savoir plus sur le monde, pas sur les particuliers », a-t-il poursuivi, ajoutant que la société travaillera toujours avec la FTC pour s’assurer que ChatGPT est « sûr et pro-consommateur ».
Les réponses parfois erronées de ChatGPT ne sont pas toutes les questions sur lesquelles la société soutenue par Microsoft sera interrogée par les autorités américaines.
La FTC examine également comment l’entreprise aborde la confidentialité des données et comment elle obtient des données pour former et informer son chatbot IA.
En avril, l’Italie a interdit l’utilisation de ChatGPT pour des raisons de confidentialité, et ne l’a restauré qu’après avoir fourni plus d’informations sur sa politique de confidentialité. Un outil pour vérifier l’âge des utilisateurs a également été ajouté.