The Italian data protection watchdog has fined OpenAI €15 million for data privacy breaches.

Jean Delaunay

L’organisme italien de surveillance de la vie privée inflige une amende de 15 millions d’euros à OpenAI après une enquête sur la collecte de données ChatGPT

L’autorité italienne de protection des données a constaté qu’OpenAI utilisait des données personnelles pour entraîner son IA sans « base juridique adéquate » pour ce faire.

L’organisme italien de surveillance de la protection des données a infligé une amende de 15 millions d’euros à OpenAI après avoir mené une enquête sur la collecte de données personnelles sur le chatbot d’intelligence artificielle de l’entreprise, ChatGPT.

L’autorité italienne de protection des données (Garante) a déclaré qu’OpenAI utilisait des données personnelles pour former ChatGPT « sans disposer d’une base juridique adéquate et violait le principe de transparence et les obligations d’information associées envers les utilisateurs ».

OpenAI n’a pas non plus fourni de « système de vérification de l’âge adéquat » pour empêcher les utilisateurs de moins de 13 ans d’être exposés à du contenu inapproprié généré par l’IA, poursuit l’enquête.

L’autorité italienne demande à OpenAI de lancer une campagne de six mois dans les médias locaux pour sensibiliser à la manière dont l’entreprise collecte les données personnelles.

« Les utilisateurs et non-utilisateurs de ChatGPT doivent être sensibilisés à la manière de s’opposer à l’apprentissage de l’intelligence artificielle générative avec leurs données personnelles et, par conséquent, être effectivement mis en mesure d’exercer leurs droits en vertu du Règlement général sur la protection des données (RGPD) » lit-on dans le rapport.

La décision des marques OpenAI est « disproportionnée »

Garante avait précédemment bloqué temporairement l’utilisation de ChatGPT en raison de problèmes de confidentialité pendant que l’autorité enquêtait sur une éventuelle violation de données en 2023.

Dans une déclaration envoyée par courrier électronique, OpenAI a qualifié la décision de « disproportionnée » et a annoncé qu’elle ferait appel.

Un porte-parole d’OpenAI a déclaré que l’amende représentait « près de 20 fois » les revenus réalisés en Italie au cours de la même année.

La société a ajouté qu’elle restait « déterminée à travailler avec les autorités chargées de la protection de la vie privée du monde entier pour offrir une IA bénéfique qui respecte le droit à la vie privée ».

Les régulateurs aux États-Unis et en Europe ont examiné OpenAI et d’autres sociétés qui ont joué un rôle clé dans le boom de l’IA, tandis que les gouvernements du monde entier ont élaboré des règles pour se protéger contre les risques posés par les systèmes d’IA, sous la direction de la loi de l’Union européenne sur l’IA. , un livre de règles complet pour l’intelligence artificielle.

Laisser un commentaire

11 + 12 =