Google plans to train its Pathways Language Model 2.

Jean Delaunay

Le modèle d’intelligence artificielle de Google fait l’objet d’une enquête irlandaise sur la confidentialité

L’organisme irlandais de surveillance de la vie privée vérifiera si le développement du modèle d’IA de Google est conforme au règlement européen sur la protection des données.

La Commission irlandaise de protection des données a annoncé aujourd’hui (12 septembre) qu’elle avait lancé une enquête statutaire transfrontalière sur Google pour vérifier si les pratiques d’IA de l’entreprise sont conformes aux règles de protection des données de l’UE.

L’organisme de surveillance veut savoir si le géant de la technologie a entrepris une évaluation dans le cadre du règlement général sur la protection des données (RGPD) de l’UE avant de traiter les données personnelles des utilisateurs de l’UE et de l’EEE pour le développement de son modèle d’IA fondamental, Pathways Language Model 2, indique le communiqué.

« Une évaluation de l’impact sur la protection des données (DPIA), si nécessaire, est d’une importance cruciale pour garantir que les droits et libertés fondamentaux des individus sont correctement pris en compte et protégés lorsque le traitement des données personnelles est susceptible d’entraîner un risque élevé », a ajouté l’autorité irlandaise,

L’enquête fait partie des « efforts plus larges » de l’agence pour réglementer le traitement des données personnelles des utilisateurs et des citoyens de l’UE dans le développement de modèles d’IA.

Le mois dernier, le modèle d’intelligence artificielle Grok de X a été scruté de près. Le réseau social a modifié ses paramètres de confidentialité en juillet, obligeant les utilisateurs de l’UE à refuser que xAI utilise leurs publications publiques pour entraîner Grok, le nouveau modèle d’intelligence artificielle d’Elon Musk.

Les autorités irlandaises ont déposé une demande d’urgence auprès de la Haute Cour irlandaise au sujet de ces modifications, car elles estiment que les droits à la vie privée ont été violés.

La procédure judiciaire a été close après que l’entreprise a accepté de suspendre définitivement la collecte de données personnelles des utilisateurs de l’UE pour former son intelligence artificielle.

De même, Meta a arrêté le déploiement de son modèle d’IA en Europe en juillet en raison de la « nature imprévisible de l’environnement réglementaire européen », a déclaré la société.

L’organisme irlandais de surveillance de la vie privée a contacté Meta sur cette question après que des plaintes ont été déposées par le groupe de protection de la vie privée autrichien NOYB concernant des inquiétudes concernant l’utilisation des données personnelles des consommateurs.

Laisser un commentaire

16 + 17 =