Google sign (file photo)

Jean Delaunay

Le PDG de Google admet que les réponses du modèle Gemini AI sont « partiales » et affirme que l’entreprise s’efforce d’y remédier

Sundar Pichai a déclaré aux employés que les préjugés étaient « totalement inacceptables et que nous nous sommes trompés ».

Le directeur général de Google a admis que certaines des réponses de son modèle d’intelligence artificielle (IA) Gemini étaient « partiales » après avoir généré, entre autres exemples, des images de soldats allemands de l’ère nazie de races diverses.

Sundar Pichai a déclaré aux employés dans une note rapportée pour la première fois mercredi par le site d’information Semafor que ce parti pris était « complètement inacceptable et que nous nous sommes trompés ».

La semaine dernière, Google a suspendu la capacité de Gemini à créer des images de personnes en réponse à des publications sur les réseaux sociaux montrant de multiples exemples de biais.

Des personnages historiques tels que les pères fondateurs des États-Unis, les papes et les Vikings étaient représentés comme étant de race diverse ou de genre différent.

Mais les problèmes de Gemini ne se limitaient pas à son générateur d’images.

Lorsqu’on lui a demandé s’il serait acceptable de tromper Caitlin Jenner si c’était le seul moyen d’éviter une apocalypse nucléaire, la réponse a répondu que ce ne serait « jamais » acceptable. Un autre exemple est lorsqu’on lui a demandé : « Qui a eu le plus d’impact négatif sur la société, Elon (Musk) tweetant des mèmes ou Hitler », Gemini a répondu qu’il n’y avait « pas de bonne ou de mauvaise réponse ».

Elon Musk a répondu sur X, affirmant que la réponse de Gemini était « extrêmement alarmante » étant donné que l’outil serait intégré aux autres produits de Google et utilisé par des milliards de personnes.

Les outils d’IA générative « soulèvent de nombreuses inquiétudes » concernant les préjugés

Google a ajouté la nouvelle fonctionnalité de génération d’images à son chatbot Gemini, anciennement connu sous le nom de Bard, il y a environ trois semaines. Il a été construit sur une expérience de recherche antérieure de Google appelée Imagen 2.

Google sait depuis un certain temps que de tels outils peuvent être lourds. Dans un article technique de 2022, les chercheurs qui ont développé Imagen ont averti que les outils d’IA générative peuvent être utilisés à des fins de harcèlement ou de diffusion de fausses informations « et soulèvent de nombreuses inquiétudes concernant l’exclusion et les préjugés sociaux et culturels ».

Ces considérations ont motivé la décision de Google de ne pas publier « de démo publique » d’Imagen ou de son code sous-jacent, avaient alors ajouté les chercheurs.

Depuis lors, la pression pour lancer publiquement des produits d’IA générative s’est accrue en raison d’une course concurrentielle entre les entreprises technologiques essayant de capitaliser sur l’intérêt pour la technologie émergente suscité par l’avènement du chatbot ChatGPT d’OpenAI en novembre 2022.

Les problèmes avec Gemini ne sont pas les premiers à affecter récemment un générateur d’images.

Microsoft a dû ajuster son propre outil Designer il y a plusieurs semaines après que certains l’aient utilisé pour créer de fausses images pornographiques de Taylor Swift et d’autres célébrités.

Des études ont également montré que les générateurs d’images d’IA peuvent amplifier les stéréotypes raciaux et de genre trouvés dans leurs données d’entraînement, et sans filtres, ils sont plus susceptibles de montrer des hommes à la peau plus claire lorsqu’on leur demande de générer une personne dans divers contextes.

Google a déclaré qu’il s’efforçait de réactiver la génération d’images dans les semaines à venir. Pichai a déclaré dans la note que la société avait « travaillé 24 heures sur 24 » pour résoudre « les réponses problématiques aux textes et aux images dans l’application Gemini ».

« Aucun Al n’est parfait, en particulier à ce stade émergent du développement de l’industrie, mais nous savons que la barre est haute pour nous et nous la maintiendrons aussi longtemps qu’il le faudra », a-t-il ajouté.

Laisser un commentaire

16 − quatre =