« Nous devons exiger plus de contrôle » : comment les entreprises technologiques peuvent-elles mieux résoudre le problème de la partialité de l'IA ?

Jean Delaunay

« Nous devons exiger plus de contrôle » : comment les entreprises technologiques peuvent-elles mieux résoudre le problème de la partialité de l’IA ?

Les outils d’intelligence artificielle (IA) – des algorithmes aux logiciels génératifs – ont des biais intégrés. Alors, pourquoi le problème n’a-t-il pas été résolu ?

Depuis des années, il est reconnu que les outils d’intelligence artificielle (IA), y compris les algorithmes de prise de décision et les logiciels génératifs, peuvent avoir des biais de type humain. Alors, pourquoi les versions les plus récentes en présentent-elles encore ?

En partie, les grands modèles de langage comme le GPT original d’OpenAI sont formés sur des données étendues, donc connaître les sources de biais peut être complexe.

Par exemple, GPT a été formé sur des données provenant d’Internet – dont les détails n’ont pas été divulgués. Les propres chercheurs d’OpenAI ont déclaré en 2020 : « Les modèles formés à Internet ont des biais à l’échelle d’Internet ; modèles ont tendance à refléter les stéréotypes présents dans leurs données de formation ».

Lorsque son GPT-3 a été publié, il s’est avéré qu’il reproduisait des stéréotypes sexistes, racistes et religieux.

« Il devrait y avoir des mesures en place au stade (du développement) pour identifier les biais potentiels et les atténuer et y remédier », a déclaré à L’Observatoire de l’Europe Next le Dr Mhairi Aitken, chercheur en éthique du programme de politique publique de l’Institut Alan Turing.

La communauté mondiale fait pression pour plus de transparence, y compris le soutien au développement de l’IA open source. Les demandes de surveillance et de responsabilité accrues pour les entreprises Big Tech augmentent, visant à minimiser et à résoudre les problèmes de partialité.

« Je pense que nous devons exiger beaucoup plus de contrôle dans la phase de développement et beaucoup plus de responsabilité des grandes entreprises technologiques pour savoir ce qu’elles font pour minimiser et lutter contre les biais », a-t-elle ajouté.

Et si ces outils sont si imparfaits, pourquoi ont-ils été rendus publics en premier lieu ?

« Leur sortie a été motivée par la compétitivité commerciale plutôt que par la valeur pour la société », a déclaré Aitken.

Les outils d’IA sont encore en chantier

Des efforts sont en cours pour créer une IA plus responsable, et cela inclut l’apprentissage des versions précédentes de la technologie.

Les entreprises ont mis en place des mesures de protection pour empêcher les abus, comme l’API de modération d’OpenAI qui est destinée à signaler les contenus préjudiciables.

« Faut-il reproduire la société telle qu’elle est ? Ou devons-nous représenter la société telle que nous voudrions qu’elle soit ? Mais alors, selon l’imagination de qui ?

Giada Pistilli

Éthicien principal chez Hugging Face

Le gouvernement américain a également aidé à coordonner une convention de piratage cette année pour évaluer publiquement les systèmes d’IA.

Considérez cela comme un exercice massif d' »équipe rouge » pour explorer comment les choses peuvent mal tourner – une technique largement utilisée dans la cybersécurité.

Une autre technique utilisée pour lutter contre les préjugés est l’apprentissage par renforcement à partir de la rétroaction humaine, a déclaré Giada Pistilli, éthicienne chez Hugging Face, à L’Observatoire de l’Europe Next.

Cela amène les travailleurs humains à juger les résultats du modèle d’IA pour qu’il obtienne des résultats plus naturels et moins nocifs.

Mais c’est un processus qui est aussi quelque peu limité, chacun apportant son propre parti pris.

Pour Pistilli, il faut se demander ce qu’on attend de ces modèles.

« Faut-il reproduire la société telle qu’elle est ? Ou faut-il représenter la société telle qu’on voudrait qu’elle soit ? Mais alors, si la réponse est le second cas, selon l’imagination de qui ?

Anthropic, la société fondée par d’anciens chercheurs d’OpenAI, a créé son propre chatbot, Claude.

Pour s’assurer que Claude se comporterait de la manière la plus appropriée possible, ils l’ont doté d’une constitution qui « s’inspire de diverses sources, notamment la Déclaration des droits de l’homme des Nations Unies, les meilleures pratiques et principes de confiance et de sécurité proposés par d’autres laboratoires de recherche sur l’IA », selon sur le blog de l’entreprise.

« Lorsque ces modèles sont publiés, ce ne sont pas des produits finis. Ils sont donc mis dans le domaine public pour que les gens les utilisent pour les affiner davantage, pour les tester afin de développer la prochaine itération du modèle », a déclaré Aitken.

« Et donc, quand les gens les utilisent, surtout quand ils sont mis à disposition gratuitement, vous savez, les gens font alors partie du processus de développement sans nécessairement en avoir conscience ».

Les entreprises d’IA sont-elles vraiment dédiées à l’éthique ?

Les entreprises productrices d’IA annoncent publiquement avoir des équipes d’éthique, mais certains disent qu’il est devenu évident que ces entreprises seraient promptes à contourner l’éthique dans la poursuite de l’innovation.

Toutes ces décisions sont des décisions humaines, et elles ne seront jamais sans parti pris.

Dr Mhairi Aitken

Fellow en éthique à l’Institut Alan Turing

Aitken dit que nous avons besoin « d’approches qui garantissent vraiment la responsabilité ».

« Et cela ne peut pas simplement être quelque chose qui se fait à huis clos où personne ne sait s’il a réellement fait quoi que ce soit pour résoudre les problèmes ou les dommages qui ont été identifiés », a-t-elle ajouté.

Le tristement célèbre licenciement par Google de Timnit Gebru, co-responsable de l’équipe d’éthique de l’IA de l’entreprise, et de Margaret Mitchell, une autre chercheuse en éthique de premier plan, en 2021, a conduit à un examen minutieux de l’engagement des entreprises technologiques en matière d’éthique.

Le Washington Post a également récemment rapporté que les licenciements dans les entreprises technologiques ont également eu un impact important sur les équipes d’éthique.

Selon Pistilli, il y a une prise de conscience croissante de ce qui est en jeu lorsqu’il s’agit de biais dans l’IA.

« Je pense qu’il va y avoir un besoin croissant de personnes issues des sciences sociales et humaines qui s’intéressent à ces questions », dit-elle.

Mais l’IA est fondamentalement un produit des gens.

« Les valeurs façonnent les décisions concernant les ensembles de données à utiliser, la manière dont les modèles sont conçus, la manière dont ils sont développés ou les fonctions pour lesquelles ils sont utilisés. Toutes ces décisions sont des décisions humaines, et elles ne vont jamais être sans préjugés », a déclaré Aitken.

Laisser un commentaire

1 × 3 =