Gemma Galdón-Clavell on The Big Question

Jean Delaunay

« Si vous n’avez pas de problème à résoudre, à quoi servent de nouvelles solutions techniques ? déclare le PDG d’Eticas

Les entreprises devraient réfléchir longuement et sérieusement pour savoir si l’IA est la meilleure solution à leurs problèmes et investir dans l’audit pour éviter des résultats injustes, biaisés et inefficaces, selon Gemma Galdón-Clavell, PDG d’Eticas Tech.

« Il y a tellement d’exemples de moments où je me dis : « Pourquoi ? Pourquoi pensez-vous que l’IA est utile pour cela ? », déclare le principal auditeur en IA.

Saviez-vous que selon Eurostat, 8 % des entreprises de l’UE ont utilisé des technologies d’intelligence artificielle (IA) en 2021 ? Parmi eux, 53 % avaient acheté des systèmes d’IA et des logiciels de renseignement commerciaux prêts à l’emploi.

Le Danemark compte le plus grand nombre d’entreprises utilisant l’IA, soit environ 24 %, tandis que la Roumanie et la Serbie en ont le moins, avec environ 1 % chacune.

La plupart des entreprises ont utilisé l’intelligence artificielle dans le secteur de la communication et de l’information. Les entreprises favorables à l’IA estiment qu’elle aide, entre autres, à l’analyse des données, à la création de contenu et à la traduction linguistique. Cependant, les entreprises opposées à l’IA ont pour la plupart estimé qu’elle n’était pas pertinente pour elles, qu’elle était coûteuse, peu fiable et qu’elle augmentait les risques pour la vie privée.

Dans cet épisode de The Big Question, Angela Barnes a rencontré Gemma Galdón-Clavell, PDG de la société d’IA Eticas Tech, pour discuter de la question de savoir si l’utilisation de l’IA est éthique et des domaines dans lesquels nous devons éviter de l’utiliser.

En quoi l’IA est-elle bonne ?

Selon Clavell, « l’IA, c’est tellement de choses à la fois. Comprendre ce que fait l’IA est crucial pour en tirer le meilleur parti. Il peut donc être difficile de déterminer à quoi la technologie peut être la plus utile, surtout si de nombreuses entreprises souhaitent l’utiliser pour plusieurs choses différentes à la fois.

En tant que telles, les entreprises doivent réellement réfléchir aux problèmes qu’elles souhaitent résoudre, puis se demander si l’IA est la meilleure solution. Essentiellement, l’IA est un processus de données qui est le plus efficace pour fournir des solutions aux problèmes comportant d’énormes quantités de données historiques.

Cela inclut les recommandations d’achats en ligne et de streaming, basées entre autres sur l’historique de recherche, les données de visualisation des clients, les notes et l’emplacement. L’IA est également utilisée pour les systèmes de positionnement global (GPS), qui peuvent accéder à des années, voire des décennies, d’historique de localisation et de mouvement de millions d’utilisateurs dans plusieurs villes. Les chatbots en sont un autre exemple, tout comme les SMS prédictifs.

Cependant, pour des problèmes uniques ou pour lesquels il n’y a pas accès à beaucoup de données historiques, « l’IA n’est pas votre amie », explique Clavell.

Gemma prévient également qu’il ne s’agit pas seulement de la façon d’utiliser l’IA, mais aussi de l’importance de choisir un logiciel d’IA de bonne qualité.

« Si nous nous contentons d’acheter un package d’IA, de le mettre en œuvre et d’avoir confiance que les choses vont bien se passer, nous allons commettre une erreur. Et cela coûte très cher », souligne Clavell.

L’utilisation de l’IA est-elle éthique ?

L’une des plus grandes préoccupations de l’IA est qu’elle utilise une immense quantité de données personnelles et comportementales sur la façon dont les gens vivent, travaillent et interagissent avec les autres.

Non seulement cela entraîne d’énormes problèmes de sécurité et de confidentialité, mais cela peut également signifier que les conclusions de l’IA peuvent souvent être faussées ou injustement biaisées, ainsi qu’inefficaces.

Le recours aux données historiques peut également poser problème dans de nombreux scénarios, provoquant des exclusions et des biais injustes, souvent sans que les humains s’en rendent compte.

Le premier jour, vous exercerez une discrimination à l’égard des femmes, le dixième jour, vous n’accorderez des prêts hypothécaires qu’aux hommes ayant un emploi stable.

Gemma Galdón-Clavell

Comme l’explique Clavell : « Si vous travaillez dans une banque, les données passées montrent que votre client idéal est un homme avec un emploi stable. L’IA a tendance à reproduire cela. Ainsi, le premier jour, vous exercerez une discrimination à l’égard des femmes, le dixième jour, vous n’accorderez des prêts hypothécaires qu’aux hommes ayant un emploi stable.

Cependant, l’une des solutions clés pour identifier et atténuer la discrimination consiste à auditer les packages et services d’IA, un peu comme les essais cliniques de vaccins.

Elle souligne que ne pas le faire équivaudrait à « obtenir un vaccin qui n’a pas fait l’objet d’essais cliniques, acheter une voiture sans ceinture de sécurité, acheter une maison sans papiers ».

En fin de compte, « nous ne voulons pas d’IA discriminatoire », déclare Clavell.

Gemma Galdón-Clavell discute avec Angela Barnes sur La Grande Question
Gemma Galdón-Clavell discute avec Angela Barnes sur La Grande Question

Comment pouvons-nous améliorer l’IA ?

Clavell souligne que l’un des principaux moyens d’améliorer l’IA consiste non seulement à théoriser sur la mise en place d’audits et d’autres mesures de précaution et de gouvernance, mais également à les mettre en œuvre. Ainsi, alors que l’Europe réussit très bien à élaborer des réglementations, comme le Digital Services Act, les États-Unis sont bien meilleurs dans leur mise en œuvre.

« Il est intéressant de noter que même avec le Règlement général sur la protection des données (RGPD) adopté en 2016, l’entreprise qui a gagné le plus d’argent grâce à ce changement réglementaire est une entreprise basée au Texas, (…) qui vaut désormais 5 milliards d’euros. « , dit Gemma.

« Je crains qu’avec la loi sur l’IA, l’UE montre la voie en matière de réglementation, mais la partie du marché qui tirera le meilleur parti des opportunités créées par la réglementation ne se trouvera pas en Europe, ou bien beaucoup de choses devraient changer. pour moi de voir l’Europe jouer un rôle de leader non seulement au niveau réglementaire mais aussi au niveau du marché.

L’AI Act, une loi historique, a récemment été lancée dans l’UE, dans le but de faire de l’UE un pionnier en matière de réglementation de l’IA. La loi tentera également d’établir un cadre juridique solide pour la réglementation de l’IA dans tous les pays membres de l’UE, qui garantira que les technologies sont sûres et ne violent pas les lois et les valeurs relatives à la vie privée. Cependant, dans le même temps, la loi tentera également d’attirer davantage d’investissements dans l’IA sur le continent.

Selon Statista, l’UE comptait environ 6 000 entreprises d’IA en 2023, ce qui reste nettement derrière le Royaume-Uni, avec 9 000, et les États-Unis, avec environ 15 000.

D’autres moyens d’améliorer l’IA consistent à lui fournir des données de meilleure qualité et plus récentes, ce qui lui permettra également de prendre en compte davantage de facteurs et de variables. En l’absence de données réelles, des données synthétiques ou des cas hypothétiques peuvent également être utilisés pour simuler des scénarios et fournir plus de contexte aux outils d’IA.

Des améliorations de l’algorithme peuvent également être apportées pour garantir que les entreprises ne filtrent pas les mauvais clients ou employés. Cela peut être fait en supprimant les paramètres de données souvent inutiles.

Cependant, Clavell prévient que tant que nous n’aurons pas inscrit l’audit dans la législation « en tant que société, nous n’aurons aucune garantie que l’IA qui nous entoure est une IA de bonne qualité ».

Laisser un commentaire

sept + dix-neuf =