« Mes préoccupations concernent davantage les personnes et les institutions que la technologie » : Meredith Whittaker de Signal à propos de l'IA

Jean Delaunay

« Mes préoccupations concernent davantage les personnes et les institutions que la technologie » : Meredith Whittaker de Signal à propos de l’IA

La présidente de Signal, Meredith Whittaker, s’est entretenue avec L’Observatoire de l’Europe Next sur la réglementation européenne de l’IA, de la vie privée et de la santé mentale dans cette nouvelle ère de l’intelligence artificielle (IA).

Meredith Whittaker, présidente de la Fondation Signal à but non lucratif qui exploite l’application de messagerie cryptée Signal, est l’une des premières penseuses de l’intelligence artificielle (IA), ayant dirigé un groupe de recherche sur cette technologie en 2006 pour Google.

Elle a organisé une grève chez Google en raison de son attitude face au harcèlement sexuel et a été forcée de quitter l’entreprise en 2019.

Elle a ensuite cofondé l’AI Now Institute et a été conseillère auprès de la Federal Trade Commission des États-Unis. Elle a toujours ses inquiétudes concernant les Big Tech et la manière dont elles contrôlent nos données dans cette nouvelle ère de l’IA.

Elle a parlé à L’Observatoire de l’Europe Next de l’IA en Europe et de la réglementation lors du Web Summit de cette année à Lisbonne.

L’Observatoire de l’Europe Next : Vous avez beaucoup parlé de vos craintes autour de l’IA et de ce battage médiatique que nous traversons. Qu’est-ce qui vous préoccupe en particulier ?

Meredith Whittaker : Je pense que mes craintes concernent moins la technologie elle-même que le fait qu’elle soit développée et contrôlée par une poignée de grandes entreprises dont les intérêts sont, bien sûr, les intérêts de l’entreprise, le profit, la croissance et le plaisir de l’entreprise. actionnaires; pas nécessairement le bien social.

Et que l’IA qu’ils vendent, qu’ils octroient sous licence, qu’ils créent, qu’ils déploient nécessite d’énormes quantités de données, requiert d’énormes quantités de puissance de calcul, et renforce et étend efficacement le modèle commercial de surveillance, qui est au au cœur de tant de préjudices qui inquiètent la plupart des pays du monde lorsqu’il s’agit d’une technologie irresponsable.

Je pense que mes craintes et mes inquiétudes concernent davantage les personnes, les institutions et les incitations qui façonnent l’IA que la technologie elle-même, ou l’idée qu’elle pourrait d’une manière ou d’une autre devenir sensible ou semblable à Dieu.

Parlons de la gouvernance et de la régulation de l’IA. La réglementation va-t-elle assez loin ? Et plus précisément, alors que l’Europe prépare son propre mandat en matière d’IA, comment s’en sort l’Europe ?

La loi (européenne) sur l’IA n’est pas encore achevée. Nous ne savons pas vraiment quelle sera la forme finale. Je pense que nous devons suspendre notre jugement pendant une minute. Je pense que l’Europe a déjà fait beaucoup de choses qui pourraient être utilisées pour contrôler efficacement certains des méfaits de l’IA.

Un exemple que je citerais est le fait que le RGPD est interprété de manière stricte et appliqué. Strictement pourrait facilement être utilisé pour interdire la publicité de surveillance, et l’interdiction de la publicité de surveillance aurait un effet de restructuration énorme et assez radical sur les incitations qui animent ces entreprises.

Meredith Whittaker, responsable de l'Open Research Group de Google, s'adresse à des centaines d'employés de Google lors d'un rassemblement de protestation, 2018.
Meredith Whittaker, responsable de l’Open Research Group de Google, s’adresse à des centaines d’employés de Google lors d’un rassemblement de protestation, 2018.

Cela signifierait que, tout à coup, l’énorme quantité de données utilisées pour créer des profils démographiques vendus aux annonceurs, pour le micro-ciblage et pour cibler différents types de personnes ne serait plus autorisée.

Et cela affecterait bien sûr l’IA parce que cette source de données que, vous savez, tout ce que nous publions sur les réseaux sociaux, nos données de localisation, notre graphique social, tout cela deviendrait soudainement beaucoup moins utile.

Et dans une interprétation stricte, il est peut-être interdit à ces sociétés centralisées de collecter et de maintenir. C’est donc un exemple de la position actuelle de l’Europe sur ce sujet. La question est vraiment de volonté politique.

Examinons la volonté politique. Pensez-vous qu’aux États-Unis, l’idée est peut-être plus répandue de faire preuve d’une plus grande implication dans ce domaine et de faire plus de profits ?

Oui bien sur. Un grand nombre de ces sociétés sont basées aux États-Unis. C’est leur compétence et les États-Unis en sont bien conscients. Ce sont ces sociétés qui s’associent au gouvernement américain.

Souvent, ils fournissent des infrastructures au gouvernement. Et nous sommes dans une situation politique très compliquée aux États-Unis, où cela fait 20 ou 30 ans, selon l’endroit où l’on compte, et nous n’avons pas de loi fédérale sur la protection de la vie privée.

Une chose qui me donne de l’espoir est qu’il est très difficile de construire ces systèmes à grande échelle à l’échelle mondiale de manière adaptée à chaque juridiction.

Une réglementation puissante émanant d’Europe ou d’un autre grand marché a donc un effet déterminant sur ces entreprises, même si elle ne vient pas de la juridiction dans laquelle elles sont implantées.

Dans quelle mesure les « ateliers clandestins » d’IA qui collectent des données représenteront-ils un danger ?

Je pense que le problème ici est vraiment la question du travail. On a récemment estimé que 100 millions de personnes occupent des postes très précaires, étant en réalité des gestionnaires humains, fournissant l’intelligence humaine que l’IA et les entreprises d’IA s’attribuent.

C’est donc l’étiquetage des données. C’est la conservation des données, c’est l’étalonnage. Dire au système ce qui est acceptable et inacceptable. C’est la modération du contenu ; c’est-à-dire le contrôle des erreurs et la gestion des problèmes que ces systèmes d’IA créent lorsqu’ils se comportent de manière erratique.

Il s’agit d’un nombre énorme de personnes.

Et je pense qu’il y a de réels problèmes autour de la qualité de ce travail. Il existe de réels problèmes liés aux dommages que ce travail cause à la santé mentale des gens. Ce n’est pas controversé.

Le fait de regarder ou d’être confronté à plusieurs reprises à des images ou à des textes horribles a un effet néfaste documenté et très clair sur la santé mentale des personnes. Nous avons des témoignages de personnes qui ont perdu leur emploi, perdu leurs relations et perdu leur capacité à être dans le monde à cause de la façon dont cela était perturbant.

Et je pense qu’il y a une question plus importante sur laquelle nous devons prendre du recul : si ces systèmes nécessitent une telle ampleur de préjudice, ce qu’ils font, il n’y a pas d’autre moyen de faire fonctionner ces systèmes et de les rendre en quelque sorte acceptables pour une utilisation commerciale et populaire.

Sommes-nous à l’aise avec cela ?

Pensez-vous que la vie privée serait parmi les victimes les plus importantes à mesure qu’un nombre croissant de personnes utilisent des logiciels d’IA générative, tels que Chat GPT ?

La vie privée est depuis longtemps une victime du modèle économique technologique.

Signal continuera de fournir un véritable refuge privé contre la vorace collecte de données qui définit le reste de l’industrie.

Mais il est certain que cette course vers plus grand est meilleure. L’IA présente un énorme risque pour la vie privée. Cela nécessite la création et la collecte de données de plus en plus intimes, de plus en plus omniprésentes et de plus en plus invasives sur nous, sur nos communautés.

Et c’est une force qui permet de centraliser davantage ces données entre les mains d’une poignée d’entreprises, ce qui, encore une fois, constitue un pouvoir irresponsable. Il est très difficile de trouver un analogue dans l’histoire.

Vous avez critiqué la loi britannique sur la sécurité en ligne en ce qui concerne la fin du cryptage de bout en bout. Que pensez-vous de cela et des règles de l’UE en matière de données ?

(La loi britannique sur la sécurité en ligne) contenait ce que je considérerais en fait comme une sorte de produit ou au moins partiellement un produit de ce battage médiatique sur l’IA, qui était une clause très erronée qui impliquait qu’elle était basée sur la conviction que les systèmes d’IA pouvaient d’une manière ou d’une autre analyser les données personnelles de chacun. communication.

Comparer cela à une base de données d’expression autorisée d’une manière privée et sécurisée et, bien sûr, un consensus technologique de longue date. Toute la communauté d’experts sait que ce n’est pas vrai.

Nous nous sommes donc battus contre cela car, en tant que Signal, nous nous appuyons sur le cryptage de bout en bout pour offrir une option significative pour une communication véritablement privée dans un monde criblé de surveillance. Comme nous étions très préoccupés par cette loi.

Aujourd’hui, l’Europe dispose désormais d’une loi similaire. On dirait qu’ils l’ont simplement adapté pour exempter les messages cryptés sur Internet de l’analyse, ce qui est formidable. Mais bien sûr, les trilogues approchent et il y a un processus politique complexe. Nous n’avons pas encore fini.

Mais nous sommes heureux qu’en mettant au premier plan la communauté des droits de l’homme, en mettant au premier plan une véritable expertise technique, et non les services marketing des sociétés d’IA, nous ayons pu montrer clairement qu’il s’agissait d’une pensée magique et en réalité extraordinairement dangereuse pour les droits et libertés. .

Laisser un commentaire

19 − 1 =