Pourquoi le « parrain de l'IA » Geoffrey Hinton est-il inquiet ?  Ce sont les 4 dangers qu'il craint à propos de la technologie

Jean Delaunay

Pourquoi le « parrain de l’IA » Geoffrey Hinton est-il inquiet ? Ce sont les 4 dangers qu’il craint à propos de la technologie

Voici quelques-unes des plus grandes préoccupations exprimées concernant l’avenir de l’IA – et de l’humanité.

D’éminents experts en intelligence artificielle (IA) ont tiré la sonnette d’alarme sur le rythme et l’ampleur des avancées récentes dans le domaine, avertissant qu’elles ne représentent rien de moins qu’une menace pour l’humanité.

Il s’agit notamment de Geoffrey Hinton, un informaticien primé connu comme le « parrain de l’IA », qui a quitté son emploi chez Google le mois dernier pour partager ses inquiétudes concernant le développement incontrôlé de nouveaux outils d’IA.

« J’ai soudainement changé d’avis sur la question de savoir si ces choses vont être plus intelligentes que nous », a déclaré Hinton, 75 ans, dans une interview avec MIT Technology Review cette semaine.

« Je pense qu’ils en sont très proches maintenant et qu’ils seront beaucoup plus intelligents que nous à l’avenir… Comment survivrons-nous à cela ? »

Hinton n’est pas seul dans ses inquiétudes. En février, même Sam Altman, le PDG du développeur OpenAI de ChatGPT, a déclaré que le monde n’était peut-être pas « si loin des outils d’IA potentiellement effrayants » – et que la réglementation serait essentielle mais prendrait du temps à comprendre.

Peu de temps après que la start-up soutenue par Microsoft a publié son dernier modèle d’IA appelé GPT-4 en mars, plus de 1 000 chercheurs et technologues ont signé une lettre appelant à une pause de six mois sur le développement de l’IA car, ont-ils déclaré, cela pose « des risques profonds ». à la société et à l’humanité ».

Voici un aperçu des principales préoccupations exprimées par Hinton et d’autres experts.

1. L’IA est peut-être déjà plus intelligente que nous

Notre cerveau humain peut résoudre des équations, conduire des voitures et suivre les séries Netflix grâce à son talent natif pour organiser et stocker des informations et trouver des solutions à des problèmes épineux.

Les quelque 86 milliards de neurones entassés dans nos crânes – et, plus important encore, les 100 000 milliards de connexions que ces neurones forgent entre eux – rendent cela possible.

En revanche, la technologie sous-jacente à ChatGPT comporte entre 500 milliards et un billion de connexions, a déclaré Hinton. Bien que cela semblerait le désavantager par rapport à nous, Hinton note que GPT-4, le dernier modèle d’IA d’OpenAI, en sait « des centaines de fois plus » que n’importe quel humain. Peut-être, suggère-t-il, qu’il a un « algorithme d’apprentissage bien meilleur » que le nôtre, ce qui le rend plus efficace pour les tâches cognitives.

Les chercheurs ont depuis longtemps noté que les réseaux de neurones artificiels prennent beaucoup plus de temps pour absorber et appliquer de nouvelles connaissances que les humains, car leur formation nécessite d’énormes quantités d’énergie et de données.

Ce n’est plus le cas, soutient Hinton, notant que des systèmes comme GPT-4 peuvent apprendre de nouvelles choses très rapidement une fois correctement formés par les chercheurs. Ce n’est pas sans rappeler la façon dont un physicien professionnel formé peut envelopper son cerveau de nouvelles découvertes expérimentales beaucoup plus rapidement qu’un étudiant en sciences typique du secondaire.

Cela amène Hinton à la conclusion que les systèmes d’IA pourraient déjà nous déjouer : non seulement ils peuvent apprendre des choses plus rapidement, mais ils peuvent également partager des copies de leurs connaissances entre eux presque instantanément.

« C’est une forme d’intelligence complètement différente », a-t-il déclaré au MIT Technology Review. « Une nouvelle et meilleure forme d’intelligence ».

2. L’IA peut « amplifier » la propagation de la désinformation

Que feraient des systèmes d’IA plus intelligents que l’homme ? Une possibilité troublante est que des individus, des groupes ou des États-nations malveillants puissent simplement les coopter pour servir leurs propres fins.

Des dizaines de faux sites Web d’information se sont déjà répandus sur le Web dans plusieurs langues, certains publiant des centaines d’articles générés par l’IA par jour, selon un nouveau rapport de NewsGuard, qui évalue la crédibilité des sites Web et suit la désinformation en ligne.

Hinton est particulièrement préoccupé par le fait que les outils d’IA pourraient être formés pour influencer les élections et même mener des guerres.

La désinformation électorale diffusée via les chatbots IA, par exemple, pourrait être la future version de la désinformation électorale diffusée via Facebook et d’autres plateformes de médias sociaux.

Et ce n’est peut-être que le début.

« Ne pensez pas un seul instant que Poutine ne fabriquerait pas des robots hyper-intelligents dans le but de tuer des Ukrainiens », a déclaré Hinton dans l’article. « Il n’hésiterait pas ».

3. L’IA va-t-elle nous rendre redondants ?

OpenAI estime que 80% des travailleurs aux États-Unis pourraient voir leur emploi impacté par l’IA, et un rapport de Goldman Sachs indique que la technologie pourrait mettre en danger 300 millions d’emplois à temps plein dans le monde.

La survie de l’humanité est menacée lorsque « des choses intelligentes peuvent nous déjouer », selon Hinton.

« Cela peut nous garder pendant un certain temps pour maintenir les centrales électriques en marche », a déclaré Hinton à la conférence EmTech Digital du MIT Technology Review depuis son domicile par vidéo mercredi. « Mais après ça, peut-être pas ».

« Ces choses auront appris de nous, en lisant tous les romans qui ont jamais existé et tout ce que Machiavel a jamais écrit, comment manipuler les gens », a déclaré Hinton. « Même s’ils ne peuvent pas tirer directement sur les leviers, ils peuvent certainement nous amener à tirer sur les leviers ».

4. Nous ne savons pas trop comment l’arrêter

« J’aimerais avoir une solution simple et agréable que je pourrais pousser, mais ce n’est pas le cas », a ajouté Hinton. « Je ne suis pas sûr qu’il y ait une solution ».

Les gouvernements sont cependant très attentifs à l’essor de l’IA. La Maison Blanche a appelé les PDG de Google, Microsoft et OpenAI, fabricant de ChatGPT, à rencontrer jeudi le vice-président Kamala Harris dans ce qui est décrit par les responsables comme une discussion franche sur la manière d’atténuer les risques à court et à long terme. de leur technologie.

Les législateurs européens accélèrent également les négociations pour adopter de nouvelles règles radicales en matière d’IA, et le régulateur britannique de la concurrence prévoit d’examiner l’impact de l’IA sur les consommateurs, les entreprises et l’économie et si de nouveaux contrôles sont nécessaires sur des technologies telles que ChatGPT.

Ce qui n’est pas clair, c’est comment quelqu’un empêcherait une puissance comme la Russie d’utiliser la technologie de l’IA pour dominer ses voisins ou ses propres citoyens.

Hinton suggère qu’un accord mondial similaire à la Convention sur les armes chimiques de 1997 pourrait être un bon premier pas vers l’établissement de règles internationales contre l’IA militarisée.

Bien qu’il convient également de noter que le pacte sur les armes chimiques n’a pas empêché ce que les enquêteurs ont découvert comme de probables attaques syriennes utilisant du chlore gazeux et l’agent neurotoxique sarin contre des civils en 2017 et 2018 pendant la guerre civile sanglante du pays.

Laisser un commentaire

trois × 3 =