OpenAI travaillait sur un nouveau modèle d'IA qui pourrait menacer l'humanité avant l'éviction d'Altman – rapport

Jean Delaunay

OpenAI travaillait sur un nouveau modèle d’IA qui pourrait menacer l’humanité avant l’éviction d’Altman – rapport

Un rapport indique que la nouvelle découverte appelée Q* a alimenté les problèmes de sécurité et que les employés en ont parlé au conseil d’administration avant le licenciement du PDG Sam Altman.

Le géant de l’intelligence artificielle générative (IA) OpenAI aurait travaillé sur une découverte avancée dont les chercheurs avaient prévenu avant le limogeage du PDG Sam Altman qu’elle pourrait menacer l’humanité, ont déclaré à Reuters deux personnes proches du dossier.

Le conseil d’administration d’OpenAI a licencié Altman vendredi dernier, mais l’a ensuite réintégré mardi après que la quasi-totalité des 750 employés de l’entreprise ont menacé de démissionner s’il n’était pas réintégré.

On ne sait pas exactement pourquoi Altman a été licencié, mais les sources ont déclaré que la lettre non rapportée et l’algorithme d’IA étaient des développements clés avant le chaos qui a secoué la start-up d’IA.

Les sources ont cité la lettre comme l’un des facteurs parmi une longue liste de griefs du conseil d’administration ayant conduit au licenciement d’Altman, parmi lesquels figuraient les inquiétudes concernant la commercialisation des avancées avant d’en comprendre les conséquences.

OpenAI a reconnu dans un message interne adressé au personnel l’existence d’un projet appelé Q* et dans une lettre adressée au conseil d’administration avant les événements du week-end, a déclaré l’une des personnes, selon Reuters.

Atteindre l’intelligence artificielle générale

Un porte-parole d’OpenAI a déclaré que le message, envoyé par Mira Murati, dirigeante de longue date, alertait le personnel de certaines informations médiatiques sans commenter leur exactitude.

Certains chez OpenAI pensent que Q* (prononcer Q-Star) pourrait constituer une percée dans la recherche de la start-up de ce que l’on appelle l’intelligence générale artificielle (AGI), a déclaré l’une des personnes à Reuters.

OpenAI définit l’AGI comme des systèmes autonomes qui surpassent les humains dans les tâches les plus rentables.

Grâce à de vastes ressources informatiques, le nouveau modèle a pu résoudre certains problèmes mathématiques, a déclaré la personne sous couvert d’anonymat, car l’individu n’était pas autorisé à parler au nom de l’entreprise.

Bien qu’ils n’effectuent des mathématiques qu’au niveau des élèves du primaire, la réussite de ces tests a rendu les chercheurs très optimistes quant au succès futur de Q*, a indiqué la source.

Un jour plus tard, le conseil d’administration a licencié Altman.

Les gouvernements du monde entier tentent de trouver un moyen de réglementer l’IA, craignant qu’elle ne soit utilisée pour fabriquer des armes ou même pour outrepasser le contrôle humain.

L’Observatoire de l’Europe Next a contacté OpenAI pour commentaires mais n’a pas reçu de réponse au moment de la publication.

Laisser un commentaire

treize + 1 =