Microsoft développe deux nouvelles puces informatiques pour compenser le coût élevé de la technologie de l'IA

Jean Delaunay

Microsoft développe deux nouvelles puces informatiques pour compenser le coût élevé de la technologie de l’IA

Le géant de la technologie ne mettra pas ses nouvelles puces sur le marché, mais les utilisera plutôt pour alimenter les capacités d’IA de ses services logiciels par abonnement et du cloud computing Azure.

Microsoft a annoncé mercredi un duo de puces informatiques conçues sur mesure, rejoignant d’autres grandes entreprises technologiques qui intègrent des technologies de base pour compenser le coût élevé de la fourniture de services d’intelligence artificielle (IA).

Microsoft a indiqué qu’il n’envisageait pas de vendre les puces, mais qu’il les utiliserait plutôt pour alimenter ses propres offres de logiciels d’abonnement et dans le cadre de son service de cloud computing Azure.

Lors de sa conférence des développeurs Ignite à Seattle, Microsoft a présenté une nouvelle puce, appelée Maia, pour accélérer les tâches informatiques de l’IA et fournir une base à son service « Copilot » à 30 $ par mois (28 €) pour les utilisateurs de logiciels d’entreprise, ainsi que pour les développeurs qui souhaitent créer des services d’IA personnalisés

La puce Maia a été conçue pour exécuter de grands modèles de langage, un type de logiciel d’IA qui sous-tend le service Azure OpenAI de Microsoft et est le produit de la collaboration de Microsoft avec le créateur de ChatGPT, OpenAI.

Microsoft et d’autres géants de la technologie comme Alphabet sont aux prises avec les coûts élevés de fourniture de services d’IA, qui peuvent être 10 fois supérieurs à ceux des services traditionnels tels que les moteurs de recherche.

Les dirigeants de Microsoft ont déclaré qu’ils prévoyaient de réduire ces coûts en acheminant la quasi-totalité des efforts déployés par l’entreprise pour inclure l’IA dans ses produits via un ensemble commun de modèles d’IA fondamentaux. La puce Maia, ont-ils déclaré, est optimisée pour ce travail.

« Nous pensons que cela nous permet de fournir à nos clients de meilleures solutions, plus rapides, moins coûteuses et de meilleure qualité », a déclaré Scott Guthrie, vice-président exécutif du groupe cloud et IA de Microsoft.

Microsoft a également déclaré que l’année prochaine, il offrirait à ses clients Azure des services cloud fonctionnant sur les dernières puces phares de Nvidia et Advanced Micro Devices.

« Ce n’est pas quelque chose qui remplace Nvidia », a déclaré Ben Bajarin, directeur général du cabinet d’analyse Creative Strategies.

Il a déclaré que la puce Maia permettrait à Microsoft de vendre des services d’IA dans le cloud jusqu’à ce que les ordinateurs personnels et les téléphones soient suffisamment puissants pour les gérer.

« Microsoft a ici un type d’opportunité très différent car ils gagnent beaucoup d’argent par utilisateur pour les services », a déclaré Bajarin.

La deuxième puce de Microsoft est conçue pour être à la fois une économie de coûts interne et une réponse au principal rival cloud de Microsoft, Amazon Web Services.

Nommée Cobalt, la nouvelle puce est une unité centrale de traitement (CPU) réalisée avec la technologie d’Arm Holdings. Microsoft a révélé mercredi qu’il avait déjà testé Cobalt pour alimenter Teams, son outil de messagerie professionnelle.

Mais Guthrie de Microsoft a déclaré que son entreprise souhaitait également vendre un accès direct à Cobalt pour concurrencer la série de puces internes « Graviton » proposée par Amazon.

« Nous concevons notre solution Cobalt pour garantir que nous sommes très compétitifs à la fois en termes de performances et de rapport qualité-prix (par rapport aux puces d’Amazon) », a déclaré Guthrie.

Microsoft a donné peu de détails techniques permettant de comparer la compétitivité des puces par rapport à celles des fabricants de puces traditionnels. Rani Borkar, vice-président d’entreprise pour les systèmes matériels et l’infrastructure Azure, a déclaré que les deux sont fabriqués avec une technologie de fabrication de 5 nanomètres de Taiwan Semiconductor Manufacturing Co..

Il a ajouté que la puce Maia serait reliée à un câblage réseau Ethernet standard, plutôt qu’à une technologie de réseau Nvidia personnalisée plus coûteuse que Microsoft a utilisée dans les supercalculateurs qu’il a construits pour OpenAI.

« Vous nous verrez emprunter beaucoup plus la voie de la standardisation », a déclaré Borkar.

Laisser un commentaire

3 × 1 =