Les experts affirment que cela dépend de la réglementation européenne, mais cela pourrait aussi être une tactique pour ralentir les règles,
Alors que les géants de la technologie annoncent leurs derniers modèles d’intelligence artificielle (IA), les consommateurs européens devront attendre avant de pouvoir les utiliser, à condition qu’ils arrivent.
La principale raison en est l’incertitude juridique, car l’Europe a des réglementations plus strictes, affirment les entreprises technologiques. Mais les experts estiment que cela pourrait aussi être un moyen de faire pression sur les décideurs politiques de l’Union européenne.
Le mode vocal avancé de ChatGPT a été lancé au Royaume-Uni la semaine dernière – mais pas dans l’UE. Cela pourrait être dû aux préoccupations concernant le règlement général sur la protection des données (RGPD) européen, qui exige que certains produits soient examinés par le commissaire européen aux données avant leur lancement.
Cependant, le mode vocal avancé est la seule fonctionnalité OpenAI à ne pas encore atteindre l’Europe, ce n’est donc peut-être qu’une question de temps avant qu’il ne le fasse.
« L’Europe est une région clé pour nous et nous nous engageons à travailler avec les institutions européennes pour proposer nos produits ici », a déclaré un porte-parole d’OpenAI à L’Observatoire de l’Europe Next.
« Pression sur les décideurs politiques »
Cependant, deux titans de la technologie ont décidé de ne pas se lancer du tout en Europe.
Apple a annoncé son iPhone 16 compatible IA lors de sa conférence des développeurs le mois dernier, mais la technologie IA n’atteindra pas l’Europe. Apple a spécifiquement déclaré que cela était dû à des complications auxquelles l’entreprise serait confrontée en vertu de la loi européenne sur les marchés numériques (DMA).
Apple aurait dû ouvrir son système iOS et ses produits API aux développeurs tiers et offrir aux utilisateurs la possibilité de choisir d’autres produits d’IA à intégrer potentiellement dans les nouveaux iPhones, ce qui, selon Apple, créerait des risques de sécurité.
Plusieurs semaines plus tard, Meta a également tenu sa conférence des développeurs et a annoncé des mises à niveau de son produit Llama AI. Mais cela non plus ne viendra pas en Europe. La société mère d’Instagram et de Facebook a déclaré que cela était dû à des préoccupations concernant les règles européennes du RGPD.
Les deux sociétés n’ont pas non plus signé le soi-disant Pacte européen sur l’IA, un accord non contraignant qui démontre leur engagement envers la loi européenne sur l’IA. Mais le champion français de l’IA MistralAI et la société américaine Anthropic ont également fait de même.
L’Observatoire de l’Europe Next a contacté Apple, qui n’a pas répondu au moment de la publication, et Meta, qui a déclaré ne pas disposer de porte-parole.
« Je pense qu’il s’agit d’un problème plus vaste lié à la réglementation européenne qui oblige les entreprises américaines à se demander si elles commercialiseront des produits en Europe », a déclaré Bill Echikson, chercheur principal à la Digital Innovation Initiative et rédacteur en chef de Bandwidth au Center for European Policy Analysis.
«La principale raison est l’incertitude juridique, la crainte d’enfreindre la réglementation. Et cela pourrait également être un moyen de faire pression sur les décideurs politiques de l’UE pour qu’ils ralentissent la réglementation », a-t-il déclaré à L’Observatoire de l’Europe Next.
Giorgos Verdi, chercheur politique au Conseil européen des relations étrangères, a convenu que ne pas déployer la technologie de l’IA pourrait être une stratégie d’entreprise visant à faire pression sur l’UE « afin de créer des changements politiques et réglementaires ».
«Ces entreprises demandent depuis longtemps soit de supprimer complètement certaines de ces obligations, soit de les simplifier. C’est donc une excellente tactique », a-t-il déclaré à L’Observatoire de l’Europe Next.
Quel est l’impact ?
Verdi a déclaré que d’un autre côté, certaines entreprises perdent de l’argent en ne se lançant pas en Europe et pourraient donc changer de tactique.
Le dernier exemple en date est celui du chatbot IA de Google, Bard, qui n’a initialement pas été déployé en Europe car il ne respectait pas le RGPD, mais l’a fait plus tard en 2023, après avoir engagé un dialogue réglementaire avec la Commission irlandaise des données et les régulateurs européens.
« Nous devons voir dans quelle mesure ils choisissent de retirer leurs produits d’Europe, et je dirais que cela ne tardera peut-être pas, car l’Europe et son marché unique restent un marché très lucratif pour ces entreprises technologiques », a déclaré Verdi.
En ce qui concerne les consommateurs européens, l’impact de l’absence de modèles d’IA est minime, a déclaré Verdi, car la plupart des citoyens ne veulent pas voir leurs données mal gérées ou ne veulent pas d’innovation sans aucune garantie.
Certains acteurs de l’industrie technologique européenne ont également déclaré à L’Observatoire de l’Europe Next que la loi européenne sur l’IA pourrait créer des barrières réglementaires supplémentaires qui profiteraient à la concurrence américaine et chinoise et réduiraient les opportunités d’émergence de champions européens de l’IA.
La compétitivité pourrait constituer un autre obstacle pour l’Europe, qui gênerait les petites entreprises européennes.
« En fin de compte, la compétitivité ne consiste pas seulement à innover avec de nouveaux produits, mais aussi à être capable d’intégrer ces produits afin qu’ils améliorent la compétitivité et la productivité des entreprises européennes », a déclaré Verdi.
L’impact final du non-déploiement des modèles d’IA en Europe est qu’ils pourraient accroître la fragmentation entre les marchés américain et européen.
« Jusqu’à présent, l’effet a été limité. Mais les régulateurs européens doivent également veiller à ce que cela ne continue pas, dans l’intérêt des citoyens européens et américains », a déclaré Verdi.
« Ces deux marchés devraient continuer à coopérer pour la poursuite des échanges entre eux plutôt que de pousser à une plus grande fragmentation technologique, comme nous l’avons vu ces derniers temps ».