Le commerce de l'(IA) Division des intelligences artificielles en deux. Voici comment choisir le bon côté en 2026.

La croissance rapide du marché de l’intelligence artificielle (IA) a généré de fortes impulsions pour de nombreuses entreprises technologiques au cours des dernières années. Des fabricants de puces comme Nvidia (NVDA +0,07 %) ont prospéré en vendant des GPU pour centres de données afin de traiter des tâches complexes d’IA. Parallèlement, des entreprises de logiciels comme Microsoft ont amélioré leurs logiciels cloud avec des algorithmes d’IA.

Au cours de la prochaine décennie, le marché de l’IA devrait continuer à s’étendre et à évoluer alors que davantage d’entreprises utilisent des logiciels d’IA pour optimiser, accélérer et automatiser leurs opérations. Selon Grand View Research, le marché mondial de l’IA pourrait croître à un taux de croissance annuel composé (TCAC) de 30,6 % entre 2026 et 2033.

Cependant, le marché de l’IA se divise également en deux segments à mesure qu’il se développe. Examinons ces deux marchés — formation et inférence — et voyons lequel croîtra plus rapidement à partir de 2026.

Source de l’image : Getty Images.

Formation vs inférence

Le marché de la formation en IA se concentre sur “l’enseignement” des algorithmes d’IA en traitant d’énormes quantités de données. Ces sessions de formation, qui s’exécutent sur de grands clusters de GPU dans des centres de données, sont coûteuses et peuvent durer de plusieurs semaines à plusieurs mois par modèle.

Une poignée de grandes entreprises d’IA entraînent leurs grands modèles de langage (LLMs) pour dominer ce marché. Les leaders dans cette course incluent GPT d’OpenAI, Meta’s Llama, et Alphabet’s Google Gemini. Toutes ces entreprises ont investi des milliards de dollars dans leurs centres de données pour entraîner ces LLMs, mais ces dépenses sont cycliques et peuvent s’essouffler après des investissements initiaux importants.

Le marché de l’inférence se concentre sur l’utilisation effective de logiciels pour accéder à ces données. C’est ce qui se produit lorsque les utilisateurs posent une question à ChatGPT d’OpenAI ou à Google Gemini, ou utilisent des logiciels d’IA pour créer du contenu. De nombreuses entreprises axées sur l’IA dépensent désormais plus en inférence qu’en formation, et l’inférence est généralement considérée comme une source de revenus plus stable et récurrente.

Comment cette division affectera-t-elle les entreprises d’IA ?

Nvidia a profité du boom initial du marché de la formation en IA, ses GPU discrets étant optimisés pour entraîner l’IA dans les centres de données. Elle contrôle aujourd’hui plus de 90 % de ce marché, tandis que AMD se classe en deuxième position avec ses GPU moins chers. Google développe également ses propres TPU personnalisés pour entraîner ses algorithmes d’IA et réduire sa dépendance à Nvidia.

Nvidia fidélise aussi ses clients avec ses logiciels et services propriétaires, optimisés pour ses propres GPU. Cet avantage de premier arrivé, cette domination du marché et cet écosystème fidèle en feront le principal acteur dans le domaine des puces pour la formation en IA dans un avenir proche.

Expand

NASDAQ : NVDA

Nvidia

Variation d’aujourd’hui

(0,07 %) $0,13

Prix actuel

$175,77

Points clés

Capitalisation boursière

$4,3 trillions

Fourchette de la journée

$173,99 - $176,16

Fourchette sur 52 semaines

$86,62 - $212,19

Volume

2,1 millions

Volume moyen

175 millions

Marge brute

71,07 %

Rendement du dividende

0,02 %

Cependant, les GPU de Nvidia restent des puces d’IA à usage général, meilleures pour entraîner des algorithmes que pour gérer des logiciels d’inférence. Cela la rend vulnérable à Broadcom (AVGO 1,11 %), qui développe des circuits intégrés spécifiques à l’application (ASIC) pour accélérer l’inférence IA pour les hyperscalers — ainsi que d’autres développeurs de puces IA personnalisées.

De nombreux principaux clients de Nvidia, dont Google et Meta, achètent les accélérateurs IA de Broadcom et construisent leurs propres puces personnalisées pour gérer leurs requêtes. À grande échelle, ces puces peuvent traiter des tâches d’IA à un coût inférieur à celui des GPU de formation de Nvidia.

Pour suivre cette évolution, Nvidia a conclu en décembre dernier un accord de licence non exclusif de 20 milliards de dollars avec la start-up d’inférence IA Groq. Dans le cadre de cet accord, Nvidia développe une nouvelle unité de traitement du langage (LPU) pour concurrencer Broadcom et d’autres acteurs du marché de l’inférence.

Y a-t-il un “bon” côté à choisir dans cette division de l’IA ?

De nombreux leaders de l’IA — dont Nvidia, Google et Meta — opèrent à la fois sur les marchés de la formation et de l’inférence. Cependant, cette division pourrait aussi transformer Broadcom et d’autres fabricants de puces orientés inférence en acteurs de l’IA plus prometteurs que Nvidia dans les années à venir.

L’importante investissement de Nvidia dans Groq indique clairement que le marché de l’inférence pourrait générer une croissance plus stable que le marché volatile de la formation. Ainsi, même si Nvidia reste une excellente option pour profiter de la croissance globale du marché de l’IA, les investisseurs devraient surveiller de près l’essor des acteurs de l’inférence comme Broadcom — qui pourraient offrir des gains encore plus importants que les entreprises d’IA axées sur la formation.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler