AMD vs Nvidia au CES 2026 : Deux approches différentes des puces IA

January 6, 2026
Conceptual illustration showing streams of digital data flowing from a dark, circuit-covered cable into a glowing computer chip.

AMD et Nvidia ont profité du CES 2026 pour redéfinir le champ de bataille des puces IA. Alors qu’AMD pousse l’IA partout, des PC à l’edge embarqué, Nvidia mise sur les superordinateurs IA full-stack pour les hyperscalers.

Nvidia (NVDA) se négocie près du sommet de sa fourchette sur 52 semaines, entre le haut des 180 $ et le bas des 190 $, après une année 2025 portée par la demande de GPU pour data-centres et les investissements IA des hyperscalers. AMD (AMD) affiche une progression d’environ 70 % sur un an, mais reste valorisée à un niveau inférieur à NVDA en termes de ratio cours/ventes, même si les investisseurs la considèrent de plus en plus comme une « bêta IA avec potentiel de rattrapage ».

AMD : « L’IA partout » du PC à l’accélérateur

Au CES, AMD a élargi sa gamme Ryzen AI avec les nouvelles puces pour ordinateurs portables Ryzen AI 400 / AI Max+, ainsi qu’une nouvelle ligne Ryzen AI Embedded basée sur Zen 5, ciblant l’automobile, l’industrie et les déploiements d’« IA physique ». La direction présente explicitement la base installée de PC comme un edge IA distribué, avec des conceptions OEM attendues en montée en puissance tout au long de 2026.

Promotional slide announcing AMD Ryzen AI 400 Series processors at CES 2026, positioned as powering next-generation AI desktops and laptops. 
Source : AMD

Côté data-centre, AMD étend sa feuille de route des accélérateurs MI300/MI455, positionnant ces GPU comme des alternatives plus ouvertes et moins coûteuses à Nvidia pour l’entraînement et l’inférence à grande échelle, en visant notamment des clients de type OpenAI comme adopteurs réalistes. Pour les desks de trading, AMD apparaît comme une classique « histoire de gain de parts de marché » : base installée plus petite, mais effet de levier opérationnel significatif si ROCm, les victoires de la série MI et les taux d’adoption de Ryzen AI se concrétisent.

Nvidia : mise sur les superordinateurs IA

Nvidia a répondu avec la plateforme Rubin – six nouvelles puces, dont les GPU Rubin, les CPU Vera et les réseaux NVLink 6 / Spectrum‑X mis à jour, vendus comme une pile superordinateur IA clé en main. 

Wide, front-facing view of a row of high-performance server racks in a dark environment.
Source : Nvidianews

Rubin vise explicitement les « usines IA » pour les modèles avancés et les workloads agentiques, avec les premiers systèmes attendus au second semestre 2026.

Point crucial, Rubin est déployé avec les quatre principaux hyperscalers (AWS, Azure, Google Cloud, Oracle Cloud) ainsi que des clouds GPU spécialisés, renforçant le rôle central de Nvidia dans les dépenses d’infrastructure IA. D’un point de vue trading, NVDA reste l’indice IA de facto : valorisé de façon élevée, mais soutenu par des investissements cloud pluriannuels ; tout basculement visible vers des ASICs sur mesure ou un ralentissement des budgets IA constitue le principal risque pour le multiple actuel.

Pourquoi c’est important

Le CES 2026 a souligné que le trade IA entre dans une phase plus exigeante. Le récit facile – « IA égale GPU égale hausse » – s’estompe. Ce qui compte désormais, c’est où les workloads IA s’installent réellement, la durabilité des dépenses d’investissement, et quels fournisseurs conservent leur pouvoir de fixation des prix alors que l’inférence, l’efficacité et le déploiement deviennent centraux.

La stratégie de Nvidia renforce sa position au cœur des budgets IA des hyperscalers, mais cette concentration comporte des risques. À mesure que l’entraînement arrive à maturité et que l’inférence s’étend, les marges risquent de se comprimer et la concurrence – d’AMD, du silicium sur mesure et des alternatives cloud-native – va s’intensifier. Le risque d’exécution augmente alors que les valorisations restent élevées.

AMD, à l’inverse, mise sur la largeur plutôt que la domination. Son approche « IA partout » la positionne pour profiter si l’adoption de l’IA s’étend au-delà des data-centres géants vers les PC, les systèmes industriels et les usages embarqués. Pour les marchés, cela fait d’AMD moins un leader incontesté qu’un acteur de la capture incrémentale de parts sur une surface IA en expansion.

En résumé, le CES a confirmé que l’IA n’est plus une histoire de trade unique. La prochaine étape sera dictée par l’économie des déploiements, et non plus seulement par l’ambition de calcul.

Lecture stratégique pour le trade des puces IA

Le CES 2026 confirme qu’aucun des deux fournisseurs ne vend plus de simples puces ; tous deux livrent des plateformes – silicium, interconnexion, écosystèmes logiciels (CUDA vs. ROCm) et systèmes de référence. 

Pour les investisseurs, les questions centrales sont désormais : qui capte les workloads hyperscaler incrémentaux, quel pouvoir de fixation des prix subsiste alors qu’AMD, le silicium sur mesure et la pression réglementaire montent, et quelle est la résilience du capex IA lors du prochain ralentissement macroéconomique. 

Dans ce cadre, Nvidia reste l’exposition cœur IA infrastructurelle à forte conviction, tandis qu’AMD offre un potentiel de hausse plus élevé (bêta) si sa stratégie « IA partout » se traduit par de réels gains de parts dans les accélérateurs et l’IA PC/edge sur les 12 à 24 prochains mois.

À retenir

Le CES 2026 a mis en lumière une divergence stratégique nette. Selon les analystes, Nvidia est un pari système à forte conviction sur l’infrastructure IA des hyperscalers, mais avec une sensibilité croissante à l’économie de l’inférence, à la pression sur les prix et aux conditions macroéconomiques. AMD offre un potentiel de hausse plus élevé via sa volonté d’intégrer l’IA dans les PC, les appareils edge et les piles d’accélérateurs alternatifs – une voie plus risquée, mais avec un effet de levier significatif si l’adoption s’élargit sur les 12 à 24 prochains mois.

Pour les investisseurs et les traders, le trade des puces IA évolue d’une histoire de momentum vers un trade de sélectivité, où la fidélité à la plateforme, l’efficacité des coûts et la composition des workloads comptent autant que la performance brute.

Perspectives techniques AMD et Nvidia

AMD se stabilise après un repli volatil depuis les sommets à 260 $, avec un prix qui consolide autour de la zone des 223 $ alors que les acheteurs reviennent prudemment. Bien que la structure globale reste en range, la dynamique s’améliore : le RSI progresse régulièrement au-dessus de la médiane, signalant une reprise graduelle de la conviction haussière plutôt qu’un rebond brutal de prise de risque. 

D’un point de vue structurel, le support à 187 $ reste un niveau clé à la baisse, une cassure en dessous risquant de déclencher des ventes forcées, tandis que la zone plus profonde des 155 $ marque un support de tendance à plus long terme. 

À la hausse, la résistance à 260 $ continue de limiter la reprise, ce qui signifie qu’AMD aura besoin d’une pression d’achat soutenue pour confirmer une nouvelle tendance haussière. Pour l’instant, l’action des prix suggère une consolidation avec un léger biais haussier, plutôt qu’une cassure décisive.

Daily candlestick chart of Advanced Micro Devices (AMD) showing a sharp rally from around 155 to a peak near 260, followed by a pullback and consolidation.
Sources : Deriv MT5

NVIDIA tente de se stabiliser après son récent repli, avec un prix qui repasse la zone des 189 $ et revient vers le milieu de sa fourchette plus large. Le rebond depuis la zone de support à 170 $ a amélioré la structure à court terme, tandis que la dynamique commence à devenir constructive : le RSI grimpe nettement juste au-dessus de la médiane, signalant un regain d’intérêt acheteur plutôt qu’un simple rebond technique. 

Cela dit, la progression à la hausse reste limitée par la résistance à 196 $ et le niveau clé des 208 $, où les précédents rallyes ont déclenché des prises de bénéfices. Tant que NVDA reste au-dessus de 170 $, la structure globale reste intacte, mais il faudra une cassure durable au-dessus de 196 $ pour confirmer une poursuite haussière plus solide.

Daily candlestick chart of NVIDIA (NVDA) showing volatile price action with multiple tests of resistance and support.
Source : Deriv MT5

Les performances passées ne préjugent pas des performances futures.

FAQs

Comment le CES 2026 a-t-il changé le récit autour des puces d'IA ?

Le CES a confirmé qu'AMD et Nvidia vendent des plateformes plutôt que des puces seules. La concurrence en matière d'IA porte désormais sur les écosystèmes – silicium, réseaux, logiciels et systèmes de référence – plutôt que sur la seule puissance de calcul mise en avant.

Pourquoi Nvidia est-elle toujours considérée comme l’exposition principale à l’IA ?

Nvidia reste profondément intégrée dans l’infrastructure des hyperscalers grâce à son approche full-stack et à son écosystème CUDA. Son alignement étroit avec les dépenses d’investissement dans le cloud en fait le principal proxy du marché pour les investissements à grande échelle dans l’IA.

Qu'est-ce qui rend la stratégie d'AMD différente ?

AMD vise la diversité plutôt que la domination, en positionnant l'IA sur les PC, les systèmes embarqués et les accélérateurs. Cela lui offre plusieurs voies de croissance, mais rend également l'exécution et le calendrier d'adoption plus incertains.

Quelle est la place de l’inférence de l’IA dans ce contexte ?

L’inférence devient le prochain champ de bataille à mesure que les modèles entraînés sont déployés à grande échelle. Elle privilégie l’efficacité, le coût et la consommation d’énergie : des domaines où le pouvoir de fixation des prix est moins assuré et où la concurrence s’intensifie.

Quels sont les principaux risques pour le commerce des puces d'IA en 2026 ?

Les principaux risques incluent un ralentissement des dépenses d'investissement des hyperscalers, une transition vers des solutions de silicium personnalisées, une compression des marges sur les charges de travail d'inférence, ainsi que des pressions macroéconomiques dues à la hausse des taux d'intérêt qui pèsent sur les actions de croissance à long terme.

Sommaire