Lorsque la directrice financière de Nvidia, Colette Kress, a pris la parole lors du CES 2026, elle a dévoilé une métrique frappante qui redéfinit la façon dont les investisseurs doivent envisager l’avenir du géant des puces : près de 90 % des clients déployant des systèmes d’IA Nvidia achètent également des produits de réseau. Ce taux d’attachement indique un changement fondamental dans la manière dont l’entreprise monétise sa position au centre de l’infrastructure d’intelligence artificielle.
Nvidia domine depuis longtemps le marché des GPU pour centres de données, mais l’expansion de la société dans le matériel réseau se révèle désormais potentiellement plus lucrative que ce que l’on anticipait. Les chiffres racontent l’histoire. Au troisième trimestre de l’exercice 2026, Nvidia a généré 8,2 milliards de dollars de revenus dans le domaine du réseau, soit une hausse de 162 % par rapport au même trimestre de l’année précédente. Cette catégorie comprend NVLink (qui relie les GPU entre eux), les commutateurs InfiniBand et la plateforme Ethernet Spectrum-X. La société a confirmé que des géants de l’industrie tels que Meta, Microsoft, Oracle et xAI construisent tous d’immenses centres de données d’IA spécifiquement conçus autour des commutateurs Ethernet Spectrum-X de Nvidia.
La révélation de la directrice financière au CES 2026 dévoile un taux d’attachement de 90 %
La révélation de Colette Kress concernant le taux d’attachement au réseau a une importance considérable. Elle a souligné que même les clients développant leurs propres puces d’IA personnalisées pour certaines parties de leurs déploiements continuent de s’appuyer sur l’infrastructure réseau de Nvidia. Cela suggère que le réseau est devenu une norme de facto — non pas une option supplémentaire, mais un composant central de l’architecture des centres de données d’IA.
Cette constatation remet en question la sagesse conventionnelle selon laquelle la proposition de valeur de Nvidia repose entièrement sur la domination des GPU. Si les clients se sentent obligés d’intégrer le réseau Nvidia indépendamment de leur stratégie d’approvisionnement en GPU, cela démontre que l’entreprise a construit une barrière défendable dans un marché adjacent. Le chiffre de 90 % signifie essentiellement que l’activité réseau de Nvidia est devenue plus fidèle et plus profondément intégrée dans les déploiements clients qu’on ne le pensait auparavant.
Pourquoi les besoins en réseau pour l’IA sont fondamentalement différents
Les exigences en matière de réseau pour les centres de données d’IA fonctionnent à une échelle totalement différente de celle de l’infrastructure cloud traditionnelle. Pour les charges de travail d’entraînement de l’IA, le débit de données entre GPU doit rester suffisamment élevé pour éviter que les ressources de calcul restent inactives. Même de brèves retards dans le transfert de données peuvent entraîner des pertes d’efficacité importantes à travers des milliers de GPU. De même, les tâches d’inférence d’IA dépendent de flux de données rapides pour fournir des prédictions en temps voulu.
Ces exigences ont placé Nvidia dans une position redoutable sur le marché des commutateurs Ethernet, en particulier dans le segment ultra-haute vitesse. Selon les données de IDC, les revenus des commutateurs 800 GbE ont presque doublé d’un trimestre à l’autre au troisième trimestre 2025. Nvidia détient désormais 11,6 % du marché des commutateurs Ethernet pour centres de données — une position solide en troisième place derrière Arista Networks et Cisco Systems, mais atteinte avec une rapidité remarquable.
Plateforme Rubin : accélérer la trajectoire de revenus du réseau
La révélation stratégique de Nvidia lors du CES concernant la plateforme Rubin représente une pivot délibéré vers la vente de systèmes d’IA entièrement intégrés à l’échelle rack, plutôt que des GPU et composants réseau séparés. La Vera Rubin NVL72, en particulier, regroupe GPU, CPU et plusieurs technologies réseau dans une configuration cohésive de 72 GPU conçue pour être déployée par les principaux fournisseurs de cloud d’IA tout au long de 2026.
La plateforme intègre la nouvelle série Spectrum-6 de commutateurs Ethernet, avec des ports capables de 800 Gb/s de connectivité et offrant jusqu’à 102,4 Tb/s de capacité de commutation agrégée. En intégrant le réseau comme une partie intégrante des solutions à l’échelle rack, Nvidia s’assure essentiellement que les clients ne peuvent pas facilement dissocier la composante réseau de leur décision d’achat. Cette approche architecturale a le potentiel de faire grimper considérablement les revenus du réseau tout au long de 2026 et au-delà.
Ce passage aux systèmes à l’échelle rack représente une évolution cruciale du modèle économique de Nvidia. Plutôt que de compter sur les clients pour assembler leur infrastructure pièce par pièce, Nvidia propose désormais une solution de bout en bout où l’adoption du réseau devient presque automatique. Le taux d’attachement de 90 % de Colette Kress valide que cette stratégie fonctionne précisément comme prévu.
Opportunité de marché : de 14,9 milliards de dollars à 46,8 milliards de dollars
MarketsandMarkets prévoit que le marché mondial du réseau d’IA passera de 14,9 milliards de dollars en 2025 à 46,8 milliards de dollars en 2029, avec un taux de croissance annuel composé de 33,8 %. Cette trajectoire suggère que même si Nvidia perdait du terrain face à de nouveaux rivaux dans le marché des accélérateurs, le segment du réseau offre un moteur de croissance parallèle avec un potentiel considérable.
L’ampleur des investissements dans l’infrastructure d’IA renforce encore cette opportunité. McKinsey estime qu’en 2030, les dépenses mondiales en capital pour les centres de données devront atteindre près de 7 trillions de dollars pour répondre à la demande. Une part disproportionnée de ces investissements ira directement à Nvidia, notamment en raison de l’intégration du réseau dans ses solutions à l’échelle rack.
Perspectives d’investissement : une opportunité tempérée par des risques d’exécution
La domination de Nvidia dans l’infrastructure d’IA et l’expansion de ses activités réseau créent un argument haussier convaincant. Cependant, les investisseurs doivent faire face à de véritables incertitudes. Prédire la demande en IA dans quatre ans reste intrinsèquement spéculatif, et la trajectoire d’investissement du secteur pourrait dépasser ce que l’adoption réelle de l’IA soutient. L’histoire montre que les déploiements d’infrastructures intensifs en capital dépassent souvent la demande — et si cela se produit dans le cas des centres de données d’IA, les revenus de Nvidia pourraient subir des revers soudains.
L’expansion du réseau de l’entreprise, ancrée par le taux d’attachement de 90 % révélé par Colette Kress et propulsée par l’intégration architecturale de Rubin, positionne Nvidia favorablement pour une croissance soutenue. Cependant, le paysage technologique continue d’évoluer rapidement. Ce qui semble certain aujourd’hui pourrait être remis en question par des avancées technologiques, une pression concurrentielle ou des préférences changeantes des clients demain.
Pour les investisseurs envisageant une exposition à l’infrastructure d’IA, Nvidia reste central dans cette thèse. Mais réussir dans ce domaine nécessite d’accepter que même les positions de marché dominantes peuvent être challengées. La capacité de l’entreprise à maintenir son élan dans le réseau, à garder ses clients dans son écosystème grâce à des solutions intégrées, et à naviguer dans la concurrence déterminera en fin de compte si cette source de croissance offre les rendements exceptionnels que la valorisation actuelle laisse présager.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Colette Kress révèle ce qui stimule la prochaine phase de croissance de Nvidia au-delà des GPU
Lorsque la directrice financière de Nvidia, Colette Kress, a pris la parole lors du CES 2026, elle a dévoilé une métrique frappante qui redéfinit la façon dont les investisseurs doivent envisager l’avenir du géant des puces : près de 90 % des clients déployant des systèmes d’IA Nvidia achètent également des produits de réseau. Ce taux d’attachement indique un changement fondamental dans la manière dont l’entreprise monétise sa position au centre de l’infrastructure d’intelligence artificielle.
Nvidia domine depuis longtemps le marché des GPU pour centres de données, mais l’expansion de la société dans le matériel réseau se révèle désormais potentiellement plus lucrative que ce que l’on anticipait. Les chiffres racontent l’histoire. Au troisième trimestre de l’exercice 2026, Nvidia a généré 8,2 milliards de dollars de revenus dans le domaine du réseau, soit une hausse de 162 % par rapport au même trimestre de l’année précédente. Cette catégorie comprend NVLink (qui relie les GPU entre eux), les commutateurs InfiniBand et la plateforme Ethernet Spectrum-X. La société a confirmé que des géants de l’industrie tels que Meta, Microsoft, Oracle et xAI construisent tous d’immenses centres de données d’IA spécifiquement conçus autour des commutateurs Ethernet Spectrum-X de Nvidia.
La révélation de la directrice financière au CES 2026 dévoile un taux d’attachement de 90 %
La révélation de Colette Kress concernant le taux d’attachement au réseau a une importance considérable. Elle a souligné que même les clients développant leurs propres puces d’IA personnalisées pour certaines parties de leurs déploiements continuent de s’appuyer sur l’infrastructure réseau de Nvidia. Cela suggère que le réseau est devenu une norme de facto — non pas une option supplémentaire, mais un composant central de l’architecture des centres de données d’IA.
Cette constatation remet en question la sagesse conventionnelle selon laquelle la proposition de valeur de Nvidia repose entièrement sur la domination des GPU. Si les clients se sentent obligés d’intégrer le réseau Nvidia indépendamment de leur stratégie d’approvisionnement en GPU, cela démontre que l’entreprise a construit une barrière défendable dans un marché adjacent. Le chiffre de 90 % signifie essentiellement que l’activité réseau de Nvidia est devenue plus fidèle et plus profondément intégrée dans les déploiements clients qu’on ne le pensait auparavant.
Pourquoi les besoins en réseau pour l’IA sont fondamentalement différents
Les exigences en matière de réseau pour les centres de données d’IA fonctionnent à une échelle totalement différente de celle de l’infrastructure cloud traditionnelle. Pour les charges de travail d’entraînement de l’IA, le débit de données entre GPU doit rester suffisamment élevé pour éviter que les ressources de calcul restent inactives. Même de brèves retards dans le transfert de données peuvent entraîner des pertes d’efficacité importantes à travers des milliers de GPU. De même, les tâches d’inférence d’IA dépendent de flux de données rapides pour fournir des prédictions en temps voulu.
Ces exigences ont placé Nvidia dans une position redoutable sur le marché des commutateurs Ethernet, en particulier dans le segment ultra-haute vitesse. Selon les données de IDC, les revenus des commutateurs 800 GbE ont presque doublé d’un trimestre à l’autre au troisième trimestre 2025. Nvidia détient désormais 11,6 % du marché des commutateurs Ethernet pour centres de données — une position solide en troisième place derrière Arista Networks et Cisco Systems, mais atteinte avec une rapidité remarquable.
Plateforme Rubin : accélérer la trajectoire de revenus du réseau
La révélation stratégique de Nvidia lors du CES concernant la plateforme Rubin représente une pivot délibéré vers la vente de systèmes d’IA entièrement intégrés à l’échelle rack, plutôt que des GPU et composants réseau séparés. La Vera Rubin NVL72, en particulier, regroupe GPU, CPU et plusieurs technologies réseau dans une configuration cohésive de 72 GPU conçue pour être déployée par les principaux fournisseurs de cloud d’IA tout au long de 2026.
La plateforme intègre la nouvelle série Spectrum-6 de commutateurs Ethernet, avec des ports capables de 800 Gb/s de connectivité et offrant jusqu’à 102,4 Tb/s de capacité de commutation agrégée. En intégrant le réseau comme une partie intégrante des solutions à l’échelle rack, Nvidia s’assure essentiellement que les clients ne peuvent pas facilement dissocier la composante réseau de leur décision d’achat. Cette approche architecturale a le potentiel de faire grimper considérablement les revenus du réseau tout au long de 2026 et au-delà.
Ce passage aux systèmes à l’échelle rack représente une évolution cruciale du modèle économique de Nvidia. Plutôt que de compter sur les clients pour assembler leur infrastructure pièce par pièce, Nvidia propose désormais une solution de bout en bout où l’adoption du réseau devient presque automatique. Le taux d’attachement de 90 % de Colette Kress valide que cette stratégie fonctionne précisément comme prévu.
Opportunité de marché : de 14,9 milliards de dollars à 46,8 milliards de dollars
MarketsandMarkets prévoit que le marché mondial du réseau d’IA passera de 14,9 milliards de dollars en 2025 à 46,8 milliards de dollars en 2029, avec un taux de croissance annuel composé de 33,8 %. Cette trajectoire suggère que même si Nvidia perdait du terrain face à de nouveaux rivaux dans le marché des accélérateurs, le segment du réseau offre un moteur de croissance parallèle avec un potentiel considérable.
L’ampleur des investissements dans l’infrastructure d’IA renforce encore cette opportunité. McKinsey estime qu’en 2030, les dépenses mondiales en capital pour les centres de données devront atteindre près de 7 trillions de dollars pour répondre à la demande. Une part disproportionnée de ces investissements ira directement à Nvidia, notamment en raison de l’intégration du réseau dans ses solutions à l’échelle rack.
Perspectives d’investissement : une opportunité tempérée par des risques d’exécution
La domination de Nvidia dans l’infrastructure d’IA et l’expansion de ses activités réseau créent un argument haussier convaincant. Cependant, les investisseurs doivent faire face à de véritables incertitudes. Prédire la demande en IA dans quatre ans reste intrinsèquement spéculatif, et la trajectoire d’investissement du secteur pourrait dépasser ce que l’adoption réelle de l’IA soutient. L’histoire montre que les déploiements d’infrastructures intensifs en capital dépassent souvent la demande — et si cela se produit dans le cas des centres de données d’IA, les revenus de Nvidia pourraient subir des revers soudains.
L’expansion du réseau de l’entreprise, ancrée par le taux d’attachement de 90 % révélé par Colette Kress et propulsée par l’intégration architecturale de Rubin, positionne Nvidia favorablement pour une croissance soutenue. Cependant, le paysage technologique continue d’évoluer rapidement. Ce qui semble certain aujourd’hui pourrait être remis en question par des avancées technologiques, une pression concurrentielle ou des préférences changeantes des clients demain.
Pour les investisseurs envisageant une exposition à l’infrastructure d’IA, Nvidia reste central dans cette thèse. Mais réussir dans ce domaine nécessite d’accepter que même les positions de marché dominantes peuvent être challengées. La capacité de l’entreprise à maintenir son élan dans le réseau, à garder ses clients dans son écosystème grâce à des solutions intégrées, et à naviguer dans la concurrence déterminera en fin de compte si cette source de croissance offre les rendements exceptionnels que la valorisation actuelle laisse présager.