OpenAI vient de conclure un énorme accord de calcul $38B avec AWS—et il s'agit de bien plus que simplement louer des GPU.
Voici ce qui se passe réellement : OpenAI abandonne l'exclusivité de Microsoft ( terminée la semaine dernière après $13B des investissements depuis 2019 ) et passe à une stratégie multi-cloud. AWS fournit désormais des centaines de milliers de GPU Nvidia GB200/GB300 dans des data centers aux États-Unis.
Pourquoi c'est important : - Permet d'entraîner l'IA de pointe à grande échelle sans risque de dépendance - L'infrastructure AWS a connu une croissance de plus de 20 % d'une année sur l'autre, ce qui la rend fiable pour les charges de travail intensives en calcul - Cela alimente le développement Stargate d'OpenAI à plus de 400 milliards de dollars ( équivalent à 30GW de puissance ) - Le PDG Sam Altman : « Faire évoluer l’IA de pointe nécessite une capacité de calcul massive et fiable »
Le vrai mouvement ? Il ne s'agit pas seulement de capacité—OpenAI se positionne en vue d'une éventuelle $500B introduction en bourse tout en construisant une infrastructure IA capable de rivaliser à l'échelle mondiale. Pendant ce temps, l'installation d'Abilene, au Texas, dispose déjà de racks Nvidia GB200 pour entraîner des modèles.
Angle crypto : pénurie de GPU = hausse des coûts matériels = pression sur les marges pour les projets IA qui dépendent de NVIDIA. Mais des accords de calcul concentrés comme celui-ci pourraient accélérer l'adoption de l'IA, ce qui, historiquement, est corrélé aux cycles d'innovation crypto.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
OpenAI vient de conclure un énorme accord de calcul $38B avec AWS—et il s'agit de bien plus que simplement louer des GPU.
Voici ce qui se passe réellement : OpenAI abandonne l'exclusivité de Microsoft ( terminée la semaine dernière après $13B des investissements depuis 2019 ) et passe à une stratégie multi-cloud. AWS fournit désormais des centaines de milliers de GPU Nvidia GB200/GB300 dans des data centers aux États-Unis.
Pourquoi c'est important :
- Permet d'entraîner l'IA de pointe à grande échelle sans risque de dépendance
- L'infrastructure AWS a connu une croissance de plus de 20 % d'une année sur l'autre, ce qui la rend fiable pour les charges de travail intensives en calcul
- Cela alimente le développement Stargate d'OpenAI à plus de 400 milliards de dollars ( équivalent à 30GW de puissance )
- Le PDG Sam Altman : « Faire évoluer l’IA de pointe nécessite une capacité de calcul massive et fiable »
Le vrai mouvement ? Il ne s'agit pas seulement de capacité—OpenAI se positionne en vue d'une éventuelle $500B introduction en bourse tout en construisant une infrastructure IA capable de rivaliser à l'échelle mondiale. Pendant ce temps, l'installation d'Abilene, au Texas, dispose déjà de racks Nvidia GB200 pour entraîner des modèles.
Angle crypto : pénurie de GPU = hausse des coûts matériels = pression sur les marges pour les projets IA qui dépendent de NVIDIA. Mais des accords de calcul concentrés comme celui-ci pourraient accélérer l'adoption de l'IA, ce qui, historiquement, est corrélé aux cycles d'innovation crypto.