A OpenAI acabou de fechar um enorme acordo de computação $38B com a AWS—e vai muito além do simples aluguer de GPUs.
Eis o que está realmente a acontecer: a OpenAI está a abandonar a exclusividade da Microsoft ( terminada na semana passada após $13B investimento desde 2019 ) e a tornar-se multi-cloud. A AWS vai agora fornecer centenas de milhares de GPUs Nvidia GB200/GB300 em centros de dados nos EUA.
Porque é importante: - Escala o treino de IA de vanguarda sem risco de dependência - A infraestrutura da AWS cresceu mais de 20% YoY, tornando-se fiável para cargas de trabalho intensivas em computação - Isto alimenta a expansão Stargate de mais de $400B da OpenAI ( equivalente a 30GW de potência ) - CEO Sam Altman: "Escalar IA de fronteira exige computação massiva e fiável"
O verdadeiro objetivo? Não se trata apenas de capacidade—é a OpenAI a posicionar-se para um potencial $500B IPO enquanto constrói uma infraestrutura de IA capaz de competir globalmente. Entretanto, a instalação em Abilene, Texas, já tem racks Nvidia GB200 a treinar modelos.
Perspetiva cripto: Escassez de GPUs = custos de hardware mais elevados = pressão nas margens dos projetos de IA que dependem da NVIDIA. Mas acordos de computação concentrados como este podem acelerar a adoção da IA, o que historicamente está correlacionado com ciclos de inovação cripto.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A OpenAI acabou de fechar um enorme acordo de computação $38B com a AWS—e vai muito além do simples aluguer de GPUs.
Eis o que está realmente a acontecer: a OpenAI está a abandonar a exclusividade da Microsoft ( terminada na semana passada após $13B investimento desde 2019 ) e a tornar-se multi-cloud. A AWS vai agora fornecer centenas de milhares de GPUs Nvidia GB200/GB300 em centros de dados nos EUA.
Porque é importante:
- Escala o treino de IA de vanguarda sem risco de dependência
- A infraestrutura da AWS cresceu mais de 20% YoY, tornando-se fiável para cargas de trabalho intensivas em computação
- Isto alimenta a expansão Stargate de mais de $400B da OpenAI ( equivalente a 30GW de potência )
- CEO Sam Altman: "Escalar IA de fronteira exige computação massiva e fiável"
O verdadeiro objetivo? Não se trata apenas de capacidade—é a OpenAI a posicionar-se para um potencial $500B IPO enquanto constrói uma infraestrutura de IA capaz de competir globalmente. Entretanto, a instalação em Abilene, Texas, já tem racks Nvidia GB200 a treinar modelos.
Perspetiva cripto: Escassez de GPUs = custos de hardware mais elevados = pressão nas margens dos projetos de IA que dependem da NVIDIA. Mas acordos de computação concentrados como este podem acelerar a adoção da IA, o que historicamente está correlacionado com ciclos de inovação cripto.