Nvidia CEO Jensen Huang on what's next for the AI boom

Jensen Huang subiu ao palco do SAP Center na segunda-feira para sua palestra principal na GTC e fez o que faz de melhor: transformar uma apresentação de produto numa audiência de reflexão sobre o futuro. O fundador e CEO da Nvidia (@NVDA@ +1,65%) abriu a conferência de desenvolvedores, que é bastante observada, prometendo uma viagem por “cada camada” da IA, e passou o restante do tempo argumentando que a empresa não está apenas vendendo chips num mercado em alta. Não. A empresa quer definir toda a infraestrutura física da economia de IA: o processamento, a rede, o armazenamento, o software, os modelos, as fábricas e — porque a sutileza claramente saiu de temporada — talvez até os centros de dados orbitais.

A palestra trouxe anúncios em todas as direções, mas a mensagem principal foi mais forte do que parecia com o efeito do confete de uma artilharia. Huang quis que investidores, clientes e rivais ouvissem claramente quatro pontos: a demanda por IA ainda está crescendo rápido o suficiente para justificar gastos indecentes; a inferência é agora o centro do campo de batalha; os agentes devem sair dos chatbots e entrar na rotina diária do trabalho de escritório; e a próxima corrida do ouro, após a IA digital, pode ser a IA física, onde robôs, sistemas autônomos e softwares industriais consomem ainda mais dados e infraestrutura.

Pois bem, esse é um número grande

A maior demonstração de Huang foi numérica. Ele comemorou o 20º aniversário do CUDA, chamou-o de o motor por trás do processamento acelerado, afirmou que a demanda por computação aumentou “milhões de vezes nos últimos anos” e elevou a aposta ao dizer que vê pelo menos 1 trilhão de dólares em oportunidades de receita de 2025 a 2027. Essa foi a ideia central da palestra: uma insistência pública de que a expansão da IA ainda está no começo, ainda se amplia e ainda é grande o suficiente para fazer os gastos atuais parecerem, na visão da Nvidia, como um pagamento inicial.

Esse número também fez uma limpeza silenciosa. A Nvidia passou meses respondendo às perguntas habituais que surgem sempre que uma empresa se torna a principal responsável por uma febre de gastos de capital: Quanto tempo isso vai durar, o que acontece quando os hyperscalers passam a se preocupar com custos, e quanto da próxima fase escapa para chips personalizados e alternativas mais baratas?

A resposta de Huang foi ampliar a visão. O token, declarou o vídeo de abertura da GTC, é o bloco de construção da nova era de IA. Huang quis dizer que o negócio ligado a esses tokens não vai parar apenas no treinamento de grandes modelos e na admiração deles em benchmarks. Ele avança para a produção, onde o relógio nunca para de correr.

A inferência assume o centro do palco

Uma das frases mais afiadas da palestra também foi a mais simples: “A inflexão da inferência chegou.” Huang dividiu a inferência em duas etapas — pré-preenchimento e decodificação — e apresentou um sistema em que os chips Vera Rubin da Nvidia lidam com o pré-preenchimento, enquanto o silício derivado da Groq cuida da decodificação, a etapa que realmente gera a resposta. Isso importa porque a inferência é onde a próxima guerra da Nvidia se torna mais complexa. O treinamento tornou a empresa rica. Atender a centenas de milhões de usuários em tempo real é onde os clientes começam a fazer perguntas incômodas sobre custos, latência e se realmente precisam do mesmo silício para cada etapa.

Assim, a resposta de Huang foi clássica da Nvidia. Não defender a GPU isoladamente, mas engolir toda a pilha. Ele descreveu Vera Rubin como “um salto geracional” construído em torno de sete chips e cinco sistemas em rack, com a Nvidia afirmando que a plataforma pode treinar grandes modelos de mistura de especialistas com um quarto do número de GPUs em relação ao Blackwell e oferecer até 10 vezes mais throughput de inferência por watt a um décimo do custo por token. Ele também usou a palestra para olhar além de Rubin para a futura plataforma Feynman, porque na Nvidia a próxima geração já está nos bastidores antes mesmo da atual terminar sua apresentação.

Essa foi a mensagem mais profunda de San Jose. Huang não estava promovendo uma peça mais rápida, mas uma dependência maior. A Nvidia anunciou um design de referência de fábrica de IA Vera Rubin DSX, ferramentas de simulação DSX para planejar fábricas de IA antes de construí-las, e um menu mais amplo de componentes de armazenamento, rede e sistema, destinados a operar como uma única máquina verticalmente integrada. A mensagem era clara: pare de pensar em servidores, comece a pensar em campus. Ou, se for a Nvidia, comece a enviar faturas como uma utilities.

Os agentes deixam o palco de demonstração

Se a apresentação de hardware era sobre manter a Nvidia no centro da inferência, a de software era para garantir que a IA empresarial não se torne uma festa de terceiros. Huang afirmou que “Claude Code e OpenClaw marcaram o ponto de inflexão dos agentes”, acrescentando que “os funcionários serão impulsionados por equipes de agentes de ponta, especializados e construídos sob medida, que eles implantam e gerenciam.”

A Nvidia combinou essa retórica com seu Agent Toolkit, runtime OpenShell e o projeto AI-Q — softwares que, segundo ela, podem ajudar empresas a construir agentes autônomos com limites de política e, no caso do AI-Q, reduzir custos de consulta em mais de 50% por meio de uma mistura híbrida de modelos de ponta e modelos abertos próprios da Nvidia.

Houve uma estratégia de proteção embutida em toda essa abertura. A Nvidia revelou a Coalizão Nemotron com Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection AI, Sarvam e Thinking Machines Lab, com o primeiro projeto destinado a sustentar a futura família de modelos Nemotron 4. Ao ler entre as linhas, fica claro que a Nvidia não quer que o futuro do software de IA seja dividido de forma clara entre alguns gigantes de modelos fechados e uma pilha de hardware comum. Ela quer uma participação na camada de modelos abertos também — a peça que define quem pode construir, ajustar e possuir a IA fora dos maiores laboratórios.

A proposta de robôs fica maior

Huang tem ampliado a narrativa da Nvidia além dos assistentes digitais há algum tempo, e a GTC reforçou ainda mais esse tema. A Nvidia anunciou um BluePrint de Fábrica de Dados de IA Física com a Microsoft ($MSFT +1,11%) Azure e a Nebius, que visa automatizar a geração, o aumento e a avaliação de dados de treinamento para robótica, agentes de visão de IA e veículos autônomos. A proposta é simples: dados do mundo real são escassos, casos extremos são incômodos, e dados sintéticos mais simulação podem transformar o processamento na matéria-prima que esses sistemas precisam.

Huang também apresentou o GR00T N2, um modelo de base para robôs de próxima geração baseado na pesquisa DreamZero, que, segundo a empresa, mais que duplica o sucesso em relação aos principais modelos VLA em novas tarefas e ambientes. Essa parte da palestra pode acabar envelhecendo melhor. Os chatbots empolgaram Wall Street. A IA física é a parte que pode manter a maratona de infraestrutura por anos, porque robôs, sistemas industriais e máquinas autônomas não precisam apenas de modelos — precisam de treinamento infinito, simulação, rede, sensores e processamento de borda. Huang foi ainda mais longe e afirmou que a Nvidia vai para o espaço, com futuros sistemas baseados em Vera Rubin voltados a centros de dados orbitais e operações espaciais autônomas. Claro, isso soa um pouco como alguém que descobriu que ainda há setores intocados na sua lista de desejos. Mas também parece uma empresa determinada a fazer “infraestrutura de IA” significar quase todas as máquinas caras à vista.

Quando Huang terminou, a palestra parecia maior que um calendário de lançamentos. Parecia um mapa de império. Sim, havia DLSS 5 para gráficos, novas integrações de softwares industriais, parcerias em telecomunicações e uma avalanche de ferramentas para desenvolvedores. Mas a mensagem duradoura foi mais simples e muito maior: a Nvidia quer que a IA deixe de ser vista apenas como uma categoria de software e passe a ser tratada como um projeto de infraestrutura de escala utilitária, com hardware e software da Nvidia embutidos em cada camada.

Essa é uma mensagem bem de Jensen Huang — bem organizada e só um pouco modesta. A parte que assusta os rivais é que, por enquanto pelo menos, ele ainda tem muitos clientes dispostos a construir em torno dela.

Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar