Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Jensen Huang anuncia Vera Rubin na CES 2026: Nova plataforma de computação AI marca um ponto de viragem para o setor
Após 5 anos sem lançar placas gráficas de consumo na CES, o CEO Jensen Huang da NVIDIA concentrou-se numa meta diferente — apresentar a plataforma de computação Vera Rubin, um sistema de servidores AI de 2,5 toneladas projetado para acelerar o treino de modelos AI de próxima geração. Este não é apenas um produto de hardware, mas uma estratégia abrangente para transformar a forma como as empresas constroem e implementam infraestruturas AI.
Jensen Huang apareceu em três eventos em 48 horas, desde o NVIDIA Live até à colaboração com a Siemens em AI industrial, seguido da conferência Lenovo TechWorld. A mensagem principal dele: os recursos de computação, avaliados em cerca de 10 trilhões de dólares, investidos na última década, precisam de uma modernização total.
Vera Rubin - Arquitetura de 6 chips integrados para superar Blackwell
Vera Rubin quebra as regras internas da NVIDIA. Em vez de alterar 1-2 chips por geração, desta vez a empresa redesenhou simultaneamente 6 tipos diferentes de chips, que já entraram em produção em massa. A razão é que as melhorias tradicionais de desempenho já não acompanham o crescimento de 10 vezes ao ano dos modelos AI, especialmente com a Lei de Moore a desacelerar.
A escolha da NVIDIA foi por uma “design de coordenação extrema” — inovação simultânea em todos os níveis do chip e de toda a plataforma. O processador Vera CPU integra 88 núcleos Olympus personalizados com 176 threads, suporta memória de sistema de 1,5 TB e largura de banda LPDDR5X de 1,2 TB/s — 3 vezes mais rápido que a geração Grace. A GPU Rubin atinge uma potência de inferência NVFP4 de 50 PFLOPS (5 vezes mais que Blackwell), com 336 bilhões de transistores, integrando um motor Transformer de 3ª geração com ajuste dinâmico de precisão.
Para conectar todos esses componentes, a NVIDIA implementou o ConnectX-9 (placa de rede de 800 Gb/s), BlueField-4 DPU (processador de borda para armazenamento AI), o chip de switching NVLink-6 (conectando 18 nós, suportando até 72 GPUs Rubin operando como uma unidade), e o chip de switching óptico Ethernet Spectrum-6 (512 canais, cada um a 200 Gbps).
Desempenho extraordinário: de treino a inferência
O sistema Vera Rubin NVL72 oferece números impressionantes. Na inferência NVFP4, o desempenho atinge 3,6 EFLOPS — 5 vezes mais que Blackwell. No treino NVFP4, o desempenho chega a 2,5 EFLOPS, um aumento de 3,5 vezes. A capacidade de memória LPDDR5X chega a 54 TB (3 vezes mais), enquanto a memória HBM atinge 20,7 TB com largura de banda HBM4 de 1,6 PB/s (2,8 vezes mais).
Apesar do aumento de desempenho, o número de transistores só cresceu 1,7 vezes (para 220 mil bilhões), demonstrando a eficiência na otimização da tecnologia de semicondutores da NVIDIA. Para treinar modelos de 100 trilhões de parâmetros, Vera Rubin precisa de apenas 1/4 do sistema necessário para Blackwell, e o custo para criar um Token é 1/10.
O mais importante é que o throughput (número de Tokens AI concluídos por watt e por dólar) aumentou 10 vezes em relação ao Blackwell. Para um centro de dados de gigawatt avaliado em 50 bilhões de dólares, isso significa que a capacidade de gerar receita pode dobrar — cada dólar investido gera o dobro de valor.
De 43 cabos a 0 cabos: inovação na montagem externa
Vera Rubin também trouxe avanços no design técnico. Antes, cada nó de supercomputador precisava de 43 cabos, levando 2 horas para montar e com risco de erro. Agora, o nó Vera Rubin usa 0 cabos, apenas 6 tubos de refrigeração líquida, e a montagem leva 5 minutos.
Atrás do servidor, há quase 3,2 km de cabos de cobre, 5000 fios formando a rede principal NVLink com velocidade de 400 Gbps. Jensen Huang brinca: “Talvez pese centenas de quilos, é preciso ser um CEO muito forte para fazer isso.”
Cache KV ilimitado: memória de contexto sem gargalo
Um grande problema da AI é quando diálogos longos, o “KV Cache” (memória de chave-valor — “memória de tarefas” da AI) enche a memória HBM. A solução de Vera Rubin é usar processadores BlueField-4 no chassis do servidor para gerenciar separadamente o KV Cache.
Cada nó tem 4 BlueField-4, cada um com 150 TB de memória de contexto, alocada para GPUs, com cada GPU recebendo 16 TB — enquanto as GPUs normalmente têm cerca de 1 TB de memória integrada. O mais importante é que a largura de banda permanece em 200 Gbps, sem reduzir a velocidade de transmissão de dados.
Spectrum-X: rede “dedicada para AI generativa” que economiza 5 bilhões de dólares
Para suportar dezenas de racks de servidores e dezenas de milhares de GPUs operando como uma única memória, a rede precisa ser grande, rápida e estável. Spectrum-X é a primeira plataforma de rede Ethernet “dedicada para AI generativa” do mundo, lançada pela NVIDIA, usando o processo COOP da TSMC com tecnologia de fotônica de silício, com 512 canais × 200 Gbps.
Jensen Huang calcula: um centro de dados de 50 bilhões de dólares, com Spectrum-X, aumenta o throughput em 25%, economizando cerca de 5 bilhões de dólares. “Pode-se dizer que este sistema de rede é quase ‘gratuito’.”
Segurança de computação: todos os dados criptografados durante transmissão
Vera Rubin suporta Confidential Computing — todos os dados são criptografados durante transmissão, armazenamento e processamento, incluindo canais PCIe, NVLink, comunicação CPU-GPU e outros barramentos. Empresas podem implementar seus modelos na infraestrutura externa com segurança, sem risco de vazamento de dados.
AI físico: de robótica a veículos autônomos, foco no mundo real
Jensen Huang destaca especialmente a arquitetura de “três núcleos de computação” para AI físico: computadores de treino construídos com GPUs, computadores de inferência “cerebelo” em robôs ou carros, e simuladores (Omniverse e Cosmos) que fornecem ambientes virtuais de treino.
Com base nessa arquitetura, a NVIDIA anunciou o Alpamayo — o primeiro modelo de condução autônoma com capacidade de raciocínio e inferência. Diferente do conduzir autônomo tradicional, o Alpamayo é um sistema de treino de ponta a ponta que resolve o “problema de cauda longa” do auto-condução. Diante de situações de trânsito complexas, o sistema não apenas executa comandos rígidos, mas também raciocina como um motorista humano.
O Mercedes CLA equipado com tecnologia Alpamayo será lançado oficialmente nos EUA no primeiro trimestre deste ano, seguido pelos mercados europeu e asiático. O carro foi avaliado pelo NCAP como o mais seguro do mundo, graças ao seu design de “pilha de segurança dupla” — quando o modelo AI de ponta a ponta não está confiante, o sistema muda imediatamente para um modo de segurança mais estável.
No palco, Jensen Huang convidou robôs humanóides, robôs bípedes como Boston Dynamics, Agility… para demonstrações. Ele enfatizou que o maior robô é, na verdade, a fábrica. Todos os robôs terão computadores mini Jetson, treinados no Isaac Simulator na plataforma Omniverse. A NVIDIA também está integrando essa tecnologia no ecossistema industrial, como Synopsys, Cadence, Siemens.
Modelos de código aberto: estratégia da NVIDIA
Jensen Huang elogia especialmente a comunidade de código aberto. Ele afirma que a inovação do DeepSeek V1 no ano passado impulsionou uma onda de desenvolvimento em toda a indústria. Nos slides, os modelos Kimi K2 e DeepSeek V3.2 aparecem como os principais de código aberto, respectivamente.
Embora os modelos de código aberto atualmente fiquem cerca de 6 meses atrás dos líderes, novos modelos surgem a cada 6 meses. Essa velocidade de evolução faz com que startups, grandes empresas e pesquisadores não queiram perder, incluindo a própria NVIDIA.
Desta vez, eles não vendem apenas “pás” ou placas gráficas; a NVIDIA constrói supercomputadores DGX Cloud, desenvolve modelos avançados como La Proteina (síntese de proteínas) e OpenFold 3. O ecossistema de modelos de código aberto da NVIDIA abrange biomedicina, AI físico, agentes, robôs e veículos autônomos.
Muitos modelos de código aberto do grupo Nemotron da NVIDIA também merecem destaque. Incluem modelos de voz, multimodalidade, geração de conteúdo e segurança, que alcançaram excelentes resultados em várias classificações e estão sendo adotados por muitas empresas.
Futuro: estratégia do mundo virtual ao mundo físico
Antes, a NVIDIA fabricava chips para o mundo virtual. Agora, Jensen Huang claramente foca em AI física, com veículos autônomos e robôs humanóides como representantes, para avançar no mundo físico real, numa competição mais acirrada.
Em meio às controvérsias sobre a bolha AI, além de apresentar a plataforma de supercomputação Vera Rubin para atender à demanda de cálculo, Jensen Huang investe bastante em aplicações e software. O objetivo é mostrar como a AI vai transformar tudo — desde condução mais segura até robôs com raciocínio.
No final, só quando a batalha acontecer no mundo real, as armas poderão continuar a ser vendidas.