Gate News berita, pada 12 Maret, NVIDIA merilis model bahasa besar sumber terbuka Nemotron 3 Super, dirancang untuk aplikasi multi-agen cerdas. Model ini memiliki total parameter sebanyak 120 miliar, menggunakan arsitektur campuran Mamba-Transformer MoE, dengan hanya 12 miliar parameter yang aktif saat inferensi untuk setiap token. Teknologi inti “Latent MoE” yang mengompresi embedding token ke ruang laten berperingkat rendah lalu mengarahkannya ke jaringan ahli, memungkinkan aktivasi 4 ahli secara bersamaan dengan biaya komputasi satu ahli, meningkatkan throughput inferensi hingga 5 kali lipat dibandingkan generasi sebelumnya Nemotron Super. Model ini secara native mendukung jendela konteks sebanyak 1 juta token, cocok untuk agen cerdas yang membutuhkan pemeliharaan status alur kerja dalam waktu lama. Dalam pengujian benchmark PinchBench yang menilai beban kerja agen cerdas, Nemotron 3 Super meraih skor 85,6%, tertinggi di antara model sumber terbuka sejenis. NVIDIA juga merilis dataset pelatihan lebih dari 100 triliun token, 15 lingkungan pelatihan reinforcement learning, dan skema evaluasi, dengan lisensi NVIDIA Nemotron Open Model License. Model ini sudah tersedia di platform Hugging Face, build.nvidia.com, Perplexity, OpenRouter, dan dapat di-deploy melalui layanan cloud seperti Google Cloud, Oracle, AWS Bedrock, Azure. Perplexity, CodeRabbit, Cadence, Dassault Systèmes, Siemens, dan perusahaan lain telah mengadopsinya terlebih dahulu.