شركة بين كيو نيوز، وفقًا لمراقبة 1M AI News، أطلقت شركة إنفيديا نموذج لغة كبير مفتوح المصدر باسم Nemotron 3 Super، مصمم لسيناريوهات التطبيقات متعددة الوكيلات الذكية. يبلغ إجمالي عدد معلمات النموذج 120 مليار، ويستخدم بنية مزيجة من Mamba-Transformer MoE، حيث يتم تفعيل 120 مليار معلمة فقط لكل رمز أثناء الاستدلال. التقنية الأساسية “MoE الكامن” (Latent MoE) تقوم بضغط رموز الإدخال إلى مساحة كامن منخفضة الرتبة ثم توجهها إلى شبكة الخبراء، مما يتيح تفعيل 4 خبراء في وقت واحد بتكلفة حسابية واحدة، مع زيادة سرعة الاستدلال بمقدار 5 مرات مقارنة بالجيل السابق Nemotron Super. يدعم النموذج بشكل أصلي نافذة سياق تصل إلى مليون رمز، مما يجعله مناسبًا للوكيلات الذكية المستقلة التي تتطلب الحفاظ على حالة سير العمل لفترات طويلة. في اختبار معيار PinchBench الذي يقيم عبء عمل الوكيلات الذكية، حقق Nemotron 3 Super درجة 85.6%، وهو أعلى مستوى بين النماذج المفتوحة المماثلة. كما أطلقت إنفيديا مجموعة بيانات تدريبية تتجاوز 10 تريليون رمز، و15 بيئة تدريب وتقويم معزز، بموجب ترخيص NVIDIA Nemotron Open Model License. تم نشر النموذج على منصات مثل Hugging Face وbuild.nvidia.com وPerplexity وOpenRouter، ويدعم النشر عبر خدمات السحابة مثل Google Cloud وOracle وAWS Bedrock وAzure. وقد تبنته شركات مثل Perplexity وCodeRabbit وCadence وDassault Systèmes وSiemens بشكل مبكر.