إنفيديا تفتح مصدر نموذج الذكاء الاصطناعي Nemotron 3 Super بسعة 120 مليار، مع زيادة في أعلى معدل إنتاجية بمقدار 5 أضعاف

أخبار Gate News، في 12 مارس، أطلقت شركة إنفيديا نموذج اللغة الكبير المفتوح المصدر Nemotron 3 Super، المصمم خصيصًا لسيناريوهات التطبيقات متعددة الوكيل. يبلغ إجمالي عدد المعلمات في النموذج 120 مليار، ويستخدم بنية مزيجة من Mamba-Transformer MoE، حيث يتم تفعيل 120 مليار معلمة فقط لكل رمز أثناء الاستدلال. التقنية الأساسية “MoE الكامن” (Latent MoE) تقوم بضغط رموز الإدخال إلى مساحة كامن منخفضة المرتبة ثم توجهها إلى شبكة الخبراء، مما يتيح تفعيل 4 خبراء في وقت واحد بتكلفة حسابية لخبير واحد، مع زيادة سرعة الاستدلال حتى 5 أضعاف مقارنة بالجيل السابق Nemotron Super. يدعم النموذج بشكل أصلي نافذة سياق تصل إلى مليون رمز، مما يجعله مناسبًا للوكيلات الذكية المستقلة التي تحتاج إلى الحفاظ على حالة سير العمل لفترات طويلة. في اختبار معيار PinchBench لتقييم عبء عمل الوكيل، حصل Nemotron 3 Super على درجة 85.6%، وهي أعلى درجة بين النماذج المفتوحة المماثلة. كما أطلقت إنفيديا مجموعة بيانات تدريبية تتجاوز 10 تريليون رمز، و15 بيئة تدريب وتقويم معزز، بموجب ترخيص NVIDIA Nemotron Open Model License. النموذج متاح الآن على منصات Hugging Face وbuild.nvidia.com وPerplexity وOpenRouter، ويدعم النشر عبر خدمات السحابة مثل Google Cloud وOracle وAWS Bedrock وAzure. وقد تبنته شركات مثل Perplexity وCodeRabbit وCadence وDassault Systèmes وSiemens بشكل مبكر.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات