قام DeepSeek في 8 أبريل بإرسال اختبار بثلاثة أوضاع بشكلٍ هادئ: الوضع السريع والوضع الخبير ووضع الرؤية، مع تقسيم المسارات الثلاثة، وقد اعتبرته المجتمعات حِزمًا نهائيًا للتسخين قبل الإطلاق الرسمي لـ V4.
(خلفية سريعة: رفض DeepSeek شركة NVIDIA ووجّه بحثًا نحو هواوي! علي، بايت دَنس، وتينسنت يتسابقون لشراء رقاقة昇腾 950PR)
(إضافة خلفية: إلى أي مدى وصل “حرب الاختراق” الخاصة بإعلان DeepSeek V4 الاستغناء عن NVIDIA؟ “استقلال الحوسبة” في الذكاء الاصطناعي الصيني)
فهرس المقالة
التبديل
في فجر 8 أبريل، دفع موقع DeepSeek والتطبيق تحديثًا متزامنًا، فأصبحت الواجهة تضم خيارين/ثلاثة أوضاع. هذا ليس إطلاقًا رسميًا مكتمل الوظائف، بل اختبارٌ مُسبق لبعض المستخدمين، لكن ما إن خرجت الرسالة حتى ربطها المجتمع فورًا بجدول إصدار V4.
التقسيم بين الأوضاع الثلاثة واضح تمامًا:
الوضع السريع (Fast Mode) هو خيار الإعداد الافتراضي، موجّه للحوار اليومي والاستجابات الفورية، ويستخدم نموذجًا خفيفًا بزمن استجابة منخفض مع عدم وجود قيود على الحدّ الأقصى للاستخدام. لكن دعم المرفقات يقتصر على استخراج النص فقط، ولا يقوم بمعالجة الصور أو الصوتيات.
الوضع الخبير (Expert Mode) مخصص لمهام الاستدلال المعقد، ويدعم وضع التفكير العميق. تُظهر اختبارات المجتمع أن الاستدلال الواحد قد يفعّل أكثر من 500 ثانية من وقت التفكير. هذا الوضع يتطلب انتظارًا خلال أوقات الذروة، ولا يدعم رفع المرفقات والرفع الصوتي. حاليًا ما زال في مرحلة الاختبار ولم يتم إتاحته لجميع المستخدمين.
وضع الرؤية (Vision Mode) هو الأكثر دلالة بين الأوضاع الثلاثة. هذه هي المرة الأولى التي تدعم فيها DeepSeek إدخالًا بصريًا بشكل رسمي على مستوى المستهلكين؛ فإمكانات الوسائط المتعددة لم تعد مجرد خيار تقني على مستوى واجهات البرمجة (API)، بل أصبحت مباشرة موجهة للمستخدمين العاديين.
المنطق العام هو: تقسيم استهلاك الحوسبة حسب نوع المهمة—المهام عالية التردد والمنخفضة الطلب تمر عبر المسار السريع، والاستدلال عالي المتطلبات عبر مسار الخبير، وإدخال النص والصورة عبر مسار الرؤية. تصميم هذه الفكرة بحد ذاته ليس جديدًا، لكن DeepSeek هي أول نموذج رائد صيني يقوم بذلك على مستوى منتجات المستهلكين.
ركز النقاش في المجتمع سريعًا على نقطة تقنية مثيرة للشك.
اكتشف بعض المستخدمين الذين أجروا الاختبار أن جودة إجابات وضع الخبير تتحسن مقارنةً بالوضع السريع بشكل طفيف فقط، وأن الفارق ليس كبيرًا كما كان متوقعًا. والأهم من ذلك، أن بعض المستخدمين سألوا مباشرة نموذج الذكاء نفسه، وجاءت الإجابة: إن بنية الطبقات الأساسية للوضعين متشابهة، وأن الاختلاف يكمن أساسًا في تعديل system prompt.
إذا كان هذا صحيحًا، فإن “وضع الخبير” يكون جوهره أقرب إلى موجه نظام مُعايَر/مُضبط بدل كونه نموذج استدلال مستقلًا.
لم يقدم DeepSeek ردًا رسميًا على هذا الادعاء. ومن منظور خارجي، توجد قراءتان محتملتان: إما أنه مجرد إعداد مؤقت لمرحلة الإتاحة التدريجية (gray scale)، وأن تقسيم النماذج الحقيقي لن يتم تفعيله إلا بعد إطلاق V4؛ أو أن الغرض من التصميم الطبقي أساسًا لم يكن تبديل مستوى النموذج، بل التحكم في استهلاك الحوسبة عبر ميزانيات استدلال وإعدادات نظام مختلفة، بما يسمح لمزيد من المستخدمين باستخدام الخدمة في الوقت نفسه.
واجهة الأوضاع الثلاثة نفسها هي ترقية على مستوى تجربة المستخدم. لكن V4 التي تتصل بها في الخلفية هي الوزن الحقيقي لهذه التحديث.
أكد فريق DeepSeek أن V4 تم تأجيله إلى أبريل، والسبب الرئيسي هو أعمال التكييف العميق لرقائق هواوي昇腾. المواصفات التقنية المعروفة تبدو جريئة للغاية: حجم 1 تريليون معلمة، اختبار قدرة الترميز SWE-bench بنسبة اجتياز 81%، تسعير API قدره $0.30/MTok، إضافةً إلى تقنية ذاكرة طويلة الأمد مُطوَّرة ذاتيًا Engram: وهي آلية ذاكرة شرطية، تجعل النموذج يحتفظ بتفضيلات المستخدم والسياق عبر المحادثات.
لكن أكثر ما يستحق الملاحظة في V4، هو اختيار بنية الحوسبة الأساسية.
إذا تم تنفيذ V4 فعلًا بالكامل على رقائق محلية مثل هواوي昇腾 وبحسب ما يُذكر أيضًا寒武纪 وغيرها، فستصبح أول نموذج لغوي كبير (LLM) مُتداول على نطاق واسع في جانب المستهلكين، يتجاوز بالكامل منظومة NVIDIA CUDA السائدة (ومع ذلك، وبسبب أننا نعلم بوجود كمية كبيرة من رقائق NVIDIA مُهرَّبة إلى داخل الصين، فإن الصورة الواقعية من الخلف أكثر تعقيدًا).