وفقًا لمراقبة 1M AI News، أطلقت قاعدة البيانات المفتوحة للمتجهات Chroma نموذج البحث الذكي Context-1، وهو نموذج بحث بمليونين من المعلمات مخصص لمهام الاستعلام المتعدد الجولات. تم إصدار أوزان النموذج بموجب ترخيص Apache 2.0، كما تم نشر شفرة خط أنابيب توليد البيانات التركيبية بشكل متزامن.
يتمركز Context-1 كوكيل فرعي للاسترجاع (retrieval subagent): فهو لا يجيب مباشرة على الأسئلة، بل يعيد مجموعة من المستندات الداعمة للنموذج الاستنتاجي في المرحلة التالية من خلال عمليات بحث متعددة الجولات. التقنية الأساسية هي “السياق ذاتي التحرير” (self-editing context)، حيث يختار النموذج بشكل نشط حذف أجزاء غير ذات صلة من المستندات أثناء عملية البحث، مما يتيح مساحة للبحث التالي ضمن نافذة سياق محدودة، ويمنع تدهور الأداء الناتج عن تضخم السياق.
يتم التدريب على مرحلتين: أولاً، يتم استخدام نماذج كبيرة مثل Kimi K2.5 لإنشاء مسارات SFT كإشراف للتدريب المسبق، ثم يتم تحسين النموذج عبر التعلم المعزز (باستخدام خوارزمية CISPO) على أكثر من 8000 مهمة تركيبية. تم تصميم المكافآت باستخدام آلية منهجية، حيث يشجع الاسترجاع المبكر على استكشاف واسع، ثم يتجه تدريجيًا نحو تعزيز الدقة والاختيار الانتقائي. النموذج الأساسي هو gpt-oss-20b، مع تكييف LoRA، ويعمل أثناء الاستنتاج باستخدام تقنية MXFP4 للتكميم على منصة B200، مع معدل إنتاج يتراوح بين 400 و500 رمز في الثانية.
على أربعة معايير مخصصة من قبل Chroma (الويب، المالية، القانونية، البريد الإلكتروني) ومعايير عامة (BrowseComp-Plus، SealQA، FRAMES، HotpotQA)، حققت نسخة النموذج ذات الأربع مسارات المتوازية من Context-1 نتائج مماثلة أو قريبة من نماذج رائدة مثل GPT-5.2، Opus 4.5، وSonnet 4.5، حيث وصلت إلى معدل نجاح في الإجابة النهائية يبلغ 0.96 على سبيل المثال في BrowseComp-Plus (مقابل 0.87 لـ Opus 4.5 و0.82 لـ GPT-5.2)، مع استهلاك أقل بكثير من التكاليف والوقت مقارنة بهذه النماذج. ومن الجدير بالذكر أن النموذج تم تدريبه فقط على بيانات الويب، القانونية، والمالية، لكنه أظهر أداءً ملحوظًا أيضًا في مجال البريد الإلكتروني غير المشترك في التدريب، مما يدل على قدرة النقل عبر المجالات في مهارات البحث.