أطلقت شبكة Akash خدمة AkashML، التي تقدم واجهات برمجة تطبيقات متوافقة مع OpenAI، وصول عالمي بزمن استجابة منخفض، وتوفير في التكاليف يصل حتى 85% لنشر نماذج اللغة الكبيرة (LLMs).
شبكة Akash، وهي سوق للحوسبة السحابية، قدمت أول خدمة استدلال ذكاء اصطناعي مُدارة بالكامل تعمل بالكامل على وحدات معالجة الرسومات اللامركزية. هذه الخدمة الجديدة تزيل التحديات التشغيلية التي كان يواجهها المطورون سابقاً في إدارة استدلال الذكاء الاصطناعي على مستوى الإنتاج عبر Akash، مما يوفر مزايا الحوسبة السحابية اللامركزية بدون الحاجة لإدارة البنية التحتية بشكل مباشر.
عند الإطلاق، تقدم AkashML استدلالاً مُداراً لنماذج تشمل Llama 3.3-70B، DeepSeek V3، و Qwen3-30B-A3B، وهي متاحة للنشر الفوري وقابلة للتوسع عبر أكثر من 65 مركز بيانات حول العالم. يتيح هذا النظام إجراء الاستدلال فورياً على مستوى العالم، تسعيراً متوقعاً حسب عدد الرموز (pay-per-token)، ويعزز إنتاجية المطورين.
دعمت Akash المطورين والشركات الناشئة في مجال الذكاء الاصطناعي منذ صعود تطبيقات الذكاء الاصطناعي بعد التطورات الأولية لـ OpenAI. خلال السنوات الماضية، تعاون فريق Akash Core مع عملاء مثل brev.dev (التي استحوذت عليها Nvidia)، VeniceAI، و Prime Intellect لإطلاق منتجات تخدم عشرات الآلاف من المستخدمين. وبينما كان هؤلاء المستخدمون الأوائل يمتلكون كفاءة تقنية عالية وقادرين على إدارة البنية التحتية بأنفسهم، أشاروا إلى تفضيلهم للوصول عبر واجهات برمجة التطبيقات دون الحاجة للتعامل مع الأنظمة الأساسية. هذا المدخل قاد إلى تطوير نسخة غير عامة من AkashML لمستخدمين مختارين، بالإضافة إلى إنشاء AkashChat و AkashChat API، مما مهد الطريق للإطلاق العام لـ AkashML.
AkashML لتخفيض تكاليف نشر LLMs حتى 85%
الحل الجديد يعالج عدة تحديات رئيسية يواجهها المطورون والشركات عند نشر نماذج اللغة الكبيرة. غالباً ما تتضمن الحلول السحابية التقليدية تكاليف مرتفعة، حيث تتجاوز الحجوزات لنموذج 70B مبلغ 0.13 دولار لكل إدخال و0.40 دولار لكل إخراج لكل مليون رمز، بينما تستفيد AkashML من المنافسة في السوق لتقليل التكاليف بنسبة 70-85%. كما أن العبء التشغيلي يشكل عائقاً آخر، إذ يتطلب تعبئة النماذج، وتكوين خوادم vLLM أو TGI، وإدارة التقسيم، والتعامل مع حالات الفشل أسابيع من العمل الهندسي؛ بينما تبسط AkashML ذلك بواجهات برمجة تطبيقات متوافقة مع OpenAI تتيح الترحيل خلال دقائق دون الحاجة لتعديل الكود.
الزمن المنخفض للاستجابة يمثل أيضاً تحدياً مع المنصات المركزية التي تتطلب مرور الطلبات لمسافات طويلة. توجه AkashML الحركة إلى أقرب مركز بيانات من بين أكثر من 80 مركزاً عالمياً، مقدمة أزمنة استجابة أقل من 200 مللي ثانية مناسبة للتطبيقات الفورية. كما أن الإغلاق على مورد واحد (Vendor lock-in) يحد من مرونة المستخدمين وتحكمهم في النماذج والبيانات؛ تستخدم AkashML فقط نماذج مفتوحة مثل Llama و DeepSeek و Qwen، ما يمنح المستخدمين تحكماً كاملاً في الإصدارات، التحديثات، والإدارة. كما يتم التغلب على تحديات التوسع عبر التوسعة التلقائية باستخدام موارد GPU اللامركزية، مع الحفاظ على جاهزية بنسبة 99% وإزالة حدود السعة وتجنب ارتفاع الأسعار المفاجئ.
تم تصميم AkashML لسهولة الانضمام وتحقيق عائد فوري. يحصل المستخدمون الجدد على $100 أرصدة رمزية في AI لتجربة جميع النماذج المدعومة عبر الـ Playground أو API. نقطة نهاية API واحدة تدعم جميع النماذج وتتكامل مع أطر عمل مثل LangChain و Haystack أو الوكلاء المخصصين. التسعير شفاف ومحدد لكل نموذج، ما يمنع التكاليف غير المتوقعة. النشرات عالية التأثير يمكن أن تحصل على ظهور عبر Akash Star، ومن المتوقع أن تقلل الترقيات القادمة للشبكة مثل BME، الأجهزة الافتراضية، والحوسبة السرية من التكاليف أكثر. أبلغ المستخدمون الأوائل عن انخفاض في التكاليف بين ثلاثة إلى خمسة أضعاف وثبات في زمن الاستجابة عالمياً أقل من 200 مللي ثانية، مما يخلق دورة متزايدة من انخفاض التكاليف، زيادة الاستخدام، وتوسيع مشاركة المزودين.
البدء سهل: يمكن للمستخدمين إنشاء حساب مجاني على playground.akashml.com في أقل من دقيقتين، استكشاف مكتبة النماذج مثل Llama 3.3-70B و DeepSeek V3 و Qwen3-30B-A3B، ورؤية الأسعار بشكل فوري. يمكن طلب نماذج إضافية مباشرة من المنصة. يمكن للمستخدمين اختبار النماذج فوراً في الـ Playground أو عبر الـ API، مراقبة الاستخدام، زمن الاستجابة، والإنفاق عبر لوحة التحكم، والتوسع للإنتاج مع تثبيت المناطق والتوسعة التلقائية.
لا تزال الاستدلالات المركزية مكلفة وبطيئة ومقيدة، في حين توفر AkashML وصولاً لامركزياً مُداراً بالكامل وموجهاً عبر API إلى أفضل النماذج المفتوحة بأسعار تنافسية في السوق. يمكن للمطورين والشركات الراغبين في تقليل تكاليف الاستدلال حتى 80% البدء في استخدام المنصة على الفور.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تطلق شبكة Akash خدمة AkashML، أول خدمة استدلال ذكاء اصطناعي مُدارة بالكامل على وحدات معالجة الرسومات اللامركزية
باختصار
أطلقت شبكة Akash خدمة AkashML، التي تقدم واجهات برمجة تطبيقات متوافقة مع OpenAI، وصول عالمي بزمن استجابة منخفض، وتوفير في التكاليف يصل حتى 85% لنشر نماذج اللغة الكبيرة (LLMs).
شبكة Akash، وهي سوق للحوسبة السحابية، قدمت أول خدمة استدلال ذكاء اصطناعي مُدارة بالكامل تعمل بالكامل على وحدات معالجة الرسومات اللامركزية. هذه الخدمة الجديدة تزيل التحديات التشغيلية التي كان يواجهها المطورون سابقاً في إدارة استدلال الذكاء الاصطناعي على مستوى الإنتاج عبر Akash، مما يوفر مزايا الحوسبة السحابية اللامركزية بدون الحاجة لإدارة البنية التحتية بشكل مباشر.
عند الإطلاق، تقدم AkashML استدلالاً مُداراً لنماذج تشمل Llama 3.3-70B، DeepSeek V3، و Qwen3-30B-A3B، وهي متاحة للنشر الفوري وقابلة للتوسع عبر أكثر من 65 مركز بيانات حول العالم. يتيح هذا النظام إجراء الاستدلال فورياً على مستوى العالم، تسعيراً متوقعاً حسب عدد الرموز (pay-per-token)، ويعزز إنتاجية المطورين.
دعمت Akash المطورين والشركات الناشئة في مجال الذكاء الاصطناعي منذ صعود تطبيقات الذكاء الاصطناعي بعد التطورات الأولية لـ OpenAI. خلال السنوات الماضية، تعاون فريق Akash Core مع عملاء مثل brev.dev (التي استحوذت عليها Nvidia)، VeniceAI، و Prime Intellect لإطلاق منتجات تخدم عشرات الآلاف من المستخدمين. وبينما كان هؤلاء المستخدمون الأوائل يمتلكون كفاءة تقنية عالية وقادرين على إدارة البنية التحتية بأنفسهم، أشاروا إلى تفضيلهم للوصول عبر واجهات برمجة التطبيقات دون الحاجة للتعامل مع الأنظمة الأساسية. هذا المدخل قاد إلى تطوير نسخة غير عامة من AkashML لمستخدمين مختارين، بالإضافة إلى إنشاء AkashChat و AkashChat API، مما مهد الطريق للإطلاق العام لـ AkashML.
AkashML لتخفيض تكاليف نشر LLMs حتى 85%
الحل الجديد يعالج عدة تحديات رئيسية يواجهها المطورون والشركات عند نشر نماذج اللغة الكبيرة. غالباً ما تتضمن الحلول السحابية التقليدية تكاليف مرتفعة، حيث تتجاوز الحجوزات لنموذج 70B مبلغ 0.13 دولار لكل إدخال و0.40 دولار لكل إخراج لكل مليون رمز، بينما تستفيد AkashML من المنافسة في السوق لتقليل التكاليف بنسبة 70-85%. كما أن العبء التشغيلي يشكل عائقاً آخر، إذ يتطلب تعبئة النماذج، وتكوين خوادم vLLM أو TGI، وإدارة التقسيم، والتعامل مع حالات الفشل أسابيع من العمل الهندسي؛ بينما تبسط AkashML ذلك بواجهات برمجة تطبيقات متوافقة مع OpenAI تتيح الترحيل خلال دقائق دون الحاجة لتعديل الكود.
الزمن المنخفض للاستجابة يمثل أيضاً تحدياً مع المنصات المركزية التي تتطلب مرور الطلبات لمسافات طويلة. توجه AkashML الحركة إلى أقرب مركز بيانات من بين أكثر من 80 مركزاً عالمياً، مقدمة أزمنة استجابة أقل من 200 مللي ثانية مناسبة للتطبيقات الفورية. كما أن الإغلاق على مورد واحد (Vendor lock-in) يحد من مرونة المستخدمين وتحكمهم في النماذج والبيانات؛ تستخدم AkashML فقط نماذج مفتوحة مثل Llama و DeepSeek و Qwen، ما يمنح المستخدمين تحكماً كاملاً في الإصدارات، التحديثات، والإدارة. كما يتم التغلب على تحديات التوسع عبر التوسعة التلقائية باستخدام موارد GPU اللامركزية، مع الحفاظ على جاهزية بنسبة 99% وإزالة حدود السعة وتجنب ارتفاع الأسعار المفاجئ.
تم تصميم AkashML لسهولة الانضمام وتحقيق عائد فوري. يحصل المستخدمون الجدد على $100 أرصدة رمزية في AI لتجربة جميع النماذج المدعومة عبر الـ Playground أو API. نقطة نهاية API واحدة تدعم جميع النماذج وتتكامل مع أطر عمل مثل LangChain و Haystack أو الوكلاء المخصصين. التسعير شفاف ومحدد لكل نموذج، ما يمنع التكاليف غير المتوقعة. النشرات عالية التأثير يمكن أن تحصل على ظهور عبر Akash Star، ومن المتوقع أن تقلل الترقيات القادمة للشبكة مثل BME، الأجهزة الافتراضية، والحوسبة السرية من التكاليف أكثر. أبلغ المستخدمون الأوائل عن انخفاض في التكاليف بين ثلاثة إلى خمسة أضعاف وثبات في زمن الاستجابة عالمياً أقل من 200 مللي ثانية، مما يخلق دورة متزايدة من انخفاض التكاليف، زيادة الاستخدام، وتوسيع مشاركة المزودين.
البدء سهل: يمكن للمستخدمين إنشاء حساب مجاني على playground.akashml.com في أقل من دقيقتين، استكشاف مكتبة النماذج مثل Llama 3.3-70B و DeepSeek V3 و Qwen3-30B-A3B، ورؤية الأسعار بشكل فوري. يمكن طلب نماذج إضافية مباشرة من المنصة. يمكن للمستخدمين اختبار النماذج فوراً في الـ Playground أو عبر الـ API، مراقبة الاستخدام، زمن الاستجابة، والإنفاق عبر لوحة التحكم، والتوسع للإنتاج مع تثبيت المناطق والتوسعة التلقائية.
لا تزال الاستدلالات المركزية مكلفة وبطيئة ومقيدة، في حين توفر AkashML وصولاً لامركزياً مُداراً بالكامل وموجهاً عبر API إلى أفضل النماذج المفتوحة بأسعار تنافسية في السوق. يمكن للمطورين والشركات الراغبين في تقليل تكاليف الاستدلال حتى 80% البدء في استخدام المنصة على الفور.