概要
Akash Networkは、OpenAI互換のAPI、グローバルな低遅延アクセス、最大85%のコスト削減を実現するLLMデプロイ向け「AkashML」をリリースしました。
クラウドコンピューティングマーケットプレイスのAkash Networkは、完全に分散型GPU上で稼働する初のフルマネージドAI推論サービスを発表しました。この新サービスにより、Akash上でプロダクショングレードの推論を管理する際にこれまで開発者が直面していた運用上の課題が解消され、インフラ運用の手間なく分散型クラウドコンピューティングの利点を享受できます。
ローンチ時点で、AkashMLはLlama 3.3-70B、DeepSeek V3、Qwen3-30B-A3Bなどのモデルのマネージド推論を提供しており、即時デプロイが可能で、世界65ヶ所以上のデータセンターでスケールできます。この仕組みにより、瞬時のグローバル推論、予測可能なトークン単位の従量課金、開発生産性の向上が実現されます。
Akashは、OpenAIによるAIアプリケーションの進展以降、初期のAI開発者やスタートアップを支援してきました。過去数年にわたり、Akash Coreチームはbrev.dev((Nvidiaに買収))、VeniceAI、Prime Intellectなどのクライアントと協力し、数万人規模のユーザーにサービスを提供するプロダクトを立ち上げてきました。これらの初期導入者は技術的スキルが高く、インフラの管理も自力で行えましたが、フィードバックとして、より基盤部分を扱わずにAPIベースでアクセスしたいという要望が挙がっていました。これを受けて、一部ユーザー向けの非公開AkashMLバージョンや、AkashChat・AkashChat APIの開発が進み、AkashMLの一般公開へと繋がりました。
新ソリューションは、大規模言語モデル導入時の開発者・企業が直面する主要課題を解決します。従来のクラウドでは、70Bモデル用のリザーブドインスタンスで入力100万トークンあたり$0.13、出力100万トークンあたり$0.40以上かかることが多いですが、AkashMLはマーケットプレイスの競争を活用し、コストを70~85%削減します。さらに、モデルのパッケージ化、vLLMやTGIサーバーの設定、シャード管理やフェイルオーバーの対応など、運用負担も大きく、数週間のエンジニアリングが必要でした。AkashMLはOpenAI互換APIにより、コード変更なしで数分で移行可能に簡素化しています。
また、集中型プラットフォームではリクエストが長距離を移動するため遅延も問題となりますが、AkashMLは世界80ヶ所以上のデータセンターの中で最も近い拠点にトラフィックを誘導し、リアルタイム用途にも適した200ms未満の応答速度を実現しています。ベンダーロックインによるモデルやデータの柔軟性・管理性の制限も、AkashMLではLlama、DeepSeek、Qwenなどオープンモデルのみを採用し、ユーザーにバージョン管理・アップグレード・ガバナンスの全権限を提供します。分散型GPU資源による自動スケーリングで99%の稼働率を維持し、キャパシティ制限や急激な価格高騰も回避できます。
AkashMLは迅速な導入と即時ROIを重視しています。新規ユーザーには、PlaygroundやAPIで全モデルを試せる$100 分のAIトークンクレジットが付与されます。1つのAPIエンドポイントですべてのモデルに対応し、LangChainやHaystack、独自エージェントなどのフレームワークとも統合可能です。価格は透明かつモデルごとに明確で、予期せぬコスト発生を防止します。インパクトの大きい導入事例はAkash Starで紹介され、今後のネットワークアップグレード(BME、仮想マシン、機密コンピューティング等)によるさらなるコスト削減も期待できます。初期ユーザーからは、コストが3~5倍削減され、グローバルなレイテンシーも200ms未満で安定しているとの報告があり、コスト低減→利用拡大→提供者増加の好循環が生まれています。
利用開始は簡単で、playground.akashml.comで2分以内に無料アカウントを作成し、Llama 3.3-70B、DeepSeek V3、Qwen3-30B-A3Bなどのモデルライブラリを確認、料金も事前に確認できます。他のモデル追加リクエストもプラットフォームから直接可能です。PlaygroundやAPIで即時にモデルをテストでき、ダッシュボードで利用状況・レイテンシー・支出をモニタリング、リージョン固定や自動スケールによる本番展開も可能です。
中央集権型の推論は依然として高コスト・低速・制約が多い一方、AkashMLはフルマネージドかつAPIファーストな分散型オープンモデルアクセスを、マーケットプレイス型価格で提供します。推論コストを最大80%削減したい開発者・企業は、今すぐプラットフォームの利用を開始できます。
73.71K 人気度
27.64K 人気度
60.6K 人気度
98.33K 人気度
32.81K 人気度
Akash Network、分散型GPU上で初の完全管理型AI推論サービス「AkashML」をローンチ
概要
Akash Networkは、OpenAI互換のAPI、グローバルな低遅延アクセス、最大85%のコスト削減を実現するLLMデプロイ向け「AkashML」をリリースしました。
クラウドコンピューティングマーケットプレイスのAkash Networkは、完全に分散型GPU上で稼働する初のフルマネージドAI推論サービスを発表しました。この新サービスにより、Akash上でプロダクショングレードの推論を管理する際にこれまで開発者が直面していた運用上の課題が解消され、インフラ運用の手間なく分散型クラウドコンピューティングの利点を享受できます。
ローンチ時点で、AkashMLはLlama 3.3-70B、DeepSeek V3、Qwen3-30B-A3Bなどのモデルのマネージド推論を提供しており、即時デプロイが可能で、世界65ヶ所以上のデータセンターでスケールできます。この仕組みにより、瞬時のグローバル推論、予測可能なトークン単位の従量課金、開発生産性の向上が実現されます。
Akashは、OpenAIによるAIアプリケーションの進展以降、初期のAI開発者やスタートアップを支援してきました。過去数年にわたり、Akash Coreチームはbrev.dev((Nvidiaに買収))、VeniceAI、Prime Intellectなどのクライアントと協力し、数万人規模のユーザーにサービスを提供するプロダクトを立ち上げてきました。これらの初期導入者は技術的スキルが高く、インフラの管理も自力で行えましたが、フィードバックとして、より基盤部分を扱わずにAPIベースでアクセスしたいという要望が挙がっていました。これを受けて、一部ユーザー向けの非公開AkashMLバージョンや、AkashChat・AkashChat APIの開発が進み、AkashMLの一般公開へと繋がりました。
AkashML、LLMデプロイコストを最大85%削減
新ソリューションは、大規模言語モデル導入時の開発者・企業が直面する主要課題を解決します。従来のクラウドでは、70Bモデル用のリザーブドインスタンスで入力100万トークンあたり$0.13、出力100万トークンあたり$0.40以上かかることが多いですが、AkashMLはマーケットプレイスの競争を活用し、コストを70~85%削減します。さらに、モデルのパッケージ化、vLLMやTGIサーバーの設定、シャード管理やフェイルオーバーの対応など、運用負担も大きく、数週間のエンジニアリングが必要でした。AkashMLはOpenAI互換APIにより、コード変更なしで数分で移行可能に簡素化しています。
また、集中型プラットフォームではリクエストが長距離を移動するため遅延も問題となりますが、AkashMLは世界80ヶ所以上のデータセンターの中で最も近い拠点にトラフィックを誘導し、リアルタイム用途にも適した200ms未満の応答速度を実現しています。ベンダーロックインによるモデルやデータの柔軟性・管理性の制限も、AkashMLではLlama、DeepSeek、Qwenなどオープンモデルのみを採用し、ユーザーにバージョン管理・アップグレード・ガバナンスの全権限を提供します。分散型GPU資源による自動スケーリングで99%の稼働率を維持し、キャパシティ制限や急激な価格高騰も回避できます。
AkashMLは迅速な導入と即時ROIを重視しています。新規ユーザーには、PlaygroundやAPIで全モデルを試せる$100 分のAIトークンクレジットが付与されます。1つのAPIエンドポイントですべてのモデルに対応し、LangChainやHaystack、独自エージェントなどのフレームワークとも統合可能です。価格は透明かつモデルごとに明確で、予期せぬコスト発生を防止します。インパクトの大きい導入事例はAkash Starで紹介され、今後のネットワークアップグレード(BME、仮想マシン、機密コンピューティング等)によるさらなるコスト削減も期待できます。初期ユーザーからは、コストが3~5倍削減され、グローバルなレイテンシーも200ms未満で安定しているとの報告があり、コスト低減→利用拡大→提供者増加の好循環が生まれています。
利用開始は簡単で、playground.akashml.comで2分以内に無料アカウントを作成し、Llama 3.3-70B、DeepSeek V3、Qwen3-30B-A3Bなどのモデルライブラリを確認、料金も事前に確認できます。他のモデル追加リクエストもプラットフォームから直接可能です。PlaygroundやAPIで即時にモデルをテストでき、ダッシュボードで利用状況・レイテンシー・支出をモニタリング、リージョン固定や自動スケールによる本番展開も可能です。
中央集権型の推論は依然として高コスト・低速・制約が多い一方、AkashMLはフルマネージドかつAPIファーストな分散型オープンモデルアクセスを、マーケットプレイス型価格で提供します。推論コストを最大80%削減したい開発者・企業は、今すぐプラットフォームの利用を開始できます。