Fireworks AI は、兆のパラメータを含むフルパラメータ訓練に対応したトレーニングプラットフォームを提供開始しました

MarketWhisper

Fireworks AI訓練平台

Fireworks AI は Fireworks Training のプレビュー版を公開し、同社のポジショニングを「純粋な推論基盤インフラ提供者」から「訓練+デプロイ」統合型プラットフォームへと拡張しました。前 Meta のエンジニアで、PyTorch の構築に携わった林喬(Lin Qiao)によって創立されたこの AI 基盤インフラ企業は、現在評価額が 40 億ドルに達し、日次処理トークン量は 15 兆にまで達しています。

三層の訓練アーキテクチャ:ノーコード操作から研究レベルのカスタムまでを包括

Fireworks Training の三層アーキテクチャは、技術的背景の異なるユーザー向けに設計されており、プロダクトチーム、ML エンジニア、研究者のいずれも同一プラットフォーム上で訓練からデプロイまでの一連のプロセスを完結できます:

3つのサービスレベルの機能的位置づけ

Training Agent(ノーコード層):ML 基盤インフラの知識がないプロダクトチーム向け。タスクを記述し、データをアップロードするだけでエンドツーエンドのフローを実行でき、現在 LoRA の微調整に対応しています。

Managed Training(エンジニア層):ML エンジニア向け。SFT、DPO、強化学習の微調整に対応し、全パラメータ訓練能力を含みます。

Training API(研究層):研究チーム向け。損失関数や訓練サイクルを自分で定義でき、GRPO、DAPO などの強化学習アルゴリズムに対応します。

全パラメータ訓練の規模のレンジは大きく異なります――単一ノードの Qwen3 8B から、NVIDIA B200 GPU 64 枚上の万億パラメータモデル Kimi K2.5 まで。現在の主流なオープンソースモデルの完全な規模範囲をカバーします。

3つの主要顧客事例:生産環境での定量化できる性能データ

Fireworks AI の既存の推論顧客のうち、すでに3社のトップクラスの AI アプリケーションが最先端の強化学習訓練を完了し、具体的な性能データを公開しています。

Vercel:コード生成プロダクト v0 のために、自動修正モデルを訓練しました。誤りのないコード生成率は 93%で、同等条件下での Claude Sonnet 3.5 は 62%にとどまります。エンドツーエンドのレイテンシは、それまで使用していたクローズドソースのモデルに比べて 40 倍改善しています。

Genspark:万億パラメータのオープンソースモデル Kimi K2 に対して強化学習の微調整を行い、深いリサーチエージェントを構築します。ツール呼び出し回数は 33% 増加し、推論コストは 50% 低下しました。

Cursor:グローバルな 3〜4 のクラスター上で分散方式により Composer 2 の強化学習訓練を実行しています。現在 CursorBench で1位であり、訓練と本番推論で同じ GPU リソースプールを共有することも実現しています。

コア技術上の差異:訓練と推論の数値的一貫性

Fireworks AI が強調する技術上の差別化の核は、訓練と推論の間における「数値的一貫性」です。MoE(ミックスド・エキスパート)モデルでは、隠れ状態の微小な数値偏差が専門家ルーティングの意思決定において連鎖的に増幅され、訓練環境で学習したモデル挙動を推論時に完全に再現できない原因になり得ます。

Fireworks は、対応するすべてのモデルについて訓練と推論の間の KL ダイバージェンス値を公開しており、すべてのモデルで 0.01 未満です。定量的な比較が可能な一貫性の基準を提供し、開発者が訓練から本番デプロイへ移行する際のモデル挙動の安定性を評価できるようにします。

よくある質問

Fireworks AI はどのような会社ですか?

Fireworks AI は AI 推論基盤インフラの会社で、前 Meta のエンジニアである林喬(Lin Qiao)によって創立され、PyTorch の構築に携わった経験があります。同社の現在の評価額は 40 億ドルで、日次処理トークン量は 15 兆、主要顧客には Cursor、Vercel、Genspark などの主流 AI アプリケーションが含まれます。

Fireworks Training の三層アーキテクチャはそれぞれどのようなユーザーに適していますか?

Training Agent は ML 基盤インフラのないプロダクトチーム向け(ノーコード操作)。Managed Training は ML エンジニア向け(SFT、DPO、強化学習による全パラメータ訓練をサポート)。Training API は研究チーム向け(損失関数と訓練サイクルを自分で定義でき、GRPO、DAPO などのアルゴリズムに対応)。

なぜ Fireworks AI は KL ダイバージェンスが 0.01 未満であることを強調していますか?

KL ダイバージェンスは、訓練環境と推論環境の間の数値偏差を測定し、偏差が大きいほどデプロイ後のモデルの挙動が不安定になります。特に MoE モデルでは重要です――微小な偏差がルーティングの意思決定の差異へと増幅され得ます。Fireworks AI は、定量化可能な指標を公開することで、開発者が訓練からデプロイまでの一貫性の品質を客観的に評価できるようにします。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし