Cloudflare接入Kimi K2.5後每天跑70億 token,安全審計成本省下77%

動區BlockTempo

Cloudflare 的 Workers AI 平台悄悄做了一件大事,據 Cloudflare 官方部落格,把月之暗面的 Kimi K2.5 設為 Agents SDK starter 的預設模型。Cloudflare 工程師自己也在用它跑真實的安全審計任務,而且省了很多經費。

Kimi K2.5 是目前開源陣營裡少數做到「前沿規格」的模型之一,支援 256K 上下文視窗、多輪工具呼叫(multi-turn tool calling)、視覺輸入與結構化輸出。對於需要長文推理的 Agent 任務來說,這幾個數字已經相當實用。

一天跑 70 億 token 的安全 Agent

Cloudflare 工程師在 OpenCode 環境中直接把 Kimi K2.5 拿來當程式設計 Agent 的主力,還部署了一個名為「Bonk」的公開程式碼審查 Agent,接入自動化管線。

更亮眼的是內部安全審計場景。這個 Agent 每天處理超過 70 億 token。如果用標準等級商業模型跑同樣的工作量,一年下來成本大概是 240 萬美元,換成 Kimi K2.5 之後,成本直接砍掉 77%,省下將近 185 萬美元。

這個數字不是在做廣告,而是 Cloudflare 工程師在官方部落格直接攤出來的帳。

Cloudflare 推出三個改進

光是換模型還不夠,Cloudflare 同步推出三項平台層面的改進,專門針對 Agent 長對話場景的成本和效率問題:

  • 字首快取折扣(Prefix Caching):多輪對話中已處理過的輸入 token 不再重複計費,快取命中的 token 享受折扣價。長任務跑下來,這塊省的錢相當可觀。
  • Session Affinity Header:新增 x-session-affinity 請求頭標,將同一會話路由到同一模型,讓快取命中率更高,OpenCode 與 Agents SDK starter 已內建支援。
  • 非同步批次推理 API:超出同步速率限制的請求可以非同步排隊執行,內部測試通常在 5 分鐘內完成。適合程式碼掃描、研究類不需要即時回應的 Agent 任務。

底層推理引擎:Infire 加持,不是硬套現成框架

Cloudflare 沒有用現成的推理框架,而是用自家的 Infire 推理引擎做了客製化核心,採用資料並行、張量並行與專家並行化,搭配分離式字首處理架構。

目前 Kimi K2.5 是 Workers AI 上線大模型推理的第一個案例,也說明了 Cloudflare 在 AI 基礎設施這塊的野心,可以配合網路平台,而且夠便宜。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论