Gate 广场「创作者认证激励计划」开启:入驻广场,瓜分每月 $10,000 创作奖励!
无论你是广场内容达人,还是来自其他平台的优质创作者,只要积极创作,就有机会赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
参与资格:
满足以下任一条件即可报名👇
1️⃣ 其他平台已认证创作者
2️⃣ 单一平台粉丝 ≥ 1000(不可多平台叠加)
3️⃣ Gate 广场内符合粉丝与互动条件的认证创作者
立即填写表单报名 👉 https://www.gate.com/questionnaire/7159
✍️ 丰厚创作奖励等你拿:
🎁 奖励一:新入驻创作者专属 $5,000 奖池
成功入驻即可获认证徽章。
首月发首帖(≥ 50 字或图文帖)即可得 $50 仓位体验券(限前100名)。
🎁 奖励二:专属创作者月度奖池 $1,500 USDT
每月发 ≥ 30 篇原创优质内容,根据发帖量、活跃天数、互动量、内容质量综合评分瓜分奖励。
🎁 奖励三:连续活跃创作福利
连续 3 个月活跃(每月 ≥ 30 篇内容)可获 Gate 精美周边礼包!
🎁 奖励四:专属推广名额
认证创作者每月可优先获得 1 次官方项目合作推广机会。
🎁 奖励五:Gate 广场四千万级流量曝光
【推荐关注】资源位、“优质认证创作者榜”展示、每周精选内容推荐及额外精选帖激励,多重曝光助你轻
Akash Network 推出 AkashML,首个基于去中心化 GPU 的全托管 AI 推理服务
简要
Akash Network 推出了 AkashML,提供兼容 OpenAI 的 API、全球低延迟访问,并在部署大语言模型(LLM)时可节省高达 85% 的成本。
Akash Network 作为云计算市场,推出了首个完全基于去中心化 GPU 的全面托管 AI 推理服务。该新服务消除了开发者此前在 Akash 上管理生产级推理时遇到的运营难题,让用户无需亲自管理基础设施,即可享受去中心化云计算的优势。
在发布时,AkashML 已支持包括 Llama 3.3-70B、DeepSeek V3 以及 Qwen3-30B-A3B 等模型的托管推理,可立即部署,并能在全球 65 个以上的数据中心进行扩展。该架构实现了全球范围的即时推理、可预测的按 token 支付定价,并提升了开发者生产力。
自 OpenAI 推动 AI 应用浪潮以来,Akash 一直支持早期 AI 开发者和初创企业。过去几年,Akash Core 团队与包括 brev.dev((被英伟达收购))、VeniceAI 和 Prime Intellect 等客户合作,推出了服务数万用户的产品。虽然这些早期用户技术实力较强,能自行管理基础设施,但反馈指出他们更倾向于无需处理底层系统的 API 访问方式。基于这些反馈,团队开发了面向特定用户的非公开版 AkashML,以及 AkashChat 和 AkashChat API,为 AkashML 的公开发布奠定了基础。
AkashML 可将 LLM 部署成本降低高达 85%
该新方案解决了开发者和企业在部署大语言模型时面临的多项关键挑战。传统云解决方案成本高昂,70B 型号的预留实例每百万 tokens 输入成本超 $0.13,输出成本超 $0.40,而 AkashML 通过市场竞争,将费用降低 70-85%。运维负担也是一大障碍,打包模型、配置 vLLM 或 TGI 服务器、管理分片及故障转移可能耗费数周工程时间;AkashML 通过兼容 OpenAI 的 API,使迁移过程无需更改代码、几分钟即可完成。
集中式平台还存在延迟问题,请求往往需跨越长距离。AkashML 会将流量路由至全球 80 多个最近的数据中心,实现小于 200 毫秒的响应时间,适用于实时应用。供应商锁定限制了对模型和数据的灵活性与控制;AkashML 仅使用开源模型如 Llama、DeepSeek 和 Qwen,用户可完全掌控模型版本、升级和治理。可扩展性难题通过自动扩展去中心化 GPU 资源得到缓解,保障 99% 正常运行时间,无容量限制,并避免价格突涨。
AkashML 旨在实现快速上手和即时回报。新用户可获得 $100 AI 代币积分,用于通过 Playground 或 API 体验所有支持的模型。所有模型共用单一 API 端点,并可集成到 LangChain、Haystack 或自定义 Agent。定价透明并按模型区分,避免意外支出。高影响力部署可通过 Akash Star 获得曝光,未来网络升级如 BME、虚拟机和机密计算将进一步降低成本。早期用户已报告成本降低三到五倍,全球延迟始终低于 200 毫秒,实现了成本下降、使用率提升和服务商参与度扩大的良性循环。
上手极为简单:用户只需两分钟即可在 playground.akashml.com 免费注册账号,浏览包括 Llama 3.3-70B、DeepSeek V3 及 Qwen3-30B-A3B 在内的模型库,并提前了解价格。可直接在平台上申请其他模型。用户可在 Playground 或通过 API 即时测试模型,通过仪表盘监控用量、延迟和支出,并通过区域绑定和自动扩展实现生产级部署。
集中式推理依然成本高昂、速度慢且限制多,而 AkashML 则通过 API 优先、去中心化的方式,以市场定价为开发者和企业提供对顶级开源模型的全面托管访问。希望将推理成本降低至 80% 的开发者和企业可立即开始使用该平台。