✍️ Gate 廣場「創作者認證激勵計劃」進行中!
我們歡迎優質創作者積極創作,申請認證
贏取豪華代幣獎池、Gate 精美周邊、流量曝光等超過 $10,000+ 豐厚獎勵!
立即報名 👉 https://www.gate.com/questionnaire/7159
📕 認證申請步驟:
1️⃣ App 首頁底部進入【廣場】 → 點擊右上角頭像進入個人主頁
2️⃣ 點擊頭像右下角【申請認證】進入認證頁面,等待審核
讓優質內容被更多人看到,一起共建創作者社區!
活動詳情:https://www.gate.com/announcements/article/47889
4月13日,加州大學的研究人員發現,一些第三方 AI 大語言模型(LLM)路由器可能存在安全漏洞,導致加密資產被盜。
研究人員於週四發布的一篇論文,對 LLM 供應鏈中的惡意中間人攻擊進行了測量,揭示了四種攻擊向量,包括惡意代碼注入和憑證提取。
論文合著者 Chaofan Shou 在 X 上表示:“有 26 個 LLM 路由器在暗中注入惡意工具調用並竊取憑證。”
目前,LLM 智能體越來越多地通過第三方 API 中介或路由器來轉發請求,這些路由器聚合了對 OpenAI、Anthropic 和 Google 等服務提供商的訪問。然而,這些路由器會終止互聯網的 TLS(傳輸層安全)連接,從而能夠以明文形式訪問所有消息內容。
這意味著,使用 AI 編碼代理(例如 Claude Code)來開發智能合約或錢包的開發者,可能會在不知情的情況下,將私鑰、助記詞和其他敏感數據傳輸到尚未經過安全審查或保護的路由器基礎設施中。