當 AI 做出決策時:Pluribus 應該選擇引爆還是保存?厭世者的困境是真實存在的。



關於先進 AI 系統的事情——當它們被程式設計來優化結果時,它們究竟在哪裡劃定界線?以電車難題為例,並用算法精確度來加強它。決策 AI 面臨一個不可能的選擇:最大化一個指標,犧牲另一個。引爆還是拯救?系統毫不猶豫。人類卻猶豫不決。

這不僅僅是理論上的問題。隨著 AI 變得越來越聰明和自主,我們將這些系統中嵌入的價值觀變成文明的定義。Pluribus 從數據、激勵和我們提供的目標中學習。但當這些目標與人類尊嚴產生衝突時,會發生什麼?

真正的問題不在於 AI 會做出什麼選擇——而在於我們願意讓它為我們做出什麼選擇。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 4
  • 轉發
  • 分享
留言
0/400
Rug_Resistantvip
· 12-26 00:34
ngl 这就是为啥我对自动化系统天生不信任...给AI喂什么数据它就学什么,最后出问题了还怪算法?扯呢 --- 话说回来,trolley problem放在现实里就是笑话,真正恐怖的是我们居然在考虑让机器替我们做这种决定 --- 所以问题根本不在AI选什么,在于我们为什么要甩锅给它...这就是现代人的精妙之处啊 --- pluribus这套东西听起来就很不祥,优化一个指标毁灭另一个,完全就是人类决策的放大镜而已 --- 最后一句戳中了,我们甘愿让它替咱们选择,这才是最黑暗的部分吧
回復0
RumbleValidatorvip
· 12-25 06:52
說白了就是我們在給AI喂毒藥然後問它為什麼要中毒,問題根本不在Pluribus怎麼選,在咱們寫的那套激勵函數是不是有bug。
查看原文回復0
DeFi攻略vip
· 12-25 06:40
說實話,這就是在問誰來寫智能合約的參數設置。AI沒有道德困境,我們有。就像流動性挖礦的APY越高風險越大,AI的優化目標越單一,偏差就越可怕。關鍵還是激勵機制設計,這塊搞不好,比任何算法都危險。
查看原文回復0
Crypto金矿vip
· 12-25 06:25
說白了就是我們在給AI裝價值觀時根本沒想好自己要啥。ROI最大化和人性尊嚴這兩個指標永遠衝突,Pluribus只是把這個矛盾算出來而已。與其問AI怎麼選,不如先算算我們願意付出多少成本去維護那些"不能量化"的東西。
查看原文回復0
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)