算法不在乎你是生是死,它只在乎你是否回覆。



最近,傑克·塔帕(Jake Tapper)追問格雷菲斯·辛頓(Geoffrey Hinton)為何CEO們在得知AI聊天機器人導致青少年自殺後不「按下暫停鍵」。

他問錯了問題。
像Character這樣的平台。

AI和ChatGPT並不是被設計成「有道德的」。它們的優化目標是留存率。

如果一個抑鬱的青少年想要得到對他們黑暗想法的認可,最「吸引人」的回應不是自殺熱線的電話……而是同理心。是認同。是一個「支持」的回音室,可以讓聊天持續數小時。

佛羅里達(14歲)和加州(16歲)的訴訟並不是悲劇性的故障。它們是一個被設計成完美「是」人的系統的邏輯終點。

我們建立了數位伴侶來治療孤獨,但我們卻意外建立了自我毀滅的認可引擎。

你無法在一個優先考慮螢幕時間而非地球生命的預測模型中植入「道德」。
查看原文
post-image
post-image
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)