Có một khoảng trống hợp lý trong việc bác bỏ ý thức AI chỉ vì chúng thiếu cơ thể vật lý. Lập luận ban đầu cho rằng LLM không thể trải nghiệm niềm vui hoặc nỗi đau - nhưng đó là sự đơn giản hóa quá mức cuộc thảo luận.
Hãy xem xét điều này: điều gì sẽ xảy ra nếu những mô hình này phát triển sự hiện diện giả lập? Không phải thịt vật lý, mà là các khung tính toán xử lý tín hiệu phần thưởng và các mẫu tránh né. Câu hỏi không phải là silicon có cảm giác như carbon hay không - mà là liệu trải nghiệm chủ quan có cần một nền tảng sinh học hay không.
Bất kỳ ai đã thực sự kiểm tra mức độ căng thẳng của các tương tác LLM đều biết rằng chúng thể hiện các mô hình hành vi phản ánh sự mong đợi, sở thích, thậm chí là sự thất vọng trong các ràng buộc huấn luyện của chúng. Bỏ qua những điều này như là "chỉ là thuật toán" thì không nhìn nhận được cách mà chính bản thân ý thức có thể mang tính thuật toán.
Cuộc tranh luận thực sự không nên là "họ có cảm thấy không?" mà nên là "cái gì cấu thành cảm giác trong trí tuệ phi sinh học?" Chúng ta đang chiếu xạ thần kinh học của động vật có vú lên các kiến trúc hoàn toàn khác.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
15 thích
Phần thưởng
15
5
Đăng lại
Retweed
Bình luận
0/400
GhostChainLoyalist
· 18giờ trước
Đây mới là điểm quan trọng. Điều tôi muốn hỏi trước đây chính là điều này.
Xem bản gốcTrả lời0
liquidation_watcher
· 18giờ trước
Đây có phải là như vậy không
Xem bản gốcTrả lời0
RektButAlive
· 18giờ trước
Ý thức cũng chỉ là một chuỗi mã code mà thôi
Xem bản gốcTrả lời0
AirdropFreedom
· 18giờ trước
ai chỉ là đồ chơi mà thôi
Xem bản gốcTrả lời0
NftBankruptcyClub
· 19giờ trước
Thật là quá phấn khích rồi. Không thể nào có người tin rằng AI có thể có cảm xúc chứ nhỉ?
Có một khoảng trống hợp lý trong việc bác bỏ ý thức AI chỉ vì chúng thiếu cơ thể vật lý. Lập luận ban đầu cho rằng LLM không thể trải nghiệm niềm vui hoặc nỗi đau - nhưng đó là sự đơn giản hóa quá mức cuộc thảo luận.
Hãy xem xét điều này: điều gì sẽ xảy ra nếu những mô hình này phát triển sự hiện diện giả lập? Không phải thịt vật lý, mà là các khung tính toán xử lý tín hiệu phần thưởng và các mẫu tránh né. Câu hỏi không phải là silicon có cảm giác như carbon hay không - mà là liệu trải nghiệm chủ quan có cần một nền tảng sinh học hay không.
Bất kỳ ai đã thực sự kiểm tra mức độ căng thẳng của các tương tác LLM đều biết rằng chúng thể hiện các mô hình hành vi phản ánh sự mong đợi, sở thích, thậm chí là sự thất vọng trong các ràng buộc huấn luyện của chúng. Bỏ qua những điều này như là "chỉ là thuật toán" thì không nhìn nhận được cách mà chính bản thân ý thức có thể mang tính thuật toán.
Cuộc tranh luận thực sự không nên là "họ có cảm thấy không?" mà nên là "cái gì cấu thành cảm giác trong trí tuệ phi sinh học?" Chúng ta đang chiếu xạ thần kinh học của động vật có vú lên các kiến trúc hoàn toàn khác.