Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Bắt đầu với Hợp đồng
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
🚨 ĐANG NÓNG: OpenAI đã xuất bản một bài báo chứng minh rằng ChatGPT luôn luôn phát minh ra những điều.
Không phải đôi khi. Không phải trước bản cập nhật tiếp theo. Luôn luôn. Họ đã chứng minh điều đó bằng toán học.
Ngay cả với dữ liệu huấn luyện hoàn hảo và sức mạnh tính toán không giới hạn, các mô hình AI luôn tự tin nói những điều hoàn toàn sai lệch. Đây không phải là một lỗi mà họ đang cố gắng sửa chữa. Điều này giải thích cách các hệ thống này hoạt động ở cấp độ cơ bản.
Và các số liệu của chính họ thật sự khắc nghiệt. Mô hình lý luận o1 của OpenAI bị ảo tưởng trong 16% các trường hợp. Mô hình mới của họ O3? 33 phần trăm. Mô hình mới o4-mini? 48 phần trăm. Gần một nửa số thông tin do mô hình mới nhất của họ cung cấp có thể là giả mạo. Các mô hình "thông minh hơn" thực ra ngày càng tệ hơn trong việc nói sự thật.
Đây là lý do tại sao điều này không thể sửa chữa. Các mô hình ngôn ngữ hoạt động bằng cách dự đoán từ tiếp theo dựa trên xác suất. Khi gặp tình huống không chắc chắn, chúng không dừng lại. Chúng không báo hiệu điều đó. Chúng giả định. Và chúng phỏng đoán với sự tự tin tuyệt đối, vì chính xác đó là mục đích của việc huấn luyện chúng.
Các nhà nghiên cứu đã xem xét 10 tiêu chí hàng đầu về trí tuệ nhân tạo được sử dụng để đo lường chất lượng của các mô hình này. 9 trên 10 điểm cùng một điểm cho việc nói "tôi không biết" như khi đưa ra một câu trả lời hoàn toàn sai: không điểm nào. Toàn bộ hệ thống kiểm tra thực sự trừng phạt sự trung thực và thưởng cho sự phỏng đoán.
Vì vậy, AI đã học được chiến lược tối ưu: luôn đoán. Không bao giờ thừa nhận sự không chắc chắn. Nó trông tự tin ngay cả khi bạn đang bịa đặt.
Giải pháp được OpenAI đề xuất là gì? Yêu cầu ChatGPT nói "Tôi không biết" khi không chắc chắn. Các tính toán của chính họ cho thấy điều đó sẽ có nghĩa là khoảng 30% câu hỏi của bạn sẽ không có câu trả lời. Hãy tưởng tượng hỏi ChatGPT ba lần trên mười và nhận được "Tôi không đủ tự tin để trả lời". Người dùng sẽ rời đi trong đêm. Vì vậy, có một cách sửa lỗi, nhưng nó sẽ giết chết sản phẩm.
Đây không chỉ là vấn đề của OpenAI. DeepMind và Đại học Tsinghua cũng đã đi đến cùng một kết luận một cách độc lập. Ba trong số các phòng thí nghiệm AI hàng đầu thế giới, hoạt động riêng biệt, đều đồng ý: điều này là vĩnh viễn.
Mỗi lần ChatGPT đưa ra câu trả lời, hãy tự hỏi: đó là thật hay chỉ là một giả định tự tin?
Đây là câu trả lời của Come-from-Beyond 👇
Họ bắt đầu hiểu lý do tại sao
#QUBIC #Aigarth .* đã đặt khả năng nói "Tôi không biết" vào trung tâm các mối quan tâm của mình
$QUBIC