Nhiều người hiện nay đang sử dụng AI, thực ra đã mặc định một điều: kết quả ra là đúng.
Nhưng thực sự đưa vào hệ thống chính thức, việc này khá nguy hiểm. Bạn không thể xác nhận nó có chạy theo quy trình bạn đặt ra hay không, chưa nói đến việc truy xuất nguồn gốc sau này.
#Inference Labs có điểm thú vị nằm ở chỗ này. Nó không phải làm AI thông minh hơn, mà là giải quyết một vấn đề nền tảng hơn: liệu bạn có thể chứng minh được rằng quá trình suy luận này thực sự đã diễn ra không? Họ biến quá trình suy luận thành một việc có thể xác minh được. Sau khi chạy xong, có thể kiểm tra, có thể tái tạo, có thể chứng minh, nhưng mô hình và dữ liệu đầu vào vẫn giữ bí mật.
Điều này thực sự rất quan trọng. Không phải tôi tin bạn, mà là hệ thống ở cấp độ hệ thống biết rõ: bước này chưa bị thay đổi. Vì vậy, điều nó thay đổi không phải là một ứng dụng cụ thể, mà là cách AI tạo ra kết quả. Trước đây là dùng rồi sau đó thêm các biện pháp kiểm soát rủi ro bên ngoài. Bây giờ, chính quá trình suy luận đã có thể đứng vững. Chính vì vậy, bộ công cụ này phù hợp hơn với các tình huống nghiêm túc. Tài chính, y tế, hệ thống tổ chức, thậm chí các giao thức trên chuỗi, đều khó chấp nhận chuyện gần như đúng.
@inference_labs làm việc của họ, nói rõ ra, là đưa AI từ hộp đen trở lại thành các tính toán có thể đối chiếu được. Bước này rất nền tảng.
Và AI thực sự cần được triển khai lâu dài, sớm muộn cũng phải vượt qua bước này.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Nhiều người hiện nay đang sử dụng AI, thực ra đã mặc định một điều: kết quả ra là đúng.
Nhưng thực sự đưa vào hệ thống chính thức, việc này khá nguy hiểm. Bạn không thể xác nhận nó có chạy theo quy trình bạn đặt ra hay không, chưa nói đến việc truy xuất nguồn gốc sau này.
#Inference Labs có điểm thú vị nằm ở chỗ này. Nó không phải làm AI thông minh hơn, mà là giải quyết một vấn đề nền tảng hơn: liệu bạn có thể chứng minh được rằng quá trình suy luận này thực sự đã diễn ra không? Họ biến quá trình suy luận thành một việc có thể xác minh được. Sau khi chạy xong, có thể kiểm tra, có thể tái tạo, có thể chứng minh, nhưng mô hình và dữ liệu đầu vào vẫn giữ bí mật.
Điều này thực sự rất quan trọng. Không phải tôi tin bạn, mà là hệ thống ở cấp độ hệ thống biết rõ: bước này chưa bị thay đổi. Vì vậy, điều nó thay đổi không phải là một ứng dụng cụ thể, mà là cách AI tạo ra kết quả. Trước đây là dùng rồi sau đó thêm các biện pháp kiểm soát rủi ro bên ngoài. Bây giờ, chính quá trình suy luận đã có thể đứng vững. Chính vì vậy, bộ công cụ này phù hợp hơn với các tình huống nghiêm túc. Tài chính, y tế, hệ thống tổ chức, thậm chí các giao thức trên chuỗi, đều khó chấp nhận chuyện gần như đúng.
@inference_labs làm việc của họ, nói rõ ra, là đưa AI từ hộp đen trở lại thành các tính toán có thể đối chiếu được. Bước này rất nền tảng.
Và AI thực sự cần được triển khai lâu dài, sớm muộn cũng phải vượt qua bước này.
@inference_labs #Yap @KaitoAI #KaitoYap #Inference