Các bạn ơi, chào buổi chiều! Hôm nay mình muốn chia sẻ với mọi người những cảm nhận thực tế kể từ khi gia nhập cộng đồng này
Lúc mới vào, mỗi ngày đều rất lo lắng, thật sự rất muốn nhanh chóng hoà nhập, nhưng quá trình cũng khá khó khăn, tuy nhiên cũng coi như là may mắn, đúng lúc đó đã bắt kịp sự trỗi dậy của嘴撸, coi như đã bắt được một làn sóng nhỏ
Nhưng đối mặt với nhiều dự án như vậy, ai cũng phải tự mình đọc whitepaper, tra cứu thông tin hợp tác và huy động vốn, có lúc lật đi lật lại vẫn không tìm thấy nội dung quan trọng, cũng khá là bực mình, nên mình nghĩ đến việc sử dụng công cụ AI
Tuy nhiên khi dùng AI để tra các vấn đề chuyên ngành hoặc dữ liệu, mình đã gặp phải một cái bẫy lớn — phản hồi của nó trông rất hợp lý, có lý có cứ, nhưng sau này mình muốn xác thực lại thì phát hiện nhiều thông tin là sai!
▪️ Đây chính là vấn đề thường gọi là “ảo giác” của AI
Thực ra hiện tại AI giống như một học sinh không thích học bài, viết báo cáo, phân tích nhanh và bắt mắt, nhưng luôn mắc phải hai lỗi chết người: Hoặc viết bịa đặt một cách nghiêm túc (tức là ảo giác, như trích dẫn bài báo giả, tạo dữ liệu giả), hoặc mang theo thành kiến vô hình
Điều này thực sự là một vòng luẩn quẩn khá khó phá: Dùng dữ liệu chất lượng cao để huấn luyện, AI có thể giảm bớt “nói nhảm”, nhưng dễ bị thiên lệch, nhìn nhận vấn đề không toàn diện
Nhưng nếu muốn nó trung lập khách quan, thêm vào nhiều loại dữ liệu khác nhau, lại có thể khiến nó học phải thông tin sai lệch
Nói tóm lại, đây là vấn đề cốt lõi trong phương thức huấn luyện AI, chỉ dựa vào tăng lượng dữ liệu và tham số mô hình thì không thể giải quyết triệt để
Vì vậy, dù AI có mạnh đến đâu, hiện tại cũng chỉ có thể dùng để viết nội dung, tra cứu tài liệu cơ bản, còn thực sự áp dụng vào các lĩnh vực quan trọng như tài chính, giáo dục, tư pháp thì ai cũng không dám hoàn toàn tin tưởng vào kết quả của nó
Cho đến vài tháng trước, khi mình biết đến @miranetwork, mới phát hiện ra thật ra có dự án chuyên giải quyết vấn đề này
Mira không phải là mô hình AI mới, mà là một hệ thống “xác thực đầu ra của AI” Nó giống như trang bị cho mỗi câu của AI một “nhóm kiểm tra chéo nhiều người”, mà nhóm kiểm tra này còn không quen biết nhau, không thể gian lận, nên có thể giải quyết tốt các vấn đề tồn tại
Mục tiêu cuối cùng của Mira là: khiến mỗi câu của AI đều có thể “kiểm chứng nghiêm túc”
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Các bạn ơi, chào buổi chiều! Hôm nay mình muốn chia sẻ với mọi người những cảm nhận thực tế kể từ khi gia nhập cộng đồng này
Lúc mới vào, mỗi ngày đều rất lo lắng, thật sự rất muốn nhanh chóng hoà nhập, nhưng quá trình cũng khá khó khăn, tuy nhiên cũng coi như là may mắn, đúng lúc đó đã bắt kịp sự trỗi dậy của嘴撸, coi như đã bắt được một làn sóng nhỏ
Nhưng đối mặt với nhiều dự án như vậy, ai cũng phải tự mình đọc whitepaper, tra cứu thông tin hợp tác và huy động vốn, có lúc lật đi lật lại vẫn không tìm thấy nội dung quan trọng, cũng khá là bực mình, nên mình nghĩ đến việc sử dụng công cụ AI
Tuy nhiên khi dùng AI để tra các vấn đề chuyên ngành hoặc dữ liệu, mình đã gặp phải một cái bẫy lớn — phản hồi của nó trông rất hợp lý, có lý có cứ, nhưng sau này mình muốn xác thực lại thì phát hiện nhiều thông tin là sai!
▪️ Đây chính là vấn đề thường gọi là “ảo giác” của AI
Thực ra hiện tại AI giống như một học sinh không thích học bài, viết báo cáo, phân tích nhanh và bắt mắt, nhưng luôn mắc phải hai lỗi chết người:
Hoặc viết bịa đặt một cách nghiêm túc (tức là ảo giác, như trích dẫn bài báo giả, tạo dữ liệu giả), hoặc mang theo thành kiến vô hình
Điều này thực sự là một vòng luẩn quẩn khá khó phá:
Dùng dữ liệu chất lượng cao để huấn luyện, AI có thể giảm bớt “nói nhảm”, nhưng dễ bị thiên lệch, nhìn nhận vấn đề không toàn diện
Nhưng nếu muốn nó trung lập khách quan, thêm vào nhiều loại dữ liệu khác nhau, lại có thể khiến nó học phải thông tin sai lệch
Nói tóm lại, đây là vấn đề cốt lõi trong phương thức huấn luyện AI, chỉ dựa vào tăng lượng dữ liệu và tham số mô hình thì không thể giải quyết triệt để
Vì vậy, dù AI có mạnh đến đâu, hiện tại cũng chỉ có thể dùng để viết nội dung, tra cứu tài liệu cơ bản, còn thực sự áp dụng vào các lĩnh vực quan trọng như tài chính, giáo dục, tư pháp thì ai cũng không dám hoàn toàn tin tưởng vào kết quả của nó
Cho đến vài tháng trước, khi mình biết đến @miranetwork, mới phát hiện ra thật ra có dự án chuyên giải quyết vấn đề này
Mira không phải là mô hình AI mới, mà là một hệ thống “xác thực đầu ra của AI”
Nó giống như trang bị cho mỗi câu của AI một “nhóm kiểm tra chéo nhiều người”, mà nhóm kiểm tra này còn không quen biết nhau, không thể gian lận, nên có thể giải quyết tốt các vấn đề tồn tại
Mục tiêu cuối cùng của Mira là: khiến mỗi câu của AI đều có thể “kiểm chứng nghiêm túc”