Giáo sư Ethan Mollick của Trường Wharton: Giải quyết vấn đề ảo giác AI bằng tư duy “thiết kế tổ chức”

ChainNewsAbmedia

AI ảo giác (hallucination) cho đến nay vẫn là một trong những vấn đề đau đầu nhất đối với các mô hình ngôn ngữ lớn (LLM), nhưng giáo sư Trường Kinh doanh Wharton Ethan Mollick trên X đã đưa ra một quan điểm đáng suy ngẫm: con người từ hàng trăm năm trước đã phát triển sẵn một cơ chế trưởng thành, có thể tạo ra đầu ra đáng tin cậy từ những nguồn không đáng tin — cơ chế đó được gọi là “cấu trúc tổ chức” (organizational structures), và chúng ta hoàn toàn có thể áp dụng những phương pháp tương tự cho AI. Bài đăng này nhận được 329 lượt thả tim, 35 lượt chia sẻ lại và 44 lượt phản hồi, khơi dậy một cuộc thảo luận chuyên sâu về cách ứng phó một cách thực tế với AI ảo giác.

Ẩn dụ “cấu trúc tổ chức” là gì?

Luận điểm cốt lõi của Mollick đi thẳng vào một thực tế thường bị bỏ qua: con người từ trước đến nay không phải là nguồn thông tin hoàn toàn đáng tin cậy. Trong lịch sử, dù là sổ sách kế toán, chẩn đoán y khoa hay phán quyết pháp lý, thì đầu ra của con người vẫn luôn tồn tại rủi ro sai sót. Tuy nhiên, văn minh có thể vận hành bình thường là nhờ chúng ta đã phát triển một hệ thống “cấu trúc tổ chức” hoàn chỉnh để kiểm soát các rủi ro đó.

Về bản chất, những cấu trúc này là một “cỗ máy chặn lỗi” tinh vi: thông qua phân công lao động, duyệt theo thứ bậc, đối chiếu chéo và quy trình hóa mang tính thể chế, biến tính không đáng tin của từng cá nhân thành độ tin cậy ở cấp độ hệ thống. Mollick cho rằng, thay vì ám ảnh theo đuổi một “AI không bao giờ mắc lỗi”, ta nên đổi cách nhìn — giống như cách chúng ta đối xử với nhân viên con người, hãy xây dựng cho AI một hệ thống kiểm soát chất lượng mang tính tổ chức.

Cách ứng dụng cụ thể: rà soát, kiểm thử và đối chiếu chéo

Trong phần thảo luận tiếp theo do bài đăng khơi gợi, Mollick và những người tham gia khác đã đi sâu tìm hiểu một số phương pháp cụ thể có thể trực tiếp học theo quản trị tổ chức. Thứ nhất là “cơ chế rà soát” (reviews), giống như việc cấp quản lý phê duyệt hoặc hội đồng đánh giá đồng cấp trong doanh nghiệp, để một mô hình AI khác hoặc chuyên gia con người tiến hành kiểm tra có hệ thống đầu ra của LLM.

Thứ hai là “cơ chế kiểm thử” (tests), tương tự như các bài kiểm thử đơn vị và quy trình đảm bảo chất lượng trong phát triển phần mềm, đặt ra các tiêu chuẩn có thể được xác minh cho từng hạng mục đầu ra của AI. Thứ ba là “đối chiếu chéo” (cross-checks), cho nhiều mô hình AI độc lập hoặc các nguồn thông tin khác nhau đưa ra câu trả lời cho cùng một vấn đề, rồi so sánh mức độ nhất quán của kết quả — như sự kiềm chế, đối trọng lẫn nhau giữa các bộ phận trong một tổ chức.

Logic chung của các phương pháp này là: không dựa vào sự hoàn hảo của một “nút” đơn lẻ, mà giảm tỷ lệ sai sót tổng thể thông qua thiết kế hệ thống. Điều này tương đồng với khái niệm “mô hình pho mát Thụy Sĩ” (Swiss Cheese Model) trong lý thuyết quản lý chất lượng hiện đại — mỗi lớp phòng vệ đều có lỗ hổng, nhưng khi chồng nhiều lớp lên nhau, xác suất sai sót xuyên qua tất cả các tầng cấp sẽ giảm đáng kể.

Bài học cho triển khai AI trong doanh nghiệp

Khung tư duy mà Mollick đưa ra đặc biệt truyền cảm hứng cho những doanh nghiệp đang triển khai AI. Nhiều công ty khi đối mặt với vấn đề AI ảo giác thường rơi vào hai thái cực: hoặc vì sợ sai nên hoàn toàn không dám dùng AI, hoặc tin quá mức vào đầu ra của AI và bỏ qua việc kiểm chứng. Tư duy thiết kế tổ chức tạo ra một lối đi trung dung — thừa nhận AI có thể mắc lỗi, nhưng thông qua thiết kế thể chế để giới hạn các lỗi trong phạm vi có thể chấp nhận.

Cụ thể, doanh nghiệp có thể xây dựng “quy trình quản lý chất lượng AI”: coi AI như một “nhân viên” trong tổ chức, trang bị cho nó cơ chế rà soát, xác định rõ ràng ranh giới trách nhiệm, thiết lập hệ thống phát hiện bất thường, và ở các khâu ra quyết định then chốt vẫn giữ việc con người kiểm duyệt lại. Cách làm này không chỉ thiết thực hơn mà còn phù hợp hơn với logic quản trị mà doanh nghiệp đã quen thuộc. Đối với ngành công nghiệp AI, quan điểm của Mollick nhắc nhở chúng ta rằng: câu trả lời để giải quyết AI ảo giác có lẽ không chỉ nằm ở khía cạnh kỹ thuật, mà còn nằm ở việc suy nghĩ lại cấu trúc tổ chức cho sự hợp tác giữa người và máy.

Bài viết này Giáo sư Trường Kinh doanh Wharton Ethan Mollick: Giải quyết vấn đề AI ảo giác bằng tư duy “thiết kế tổ chức” lần đầu tiên xuất hiện tại Liên Kết Tin tức ABMedia.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận