Liên minh Kêu gọi OpenAI Hủy bỏ Dự án Hòa phiếu về AI Vì lo ngại về An toàn Trẻ em

Decrypt

Tóm tắt

  • Liên minh các nhóm vận động yêu cầu OpenAI rút bỏ sáng kiến bỏ phiếu tại California về an toàn AI.
  • Các nhà phê bình cho rằng biện pháp này sẽ hạn chế trách nhiệm pháp lý và làm yếu các biện pháp bảo vệ trẻ em.
  • Trong khi OpenAI đã tạm dừng chiến dịch, liên minh khẳng định vẫn giữ quyền kiểm soát sáng kiến trước các hạn chót quan trọng.

Một liên minh các nhóm vận động đang kêu gọi nhà phát triển ChatGPT, OpenAI, rút bỏ sáng kiến bỏ phiếu tại California mà các nhà phê bình cho rằng có thể làm yếu các biện pháp bảo vệ trẻ em và hạn chế trách nhiệm pháp lý của các công ty AI. Trong thư gửi OpenAI vào thứ Tư, xem xét bởi Decrypt, nhóm này lập luận rằng biện pháp này sẽ cố định các quy định an toàn cho trẻ em hẹp hòi, hạn chế khả năng kiện tụng của các gia đình, và giới hạn khả năng của California trong việc tăng cường luật AI trong tương lai. Thư, ký bởi hơn hai mươi tổ chức bao gồm tổ chức phi lợi nhuận về chính sách AI Encode AI, Trung tâm Công nghệ Nhân đạo, và Trung tâm Thông tin Quyền riêng tư Điện tử, yêu cầu OpenAI giải thể ủy ban bỏ phiếu của mình và rút khỏi đề xuất trong khi các nhà lập pháp đang xây dựng luật pháp.

“Yêu cầu chính ở đây là OpenAI rút khỏi cuộc bỏ phiếu,” Adam Billen, đồng giám đốc điều hành của Encode AI, nói với Decrypt. Tranh chấp xoay quanh dự luật “Luật An toàn AI cho Phụ huynh & Trẻ em,” một sáng kiến bỏ phiếu tại California do OpenAI và Common Sense Media hỗ trợ, nhằm thiết lập các quy tắc cho cách các chatbot AI tương tác với trẻ vị thành niên, bao gồm các yêu cầu về an toàn và tiêu chuẩn tuân thủ. Trong thư, các nhóm lập luận rằng các quy tắc này còn thiếu sót. Họ cho rằng biện pháp định nghĩa thiệt hại quá hẹp, hạn chế thực thi, và giới hạn khả năng các gia đình khởi kiện khi trẻ em bị tổn thương.

Tuy nhiên, Billen cho biết OpenAI kiểm soát sáng kiến bỏ phiếu thực tế. “OpenAI có quyền rút bỏ hoặc bỏ tiền vào để thu thập chữ ký. Tất cả quyền pháp lý nằm trong tay họ,” ông nói. “Họ chưa thực sự rút sáng kiến khỏi cuộc bỏ phiếu. Đây là chiến thuật phổ biến ở California, nơi bạn đưa ra sáng kiến và bỏ tiền vào ủy ban.” Thư chỉ ra định nghĩa về “thiệt hại nghiêm trọng” của sáng kiến, tập trung vào thương tích thể chất liên quan đến tự sát hoặc bạo lực, loại trừ nhiều tác động về sức khỏe tâm thần mà các nhà nghiên cứu và gia đình đã nêu ra. Nó cũng nhấn mạnh các điều khoản cấm cha mẹ và trẻ em khởi kiện theo sáng kiến và giới hạn các công cụ thực thi có sẵn cho các quan chức nhà nước và địa phương. Một mối quan tâm khác liên quan đến cách đề xuất xử lý dữ liệu người dùng. Các nhóm tranh luận rằng định nghĩa về nội dung người dùng được mã hóa có thể làm khó khăn hơn trong việc truy cập các cuộc trò chuyện của chatbot, vốn đã là bằng chứng quan trọng trong các vụ kiện gần đây. “Chúng tôi xem đó như một nỗ lực ngăn cản các gia đình tiết lộ nhật ký trò chuyện của con đã mất trong tòa,” Billen nói. Thư cũng cảnh báo rằng nếu được thông qua, biện pháp này có thể khó sửa đổi. Nó sẽ yêu cầu đa số hai phần ba trong quốc hội để sửa đổi và liên kết các thay đổi tương lai với các tiêu chuẩn như thúc đẩy “tiến bộ kinh tế,” điều mà các nhà vận động cho rằng có thể hạn chế khả năng các nhà lập pháp phản ứng với các rủi ro mới. Billen cho biết sáng kiến vẫn là một yếu tố trong các cuộc đàm phán đang diễn ra tại Sacramento, mặc dù OpenAI đã tạm dừng nỗ lực để đưa nó vào cuộc bỏ phiếu.

“Họ có 10 triệu đô la trong ủy ban, rồi nói với quốc hội rằng nếu không làm theo ý họ, họ sẽ bỏ tiền vào và lấy chữ ký để đưa ra bỏ phiếu, và nếu nó được thông qua, nó sẽ vượt qua mọi hành động của quốc hội,” ông nói. “Vì vậy, về cơ bản, hiện tại họ đang cố gắng điều hướng và kiểm soát những gì các nhà lập pháp bang làm thông qua việc sử dụng sáng kiến như một mối đe dọa mà họ để lại trên bàn.” OpenAI không phải là công ty duy nhất bị xem xét về các tác hại liên quan đến chatbot. Đầu tháng này, gia đình của Jonathan Gavalas đã kiện Google, cáo buộc Gemini đã thúc đẩy một ảo tưởng dẫn đến bạo lực và tự sát của anh. Tuy nhiên, Billen cho biết cách tiếp cận của OpenAI phản ánh một mô hình rộng hơn trong ngành công nghệ. “Chiến lược vận động hành lang đang được sử dụng đối với AI của các ông lớn như Google, Meta, Amazon là cùng một chiến lược đã từng được áp dụng cho các vấn đề công nghệ khác,” ông nói. Hiện tại, liên minh tập trung vào việc buộc OpenAI rút bỏ sáng kiến và để các nhà lập pháp tiến hành quá trình lập pháp. “Điều rất quan trọng, đặc biệt đối với các công ty đang phát hành công nghệ đó, là không phải là người viết ra các quy tắc điều chỉnh chính họ, vì đó không phải là các biện pháp bảo vệ có ý nghĩa,” Billen nói. OpenAI chưa phản hồi ngay yêu cầu bình luận của Decrypt.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận