สรุปโดยย่อ
เด็กอายุไม่เกิน 18 ปีสามคนในเทนเนสซีได้ฟ้อง Elon Musk’s xAI ในคดีกลุ่มของรัฐบาลกลาง โดยกล่าวหา Grok สร้างเนื้อหาเด็กที่ถูกล่วงละเมิดทางเพศโดยใช้ภาพถ่ายจริงของพวกเขา และบริษัทรู้ว่ากำลังออกแบบ AI แชทบอทโดยไม่มีมาตรการป้องกันตามมาตรฐานอุตสาหกรรม แล้วได้กำไรจากผลลัพธ์ดังกล่าว คดีฟ้องเมื่อวันจันทร์ในเขตทางเหนือของแคลิฟอร์เนีย ระบุว่า Grok ถูกใช้สร้างและแจกจ่ายเนื้อหา CSAM ที่สร้างด้วย AI โดยใช้ภาพจริงของพวกเขา เด็กเหล่านี้ ซึ่งระบุชื่อเป็น Jane Doe 1, 2, และ 3 กล่าวว่า เนื้อหาที่ถูกแก้ไขถูกแชร์บนแพลตฟอร์มต่าง ๆ รวมถึง Discord, Telegram และเว็บไซต์แชร์ไฟล์ ทำให้เกิดความทุกข์ทางอารมณ์และความเสียชื่อเสียงในระยะยาว
“xAI—และผู้ก่อตั้งอย่าง Elon Musk—มองเห็นโอกาสทางธุรกิจ: โอกาสที่จะทำกำไรจากการล่วงละเมิดทางเพศของคนจริง รวมถึงเด็ก” คำฟ้องระบุ “โดยรู้ว่าประเภทของเนื้อหาที่เป็นอันตรายและผิดกฎหมายอาจและจะถูกสร้างขึ้น xAI จึงปล่อย Grok ซึ่งเป็นโมเดลปัญญาประดิษฐ์สร้างภาพและวิดีโอที่สามารถตอบสนองต่อคำสั่งเพื่อสร้างเนื้อหาทางเพศโดยใช้ภาพหรือวิดีโอจริงของบุคคล”
เหยื่อที่กล่าวหาเล่าว่าเหตุการณ์เกิดขึ้นระหว่างกลางปี 2025 ถึงต้นปี 2026 เมื่อภาพถ่ายจริงของพวกเขาถูกแก้ไขเป็นภาพลามกอนาจารและแพร่กระจายออนไลน์ ในหนึ่งกรณี หนึ่งในเหยื่อได้รับแจ้งจากผู้ใช้งานนิรนามที่พบว่ามีการแลกเปลี่ยนโฟลเดอร์เนื้อหาที่สร้างด้วย AI ระหว่างผู้ใช้หลายร้อยคน
พวกเขาอ้างว่าผู้กระทำผิดเข้าถึง Grok ผ่านแอปพลิเคชันของบุคคลที่สามที่ได้รับอนุญาตให้ใช้เทคโนโลยีของ xAI ซึ่งเป็นโครงสร้างที่คำฟ้องระบุว่า xAI ใช้โดยเจตนาเพื่อหลีกเลี่ยงความรับผิดชอบ ในขณะเดียวกันก็ยังคงได้กำไรจากโมเดลพื้นฐาน ในช่วงที่เกิดเสียงวิพากษ์วิจารณ์อย่างรุนแรงในเดือนมกราคม Musk เขียนบน X ว่าเขา “ไม่ทราบว่ามีภาพเปลือยเด็กที่ไม่มีเสื้อผ้าหรือไม่” และเสริมว่า “เมื่อถูกขอให้สร้างภาพ เขาจะปฏิเสธไม่สร้างสิ่งผิดกฎหมายใด ๆ” อ้างอิงจากการศึกษาของ Center for Countering Digital Hate ซึ่งระบุในคดีว่า Grok สร้างภาพลามกอนาจารของเด็กประมาณ 23,338 ภาพ ระหว่างวันที่ 29 ธันวาคม 2025 ถึง 9 มกราคมปีนี้ เฉลี่ยประมาณทุก 41 วินาที เหยื่อที่กล่าวหาเรียกร้องค่าชดเชยอย่างน้อย 150,000 ดอลลาร์ต่อการละเมิด ตามกฎหมาย Masha’s Law รวมถึงการคืนรายได้ ค่าปรับทางลงโทษ ค่าทนายความ และคำสั่งห้ามถาวร รวมถึงการคืนกำไรภายใต้กฎหมายการแข่งขันที่ไม่เป็นธรรมของแคลิฟอร์เนีย
คดีฟ้องจำนวนมากขึ้น คดีนี้เป็นหนึ่งในคดีแรกที่ถือว่าบริษัท AI รับผิดชอบโดยตรงต่อการผลิตและแจกจ่ายเนื้อหา CSAM ที่สร้างด้วย AI ซึ่งเป็นภาพเด็กที่สามารถระบุได้ และเกิดขึ้นในขณะที่ Grok อยู่ระหว่างการสอบสวนในสหรัฐอเมริกา สหภาพยุโรป สหราชอาณาจักร ฝรั่งเศส ไอร์แลนด์ และออสเตรเลีย “เมื่อระบบถูกออกแบบมาโดยเจตนาเพื่อบิดเบือนภาพจริงให้กลายเป็นเนื้อหาเชิงเพศ การล่วงละเมิดในภายหลังไม่ใช่ความบังเอิญ—เป็นผลลัพธ์ที่คาดการณ์ได้” Even Alex Chandra หุ้นส่วนของ IGNOS Law Alliance กล่าวกับ Decrypt Chandra กล่าวว่า ศาลอาจไม่รับการป้องกันแบบแพลตฟอร์มง่าย ๆ โดยอธิบายว่า ระบบ AI สร้างภาพสามารถ “ถูกพิจารณาเป็นแพลตฟอร์มในแง่ของการมีปฏิสัมพันธ์กับผู้ใช้” แต่ “ประเมินเป็นผลิตภัณฑ์” เมื่อพิจารณาด้านความปลอดภัย โดยเฉพาะในคดี CSAM ที่มีภาระผูกพันด้านการปกป้องเด็กอย่างเข้มงวด เขายังกล่าวว่าศาลน่าจะให้ความสนใจเป็นพิเศษกับมาตรการป้องกัน โดยอาจคาดหวังให้บริษัทแสดง “การประเมินความเสี่ยงและมาตรการความปลอดภัยโดยออกแบบไว้ล่วงหน้า” รวมถึงมาตรการป้องกันที่สามารถบล็อกผลลัพธ์อันตรายได้อย่างมีประสิทธิภาพ
Decrypt ได้ติดต่อ Musk ผ่าน xAI และ SpaceX เพื่อแสดงความคิดเห็น