Meta ล่าสุดในรัฐนิวเม็กซิโกและลอสแอนเจลิส ได้แพ้คดีอย่างต่อเนื่อง โดยคณะลูกขุนตัดสินว่า Meta รู้ดีว่าผลิตภัณฑ์มีอันตรายที่อาจเกิดขึ้น แต่ไม่สามารถควบคุมได้ คำตัดสินทั้งสองนี้ทำให้ผู้เชี่ยวชาญวิตกกังวลว่าอุตสาหกรรมเทคโนโลยีอาจหลีกเลี่ยงความรับผิดชอบตามกฎหมาย และอาจลดทอนนักวิจัยทางสังคมมากขึ้น รวมถึงจะกดดันการวิจัยและการประเมินความปลอดภัยทางจิตใจเกี่ยวกับโมเดลปัญญาประดิษฐ์ ทำให้ความเสี่ยงของผู้บริโภคเพิ่มขึ้น
อดีตผู้บริหารเฟซบุ๊กเปิดเผยการวิจัยภายในของเฟซบุ๊กกลายเป็นหลักฐานที่มีน้ำหนัก
Meta ซึ่งเป็นอดีต Facebook ในช่วงสิบกว่าปีที่ผ่านมา ได้จ้างนักวิทยาศาสตร์ทางสังคมจำนวนมาก เพื่อวิเคราะห์ผลกระทบของโซเชียลเน็ตเวิร์คต่อผู้ใช้ โดยหวังจะแสดงให้เห็นถึงความรับผิดชอบของบริษัทต่อความเสี่ยงจากนวัตกรรม อย่างไรก็ตาม คำตัดสินล่าสุดแสดงให้เห็นว่าผลการวิจัยที่เดิมใช้เพื่อปรับปรุงผลิตภัณฑ์หรือประชาสัมพันธ์ ได้ถูกนำมาอ้างอิงในศาลว่าเป็นหลักฐานที่ “รู้เห็นเป็นใจ” อดีตผู้บริหารระดับสูงของ Meta ไบรอัน โบแลนด์ (Brian Boland) ชี้ให้เห็นว่าผลการวิจัยภายในมักขัดแย้งกับภาพลักษณ์ที่บริษัทสร้างขึ้นภายนอก การสอบสวนภายในแสดงให้เห็นว่า ผู้ใช้ Instagram ที่เป็นวัยรุ่นมีแนวโน้มที่จะเผชิญกับการล่วงละเมิดทางเพศ ซึ่งกลายเป็นหลักฐานที่เอื้อประโยชน์ต่อข้อกล่าวหาของทนายความในกรณีความประมาท ผลการวิจัยที่เคยถูกมองว่าเป็นความรับผิดชอบทางสังคมของบริษัท กลับกลายเป็นภาระหนักในทางกฎหมาย
ผู้เชี่ยวชาญวิตกกังวลเกี่ยวกับการลบล้างนักวิจัยของบริษัทที่ลดทอนการประเมิน
ตั้งแต่ปี 2021 เมื่อผู้จัดการผลิตภัณฑ์ ฟรานเซส ฮอเกน (Frances Haugen) เปิดเผยเอกสารภายในจำนวนมาก Meta ได้เข้มงวดการควบคุมการวิจัยภายในอย่างมาก เอกสารที่รั่วไหลออกมายืนยันว่า Meta รู้แล้วว่าผลิตภัณฑ์อาจส่งผลกระทบเชิงลบ เหตุการณ์นี้ถูกมองว่าเป็นจุดเปลี่ยนของการกำกับดูแลทั่วโลก องค์กรไม่แสวงหาผลกำไร Children and Screens (เด็กและหน้าจอ, สถาบันวิจัยสื่อดิจิทัลและการพัฒนาเด็ก) ระบุว่า เพื่อตอบสนองต่อความเสี่ยงทางกฎหมาย บริษัทเทคโนโลยีหลายแห่งเริ่มปรับกลยุทธ์ โดยตัดทอนการวิจัยที่อาจไม่เป็นประโยชน์ต่อบริษัท ตามรายงานที่เกี่ยวข้อง Meta และบริษัทเทคโนโลยีอื่นๆ กำลังค่อยๆ ลดขนาดทีมวิจัย รวมถึงลบเครื่องมือข้อมูลที่ใช้สำหรับนักวิจัยภายนอก ผู้เชี่ยวชาญวิตกกังวลว่าหากบริษัทยังคงมองการวิจัยด้านความปลอดภัยว่าเป็นภาระ จะทำให้ความสามารถในการประเมินอย่างเป็นธรรมลดน้อยลง
การวิจัยด้านความปลอดภัยของ AI ที่ไม่เพียงพอส่งผลกระทบต่อสุขภาพจิต
OpenAI, Google และ Meta ได้ลงทุนทรัพยากรจำนวนมากในการวิจัยโมเดล แต่การวิจัยเกี่ยวกับผลกระทบทางจิตใจต่อผู้บริโภคกลับไม่มีอยู่เลย เคท บลอคเกอร์ (Kate Blocker) วิเคราะห์ว่าการพัฒนา AI ในปัจจุบันมุ่งเน้นไปที่เทคโนโลยี แทนที่จะเป็นผลกระทบระยะยาวต่อการพัฒนาจิตใจของวัยรุ่นและเด็กจากแชทบอทหรือผู้ช่วยดิจิทัล ผู้เชี่ยวชาญกังวลว่า AI อาจทำซ้ำความผิดพลาดของโซเชียลมีเดีย เนื่องจากความกังวลว่าผลการวิจัยในอนาคตอาจกลายเป็นหลักฐานที่ไม่ดีในศาล การลบล้างนักวิจัยทั้งหมดอาจทำให้ประชาชนไม่มีความตระหนักรู้ต่ออันตรายที่อาจเกิดขึ้นจากผลิตภัณฑ์ AI ส่งผลให้เกิดความเสียหายทางกายและจิตใจ
บทความนี้เกี่ยวกับการที่ Meta แพ้คดีอาจเร่งให้ผู้ประกอบการเทคโนโลยีลดการวิจัยทางสังคมและจิตวิทยา เพิ่มความเสี่ยงของผู้บริโภค ปรากฏครั้งแรกใน เชนน์ข่าว ABMedia.