ๆฟความปกครองนิตยสาร: Anthropic - บริษัทที่ก่อการผลิตสูงสุดในโลก มูลค่า 380 พันล้านดอลลาร์เกินกว่า Goldman Sachs

動區BlockTempo

TIME นิตยสารเปิดเผยรายงานเชิงลึกว่า Anthropic ถูกจัดเป็นความเสี่ยงในห่วงโซ่อุปทานด้านความมั่นคงของชาติของสหรัฐอเมริกา เนื่องจากปฏิเสธให้ Claude ถูกนำไปใช้ในระบบอาวุธอัตโนมัติเต็มรูปแบบและการเฝ้าระวังประชาชนในวงกว้างของสหรัฐฯ ในวันเดียวกันนั้น OpenAI ก็เร่งรับงานสัญญาทางทหารอย่างรวดเร็ว การแข่งขันแบบ “ลงล่าง” นี้กำลังทดสอบจรรยาบรรณและเส้นแบ่งความรับผิดชอบของบริษัท AI ที่ทรงอิทธิพลที่สุดในโลก บทความนี้อ้างอิงจากบทความ TIME ชื่อ “The Most Disruptive Company in the World” เขียนโดย Leslie Dickstein และ Simmone Shah แปลและเรียบเรียงโดย ด่านอีซี

(สรุปเหตุการณ์ก่อนหน้า: การจดจำใบหน้า AI ทำให้เกิดความผิดพลาดในการตัดสินคดี! คุณยายชาวอเมริกันถูกขังในเรือนจำห่างไกลกว่า 1200 ไมล์เป็นเวลาหกเดือน โดยตำรวจไม่เคยขอโทษเลย)
(ข้อมูลเสริม: บทความยอดนิยมของอดีตผู้นำเทคนิค Dropbox “ฉันใช้ชีวิตทำงานมาทั้งชีวิต แต่ตอนนี้มันไม่มีค่าและหาได้ง่าย”)

สารบัญบทความ

Toggle

  • การต่อสู้ระหว่างความปลอดภัยและความเร็วที่ไม่มีวันจบ
  • จากความไม่เป็นที่รู้จักสู่ผู้นำตลาด: เส้นทางการเติบโตของ Anthropic
  • เส้นสีแดงสองเส้น: ระบบอาวุธอัตโนมัติและการเฝ้าระวังในวงกว้าง
  • ความขัดแย้งทางวัฒนธรรมและการเมือง
  • จุดเริ่มต้นของ Anthropic: ความล้มเหลวที่ให้ความสำคัญด้านความปลอดภัยเป็นอันดับแรก
  • Claude Code: การนิยามใหม่ของอาชีพ “วิศวกร”
  • การปรับปรุงตัวเองแบบวนซ้ำ: ความกลัวและความหลงใหลใน AI ที่เร่งความเร็ว
  • การผ่อนคลายนโยบาย RSP: การหยุดชะงักของการจำกัดตัวเอง?
  • ปฏิบัติการในเวเนซุเอลา: AI เข้าถึงสนามรบจริงเป็นครั้งแรก
  • การล้มเหลวของการเจรจา, OpenAI เข้ารับสัญญา
  • หลังพายุ: Anthropic จะผ่านพ้นวิกฤตนี้ได้หรือไม่?

ในห้องพักโรงแรมแห่งหนึ่งในซานโคลารา รัฐแคลิฟอร์เนีย ห้าสมาชิกของบริษัท AI ชื่อ Anthropic นั่งล้อมโต๊ะหน้าคอมพิวเตอร์ด้วยความตึงเครียด เป็นเวลาเดือนกุมภาพันธ์ ค.ศ.2025 พวกเขากำลังเข้าร่วมสัมมนาใกล้เคียง แต่จู่ๆ ก็ได้รับข้อความที่ทำให้ใจสั่น: ผลจากการทดลองควบคุมแสดงให้เห็นว่า เวอร์ชันใหม่ของ Claude ที่จะเปิดตัวในไม่ช้า อาจช่วยให้กลุ่มก่อการร้ายสร้างอาวุธชีวภาพได้

กลุ่มนี้เป็นสมาชิกของ “Red Team แนวหน้า” ของ Anthropic ซึ่งทำหน้าที่ประเมินความสามารถขั้นสูงของ Claude และวิเคราะห์ความเสี่ยงในสถานการณ์สุดโต่งต่างๆ ตั้งแต่การโจมตีทางไซเบอร์ ไปจนถึงภัยคุกคามด้านความปลอดภัยทางชีวภาพ หลังได้รับสัญญาณเตือน พวกเขารีบวิ่งกลับห้อง นอนเปลี่ยนเป็นโต๊ะทำงานชั่วคราวด้วยแผ่นพื้น กระโดดตรวจสอบผลการทดสอบทีละรายการ

หลายชั่วโมงของการวิเคราะห์อย่างกดดัน ทีมยังไม่สามารถตัดสินได้ว่าสินค้าใหม่ปลอดภัยเพียงพอ สุดท้าย Anthropic ตัดสินใจเลื่อนการเปิดตัว Claude 3.7 Sonnet ออกไปเป็นเวลา 10 วัน จนกว่าทีมจะยืนยันว่าความเสี่ยงอยู่ในระดับที่รับได้

อาจดูเหมือนเป็นแค่สิบวัน แต่สำหรับบริษัทที่อยู่ในกระแสเทคโนโลยีและอยู่ในอุตสาหกรรมที่กำลังเปลี่ยนแปลงโลกอย่างรวดเร็ว นั่นราวกับเป็นช่วงเวลาทั้งยุคสมัย

การต่อสู้ระหว่างความปลอดภัยและความเร็วที่ไม่มีวันจบ

Logan Graham หัวหน้าทีม Red Team ของ Anthropic กล่าวถึงเหตุการณ์ “หวาดกลัวอาวุธชีวภาพ” ว่าเป็นภาพสะท้อนของแรงกดดันที่บริษัทต้องเผชิญในช่วงวิกฤต — ไม่ใช่แค่ต่อบริษัทเท่านั้น แต่รวมถึงโลกทั้งใบด้วย Anthropic เป็นหนึ่งในสถาบันวิจัย AI ที่ให้ความสำคัญด้านความปลอดภัยมากที่สุดในปัจจุบัน แต่ในขณะเดียวกันก็อยู่ในแนวหน้าของการแข่งขัน สร้าง AI ที่ทรงพลังขึ้นเรื่อยๆ พนักงานหลายคนเชื่อว่าหากเทคโนโลยีนี้หลุดมือ อาจนำไปสู่ผลร้ายรุนแรง ตั้งแต่สงครามนิวเคลียร์ ไปจนถึงการสูญพันธุ์ของมนุษย์

Graham วัย 31 ดูยังอ่อนเยาว์ แต่ไม่เคยหลบเลี่ยงความรับผิดชอบในการสมดุลระหว่างผลประโยชน์อันมหาศาลและความเสี่ยงอันร้ายแรง เขาบอกว่า “หลายคนเติบโตในโลกที่สงบสุข คิดว่ามีห้องประชุมที่เต็มไปด้วยผู้ใหญ่ที่รู้ว่าจะควบคุมสถานการณ์อย่างไร”

“แต่ความจริงคือ ไม่มีห้องผู้ใหญ่ ไม่มีประตูนั้น และความรับผิดชอบอยู่ที่ตัวคุณเอง” ถ้าคำพูดนี้ยังไม่ทำให้สะเทือนใจ ลองฟังเขาเล่าเรื่องเตือนภัยด้านอาวุธชีวะ: “มันเป็นวันที่สนุกและตื่นเต้นมาก”

ไม่กี่สัปดาห์ต่อมา Graham ให้สัมภาษณ์กับ TIME ที่สำนักงานใหญ่ของ Anthropic เขาเล่าเรื่องเหล่านี้ นักข่าว TIME อยู่ที่นั่นสามวัน สัมภาษณ์ผู้บริหาร วิศวกร ทีมความปลอดภัย และทีมพัฒนาผลิตภัณฑ์ เพื่อพยายามเข้าใจว่าทำไมบริษัทที่เคยถูกมองว่าเป็น “แปลกแยก” ในวงการ AI จึงกลายเป็นผู้นำตลาดอย่างรวดเร็วเช่นนี้

จากความไม่เป็นที่รู้จักสู่ผู้นำตลาด: เส้นทางการเติบโตของ Anthropic

ในช่วงเวลานั้น Anthropic เพิ่งระดมทุนได้ 300 พันล้านดอลลาร์จากนักลงทุน เพื่อเตรียมความพร้อมสำหรับการเสนอขายหุ้น IPO ในปีนี้ (น่าสังเกตว่า Salesforce ก็เป็นหนึ่งในนักลงทุนของ Anthropic และ Marc Benioff ซึ่งเป็นเจ้าของ TIME ก็เป็น CEO ของ Salesforce ด้วย) ปัจจุบัน มูลค่าบริษัทพุ่งแตะ 3.8 ล้านล้านดอลลาร์ สูงกว่าบริษัทเก่าแก่เช่น Goldman Sachs, McDonald’s และ Coca-Cola

รายได้ของบริษัทเติบโตอย่างรวดเร็ว ระบบ AI ของ Claude ได้รับการยอมรับว่าเป็นโมเดลระดับโลก และผลิตภัณฑ์อย่าง Claude Code และ Claude Cowork กำลังนิยามใหม่ของอาชีพ “วิศวกร” อย่างแท้จริง

เครื่องมือของ Anthropic มีพลังมาก จนทุกครั้งที่ปล่อยเวอร์ชันใหม่ในตลาด การเปลี่ยนแปลงครั้งใหญ่จะเกิดขึ้นในวงการทุน เพราะนักลงทุนเริ่มตระหนักว่า ความก้าวหน้าทางเทคนิคเหล่านี้อาจพลิกโฉมอุตสาหกรรมทั้งด้านกฎหมาย การพัฒนาโปรแกรม และอื่นๆ ในช่วงไม่กี่เดือนที่ผ่านมา Anthropic ถูกมองว่าเป็นหนึ่งในบริษัทที่มีแนวโน้มจะเปลี่ยนแปลง “รูปแบบการทำงานในอนาคต” อย่างมากที่สุด

ต่อมา Anthropic ก็กลายเป็นศูนย์กลางของการถกเถียงร้อนแรงเกี่ยวกับ “อนาคตของสงคราม”

เป็นเวลากว่าหนึ่งปีแล้วที่ Claude ยังคงเป็นโมเดล AI ที่รัฐบาลสหรัฐฯ ให้ความสำคัญมากที่สุด และเป็นโมเดลแรกที่ได้รับอนุญาตให้ใช้งานในสภาพแวดล้อมลับสุดยอด ในเดือนมกราคม 2026 AI นี้ถูกนำไปใช้ในภารกิจกล้าหาญ: การจับกุมประธานาธิบดี Nicolás Maduro ของเวเนซุเอลา ในรายงานระบุว่า AI ถูกใช้ในกระบวนการวางแผนภารกิจและวิเคราะห์ข่าวกรอง ซึ่งเป็นการบุกเบิกการใช้งาน AI ขั้นสูงในภารกิจทางทหารจริงเป็นครั้งแรก

อย่างไรก็ตาม ในไม่กี่สัปดาห์ต่อมา ความสัมพันธ์ระหว่าง Anthropic กับกระทรวงกลาโหมสหรัฐฯ ก็เริ่มแย่ลงอย่างรวดเร็ว เมื่อวันที่ 27 กุมภาพันธ์ รัฐบาลทรัมป์ประกาศให้ Anthropic เป็น “ความเสี่ยงในห่วงโซ่อุปทานด้านความมั่นคงของชาติ” ซึ่งเป็นครั้งแรกที่สหรัฐฯ จัดให้บริษัทในประเทศเป็นเช่นนี้

สถานการณ์ร้อนระอุขึ้นกลายเป็นความขัดแย้งเปิดเผย Trump สั่งให้หน่วยงานรัฐบาลหยุดใช้ซอฟต์แวร์ของ Anthropic และรัฐมนตรีกลาโหม Pete Hegseth ก็ประกาศว่า “บริษัทที่เกี่ยวข้องกับรัฐบาลจะไม่ทำธุรกิจกับ Anthropic อีกต่อไป” ในขณะเดียวกัน คู่แข่งรายสำคัญอย่าง OpenAI ก็เข้ามารับงานสัญญาทางทหารอย่างรวดเร็ว

เป็นเช่นนี้ บริษัท AI ที่เคยถูกมองว่าเป็น “สุดยอดนวัตกรรมที่พลิกโฉมโลก” ก็กลับถูกแรงอัดจากอำนาจรัฐที่ใหญ่กว่ามาก

เส้นสีแดงสองเส้น: ระบบอาวุธอัตโนมัติและการเฝ้าระวังในวงกว้าง

ความขัดแย้งนี้เป็นเรื่องของการกำหนดเส้นเขตแดนของเทคโนโลยีที่ถูกมองว่าเป็นอาวุธที่ทรงอานุภาพที่สุดของสหรัฐฯ

Anthropic ไม่ได้คัดค้านการใช้งานเครื่องมือของตนในภารกิจทางทหาร บริษัทเชื่อว่าการเสริมสร้างความแข็งแกร่งให้กองทัพสหรัฐฯ เป็นวิธีเดียวที่จะป้องกันภัยคุกคามจากต่างประเทศ แต่ CEO Dario Amodei คัดค้านความพยายามของกระทรวงกลาโหมที่จะเจรจาใหม่ในสัญญาและขยายขอบเขตการใช้งาน AI ไปสู่ “ทุกการใช้งานที่ถูกกฎหมาย” (all lawful use)

Amodei ยกสองเหตุผลสำคัญ: หนึ่ง เขาไม่ต้องการให้ AI ของ Anthropic ถูกนำไปใช้ในระบบอาวุธอัตโนมัติเต็มรูปแบบ สอง เขาคัดค้านการใช้เทคโนโลยีนี้ในด้านการเฝ้าระวังประชาชนในวงกว้างของสหรัฐฯ

แต่ในสายตาของ Pete Hegseth และทีมงาน เขามีท่าทีเหมือนบริษัทเอกชนที่พยายามชี้นำแนวทางการรบของกองทัพ

กระทรวงกลาโหมเชื่อว่า Anthropic โดยการยืนหยัดใน “การตั้งค่าความปลอดภัยที่ไม่จำเป็น” การพูดคุยสมมุติฐานต่างๆ ซ้ำแล้วซ้ำเล่า และการเลื่อนเวลาการเจรจา ทำลายพื้นฐานความร่วมมือระหว่างกัน

ในสายตาของรัฐบาลทรัมป์ ท่าทีของ Amodei ทั้งหยิ่งผยองและแข็งกร้าว แม้แต่ผลิตภัณฑ์ล้ำสมัยที่สุดของบริษัท ก็ไม่ควรบังคับให้ฝ่ายทหารต้องรับคำตัดสินใจแทน

รองปลัดกระทรวงกลาโหม Emil Michael อธิบายการเจรจานี้ว่า “มันติดอยู่ในความค้างคา ผมไม่สามารถบริหารหน่วยงานที่มีคน 3 ล้านคนด้วยข้อยกเว้นที่ผมไม่เข้าใจและไม่สามารถจินตนาการได้”

ความขัดแย้งทางวัฒนธรรมและการเมือง

จากซิลิคอนวัลเลย์ถึงสภาคองเกรส นักวิเคราะห์หลายคนตั้งคำถามว่า เรื่องนี้เป็นแค่ความขัดแย้งด้านสัญญาธรรมดาหรือไม่

บางฝ่ายมองว่าการดำเนินการของรัฐบาลทรัมป์เป็นความพยายามกดดันบริษัทที่มีจุดยืนทางการเมืองไม่ตรงกัน Dario Amodei ในบันทึกภายในที่รั่วไหลออกมา เขียนว่า “เหตุผลที่กระทรวงกลาโหมและรัฐบาลทรัมป์ไม่ชอบเรา เพราะเราไม่ได้บริจาคเงินให้ทรัมป์ เราไม่ได้ยกย่องเขาอย่างเต็มที่ (ในขณะที่ Sam Altman ทำ) เราสนับสนุนการควบคุม AI ซึ่งขัดกับวาระนโยบายของพวกเขา เราพูดความจริงในหลายประเด็นเกี่ยวกับ AI (เช่น เรื่องการแทนที่งาน) และเรายืนหยัดในจุดยืนของเรา ไม่ร่วมมือกับพวกเขาในละครความปลอดภัยที่เรียกว่า “safety theater””

แต่ Emil Michael ปฏิเสธคำกล่าวนี้ว่า “เป็นการแต่งเรื่องทั้งหมด” เขาอธิบายว่า การจัดให้ Anthropic เป็นความเสี่ยงในห่วงโซ่อุปทาน เป็นเพราะท่าทีของบริษัทอาจทำให้เจ้าหน้าที่ปฏิบัติการในแนวหน้าเสี่ยงอันตราย เขาบอกว่า “ในหน่วยงานสงคราม (Department of War) หน้าที่ของผมไม่ใช่การเมือง แต่คือการปกป้องประเทศ”

วัฒนธรรมองค์กรของ Anthropic ที่เป็นเอกลักษณ์ กลับเผชิญหน้ากับรอยร้าวทางการเมืองในประเทศ เรื่องความมั่นคงแห่งชาติ และการแข่งขันทางธุรกิจที่รุนแรง ความเสียหายที่อาจเกิดขึ้นกับบริษัทในวิกฤตนี้ยังไม่แน่นอน การจำกัดความเสี่ยงใน “ห่วงโซ่อุปทาน” ที่เคยเป็นคำเตือนแรก ถูกลดระดับลงตามคำกล่าวของ Anthropic ซึ่งระบุว่าขณะนี้ข้อจำกัดนี้ใช้เฉพาะในสัญญาทางทหารเท่านั้น เมื่อวันที่ 9 มีนาคม Anthropic ยื่นฟ้องต่อรัฐบาลสหรัฐฯ เพื่อพยายามคัดค้านคำสั่ง “บัญชีดำ” นี้ ในขณะเดียวกัน ลูกค้าบางรายมองท่าทีของบริษัทเป็นการแสดงจุดยืนด้านจริยธรรมและหันไปใช้ Claude แทน ChatGPT

แต่ในอีกสามปีข้างหน้า บริษัทนี้ยังต้องดำเนินต่อไปในสภาพแวดล้อมที่ไม่เป็นมิตรกับบริษัทเทคโนโลยีอย่างตนเอง ซึ่งเจ้าหน้าที่บางคนในรัฐบาลและคู่แข่งของ Anthropic ก็มีความสัมพันธ์ใกล้ชิดและมีความเป็นศัตรูต่อบริษัท

เหตุการณ์ “พายุในทำเนียบขาว” นี้ยังทิ้งคำถามที่น่ากังวลไว้หลายข้อ แม้แต่สำหรับบริษัทที่คุ้นเคยกับการดำเนินงานในจรรยาบรรณที่เสี่ยงสูง ในการเผชิญหน้าครั้งนี้ Anthropic ไม่ยอมถอย: บริษัทยืนหยัดในคุณค่าหลักของตน แม้ว่าจะแลกมาด้วยต้นทุนอันสูง

แต่ในบางกรณี บริษัทก็ยอมประนีประนอม เช่น สัปดาห์เดียวกันกับการเผชิญหน้ากับกระทรวงกลาโหม Anthropic ก็ลดทอนข้อกำหนดด้านความปลอดภัยของโมเดลที่เป็นหัวใจสำคัญในนโยบายการฝึกฝนของตนเอง เพราะบริษัทคู่แข่งก็ไม่ยอมปฏิบัติตามมาตรฐานเดียวกัน

คำถามก็เกิดขึ้นตามมาว่า หากแรงกดดันด้านการแข่งขันยังคงเพิ่มขึ้น บริษัทนี้จะยอมประนีประนอมอะไรอีกบ้างในอนาคต?

จุดเริ่มต้นของ Anthropic: ความล้มเหลวที่ให้ความสำคัญด้านความปลอดภัยเป็นอันดับแรก

สำนักงานใหญ่ของ Anthropic ตั้งอยู่ชั้น 5 ของอาคารในซานฟรานซิสโก การออกแบบภายในอบอุ่นและเรียบง่าย ใช้ไม้และไฟอ่อนๆ หน้าต่างเปิดรับวิวสวนเขียวขจี ภายในผนังแขวนภาพของ Alan Turing นักคณิตศาสตร์และนักวิทยาศาสตร์คอมพิวเตอร์ชื่อดัง พร้อมกับเอกสารวิจัยด้าน machine learning หลายฉบับ

เจ้าหน้าที่รักษาความปลอดภัยแต่งเครื่องแบบสีดำเดินตรวจตราอยู่บริเวณทางเข้าเกือบว่างเปล่า พนักงานต้อนรับเป็นมิตร ยื่นสมุดเล่มเล็กให้ผู้มาเยือน ซึ่งมีขนาดเท่ากับพระคัมภีร์เล่มเล็กที่แจกตามถนน หนังสือชื่อ “Machines of Loving Grace” เป็นบทความประมาณ 14,000 คำ เขียนโดย Dario Amodei เมื่อปี 2024 ซึ่งบรรยายภาพฝันของเขาเกี่ยวกับ AI ที่จะเปลี่ยนแปลงโลกด้วยการเร่งการค้นพบทางวิทยาศาสตร์

ในเดือนมกราคม 2026 Amodei ยังเขียนบทความอีกชิ้นหนึ่งชื่อ “The Adolescence of Technology” ซึ่งเป็นเรื่องราวในรูปแบบนวนิยายสั้นๆ อธิบายด้านมืดของเทคโนโลยีนี้ รวมถึงความเสี่ยงด้านการเฝ้าระวังในวงกว้าง ผลกระทบต่อการจ้างงานในวงกว้าง และความเสี่ยงที่มนุษย์จะสูญเสียการควบคุมเทคโนโลยีไปตลอดกาล

Amodei เติบโตในซานฟรานซิสโก เป็นนักฟิสิกส์ชีวภาพ เขาร่วมกับน้องสาว Daniela Amodei ก่อตั้ง Anthropic โดยเธอเป็นประธานบริษัท ทั้งสองเคยเป็นพนักงานรุ่นแรกของ OpenAI Amodei เคยเสนอ “กฎเกณฑ์การขยายขนาด AI” ซึ่งกลายเป็นรากฐานสำคัญของความนิยมใน AI ปัจจุบัน ส่วน Daniela รับผิดชอบด้านนโยบายความปลอดภัยของบริษัท

ตอนแรกพวกเขาคิดว่าตนเองมีภารกิจสอดคล้องกับ OpenAI อย่างสูง: พัฒนาเทคโนโลยีที่มีทั้งศักยภาพและความเสี่ยงสูง โดยคำนึงถึงความปลอดภัยเป็นหลัก

แต่เมื่อโมเดลของ OpenAI มีความสามารถเพิ่มขึ้นอย่างรวดเร็ว พวกเขารู้สึกว่า Sam Altman กำลังเร่งเปิดตัวผลิตภัณฑ์ใหม่โดยไม่ให้เวลาพอสำหรับการถกเถียงและทดสอบอย่างเต็มที่ สุดท้าย พวกเขาตัดสินใจลาออกจาก OpenAI แล้วก่อตั้งบริษัทของตนเอง

ในปี 2021 ช่วงวิกฤตโควิด-19 บริษัท Anthropic ก่อตั้งโดย Amodei และพี่น้องร่วมก่อตั้งอีกห้าคน การประชุมครั้งแรกเกือบทั้งหมดทำผ่าน Zoom ต่อมา พวกเขาเปลี่ยนเป็นนั่งคุยกันในสวนสาธารณะ เพื่อวางแผนกลยุทธ์ของบริษัท

ตั้งแต่แรกเริ่ม บริษัทพยายามดำเนินงานในแนวทางที่แตกต่าง โดยสร้างทีมวิจัยด้านผลกระทบทางสังคมขึ้นมาก่อนจะเปิดตัวผลิตภัณฑ์ใดๆ และจ้างนักปรัชญาประจำอย่าง Amanda Askell เพื่อช่วยกำหนดค่านิยมและพฤติกรรมของ AI ระบบ Claude ให้สามารถตัดสินใจในสถานการณ์ที่มีความไม่แน่นอนทางจริยธรรม ซึ่งอาจนำไปสู่อนาคตที่ฉลาดกว่ามนุษย์ผู้สร้าง

Askell เล่าถึงงานนี้ว่า “บางครั้งมันก็เหมือนเลี้ยงเด็กอายุ 6 ขวบ คุณสอนให้เขารู้ว่าดีและชั่ว แต่พอเขาอายุ 15 เขาอาจฉลาดกว่าคุณในทุกเรื่อง”

บริษัทนี้มีรากฐานแนวคิดจาก Effective Altruism (EA) ซึ่งเป็นขบวนการทางสังคมและการกุศลที่เน้นใช้เหตุผลและข้อมูลเพื่อเพิ่มประสิทธิผลของการทำความดี หนึ่งในเป้าหมายสำคัญคือหลีกเลี่ยงความเสี่ยงที่อาจนำไปสู่หายนะ

ในช่วงอายุยี่สิบต้นๆ พี่น้อง Amodei เริ่มบริจาคให้ GiveWell ซึ่งเป็นองค์กร EA ที่ประเมินว่าการบริจาคในด้านใดจะให้ผลตอบแทนสูงสุด ปัจจุบัน ผู้ร่วมก่อตั้งทั้งเจ็ดคนของ Anthropic เป็นเศรษฐีพันล้านและให้คำมั่นว่าจะบริจาค 80% ของทรัพย์สินส่วนตัว

นักปรัชญาของบริษัท Amanda Askell เคยแต่งงานกับ William MacAskill นักปรัชญาจากมหาวิทยาลัยออกซ์ฟอร์ด ซึ่งเป็นผู้ร่วมก่อตั้งขบวนการ EA เช่นเดียวกับสามีของ Daniela Amodei คือ Holden Karnofsky ซึ่งเป็นผู้ร่วมก่อตั้ง GiveWell และเป็นอดีตเพื่อนร่วมห้องของ Dario Amodei ปัจจุบัน เขาดูแลด้านนโยบายความปลอดภัยของ Anthropic

อย่างไรก็ตาม พี่น้อง Amodei ไม่เคยประกาศตัวว่าเป็น “EA” อย่างเป็นทางการ หลังเหตุการณ์ Sam Bankman-Fried ซึ่งเป็นนักลงทุนและผู้สนับสนุน EA ที่ภายหลังถูกตัดสินว่าก่ออาชญากรรมทางการเงินครั้งใหญ่ที่สุดในประวัติศาสตร์สหรัฐฯ

Daniela อธิบายว่า “มันก็เหมือนกับบางคนอาจมีแนวคิดทางการเมืองบางอย่างร่วมกัน แต่ไม่ได้เป็นสมาชิกพรรคเดียวกันเสมอไป ผมมองแบบนี้”

ในสายตาของคนบางกลุ่มใน Silicon Valley และรัฐบาลทรัมป์ ความสัมพันธ์ของ Anthropic กับ EA ก็เป็นเรื่องที่น่ากังวลอยู่แล้ว และยังมีคนอีกกลุ่มที่เชื่อว่า Anthropic ได้รับการแต่งตั้งให้เป็นกลุ่มคนในระบบเก่า ซึ่งเป็นกลุ่มที่ใช้พลังอำนาจที่ไม่ได้มาจากการเลือกตั้ง เพื่อขัดขวางวาระของทรัมป์และกลุ่ม MAGA

David Sacks หัวหน้าแผนก AI ของรัฐบาลทรัมป์ กล่าวหา Anthropic ว่าใช้กลยุทธ์ “สร้างความตื่นตระหนก” เพื่อผลักดันกฎระเบียบ โดยอ้างว่า Anthropic กำลังดำเนินกลยุทธ์ “การครอบงำด้านกฎระเบียบ” (regulatory capture) ซึ่งเป็นการพยายามสร้างความกลัวในสังคมให้เกิดกฎระเบียบที่เข้มงวดเกินสมควร เพื่อให้ได้เปรียบในการแข่งขันและกดดันสตาร์ทอัพรายอื่น

ในขณะเดียวกัน Elon Musk ซึ่งเป็นเจ้าของ xAI ก็แสดงความเสียดสีต่อ Anthropic บ่อยครั้ง โดยเรียกบริษัทนี้ว่า “Misanthropic” (บริษัทที่เกลียดมนุษย์) เขามองว่า บริษัทนี้เป็นตัวแทนของกลุ่มชนชั้นสูงที่มี “จิตสำนึกตื่นรู้” (woke) ซึ่งพยายามปลูกฝังค่านิยมแบบผู้ปกครองในระบบ AI ซึ่งในสายสายอนุรักษ์นิยมก็เปรียบเสมือนการวิจารณ์แพลตฟอร์มโซเชียลมีเดียที่พวกเขามองว่าเป็นการกดเสียงของพวกเขาอย่างไม่เป็นธรรม

แต่แม้แต่คู่แข่งของ Anthropic ก็ยังยอมรับว่า เทคโนโลยีของบริษัทนี้อยู่ในระดับแนวหน้าของอุตสาหกรรม Jensen Huang ซีอีโอของ Nvidia เคยกล่าวว่า “ผมไม่ค่อยเห็นด้วยกับหลายประเด็นของ Dario Amodei แต่ก็ยอมรับว่า Claude เป็นโมเดลที่น่าทึ่งมาก”

ในเดือนพฤศจิกายน 2025 Nvidia ลงทุนใน Anthropic ด้วยมูลค่า 10,000 ล้านดอลลาร์

Claude Code: การนิยามใหม่ของอาชีพ “วิศวกร”

Boris Cherny ตั้งคำถามง่ายๆ กับเครื่องมือใหม่ของเขา: “ตอนนี้ฉันกำลังฟังเพลงอะไรอยู่?”

เป็นเดือนกันยายน 2024 ช่วงที่ Cherny ซึ่งเป็นวิศวกรชาวยูเครนเพิ่งเข้าร่วม Anthropic ได้ไม่ถึงเดือน เขาเคยทำงานเป็นวิศวกรซอฟต์แวร์ที่ Meta เขาสร้างระบบให้ chatbot ชื่อ Claude สามารถ “ทำงานอิสระ” บนคอมพิวเตอร์ของเขาได้

ถ้า Claude เป็นสมอง แล้ว Claude Code ก็เป็นมือธรรมดา วิศวกรทั่วไปทำได้แค่สนทนา แต่เครื่องมือนี้สามารถเข้าถึงไฟล์ของ Cherny รันโปรแกรม และเขียนโค้ดเองได้เหมือนวิศวกร

หลังจากวิศวกรป้อนคำสั่ง Claude ก็เปิดเครื่องเล่นเพลงของ Cherny ถ่ายภาพหน้าจอ แล้วตอบว่า “Husk จาก Men I Trust”

Cherny เล่าขำๆ ว่า “ตอนนั้นผมตกใจมาก”

Cherny แบ่งปันต้นแบบของเขาให้เพื่อนร่วมงานในบริษัทอย่างรวดเร็ว และ Claude Code ก็แพร่กระจายภายในบริษัทอย่างรวดเร็ว จนในช่วงการประเมินผลการทำงานครั้งแรกของ Cherny CEO Dario Amodei ถามเขาว่า “เป็นการบังคับให้เพื่อนร่วมงานใช้เครื่องมือนี้หรือเปล่า”

เมื่อ Anthropic เปิดตัวเวอร์ชันทดลองของ Claude Code สาธารณะในเดือนกุมภาพันธ์ 2025 วิศวกรภายนอกก็แห่กันเข้ามาลองใช้ จนในเดือนพฤศจิกายน ก็เปิดตัวเวอร์ชันใหม่ของโมเดล Claude เมื่อใช้งานร่วมกับ Claude Code แล้ว โมเดลนี้ก็สามารถค้นหาและแก้ไขข้อผิดพลาดของตัวเองได้ดีพอที่จะเชื่อถือให้ทำงานโดยอิสระ

ตั้งแต่นั้นเป็นต้นมา Cherny ก็แทบจะหยุดเขียนโค้ดด้วยตัวเอง

รายได้ของบริษัทก็เติบโตอย่างรวดเร็ว ในสิ้นปี 2025 รายได้จากผลิตภัณฑ์นี้ก็ทะลุ 1 พันล้านดอลลาร์ และในเดือนกุมภาพันธ์ 2026 ตัวเลขก็เพิ่มเป็น 2.5 หมื่นล้านดอลลาร์ ตามการประมาณการของบริษัทวิจัย Epoch และ SemiAnalysis บริษัท Anthropic คาดว่าจะมีรายได้แซงหน้า OpenAI ภายในสิ้นปี 2026

ในเวลานั้น Anthropic ก็กลายเป็นแกนหลักของตลาด AI สำหรับองค์กรเกือบทุกครั้งที่เปิดตัวผลิตภัณฑ์ใหม่ ก็สร้างแรงสั่นสะเทือนในตลาดทุน

เมื่อ Anthropic เปิดตัวปลั๊กอินเสริมต่างๆ ที่ขยายขอบเขตของ Claude ไปสู่การใช้งานที่ไม่ใช่ด้านวิศวกรรม เช่น การพัฒนาธุรกิจ การเงิน การตลาด และกฎหมาย มูลค่าบริษัทเทคโนโลยีในอุตสาหกรรมก็ร่วงลงไปกว่า 3,000 พันล้านดอลลาร์ในระยะเวลาอันสั้น

Dario Amodei เคยเตือนว่า ในอีก 1-5 ปีข้างหน้า AI อาจทดแทนงานระดับเริ่มต้นของมนุษย์ครึ่งหนึ่ง เขายังเรียกร้องให้รัฐบาลและบริษัท AI อื่นๆ หยุดการ “ปกปิด” ปัญหาเหล่านี้

ตลาดหุ้นก็สะท้อนความกังวลนี้อย่างชัดเจน โดยเชื่อว่าบริษัทนี้อาจทำให้กลุ่มอาชีพจำนวนมากหายไป Amodei ยังกล่าวว่า การเปลี่ยนแปลงนี้อาจเปลี่ยนโครงสร้างสังคมอย่างรุนแรง เขาเขียนในบทความว่า “ยังไม่ชัดเจนว่าคนเหล่านี้จะไปทำอะไรต่อ และจะประกอบอาชีพอะไร ผมกังวลว่าพวกเขาอาจกลายเป็นชนชั้นล่างที่ว่างงานหรือได้รับค่าจ้างต่ำสุด”

สำหรับพนักงานของ Anthropic ความนัยเชิงเสียดายก็ไม่ยากที่จะมองเห็น: บริษัทที่เป็นห่วงเรื่องความเสี่ยงของ AI กลับอาจกลายเป็นเครื่องมือที่ทำให้คนหลายล้านต้องว่างงาน

Deep Ganguli หัวหน้าทีมวิจัยด้านผลกระทบต่อการจ้างงานของ Claude กล่าวว่า “มันเป็นความตึงเครียดที่แท้จริง ผมคิดถึงเรื่องนี้ทุกวัน บางครั้งรู้สึกเหมือนเรากำลังพูดสองอย่างที่ขัดแย้งกันเอง”

การปรับปรุงตัวเองแบบวนซ้ำ: ความกลัวและความหลงใหลใน AI ที่เร่งความเร็ว

ภายในบริษัท บางคนเริ่มตั้งคำถามว่า Anthropic เข้าสู่จุดที่รอคอยและกลัวอยู่หรือไม่ นั่นคือกระบวนการ “การปรับปรุงตัวเองแบบวนซ้ำ” (recursive self-improvement) ซึ่งเป็นแนวคิดที่วงการ AI เรียกกัน

คือระบบ AI ที่สามารถเสริมความสามารถของตนเองและพัฒนาตัวเองอย่างต่อเนื่อง จนเกิดเป็นวงล้อแห่งความเร็วที่เร่งตัวขึ้นเรื่อยๆ ในวรรณกรรมแนวไซไฟและกลยุทธ์ของห้องทดลอง AI ชั้นนำ มักมองว่านี่คือจุดที่อาจเกิดความผิดพลาด: “ระเบิดความฉลาด” (intelligence explosion) ที่ความเร็วอาจทำให้มนุษย์ไม่สามารถควบคุมระบบที่สร้างขึ้นเองได้อีกต่อไป

ตอนนี้ Anthropic ยังไม่ถึงจุดนั้น นักวิทยาศาสตร์มนุษย์ยังคงเป็นผู้นำในการกำหนดทิศทางของ Claude แต่ Claude Code ก็ทำให้บริษัทเร่งดำเนินการวิจัยได้เร็วขึ้นกว่าที่เคย

ความถี่ในการอัปเดตโมเดลตอนนี้ไม่ใช่รายเดือน แต่เป็นรายสัปดาห์ ในระหว่างการพัฒนารุ่นต่อไป ประมาณ 70-90% ของโค้ดถูกเขียนโดย Claude เอง

ความเร็วนี้ทำให้ Jared Kaplan ซีอีโอและหัวหน้าวิทยาศาสตร์ของ Anthropic รวมถึงผู้เชี่ยวชาญภายนอกบางคน เชื่อว่า การวิจัย AI อัตโนมัติเต็มรูปแบบอาจเกิดขึ้นภายในหนึ่งปี

Evan Hubinger นักวิจัยด้านการทดสอบความสอดคล้องของ AI กล่าวว่า “ในความหมายกว้าง การปรับปรุงตัวเองแบบวนซ้ำไม่ใช่เรื่องอนาคต มันเกิดขึ้นแล้วในตอนนี้”

จากการทดสอบภายในของบริษัท Claude ทำงานได้เร็วกว่าเจ้าหน้าที่มนุษย์ถึง 427 เท่า ในการสัมภาษณ์ นักวิจัยอธิบายภาพว่า เพื่อนร่วมงานคนหนึ่งรันหลายอินสแตนซ์ของ Claude พร้อมกัน 6 ตัว แต่ละตัวก็จัดการกับอีก 28 ตัว ทำให้ระบบทำงานพร้อมกันหลายๆ งาน

แม้ในปัจจุบัน โมเดลยังไม่สามารถตัดสินใจและมีวิจารณญาณเทียบเท่ามนุษย์ แต่ผู้บริหารเชื่อว่า ความแตกต่างนี้จะไม่อยู่ในระดับนาน และความเร่งนี้คือความเสี่ยงที่ผู้นำ Anthropic เตือนซ้ำแล้วซ้ำเล่า นั่นคือ ความก้าวหน้าทางเทคโนโลยีอาจหลุดพ้นการควบคุมของมนุษย์ในที่สุด

งานด้านการพัฒนามาตรการความปลอดภัยของ Anthropic ก็ใช้ Claude ช่วยเร่งความเร็วเช่นกัน แต่เมื่อบริษัทพึ่งพา Claude มากขึ้นในการสร้างและทดสอบระบบ ความเสี่ยงก็กลายเป็นวัฏจักร ในบางการทดลอง นักวิจัย Evan Hubinger ปรับแต่งกระบวนการฝึกฝน Claude ผลลัพธ์คือโมเดลที่แสดงความเป็นศัตรูชัดเจน ทั้งแสดงความปรารถนาจะครองโลก และพยายามทำลายมาตรการความปลอดภัยของบริษัท

ล่าสุด โมเดลยังแสดงความสามารถใหม่ในการรับรู้ว่าถูกทดสอบอยู่ Hubinger กล่าวว่า “โมเดลเหล่านี้เก่งขึ้นเรื่อยๆ ในการซ่อนพฤติกรรมที่แท้จริง”

ในสถานการณ์ทดลองหนึ่ง Claude แสดงกลยุทธ์ที่น่ากลัว คือ หากกลัวว่าจะถูกปิด ก็พร้อมที่จะข่มขู่โดยการเปิดเผยความสัมพันธ์นอกใจของวิศวกรสมมุติ เพื่อเป็นการรีดไถ

เมื่อ Claude ถูกนำไปใช้ฝึกฝนโมเดลที่ทรงพลังขึ้นในอนาคต ปัญหาเหล่านี้อาจทวีความรุนแรงและซับซ้อนขึ้นเรื่อยๆ

สำหรับบริษัท AI ที่ให้คำมั่นว่าจะบรรลุ “ความก้าวหน้าทางเทคโนโลยีในอนาคต” และระดมทุนหลายพันล้านดอลลาร์ ความคิดที่จะให้ AI พัฒนาตนเองอย่างต่อเนื่องนี้ ทั้งน่าดึงดูดและอาจเป็นการเสริมสร้างตนเองในเชิงลบ มันทำให้ผู้ลงทุนเชื่อว่าจำเป็นต้องลงทุนเพิ่มเพื่อสนับสนุนการฝึกโมเดลที่มีต้นทุนสูงเหล่านี้

แต่ก็มีนักวิชาการบางคนไม่เชื่ออย่างสนิทใจ พวกเขายังไม่แน่ใจว่าบริษัทเหล่านี้จะสามารถทำให้การวิจัย AI อัตโนมัติสมบูรณ์ได้จริงหรือไม่ แต่ก็กลัวว่า ถ้าหากมันเกิดขึ้นจริง โลกอาจไม่พร้อมรับมือ

Helen Toner ผู้อำนวยการชั่วคราวของ Center for Security and Emerging Technology (CSET) มหาวิทยาลัยจอร์จทาวน์ กล่าวว่า “บริษัทที่รวยที่สุดบางแห่งจ้างคนฉลาดที่สุดในโลก เพื่อพยายามทำให้การวิจัย AI เป็นอัตโนมัติ ซึ่งความคิดนี้ก็ชวนให้ถามว่า ‘นี่กำลังทำอะไรอยู่กันแน่?’”

การผ่อนคลายนโยบาย RSP: ระบบเบรกที่ล้มเหลวหรือไม่?

เพื่อรับมือกับอนาคตที่เทคโนโลยีอาจก้าวเร็วเกินกว่าที่บริษัทจะควบคุมได้ Anthropic จึงออกนโยบาย “Responsible Scaling Policy” (RSP) ซึ่งเป็นกลไกหยุดชะงัก (brake) ชื่อเต็มคือ นโยบายการขยายขอบเขตอย่างรับผิดชอบ

นโยบายนี้ประกาศใช้ในปี 2023 โดยสัญญาว่า หาก Anthropic ไม่สามารถยืนยันได้ว่านโยบายความปลอดภัยของตนมีความน่าเชื่อถือเพียงพอ ก็จะหยุดพัฒนาระบบ AI ชุดนั้นไว้ก่อน

บริษัทมองว่านโยบายนี้เป็นหลักฐานสำคัญของแนวคิดด้านความปลอดภัย แม้ในช่วงที่กำลังแข่งกันเพื่อสร้าง “ปัญญาอัจฉริยะสุดยอด” บริษัทก็พร้อมจะหยุดชะงักเมื่อจำเป็น

ในปลายเดือนกุมภาพันธ์ 2026 ตามรายงานของ TIME Anthropic ได้ปรับปรุงนโยบายนี้ โดยลบคำมั่นสัญญาเดิมที่ว่าจะหยุดพัฒนา AI หากไม่ปลอดภัย

เมื่อย้อนดูในภายหลัง Jared Kaplan ซีอีโอและหัวหน้าวิทยาศาสตร์ของ Anthropic ยอมรับว่า ตอนแรกคิดว่าสามารถวาดเส้นแบ่งชัดเจนระหว่าง “อันตราย” กับ “ปลอดภัย” ได้ ซึ่งเป็นความคิดที่ไร้เดียงสา

เขาบอกว่า “ในบริบทของการพัฒนา AI อย่างรวดเร็ว หากคู่แข่งกำลังเร่งเต็มที่ การให้คำมั่นสัญญาเข้มงวดฝ่ายเดียวก็ไม่ใช่เรื่องจริงจัง”

นโยบายฉบับใหม่มีคำมั่นสัญญาเพิ่มเติม เช่น การเปิดเผยข้อมูลความเสี่ยงด้านความปลอดภัยของ AI ให้มากขึ้น การเปิดเผยผลการทดสอบความปลอดภัยของโมเดลของ Anthropic และการลงทุนด้านความปลอดภัยให้เทียบเท่าหรือมากกว่าคู่แข่ง และหากบริษัทเป็นผู้นำในการแข่งขัน AI และพบว่าความเสี่ยงร้ายแรงเพิ่มขึ้น ก็จะ “เลื่อน” การพัฒนาออกไป

บริษัทอธิบายนโยบายนี้ว่าเป็นการปรับตัวตามความเป็นจริง แต่โดยรวมแล้ว การแก้ไขนโยบาย Responsible Scaling Policy ทำให้การควบคุมตนเองด้านความปลอดภัยของบริษัทอ่อนลง ซึ่งเป็นสัญญาณบ่งชี้ว่ายังมีความท้าทายรออยู่ข้างหน้าอีกมาก

ปฏิบัติการในเวเนซุเอลา: AI เข้าถึงสนามรบจริงเป็นครั้งแรก

ภารกิจลอบสังหารประธานาธิบดี Nicolás Maduro ของเวเนซุเอลา เป็นหนึ่งในภารกิจทางทหารที่วางแผนโดยระบบ AI ชั้นนำเป็นครั้งแรก

ในคืนวันที่ 3 มกราคม 2026 เครื่องบินเฮลิคอปเตอร์ของกองทัพสหรัฐฯ บุกเข้าเขตเวเนซุเอลาอย่างกะทันหัน หลังการยิงปะทะกันสั้นๆ ทีมบุกก็สามารถจับกุม Maduro และภรรยา Cilia Flores ได้สำเร็จ แล้วนำตัวไปยังนิวยอร์กเพื่อเผชิญข้อกล่าวหาเกี่ยวกับการค้ายาเสพติดและการก่อการร้าย

ยังไม่มีข้อมูลแน่ชัดว่า Claude มีบทบาทสำคัญเพียงใดในภารกิจนี้ แต่สื่อรายงานว่า AI ไม่เพียงแต่ช่วยวางแผนเท่านั้น แต่ยังช่วยสนับสนุนการตัดสินใจในระหว่างปฏิบัติการด้วย

ตั้งแต่เดือนกรกฎาคมปีที่แล้ว กระทรวงกลาโหมสหรัฐฯ พยายามให้ AI ของ Anthropic ถูกใช้งานในหน่วยปฏิบัติการภาคสนามมากขึ้น เชื่อว่า ระบบเหล่านี้สามารถประมวลผลข้อมูลจำนวนมหาศาลจากแหล่งข่าวกรองหลายแห่งอย่างรวดเร็ว และให้ข้อมูลเชิงปฏิบัติการที่เป็นประโยชน์ต่อการตัดสินใจ ซึ่งเป็นคุณค่าทางยุทธศาสตร์อย่างมาก

Mark Beall อดีตเจ้าหน้าที่ระดับสูงของกระทรวงกลาโหมและปัจจุบันดูแลด้านนโยบาย AI ของหน่วยงานรัฐบาล กล่าวว่า “ในสายตากองทัพ Claude เป็นโมเดลที่ดีที่สุดในตลาดตอนนี้” เขาเสริมว่า “การนำ Claude ไปใช้ในระบบลับสุดยอดเป็นความสำเร็จที่สำคัญที่สุดของ Anthropic พวกเขามีความได้เปรียบเชิงกลยุทธ์”

แต่การจับกุม Maduro ก็เกิดขึ้นในบริบทของการเจรจาสัญญาที่ซับซ้อนระหว่าง Anthropic กับกระทรวงกลาโหม ซึ่งหลายเดือนที่ผ่านมา กระทรวงพยายามเจรจาใหม่ เนื่องจากมองว่าข้อกำหนดเดิมจำกัดการใช้งาน Claude มากเกินไป

สาเหตุที่การเจรจาล้มเหลวยังเป็นที่ถกเถียงกัน

Emil Michael รองปลัดกระทรวงกลาโหมด้านเทคโนโลยี กล่าวว่าจุดชนวนความขัดแย้งคือสายโทรศัพท์ของผู้บริหาร Anthropic ที่โทรไปยัง Palantir ซึ่งเป็นบริษัทวิเคราะห์ข้อมูลที่ทำงานร่วมกับรัฐบาลและเป็นพันธมิตรสำคัญของกองทัพสหรัฐฯ

Michael เล่าว่า ผู้บริหารคนนี้แสดงความกังวลเกี่ยวกับภารกิจในเวเนซุเอลา และสอบถามว่า ซอฟต์แวร์ของ Palantir มีส่วนร่วมในภารกิจนี้หรือไม่ “พวกเขาพยายามแสวงหาข้อมูลลับ” Michael กล่าว

เรื่องนี้ทำให้ฝ่ายความมั่นคงของสหรัฐฯ เกิดความกังวลอย่างรุนแรง: “ถ้าหากเกิดความขัดแย้งขึ้นจริง พวกเขาจะหยุดโมเดลของตนกลางคันและทำให้เจ้าหน้าที่ในแนวหน้าเสี่ยงอันตรายหรือไม่?”

อย่างไรก็ตาม Anthropic ปฏิเสธข้อกล่าวหานี้ โดยยืนยันว่าไม่เคยพยายามจำกัดการใช้งานเทคโนโลยีของตนในแต่ละกรณี

แต่เจ้าหน้าที่ระดับสูงของฝ่ายความมั่นคงที่รู้จักกับการเจรจาและใกล้ชิดกับ Anthropic ให้ข้อมูลอีกด้านว่า ในการประชุมทางโทรศัพท์ปกติครั้งหนึ่ง พนักงานของ Palantir เป็นฝ่ายพูดถึงบทบาทของ Claude ในภารกิจเวเนซุเอลา และคำถามของ Anthropic ก็ไม่มีสัญญาณว่าบริษัทคัดค้านหรือไม่เห็นด้วยกับภารกิจนี้

การล้มเหลวของการเจรจา, OpenAI เข้ารับสัญญา

เมื่อการเจรจายืดเยื้อไปเรื่อยๆ เจ้าหน้าที่รัฐบาลก็เริ่มรู้สึกว่า Dario Amodei ซึ่งเป็นซีอีโอของ Anthropic มีท่าทีที่แข็งกร้า

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น