$50 ล้านทุนระดมทุน, การแข่งขัน ChatGPT และ AI แบบกระจายศูนย์: สัมภาษณ์สำคัญกับผู้ก่อตั้ง Gonka AI David Liberman และ Daniil Liberman - U.Today

UToday

ในขณะที่การใช้งาน AI tools อย่าง Claude หรือ ChatGPT ทะยานขึ้นอย่างรวดเร็ว โอกาสทางธุรกิจของมันยังคงรอการสำรวจเพิ่มเติม นอกจากนี้ เนื่องจากเป็นธุรกิจที่มีการรวมศูนย์ พวกเขาอาจเสี่ยงต่อการถูกบิดเบือน การโจมตี และการเซ็นเซอร์

กลุ่มทรัพยากร AI แบบกระจายศูนย์ยังอยู่ในช่วงเริ่มต้น กำลังนำโดย David Liberman และ Daniil Liberman Gonka AI เป็นหนึ่งในชื่อใหญ่กลุ่มแรกในกลุ่มนี้ ในการสัมภาษณ์กับ U.Today นักนวัตกรรม AI เหล่านี้พูดคุยเกี่ยวกับความท้าทายและสัญญาของเครือข่าย AI แบบกระจายศูนย์ การระดมทุน การทำโทเคน การตั้งเป้าหมายทางธุรกิจ และอื่นๆ อีกมากมาย

U.Today: สวัสดีครับ David และ Daniil ขอบคุณที่มาร่วมกันนะครับ ช่วยเล่าให้ฟังหน่อยเกี่ยวกับโปรเจกต์และพื้นฐานของคุณในด้าน AI

ผู้ก่อตั้ง Gonka AI: ขอบคุณที่เชิญเรา – เรายินดีที่จะแบ่งปันเรื่องราวและพูดคุยเกี่ยวกับแนวคิดเบื้องหลัง Gonka

เราได้สร้างเทคโนโลยีร่วมกันมาตลอดชีวิต งานแรกๆ ของเรามีทั้งในด้านการคำนวณแบบกระจาย กราฟิกคอมพิวเตอร์ และการพัฒนาเกม ซึ่งเราได้เรียนรู้วิธีผลักดันฮาร์ดแวร์ให้ถึงขีดสุดและคิดในแง่ของประสิทธิภาพ ความคุ้มค่า และการขยายตัว เมื่อเวลาผ่านไป ประสบการณ์เหล่านั้นก็พัฒนาต่อเนื่องเป็นงานด้านผลิตภัณฑ์ AI ระบบเสริมความจริง และระบบขนาดใหญ่

เมื่อ Snapchat เข้าซื้อกิจการเราในปี 2016 เราทำงานด้านผลิตภัณฑ์ AR ที่ใช้โดยผู้คนหลายร้อยล้านคน ต่อมา ผ่าน Product Science เรามุ่งเน้นไปที่การเรียนรู้ของเครื่องแบบประยุกต์และการปรับปรุงประสิทธิภาพสำหรับระบบการผลิตขนาดใหญ่ ซึ่งให้ประสบการณ์ตรงเกี่ยวกับการดำเนินงานของโครงสร้างพื้นฐาน AI สมัยใหม่ — ไม่ใช่ในทฤษฎี แต่ภายใต้ข้อจำกัดของโลกจริง

มุมมองนี้ในที่สุดก็พาเราไปสู่ Gonka

Gonka เกิดจากความร่วมมือระหว่างนักวิจัย AI แบบ Web2 และผู้ดำเนินการโครงสร้างพื้นฐาน Web3 ในการพิจารณาว่าโครงสร้างพื้นฐาน AI สามารถขยายขอบเขตได้อย่างไร เราได้รับแรงบันดาลใจจาก Bitcoin — ไม่ใช่ในฐานะสินทรัพย์ทางการเงิน แต่เป็นแบบแผนสำหรับการประสานงานโครงสร้างพื้นฐานขนาดใหญ่แบบกระจายศูนย์ผ่านแรงจูงใจแบบเปิดและอิงงาน ในอุตสาหกรรมส่วนใหญ่ได้เคลื่อนตัวออกจาก Proof-of-Work แล้ว แต่ประสบการณ์ของเราแสดงให้เห็นว่า เมื่อพูดถึงนวัตกรรมด้านการคำนวณและฮาร์ดแวร์ ระบบที่อิงงานสามารถมีประสิทธิภาพสูงมาก

เราเห็นว่านักวิจัย AI และผู้ดำเนินการโครงสร้างพื้นฐานนำจุดแข็งที่เสริมกันมาให้กันและกัน ซึ่งหาได้ยาก Gonka จึงนำโลกทั้งสองนี้มารวมกันผ่านแนวทางที่เน้นการคำนวณเป็นหลักในโครงสร้างพื้นฐาน AI

การพัฒนาระบบเริ่มต้นในเดือนพฤษภาคม 2024 และภายในสิ้นปี nodes แรกก็สื่อสารกันบน Gonka testnet แล้ว mainnet เปิดตัวในปลายเดือนสิงหาคม 2025 ซึ่งเป็นจุดที่เครือข่ายเปิดให้ผู้เข้าร่วมในวงกว้างมากขึ้น ในช่วงหลายเดือนหลังจากการเปิดตัว Gonka ได้รวมทรัพยากรเทียบเท่า GPU H100 กว่า 10,000 ตัว พร้อมกับการมีส่วนร่วมที่เพิ่มขึ้นจากผู้ดำเนินการ GPU และนักสร้าง AI ทั่วโลก

Gonka ถือว่าการคำนวณเป็นโครงสร้างพื้นฐานแบบเปิด — สามารถตรวจสอบได้ มีประสิทธิภาพ และสร้างขึ้นรอบการมีส่วนร่วมที่แท้จริง

U.T.: โดยทั่วไปแล้ว คุณจะอธิบาย Gonka AI ว่าเป็น AI หรือเป็นโปรโตคอล Web3?

G.: เราจะอธิบาย Gonka เป็นโปรโตคอลการคำนวณ AI แบบกระจายศูนย์เป็นอันดับแรกและสำคัญที่สุด

ปัญหาที่เรากำลังแก้ไขคือปัญหาเฉพาะของ AI: วิธีการผลิต จัดสรร และควบคุมการคำนวณสำหรับ AI inference ปัจจุบัน ชั้นนี้มีการรวมศูนย์สูงและควบคุมโดยผู้ให้บริการไม่กี่ราย ซึ่งเป็นตัวกำหนดว่าสามารถสร้างอะไรได้บ้าง ใครเข้าถึงได้ และในราคาเท่าไร Gonka ถูกออกแบบมาเพื่อเปลี่ยนแปลงสิ่งนั้นโดยการมองว่าการคำนวณเป็นโครงสร้างพื้นฐานแบบเปิด แทนที่จะเป็นบริการที่มีการกั้น

การกระจายศูนย์มีบทบาทสนับสนุนในที่นี้ เช่นเดียวกับที่ Bitcoin เคยแสดงให้เห็นสำหรับการประสานงานฮาร์ดแวร์ แรงจูงใจแบบกระจายศูนย์สามารถเป็นวิธีที่ทรงพลังในการขยายโครงสร้างพื้นฐานในโลกแห่งความเป็นจริงอย่างมีประสิทธิภาพ เราใช้ primitives ของ Web3 เป็นเครื่องมือ ไม่ใช่เป็นผลิตภัณฑ์หลัก

จากมุมมองของนักพัฒนา Gonka ให้ความรู้สึกเหมือนเป็นโครงสร้างพื้นฐาน AI นักสร้างสามารถโต้ตอบกับเครือข่ายผ่าน API สไตล์ OpenAI และงาน inference โดยไม่ต้องคิดถึงบล็อกเชน จากมุมมองของโปรโตคอล การกระจายศูนย์ช่วยให้เครือข่ายสามารถตรวจสอบการมีส่วนร่วมในการคำนวณที่แท้จริงและบริหารจัดการตัวเองโดยไม่มีเจ้าของกลาง

ดังนั้น แม้ Gonka จะใช้กลไก Web3 ในระดับโครงสร้างพื้นฐาน จุดประสงค์ของมันชัดเจนว่าเป็น AI-native

U.T.: กลุ่ม AI กำลังทะยานขึ้น และแนวคิดใหม่ๆ ก็ปรากฏขึ้นเป็นระยะๆ อะไรที่ทำให้ Gonka AI โดดเด่นในสนามที่มีการแข่งขันสูงนี้?

G.: สิ่งที่ทำให้ Gonka แตกต่างคือเราไม่ได้พยายามสร้างผลิตภัณฑ์ AI อื่น เรามุ่งเน้นไปที่ชั้นลึกกว่านั้น: เศรษฐศาสตร์และโครงสร้างพื้นฐานของการคำนวณ AI เอง

โปรเจกต์ AI ใหม่ส่วนใหญ่แข่งขันกันในด้านโมเดล ฟีเจอร์ หรืออินเทอร์เฟซผู้ใช้ Gonka ทำงานอยู่ชั้นล่างกว่านั้น เราถามคำถามพื้นฐานมากขึ้น: การผลิตการคำนวณ AI เป็นอย่างไร ใครควบคุมมัน และแรงจูงใจอะไรที่เป็นตัวกำหนดการพัฒนา

ถ้าเปรียบ Gonka กับโปรเจกต์ decentralised อื่นๆ ก็มีความแตกต่างสำคัญสองประการ ประการแรก Gonka จัดแนวแรงจูงใจรอบๆ งานจริงโดยใช้กลไก consensus proof-of-work ในขณะที่เครือข่ายอื่นใช้ Proof-of-Stake ซึ่งเป็นแรงจูงใจให้ stakers (ทุน) ประการที่สอง เกือบทั้งหมดของทรัพยากรการคำนวณในเครือข่ายถูกนำไปใช้กับงาน AI ที่มีความหมาย แทนที่จะถูกใช้เพื่อความปลอดภัยและ overhead

ความแตกต่างสำคัญอีกประการคือการบริหารจัดการ Gonka ถูกออกแบบให้ผู้ดูแลโครงสร้างพื้นฐานก็เป็นผู้บริหารจัดการเองด้วย ไม่มีเจ้าของเดียวที่กำหนดราคา การเข้าถึง หรือทิศทาง เมื่อเวลาผ่านไป เครือข่ายจะมีความยืดหยุ่นและสอดคล้องกับผู้ที่พึ่งพามันจริงๆ มากขึ้น

โดยสรุป โฟกัสของ Gonka ตั้งใจให้แคบแต่เป็นรากฐาน เราไม่ได้แข่งขันเพื่อเป็นโมเดลที่ฉลาดที่สุด (แต่โมเดลที่ฉลาดที่สุดสามารถพัฒนาด้วยการคำนวณ Gonka ได้) เรากำลังสร้างโครงสร้างพื้นฐานที่อนุญาตให้โมเดลต่างๆ และแนวคิดต่างๆ อยู่ร่วมกันได้ โดยไม่ถูกขัดขวางด้วยการควบคุมแบบรวมศูนย์

U.T.: หนึ่งในแนวคิดหลักของเรื่องราว Gonka AI คือ “เครือข่าย AI แบบกระจายศูนย์” แต่ทำไม AI ถึงต้องการอะไรที่เป็นแบบกระจาย ในขณะที่กว่า 99% ของการใช้งานครอบคลุมโดยผลิตภัณฑ์ที่สนับสนุนโดยบริษัท เช่น Perplexity และ ChatGPT?

G.: ความจริงที่ว่าการใช้งาน AI ส่วนใหญ่ในปัจจุบันเป็นแบบรวมศูนย์ไม่ได้หมายความว่าสมมุติฐานนั้นถูกต้อง — มันหมายความว่านี่เป็นเพียงแบบเดียวที่มีอยู่ในขณะนี้

ในทางปฏิบัติ การเข้าถึง GPU ระดับสูงนั้นมีความเข้มข้นสูง โดยผู้ผลิตฮาร์ดแวร์และผู้ให้บริการคลาวด์ระดับ hyperscale ควบคุมอย่างมีประสิทธิภาพว่าใครจะสร้างอะไรที่ไหน และในราคาเท่าไร ตัวอย่างเช่น GPU ของ Nvidia อยู่ใจกลางของ stack AI และการเข้าถึงมันก็ถูกกำหนดโดยสัญญาระยะยาว ข้อจำกัดด้านภูมิภาค และปัจจัยทางภูมิรัฐศาสตร์

ความเข้มข้นนี้ไม่ใช่แค่ปัญหาทางเทคนิค แต่เป็นปัญหาเชิงเศรษฐกิจและอธิปไตย การเข้าถึงการคำนวณกลายเป็นข้อจำกัดทางภูมิศาสตร์ โดยสหรัฐอเมริกาและจีนแข่งขันกันเพื่อรักษาแหล่งพลังงาน ศูนย์ข้อมูล และชิปขั้นสูง ความเคลื่อนไหวนี้เสี่ยงที่จะทำให้หลายส่วนของโลกอยู่ในตำแหน่งพึ่งพาโครงสร้างที่เป็นโครงสร้างแบบโครงสร้าง ซึ่งจำกัดความสามารถในการแข่งขัน นวัตกรรม หรือสร้างเศรษฐกิจ AI ที่ยั่งยืน

ในเวลาเดียวกัน เครือข่าย decentralised ที่มีอยู่จำนวนมากล้มเหลวในทางตรงกันข้าม พวกเขาใช้พลัง GPU ที่มีอยู่ในระบบเพื่อกลไกการเห็นชอบและความปลอดภัยเป็นจำนวนมาก ในขณะที่ให้รางวัลแก่ทุนแทนการมีส่วนร่วมในการคำนวณจริง ปัญหาทั้งสองนี้ทำให้ผู้ให้ฮาร์ดแวร์ไม่อยากสนับสนุนและชะลอการนวัตกรรมโครงสร้างพื้นฐานที่แท้จริง

การกระจายศูนย์จึงเป็นสิ่งจำเป็นเมื่อขนาดของระบบเปิดเผยข้อจำกัดเหล่านี้ ระบบอย่าง Gonka ถูกออกแบบให้สอดคล้องกับการมีส่วนร่วมและอิทธิพลตามการมีส่วนร่วมในการคำนวณที่ตรวจสอบได้ ช่วยให้ทรัพยากรการคำนวณถูกนำไปใช้ในเชิงสร้างสรรค์ และเปิดโอกาสให้ผู้ดำเนินการ GPU ขนาดเล็กสามารถรวมทรัพยากร แข่งขันด้านต้นทุนและประสิทธิภาพ และลดการพึ่งพาผู้ให้บริการรายใหญ่

ถ้า AI กลายเป็นโครงสร้างพื้นฐานที่เป็นรากฐาน — คล้ายกับไฟฟ้าในยุคอุตสาหกรรม หรืออินเทอร์เน็ตในยุคแรก — การเข้าถึงการคำนวณก็ไม่สามารถควบคุมโดยกลุ่มคนไม่กี่คนที่ตั้งราคาหรือกฎเกณฑ์โดยลำพังได้ ผลิตภัณฑ์ AI แบบรวมศูนย์จะยังคงอยู่ต่อไป แต่ความยืดหยุ่นในระยะยาวต้องการโมเดลทางเลือก

U.T.: นอกจากนี้ แนวคิดของความร่วมมือระหว่าง AI กับ Web3 ดูเหมือนจะถูกใช้บ่อยเกินไปแล้ว คุณมองว่ายังไง - ทั้งสองส่วนนี้จะมีปฏิสัมพันธ์กันอย่างไร และมีกรณีใช้งานอะไรบ้าง?

G.: เราเห็นด้วยว่า “ความร่วมมือระหว่าง AI และ Web3” มักถูกพูดถึงในแง่ที่เป็นนามธรรมมาก ความจริงของเราคือ การปฏิสัมพันธ์เกิดขึ้นในระดับโครงสร้างพื้นฐานและแรงจูงใจ ไม่ใช่ในระดับคำขวัญหรือฟีเจอร์

AI ต้องการการคำนวณจำนวนมหาศาล ในขณะที่ Web3 ให้กลไกสำหรับการประสานงานทรัพยากรและแรงจูงใจระหว่างผู้เข้าร่วมอิสระหลายราย โดยไม่พึ่งพาเจ้าของเดียว Gonka อยู่ในจุดตัดนั้นโดยใช้การประสานงานแบบ decentralised เพื่อให้การคำนวณ AI ขนาดใหญ่เข้าถึงได้และสามารถตรวจสอบได้

ในทางปฏิบัติ Web3 ให้ layer การประสานงานและการตรวจสอบ — รับรองว่าการมีส่วนร่วมในการคำนวณเป็นของจริง วัดได้ และได้รับรางวัลอย่างเป็นธรรม AI ให้ภาระงานที่ให้โครงสร้างพื้นฐานนี้มีเป้าหมายในโลกจริง

กรณีใช้งานที่ชัดเจนที่สุดคือระบบ AI ที่ได้ประโยชน์จากความเปิดเผยและการตรวจสอบได้ ซึ่งรวมถึงตัวแทน AI บนบล็อกเชนหรือ semi-on-chain, แอปพลิเคชันที่ต้องการ inference ที่โปร่งใส และระบบที่ผู้ใช้ต้องการความรับรองที่แข็งแรงขึ้นเกี่ยวกับวิธีการสร้างผลลัพธ์ AI นอกจากนี้ยังช่วยให้นักสร้าง AI สามารถรัน inference ได้โดยไม่ถูกผูกติดกับผู้ให้บริการหรือ API เดียว

ดังนั้น สำหรับเรา ความร่วมมือไม่ใช่เรื่องการนำ AI ไปบนบล็อกเชนหรือการเพิ่มโทเคนเข้าโมเดล แต่มันคือการใช้กลไก Web3 เพื่อสร้างโครงสร้างพื้นฐาน AI ที่เปิดกว้าง ขยายตัวได้ และใช้ภาระงาน AI เพื่อให้เครือข่าย decentralised มีประโยชน์ทางเศรษฐกิจจริง

เราเคยเห็นรูปแบบนี้มาก่อน Bitcoin แสดงให้เห็นว่าสามารถสร้างแรงจูงใจที่สอดคล้องกันเพื่อให้เกิดโครงสร้างพื้นฐานการคำนวณขนาดใหญ่แบบกระจายศูนย์โดยไม่ต้องการการประสานงานแบบรวมศูนย์ เรามองว่า AI เป็นก้าวต่อไปในวิวัฒนาการนั้น — ชี้นำการคำนวณแบบ decentralised ไปสู่ความฉลาดในโลกแห่งความเป็นจริง แทนที่จะเป็นงานด้านความปลอดภัยเชิงนามธรรม

U.T.: คุณจะเรียกความก้าวหน้าของ AI และการยอมรับในปัจจุบันว่าเป็นฟองสบู่ไหม — และทำไม?

G.: เราไม่คิดว่า AI เองเป็นฟองสบู่ แต่บางส่วนของตลาดรอบๆ มันแน่นอนเป็นเช่นนั้น

สิ่งที่เราเห็นในวันนี้เป็นรูปแบบที่คุ้นเคย ซึ่งมาพร้อมกับเทคโนโลยีพื้นฐานทุกชนิด มีความก้าวหน้าที่แท้จริง — ระบบ AI ที่เป็นประโยชน์และได้รับการยอมรับอย่างแพร่หลาย — และบนพื้นฐานนั้นก็มีชั้นของการเก็งกำไรที่ความคาดหวังเติบโตเร็วกว่าที่โครงสร้างพื้นฐานและเศรษฐศาสตร์จะรองรับได้

นั่นคือที่มาของคำว่า “ฟองสบู่” ไม่ใช่จากความสามารถของ AI แต่จากสมมุติฐานที่ว่าการขยาย AI นั้นถูกและไร้ friction และสามารถเข้าถึงได้ไม่จำกัด ในความเป็นจริง ความก้าวหน้าของ AI ถูกจำกัดมากขึ้นเรื่อยๆ โดยโครงสร้างพื้นฐาน การคำนวณมีต้นทุนสูง รวมศูนย์ และจำกัด แม้ความต้องการจะเพิ่มขึ้นก็ตาม

ในประวัติศาสตร์ การเก็งกำไรเกินควรมักเกิดขึ้นเมื่อทุนมุ่งเน้นไปที่ชั้นนอกสุดของนวัตกรรมและประเมินค่าต่ำกว่าค่าที่ซ่อนอยู่ ชั้นของการเก็งกำไรอาจปรับตัวลง แต่ชั้นของโครงสร้างพื้นฐานยังคงขยายตัว — และนั่นคือที่ที่สร้างมูลค่าในระยะยาว

ดังนั้น ถ้ามีฟองสบู่ในวันนี้ มันไม่ใช่ในเทคโนโลยี AI แต่เป็นในความเชื่อที่ว่า AI สามารถขยายตัวได้โดยไม่ต้องคิดใหม่เกี่ยวกับการสร้าง การเป็นเจ้าของ และการบริหารจัดการการคำนวณ ความแตกต่างนี้คือสิ่งที่ระบบอย่าง Gonka ถูกออกแบบมาเพื่อแก้ไข

U.T.: คุณมองเห็นการใช้งานในโลกจริงในระบบ B2B และ B2C อย่างไรบ้างสำหรับ Gonka AI?

G.: ดังที่กล่าวไว้ เรามอง Gonka เป็นโครงสร้างพื้นฐานเป็นหลัก ดังนั้น ผลกระทบของมันจะปรากฏในทุกที่ที่การ inference ของ AI เป็นสิ่งสำคัญอยู่แล้วแต่ถูกจำกัดด้วยต้นทุน การเข้าถึง หรือการควบคุม

ในด้าน B2B, กรณีใช้งานที่ชัดเจนที่สุดคือระบบ inference หนัก เช่น ตัวแทน AI, โคไพลอตภายใน, ระบบอัตโนมัติสนับสนุนลูกค้า และ pipeline การวิเคราะห์ข้อมูล สำหรับหลายทีม ปัจจุบันข้อจำกัดคือคุณภาพโมเดล ราคาที่ผันผวน ความจุที่จำกัด และความโปร่งใสจากผู้ให้บริการส่วนกลาง Gonka ช่วยให้ภาระงานเหล่านี้รันบนโครงสร้างพื้นฐานเปิด ซึ่งการเข้าถึงและต้นทุนขึ้นอยู่กับการคำนวณจริง ไม่ใช่การผูกขาดจากผู้ขาย

ในด้าน B2C และด้านซัพพลาย การเข้าร่วม Gonka ถูกออกแบบให้มีความยืดหยุ่น โฮสต์สามารถร่วมมือกันให้ทรัพยากร GPU ได้อย่างอิสระ — รันโครงสร้างพื้นฐานของตนเองและรับรางวัลโดยตรงตามการคำนวณที่ตรวจสอบได้ — หรือเข้าร่วม pools ที่รวมทรัพยากรจากผู้เข้าร่วมรายย่อยหลายราย

การรวมกลุ่มนี้ถูกออกแบบเป็นตัวเลือก ไม่ใช่ข้อบังคับ ช่วยลดอุปสรรคในการเข้าร่วมสำหรับโฮสต์ที่มีทรัพยากรจำกัด ในขณะที่ผู้ดำเนินการอิสระสามารถเข้าร่วมในระดับเต็มที่ตามเงื่อนไขของตนเอง รูปแบบเหล่านี้ช่วยให้เครือข่ายสามารถรวมผู้ดำเนินการรายใหญ่และรายเล็กเข้าเป็นชั้นคำนวณเดียวกันได้อย่างยืดหยุ่น

ความยืดหยุ่นนี้เพิ่มความสามารถในการรองรับ inference สำหรับแอปพลิเคชัน AI ที่เน้นผู้ใช้ปลายทาง โดยไม่ต้องพึ่งพาผู้ให้บริการรายเดียว ในขณะเดียวกันก็เปิดโอกาสให้ผู้ดำเนินการโครงสร้างพื้นฐานหลายรายเข้าร่วมได้

U.T.: โทเคน GNK จะใช้เพื่ออะไร? กลุ่มเป้าหมายที่เป็นไปได้คือใคร?

G.: GNK เป็นโทเคน utility พื้นฐานของเครือข่าย Gonka ซึ่งใช้เป็นรางวัลให้กับผู้ให้บริการการคำนวณ (Hosts) สำหรับการมีส่วนร่วมในการคำนวณที่ตรวจสอบได้ และใช้ชำระค่าการคำนวณ AI ในเครือข่าย โทเคนนี้ออกแบบมาเพื่อสนับสนุนภาระงาน AI จริงๆ โดยการสร้างแรงจูงใจรอบๆ ผลงานจริง ไม่ใช่การเก็งกำไร

สำหรับนักสร้างและนักพัฒนา AI GNK ให้การเข้าถึง inference AI แบบ decentralised บนโครงสร้างพื้นฐานเปิด นอกจากนี้ยังช่วยสนับสนุนผู้สนับสนุนเครือข่ายให้มีส่วนร่วมในแนวคิดของ AI ที่มีทรัพยากรเพียงพอ — ซึ่งการคำนวณถูกประสานงานอย่างมีประสิทธิภาพและเข้าถึงได้ง่ายขึ้น แทนที่จะถูกควบคุมโดยผู้ให้บริการรายเดียว

U.T.: ช่วยบอกสามความสำเร็จสำคัญของ Gonka AI และ GNK ที่คุณภูมิใจจนถึงตอนนี้ได้ไหม?

G.: หนึ่งในความสำเร็จที่เราภูมิใจคือการลงทุนเชิงกลยุทธ์มูลค่า 50 ล้านดอลลาร์จาก Bitfury ซึ่งนอกจากเงินทุนแล้ว ยังเป็นการยืนยันว่าโครงสร้างพื้นฐาน AI ที่มีประสิทธิภาพสูงแบบ decentralised สามารถสร้างและดำเนินการได้จริง โดยอาศัยประสบการณ์เชิงลึกของ Bitfury ในโครงสร้างพื้นฐานขนาดใหญ่

ความสำเร็จอีกอย่างคือการขยายตัวของเครือข่ายในช่วงเริ่มต้น ภายในสามเดือน Gonka ได้รวมทรัพยากรเทียบเท่า GPU H100 กว่า 12,000 ตัว ซึ่งแสดงให้เห็นว่ามีความต้องการจากผู้ดำเนินการที่สนใจระบบที่รางวัลขึ้นอยู่กับการมีส่วนร่วมในการคำนวณที่ตรวจสอบได้ ไม่ใช่การเก็งกำไร

ความสำเร็จอีกด้านคือการเติบโตของชุมชนที่มีความเคลื่อนไหวและเน้นโครงสร้างพื้นฐานของ GPU Hosts, นักสร้าง AI และนักวิจัย ซึ่งรวมถึงผู้มีส่วนร่วมและที่ปรึกษาเช่น 6block, Hard Yaka, Gcore, Hyperfusion, Greg Kidd และ Val Vavilov พร้อมกับการมีส่วนร่วมทางเทคนิคและสื่ออย่างต่อเนื่อง ชุมชนนี้เติบโตอย่างเป็นธรรมชาติ โดยมีผู้เข้าร่วมมากกว่า 13,000 รายที่แลกเปลี่ยนข้อมูลเชิงลึกเกี่ยวกับโครงสร้างพื้นฐาน ประสิทธิภาพ และภาระงาน AI ในโลกจริง

การสนทนาส่วนใหญ่มักเกิดขึ้นใน Gonka’s Discord ซึ่งผู้ดำเนินการ GPU นักสร้าง และนักวิจัยร่วมมือกันโดยตรงเกี่ยวกับการพัฒนาเครือข่าย

U.T.: ช่วยแชร์ข้อมูลสเปคฮาร์ดแวร์ของเครื่องที่ Gonka AI รันอยู่ได้ไหม?

G.: Gonka ทำงานบนชุดเครื่องที่หลากหลายและมีประสิทธิภาพสูง ซึ่งถูกร่วมโดยผู้ให้บริการอิสระทั่วเครือข่าย โปรโตคอลออกแบบมาเพื่อโครงสร้างพื้นฐาน GPU ระดับ data-center รุ่นใหม่ที่ปรับให้เหมาะสมกับ inference AI

ในทางปฏิบัติ รวมถึงเซิร์ฟเวอร์ multi-GPU ที่มี accelerators เทียบเท่า H100 และ A100 ซีพียูระดับองค์กร หน่วยความจำความเร็วสูง และการเชื่อมต่อแบบรวดเร็ว ค่าคอนฟิกเฉพาะจะแตกต่างกันไปตามแต่ละโฮสต์ แต่เครื่องทุกเครื่องต้องผ่านเกณฑ์ด้านประสิทธิภาพที่เหมาะสมสำหรับภาระงาน inference ขนาดใหญ่

เครือข่ายยังสนับสนุนการ pooling ซึ่งอนุญาตให้หลายโฮสต์รวมทรัพยากรอย่างมีประสิทธิภาพ แทนที่จะบังคับใช้มาตรฐานฮาร์ดแวร์แบบเข้มงวด Gonka เน้นที่ความสามารถในการคำนวณโดยรวมและความน่าเชื่อถือ เพื่อให้สามารถขยายตัวได้โดยการรวมโครงสร้างพื้นฐานคุณภาพสูงจากผู้ดำเนินการหลากหลายราย

U.T.: คำถามลับ: สตาร์ทอัป AI จะสามารถทำให้เศรษฐศาสตร์หน่วยงาน (unit economics) ใช้ได้จริงไหม?

G.: ได้ — แต่ไม่ใช่โดยอัตโนมัติ และไม่ใช่ทุกบริษัท

ส่วนหนึ่งของปัญหา “เศรษฐศาสตร์หน่วยงาน” ในปัจจุบันมาจากเศรษฐศาสตร์การคำนวณ: ราคาที่ไม่โปร่งใส ข้อจำกัดด้านความจุ และต้นทุน inference ที่เพิ่มขึ้นตามการใช้งาน เมื่อผลิตภัณฑ์ AI เพิ่มขึ้นจากการสาธิตเป็นประสบการณ์ที่เปิดใช้งานตลอดเวลา โครงสร้างพื้นฐานกลายเป็นข้อจำกัด

สองข้อมูลล่าสุดชี้ให้เห็นทิศทางอย่างชัดเจน:

  • inference กลายเป็นภาระงานหลัก ตามการวิเคราะห์ของ Deloitte ในปี 2025 คาดว่า inference จะคิดเป็นประมาณสองในสามของการคำนวณทั้งหมดในปี 2026 เพิ่มขึ้นจากประมาณครึ่งหนึ่งในปี 2025 (และประมาณหนึ่งในสามในปี 2023) การเปลี่ยนแปลงนี้สำคัญเพราะ inference คือจุดที่เศรษฐศาสตร์หน่วยงานชนะหรือแพ้
  • การรวมศูนย์ทำให้การคำนวณมีต้นทุนสูงและความจุจำกัด ในปี 2025 Nvidia เปิดเผยว่าลูกค้าสองรายคิดเป็น 39% ของรายได้รายไตรมาส ซึ่งเป็นสัญญาณชัดเจนว่าความเข้มข้นของ “ใครได้การคำนวณที่ล้ำสมัยที่สุด” สามารถเกิดขึ้นได้ในระดับสูงสุดของตลาด

ดังนั้น เศรษฐศาสตร์หน่วยงานที่ใช้งานได้จริงจะขึ้นอยู่กับว่าสตาร์ทอัปสามารถเข้าถึงการคำนวณในรูปแบบที่คาดการณ์ได้ ขยายตัวได้ และมีต้นทุนที่ดี สตาร์ทอัปที่มองข้ามการคำนวณจะมีปัญหาเมื่อการใช้งานเพิ่มขึ้น สตาร์ทอัปที่สร้างรอบๆ เศรษฐศาสตร์โครงสร้างพื้นฐานที่ดีขึ้น — การใช้งานเต็มที่ ราคาที่โปร่งใส และโมเดลการเข้าถึงที่ยืดหยุ่น — สามารถบรรลุเศรษฐศาสตร์หน่วยงานที่ยั่งยืนได้แน่นอน

U.T.: คำทำนายโดยรวมของคุณเกี่ยวกับมูลค่าตลาด AI ในอีกห้าปีข้างหน้า และตำแหน่งของ Gonka AI ที่นี่คืออะไร?

G.: การพยายามทำนายตัวเลขมูลค่าตลาดในอีกห้าปีข้างหน้าเป็นเรื่องที่พลาดจุดสำคัญ — คือความเร็วและความไม่เชิงเส้นของการยอมรับ AI เมื่อเงื่อนไขต่างๆ เรียงตัวกัน

เราเห็นแล้วว่า AI สามารถเปลี่ยนจาก “ทางเลือก” เป็น “ค่าเริ่มต้น” ได้อย่างรวดเร็วเมื่อโครงสร้างพื้นฐานและการกระจายตัวเข้าที่ในที่สุด ในปี 2025 Microsoft เปิดเผยว่า GitHub Copilot เข้าถึงผู้ใช้ประมาณ 20 ล้านคน โดยประมาณ 90% ของบริษัท Fortune 100 ใช้งานในเชิงพาณิชย์ การยอมรับในระดับนี้จะเป็นเรื่องยากที่จะทำนายเมื่อไม่กี่ปีที่ผ่านมา แต่ก็แสดงให้เห็นว่าการใช้งาน AI สามารถขยายตัวได้อย่างรวดเร็วเมื่อฝังเข้าไปในเวิร์กโฟลว์จริง

เมื่อการเปลี่ยนแปลงนี้เร่งตัวขึ้น ข้อจำกัดจะเปลี่ยนจากโมเดลไปสู่การเข้าถึงการคำนวณที่เชื่อถือได้ ราคาที่เป็นธรรม และความสามารถในการรองรับตลอดเวลา ความต้องการเติบโตเร็วกว่าที่โครงสร้างพื้นฐานแบบรวมศูนย์จะรองรับได้ ซึ่งเป็นเหตุผลว่าทำไมการเข้าถึง ราคาที่เสถียร และความจุจึงกลายเป็นข้อจำกัดเชิงกลยุทธ์สำหรับทั้งสตาร์ทอัปและองค์กรขนาดใหญ่

นี่คือที่ที่เราเห็นตำแหน่งของ Gonka เราไม่ได้สร้างไปตามโรดแมปที่กำหนดไว้ล่วงหน้า หรือมุ่งเป้าไปที่ส่วนเฉพาะของมูลค่าตลาด AI Gonka เป็นชุมชนที่ขับเคลื่อนโดยเจตนาและพัฒนาตามความต้องการจริงของการคำนวณ ความเห็นของเราคือ โครงสร้างพื้นฐานการคำนวณที่เปิดกว้างและสามารถตรวจสอบได้จะกลายเป็นชั้นสำคัญของเศรษฐกิจ AI — ไม่ใช่การทดแทนผู้ให้บริการแบบรวมศูนย์ แต่เป็นการจำกัดอำนาจของพวกเขาและขยายการเข้าถึงทั่วโลก

ถ้า Gonka ประสบความสำเร็จ มันจะไม่ใช่เพราะทำนายอนาคตได้แม่นยำกว่าคนอื่น แต่เป็นเพราะมันถูกสร้างขึ้นเป็นโครงสร้างพื้นฐาน — สามารถปรับตัว ขยายตัว และสนับสนุนการยอมรับ AI ได้แม้ในช่วงที่การเติบโตเร็วและไม่สม่ำเสมอมากกว่าที่โมเดลแบบดั้งเดิมคาดหวัง

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น