Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
У епоху ШІ «спільна обчислювальна потужність» — це новий велосипед для молодих програмістів
Джерело: Geek Park
Автор: Сюй Шань
«Вартість токенів стрімко падає».
Ця фраза два роки тому змусила б кожного підприємця в сфері AI хвилюватися. З 2023 по 2025 рік витрати на AI-інференс знизилися на 99,7%. Знайте: під час релізу GPT-4 вартість на мільйон токенів становила 37,5 долара, а до 2025 року цей показник уже впав до 0,14 долара. За такого тренду витрати на обчислювальні потужності для підприємців, здавалося б, не мали б бути проблемою.
Але реальність — зовсім інша.
У той самий період глобальні витрати компаній на AI у хмарі зросли з 11,5 млрд доларів до 37 млрд доларів, утричі. Після того як AI перейшов у епоху A2A, десятки агентів під час багаторазової взаємодії спричинили експоненціальний вибух кількості викликів токенів. Це також означає, що хоча ціна токенів стала дешевшою, кількість токенів, що споживаються на кожне завдання, шалено зросла.
Очевидно, обчислювальні потужності стають найдивнішою ресурсною одиницею цієї епохи. Вони дедалі дешевшають, але гроші, які ти витрачаєш на них, лише зростатимуть.
Для гігантів це питання можна вирішити, створивши власні центри обчислювальних потужностей. Але для більшості стартапів вони можуть лише стояти на публічному ринку обчислювальних потужностей: приймати ціни хмарних провайдерів, дивитися, як рахунки за обчислювальні потужності що місяця стають вищими, і при цьому не мати жодних можливостей торгу.
Саме цю можливість унаслідок зміщення ринку бачить засновник 共绩科技 Фу Чжи.
На його думку, рішення для зниження витрат на обчислювальні потужності полягає не лише в тому, щоб чекати, доки витрати самі природно знизяться, а в тому, щоб інакше використовувати обчислювальні потужності — так само можна почати знижувати їхню вартість. Щоб обчислювальні потужності, як електрика, були «взяти й використати», оплата за потребою, і щоб великі масиви обчислювальних ресурсів, які раніше простоювали та марнувалися, знову активувалися.
Нещодавно 共绩科技 завершила раунд Pre-A, оцінила себе після інвестування в 350 млн юанів, і планує найближчим часом розпочати A-раунд фінансування. У 2025 році, коли на траєкторії обчислювальних потужностей тиск відчувається в цілому, ця технологічна компанія, що вирішує проблеми диспетчеризації ресурсів за допомогою методів штучного інтелекту, тихо досягла кількох десятків мільйонів доходу, а рівень утримання клієнтів — близько 100%.
共绩科技 перетворює диспетчеризацію обчислювальних потужностей на справжній бізнес.
Засновник 共绩科技 Фу Чжи. Джерело зображення: 共绩科技
01 Коли AI-компанії «вибухають», з’являється новий спосіб порахувати витрати на обчислювальні потужності
Напередодні запуску нового продукту команда Remy майже не спала, весь час готуючись до непередбачених ситуацій.
Але щойно сайт компанії за 48 годин наповнився 500k користувачів, для AI-стартапу, який тільки-но вийшов із закритого тестування у відкрите, їм потрібно було за короткий час розширити всі базові інфраструктури у десятки разів. Хоча підготовка була, перед запуском Remy заздалегідь тестувала кілька хмарних платформ, зокрема Ucloud,阿里云, 华为云, але коли на них реально обрушився потік, їхнє остаточне рішення забезпечила саме 共绩科技.
У простих словах: 共绩科技 робить таке — піднімає вільні обчислювальні потужності, а потім розподіляє їх за потребою для AI-компаній із гнучким попитом. Незалежно від того, чи це машини, що ввечері бездіють у комп’ютерних клубах, чи 4090 у персональних користувачів, чи вільні ресурси маленьких серверних — усе це може бути частиною пулу обчислювальних потужностей, які може диспетчеризувати 共绩科技. Якщо клієнтам не вистачає, їх у будь-який момент можна знову підкликати з пулу обчислювальних потужностей — «як потрібно і коли потрібно».
За ті 48 годин 共绩科技 екстрено виділила для Remy майже 1900 GPU-карт. Кожного разу, коли користувач ініціює запит, з’являється нове замовлення; коли розрахунок користувача завершено, замовлення одразу закривається. У той день платформа обробила понад один мільйон замовлень.
«У піковий момент, звичайні провайдери обчислювальних потужностей тимчасово можуть відкрити 20 карт — і це вже дуже складно. У більшості випадків підприємствам доводиться чекати, а очікування означає втрату трафіку, чого компанії точно не хочуть». Після цієї історії Фу Чжи каже, що переважна частина обчислювальних потужностей, які використовувала Remy, надходила саме від 共绩科技.
Попит Remy на обчислювальні потужності, по суті, простий: кожного разу, коли спалахне потік, користувацькі кліки потрібно вчасно відпрацьовувати; виклики обчислювальних потужностей мають бути швидкими та своєчасними, а також — вартість має бути низькою. Це — найбазовіші потреби для AI-стартапів, що щойно розпочинають роботу.
Натомість є одна категорія клієнтів для AI-застосунків, яка стикається з потребою в обчислювальних потужностях рідше, але вона також дуже реальна.
Під час торішнього Китайського Нового року в одному місці — у туристичному парку — компанія, що робить AI-переодягання й фото, звернулася до 共绩科技. Вони не те щоб не знали, коли саме бувають піки трафіку, але все одно їм важко було порахувати, чи окупляться обчислювальні потужності.
Їхні AI-пристрої стояли в туристичній зоні: на свята там натовп і перевантаження, попит на обчислювальні потужності різко зростає. Але щойно закінчуються канікули, попит на обчислювальні потужності майже зникає. «Свято Китайського Нового року — найбільший пік за весь рік, решту пів року в туристичній зоні майже немає людей». Так вони сказали Фу Чжи.
Такі коливання попиту на обчислювальні потужності означають: якщо орендувати потужності за піковим значенням, виходить, що 90% часу в будні ти просто палиш гроші, щоб тримати карти живими; якщо орендувати за середнім значенням, то під час свята попит точно «провалиться», і це сильно погіршить користувацький досвід. «Такі коливання попиту у традиційних схемах обчислювальних потужностей отримати важко. Бо такий екстремальний перепад між піком і спадом у стандартних продуктах просто не має логіки ціноутворення». Так сказав Фу Чжи.
Але такі сценарії дуже підходять для використання пулу спільних обчислювальних потужностей 共绩科技.
За той місяць вузли сервісу замінили 1963 персональні комп’ютери, і за весь Китайський Новий рік не було жодної проблеми зі стабільністю. «Порівняно з тим, якби клієнт сам розгортали обчислювальні потужності за піком, ми заощадили їм близько 70% витрат». Додав Фу Чжи.
Такий попит із коливаннями в часі трапляється не лише в якихось вузьких вертикальних сценаріях, але й є звичним для багатьох нових AI-компаній.
liblib — один із найбільших у Китаї AI-платформ для генерації зображень за кількістю користувачів. Вони раніше орендували багато GPU-карт на платформі хмарного провайдера. Але якщо уважно розібратися, вони з’ясували, що в середньому їхній загальний рівень використання GPU становить лише 45%.
Це означає, що понад половина карт щодня просто марнують гроші.
За словами Фу Чжи, насправді таких компаній, як liblib, не мало: практично всі AI-інструменти з основною аудиторією серед офісних працівників стикаються з цією проблемою. Удень користувачів багато, а вночі кількість користувачів різко зменшується. Якщо розраховувати обчислювальні потужності за піком, то вночі коефіцієнт простою буде високим; але якщо розраховувати за середнім значенням, то вдень буде складно задовольнити потреби всіх користувачів.
AI-трек виглядає жвавим, але ті, хто «застрягає» в розвитку компанії, іноді — це саме розрахунок витрат на обчислювальні потужності. Багато компаній завищують очікування щодо обчислювальних потужностей; витрати на них «вивертають» грошовий потік. Також є компанії, які недооцінюють потребу: у піку використання сервіс може впасти, і тоді користувачі підуть — і більше не повернуться.
«Трафік AI-застосунків за своєю природою є хвилеподібним. Логіка ціноутворення на ринку обчислювальних потужностей створена для стабільного попиту, а розподіл витрат на обчислювальні потужності досі залишається доволі традиційним» — сказав Фу Чжи. Саме тому, коли AI-компанія справді «вибухає», рахунок витрат на обчислювальні потужності потребує нового алгоритму.
Раніше традиційна модель сервісу обчислювальних потужностей здебільшого базувалася на довгостроковій оренді контрактами. Компанії орендують на рік: незалежно від того, використовують чи ні, вони мають заздалегідь сплатити за обчислювальні потужності. Вартість простою обчислювальних потужностей здебільшого лягає на самі підприємства. А те, що робить 共绩科技, по суті, переносить ці витрати в інше місце — на тих, хто має вільні обчислювальні потужності, але не може завантажити їх самостійно, наприклад, персональні користувачі, комп’ютерні клуби тощо. Ці потужності й так пропадають, тож якщо їх диспетчеризувати, не виникає нових витрат на придбання обчислювальних потужностей, а вже наявні вільні потужності «оживають».
«Обчислювальні потужності не бувають «чим більше, тим краще»» — каже Фу Чжи. «Потрібно, щоб вони були мобільними, завжди доступними для виклику — тоді буде нормально».
02 Гнучкий бізнес обчислювальних потужностей перевіряє здатність до енергетичної/ресурсної диспетчеризації
Для Фу Чжи поштовхом, щоб зайнятися бізнесом диспетчеризації обчислювальних потужностей, був випадковий збіг.
У травні 2023 року під час відпустки, коли хвиля AI щойно почала народжуватися, Фу Чжи кинув повідомлення в спільноту AI-підприємців. Воно було дуже простим: «У мене є A100. Чим коротше оренда — тим дешевше. Є потреба — приходьте й знайдіть мене».
Тоді його очікування, по суті, не були великими: адже була лише одна карта. Але в результаті несподівано до нього звернулися 30 людей із запитами — і всі досить швидко заплатили.
«Хто платить швидше — тому я й надаю». У підсумку він обрав 5 людей для обслуговування. Одна карта, п’ять клієнтів — і це підтвердило висновок, який він довго обдумував: звичайним людям вже потрібні обчислювальні потужності.
Але він також розумів, що цей бізнес насправді став можливим саме в той час не через його удачу, а через те, що до цього не було відповідних умов.
Адже ще у 1999 році хтось уже пропонував робити спільні обчислювальні потужності: будувати платформу BOINC, де десятки тисяч людей роблять внесок своїми обчислювальними потужностями. Але тоді йшлося про благодійні/громадські наукові обчислення, тож кожен міг користуватися безкоштовно. Пізніше, коли біткоїн став гарячим, деякі люди теж думали використовувати ажіотаж із майнінгом, щоб підключити вільні обчислювальні потужності — але це було незаконно.
Ідея постійно існувала, але «ґрунту» не було.
Бо справді звичайні користувачі з високопродуктивними GPU — це покоління 90-х і 00-х. До цього дуже мало чиїх персональних комп’ютерів було оснащено 4090. А також можливість безпечно запускати Linux- віртуальні середовища на персональних комп’ютерах через WSL1.0.0 — це теж лише у 2022 році було офіційно випущено; а вже керований віддалений виклик із персональних пристроїв, розкиданих по різних місцях, щоб їх можна було «пробити» через локальну мережу (NAT/інтранет), — це технології, що по-справжньому дозріли приблизно у 2021 році.
Якщо зійшлися попит/пропозиція на стороні постачання, попит на стороні користування та технічні умови — тоді ця справа стала можливою саме сьогодні.
Але Фу Чжи вважає, що сигнали того, що «настав час», він побачив не в DeepSeek і не в one-box-пристроях, а в споживчих сценаріях AI: вони почали проникати з вузьких інструментів у щоденну розвагу звичайних людей.
«Як тільки цей процес прискорюється, попит на обчислювальні потужності вже не буде питанням закупівель лише кількох великих компаній. Потрібно буде, як і з електрикою, масово, через різні вузли, диспетчеризувати та розподіляти». Так сказав Фу Чжи.
Це також причина, чому 共绩科技 зараз просуває співпрацю з національними центрами обчислювальних потужностей. Наразі вони вже беруть участь у створенні провінційних платформ диспетчеризації обчислювальних потужностей у 京津冀, 长三角, 深圳 та 青海. Системи диспетчеризації, які будуються в різних місцях, технічно теж включають участь 共绩.
Втім, «диспетчеризація обчислювальних потужностей» — це справа, яка набагато складніша, ніж здається.
Диспетчеризація обчислювальних потужностей і управління обчислювальними потужностями — не одне й те саме. Фу Чжи проводить розмежування: великі виробники/гіганти роблять управління — беруть купу машин і вводять їх в одну й ту саму систему, щоб знати, хто користується, а хто простоює, але складно реалізувати динамічне розподілення між різними регіонами та пристроями.
А диспетчеризація обчислювальних потужностей — це інше: вона має заповнити піковий попит цього місця обчислювальними потужностями з інших місць, де є простаї. У сфері комп’ютерної інженерії, по суті, готового рішення немає; натомість це — стара проблема енергетичної сфери. Термін «зрізання піків і заповнення провалів» (削峰填谷) — це взагалі термін з електроенергетичної системи.
Фу Чжи навчався на бакалавраті в 清华大学 за спеціальністю «будівельне середовище та інженерія енергозастосування», а його наставником був академік у галузі енергетики. Він переніс алгоритми енергетичної диспетчеризації, щоб вирішити ту саму проблему, тільки в обчислювальній версії — і це є ключовим бар’єром 共绩.
Звісно, у інженерній реалізації цієї кросрегіональної системи диспетчеризації також є чимало проблем. Наприклад, персональні комп’ютери, підключені до пулу диспетчеризації, можуть у будь-який момент «бути зайняті». Якщо користувач увімкне гру, ця машина має вийти з пулу, але клієнти нижче за ланцюгом вимагають, щоб сервіс не припинявся.
Фу Чжи обрав гаряче резервування плюс прогнозування: заздалегідь забезпечувати кожне завдання резервними вузлами з надмірністю, і водночас накопиченими історичними даними прогнозувати онлайн-патерни кожного постачальника, динамічно коригуючи частку резервування. Чим більше даних, тим точніше резервування і тим нижчі витрати. «Раніше мені треба було резервувати тобі дві машини. Але зі збільшенням використання тепер достатньо резервувати лише одну». Оскільки шар мережевої передачі також нестабільний, 共绩 підключає паралельно три провідних хмарних провайдера. Фу Чжи зазначив: «Неможливо, щоб вони всі одночасно мали проблеми».
Тож чому хмарні провайдери не роблять гнучкі обчислювальні потужності?
Пояснення Фу Чжи таке: великі компанії це бачать, але гнучкі обчислювальні потужності у великих гравців відрізняються за позиціонуванням продукту та стратегією ціноутворення; перевага 共绩 — ціна та ефективність диспетчеризації.
Ключова суперечність гнучких обчислювальних потужностей у тому, що треба заздалегідь підготувати «такі, що в будь-який момент можуть бути викликані» обчислювальні потужності, але коли ними ніхто не користується — це чисті витрати на простої. Зазвичай гнучке розширення в обчислювальних потужностях у провайдерів становить приблизно 5 разів звичайної ціни, або ж клієнт підписує річний довгий контракт — а ризик простоїв обчислювальних потужностей бере на себе клієнт.
Чому 共绩 може надавати справжню гнучкість: бо використовувані ресурси самі по собі є вільними. Їх не заздалегідь закупили, щоб «придавити» собівартість. Тож вони простоюють. Саме тому 共绩 може запропонувати вигіднішу ціну.
Згідно з аналізом Фу Чжи, на всьому ринку 80% попиту на обчислювальні потужності йде у великі довгострокові пакетні контракти, а решта 20% — це частина з гнучким попитом. Фу Чжи не планує «атакувати» ті 80%; він зосереджується на тих 20% ринку. І з подальшим зростанням AI-застосунків простір цього 20% буде дедалі більшим. «У когось, чим довше орендуєш — тим дешевше; у мене, чим коротше орендуєш — тим дешевше». Додав Фу Чжи. Нині спільна платформа обчислювальних потужностей 共绩科技 — «suanli.cn» — дозволяє звичайним споживачам орендувати відповідні потужності за мілісекунди.
Командне фото 共绩科技. Джерело зображення: 共绩科技
Така модель спільного бізнесу вже давно отримала підтвердження в інших сферах.
Фу Чжи порівняв сутність цього бізнесу з Airbnb: місто проводить велику виставку — готелі в околицях повністю забиті. Airbnb поєднує мешканців із вільними кімнатами та учасників виставки, яким ніде зупинитися. Історія «обчислювальних потужностей» версійно йде тим самим шляхом: у моменти релізів AI-версій та сплесків трафіку потрібна велика кількість обчислювальних потужностей, тоді як у звичайні часи попит далекий від таких обсягів; з іншого боку, обчислювальні потужності персональних користувачів, комп’ютерних клубів, маленьких серверних уночі й у будні часто простоюють. З’єднати ці дві сторони — і є те, що робить 共绩.
Просто спільним є не кімнати, а обчислювальні потужності.
03 Диспетчеризація енергії для обчислювальних потужностей: «програмно визначена інфраструктура» в епоху AI
Цей шлях проходили й за кордоном. Наприклад, RunPod також надає гнучкі інференс-послуги через розрізнені/розсіяні обчислювальні потужності. У 2024 році вони отримали seed-раунд на 20 млн доларів, який спільно очолили Intel Capital і Dell Technologies Capital. Серед клієнтів — Cursor, OpenAI, Perplexity.
Але, на думку Фу Чжи, робити це в США і робити це в Китаї — це абсолютно різні речі.
AWS із моменту появи надає гнучкі обчислювальні потужності: спочатку вони вже обіцяли брати «за потребою». За допомогою дорогих гнучких сервісів вони обслуговували вже дозрілий ринок. Натомість у Китаї хмарні провайдери більше схильні надавати довгострокову модель оренди, а відповідні пільгові політики теж зазвичай на це орієнтовані. Вони не надто приділяють уваги гнучким сервісам, і готовність користувачів платити за гнучкі обчислювальні потужності в Китаї значно нижча, ніж у США. Тому, якщо перенести логіку RunPod у Китай, ціноутворення не «збігатиметься».
Втім, Фу Чжи вважає, що диспетчеризація обчислювальних потужностей — це не бізнес, який зводиться лише до оренди потужностей. «Спільні обчислювальні потужності можуть бути лише “першою сходинкою” для входу в ринок». Коли він це сказав, він не вагався. У його оцінці в цієї справи є приблизно вікно 2–3 роки: доки залишається невідповідність між попитом і пропозицією на обчислювальні потужності, щілина існуватиме. Але вона не буде існувати вічно.
Така тверезість серед підприємців трапляється нечасто. Але саме тому він дуже рано почав думати про щось більш фундаментальне: звідки виросте наступний AI-застосунок, який справді вибухне? Це рішення напряму визначить напрям руху попиту на обчислювальні потужності. І щодо цього Фу Чжи має два прогнози на майбутнє.
Перший: за його аналізом, «супердодатки» Китаю не виростуть із інструментів підвищення продуктивності на PC. Реальний шанс — у напрямках мобільної соціальної розваги, у кроскордонному залученні апаратного забезпечення у зв’язці з ланцюгами постачання, а також у AI-застосунках, які можуть бути вбудовані в реальні життєві сценарії.
Китайський інтернет ніколи не проходив через епоху глибоких PC-інструментів для продуктивності. Користувачі напряму перескочили від ери функціональних телефонів до мобільного інтернету. Ті AI-документи, AI-презентації та AI-код-асистенти, що «вийшли» в США, спираються на сегмент користувачів у десятки мільйонів звичок працювати на PC і які готові платити за SaaS-інструменти. А в Китаї цього немає. «У всьому Китаї понад 100 мільйонів людей потребують писати Word? Думаю, що може й ні». Ще складніше те, що навіть якщо такий попит і існує, великі компанії дуже швидко перетворять ці функції на безкоштовні плагіни.
Натомість він побачив високе зростання в сценаріях соціальних розваг. Він поспілкувався з багатьма людьми, які працюють із короткими драмами та кіно, й питав, чому вони так активно обіймають AI. Їхні відповіді дали йому нову ідею: «Мені вже нема чого втрачати. Ніхто більше не ходить дивитися фільми й телесеріали — ми вже майже мертві». Ці люди — серед китайського ринку ті, хто найактивніше приймає AI, не тому що вони найкраще розуміються на технологіях, а тому що їм нікуди відступати. «Тепер уже майже ніхто не дивиться телебачення й фільми».
Щодо розвитку AI-пристроїв у нього теж є дещо інша думка.
Упродовж кількох останніх років головна ідея AI-пристроїв була «все додає віконце для розмови», тобто будь-який пристрій має чат-інтерфейс. Фу Чжи вважає, що цей напрям не правильний. «Споживачу не потрібен холодильник, який уміє писати вірші».
Справді життєздатні AI-пристрої — це ті, що вбудовуються в високочастотні сценарії, які вже є у користувачів, і AI непомітно виконує роботу за лаштунками, а не тягне користувача спеціально сісти й розмовляти з ним.
Наприклад, камери для домашніх тварин мають автоматично розпізнавати, чи кішка хвора; камера в туристичній зоні має автоматично робити AI-переодягання та фотозйомку. Користувач нічого не має змінювати — AI тихо виконає все. «Якщо такі пристрої можна буде впроваджувати з використанням open-source моделей, то в момент сплеску трафіку вони теж стануть клієнтами гнучких обчислювальних потужностей». Фу Чжи вважає, що це також один із напрямів майбутнього зростання 共绩科技.
Другий прогноз Фу Чжи захований глибше: він уже сформувався наприкінці 2024 року, але він дочекався можливості підтвердити його лише цього року.
Він вважає, що сам факт того, що людина напряму розмовляє з AI, — це по своїй суті витрата ефективності. У людського процесу введення й виведення інформації є межа швидкості: за раз можна поставити лише одне запитання, потрібно чекати відповіді, щоб поставити наступне. Але AI може одночасно опрацьовувати тисячі потоків і завершувати передачу інформації між машинами за частки мілісекунди. «Використовувати людей, щоб керувати AI, — це задіяти найповільніше ланцюжка. Воно тягне вниз швидкість усієї системи».
По-справжньому має відбутися інше: AI має прямо співпрацювати з AI — A2A. Завдання задається, і воно запускає ланцюжок скоординованих дій групи AI. Людині потрібно визначити лише ціль, а не брати участь у кожному кроці посередині. Саме тому сьогодні OpenClaw так цінують. І саме тому Фу Чжи вважає OpenClaw по-справжньому важливим: не через сам продукт, а тому що він довів одну річ — між AI може сформуватися спільнота самостійно, і за A2A хтось готовий платити. Цей напрям життєздатний.
Щойно модель A2A стане основною, споживання обчислювальних потужностей буде у рази, навіть у десятки разів більше, ніж сьогодні. На GTC 2026 Хуанг Ренсюн сказав, що через вибух Agentic AI та інференс-здатності обсяг обчислень, необхідних зараз, принаймні в 100 разів більший, ніж очікувалося рік тому, і це лише початок. Тоді обчислювальні потужності справді стануть як електрика: думати потрібно буде не про те, скільки карт вам потрібно «запасти», а про те, чи зможе вся «сітка обчислювальної електрики» (算力电网) розподіляти ресурси за потребою. Управління ресурсами обчислювальних потужностей виходить у сферу диспетчеризації.
Коли A2A справді настане, обчислювальні потужності стануть інфраструктурою, що стоїть за спиною кожної людини, кожного завдання та кожного AI-вузла, як електрика. Тоді той, хто зможе точно диспетчеризувати обчислювальні потужності через різні регіони, пристрої та часові відрізки, той і матиме справжню здатність керувати цією мережею.
У тому, що зараз робить 共绩科技, на думку Фу Чжи, вже є підготовка до того моменту: використати це вікно в 2–3 роки, щоб побудувати диспетчеризаційні можливості, мережу вузлів і відносини з клієнтами. Коли попит на A2A справді вибухне, саме ця система й стане справжнім «водяним ровом» (захисним бастіоном) 共绩科技.
Нещодавно він надіслав у компанії одну фразу. У кінці інтерв’ю, коли майже завершували, він сказав її знову:
«Навіть так, це все тільки починається».
У контексті гнучких обчислювальних потужностей ці слова, можливо, просто оптимістичне судження підприємця щодо ринку. Але в контексті A2A його «початок» може означати не початок цієї бізнес-справи, а момент, коли теза про те, що обчислювальні потужності є інфраструктурою, нарешті справді стала реальністю.