Розділи бази знань ▾

Технології

Архітектура мережі Gonka: Sprint, Transfer Agents, DiLoCo

Gonka — не просто «GPU в хмарі». Це повноцінна блокчейн-мережа з власним консенсусом, верифікацією обчислень та розподіленим навчанням. Розберемо ключові компоненти.

Transfer Agents: шлюзи між клієнтом і GPU

Transfer Agents — ключовий компонент архітектури Gonka, що виконує роль інтелектуального шлюзу між клієнтами та ML-нодами. Коли користувач надсилає AI-запит, він потрапляє не безпосередньо на GPU, а на Transfer Agent — спеціалізовану ноду-посередник, яка вирішує, який саме GPU обробить цей запит.

Процес виглядає так: клієнт робить стандартний POST /v1/chat/completions запит через OpenAI-сумісний API. Transfer Agent перевіряє криптографічний підпис запиту, визначає потрібну модель та знаходить вільну ML-ноду з відповідними характеристиками. Кожна ML-нода при реєстрації публікує свої параметри: які моделі вона підтримує, обсяг VRAM, поточну пропускну здатність та завантаження. Transfer Agent використовує ці дані для балансування навантаження — завдання розподіляються рівномірно, а не накопичуються на одній ноді.

Для відмовостійкості в мережі працює кілька Transfer Agents одночасно. Якщо один виходить з ладу — клієнт автоматично переключається на інший. Кожен Transfer Agent публікує свою адресу через endpoint /v1/identity, що дозволяє нодам та клієнтам динамічно виявляти один одного. Transfer Agents також управляють чергами запитів: якщо всі ноди зайняті, запит ставиться в чергу з пріоритетом на основі комісії. Це архітектура, що нагадує CDN, але для AI-обчислень — розподілена, відмовостійка та без єдиної точки контролю.

Sprint: консенсус через реальний inference

Sprint — це Transformer PoW 2.0, унікальний консенсус Gonka, який фундаментально відрізняється від усіх існуючих блокчейн-протоколів. У Bitcoin майнери витрачають 26 ГВт потужності на обчислення безглуздих SHA-256 хешів — єдина мета яких довести, що енергія була витрачена. В Ethereum Proof of Stake взагалі відмовилися від обчислювальної роботи — валідатори просто блокують токени, жертвуючи децентралізацією заради енергоефективності. Sprint пропонує третій шлях.

У Sprint кожне обчислення — це реальний AI-запит. Користувач надсилає промпт «напиши функцію на Python» → GPU генерує відповідь через нейромережу Qwen3-235B → цей inference одночасно обслуговує користувача та підтверджує блок у блокчейні. Результат: 99% ресурсів мережі йде на корисну роботу (AI inference), і лише 1% — на криптографічне забезпечення безпеки. Для порівняння: у Bitcoin 100% енергії йде на безпеку, 0% — на корисну роботу.

Робота мережі організована в епохи. У кожній епосі Transfer Agents розподіляють AI-завдання між ML-нодами. По завершенні епохи формується блок, що містить докази виконаної роботи. Нагороди розподіляються пропорційно внеску кожної ноди — чим більше запитів обробив GPU, тим більше GNK він отримує. Це створює ринковий стимул: хости конкурують за завдання, оптимізуючи продуктивність та знижуючи вартість inference для користувачів.

DiLoCo: розподілене навчання моделей

DiLoCo — технологія розподіленого навчання AI-моделей, яка вирішує фундаментальну проблему: як навчити нейромережу на мільярдах параметрів, коли GPU знаходяться в різних країнах і з'єднані звичайним інтернетом, а не високошвидкісним NVLink всередині одного дата-центру?

Традиційний підхід до навчання вимагає синхронізації параметрів після кожного кроку — це можливо лише при швидкості зв'язку в сотні гігабіт/с, тобто всередині одного кластера NVIDIA. DiLoCo переосмислює процес: вузли синхронізують параметри раз на ~1000 кроків, а не після кожного. Між синхронізаціями кожен вузол навчається локально на своєму підмножині даних. Це знижує вимоги до пропускної здатності на три порядки, роблячи навчання через інтернет практично здійсненним.

Оптимізація працює на двох рівнях: локально кожен вузол використовує AdamW — стандартний оптимізатор для трансформерів. Глобально, при синхронізації, застосовується Nesterov momentum — алгоритм, який «передбачає» напрямок оновлення та прискорює збіжність. Результат: моделі на 30—50 мільярдів параметрів можна навчати на кластерах з 8xH100, розподілених по планеті, без центрального сервера. Для порівняння: навчання GPT-4 вимагало тисячі GPU в одному дата-центрі з інвестиціями в мільярди доларів. DiLoCo потенційно дозволяє досягти співставного результату на розподіленій інфраструктурі Gonka.

Навіщо це важливо? Навчання — найдорожча частина AI. Компанії на кшталт OpenAI витрачають сотні мільйонів на один цикл навчання. DiLoCo дозволяє Gonka з часом навчати власні моделі силами мережі — без необхідності будувати дата-центри за мільярди. Це робить Gonka не просто inference-мережею, а повноцінною AI-платформою з вертикальною інтеграцією.

PoC V2: верифікація чесності нод

PoC V2 — механізм верифікації, який гарантує, що кожна ML-нода дійсно виконала обчислення, а не повернула випадкове сміття. Це критично важливо: без верифікації зловмисник міг би зареєструвати «ноду», яка віддає фейкові відповіді та отримує нагороди, не витрачаючи жодного вата на GPU.

Механізм працює через перехресну перевірку. Мережа випадковим чином обирає 1—10% завдань та надсилає їх на повторне виконання іншою нодою. Якщо результати збігаються — обидві ноди отримують винагороду. Якщо результати розходяться — починається арбітражний процес (dispute). Нода, що програла, втрачає 20% своєї застави (stake), яка розподіляється між чесними учасниками. Цей штраф робить шахрайство економічно невигідним: потенційний дохід від фейкових відповідей значно менший за ризик втратити заставу.

Швидкість верифікації забезпечують BLS-підписи — криптографічний примітив, що дозволяє агрегувати безліч підписів в одну та верифікувати її менш ніж за 10 мілісекунд. Це означає, що перевірка чесності не уповільнює роботу мережі — користувач отримує відповідь без затримки, а верифікація відбувається паралельно.

Для завдань навчання моделей (через DiLoCo) використовується додатковий механізм — Proof-of-Learning. Кожен вузол фіксує в блокчейні хеші ваг моделі та стану оптимізатора на кожному чекпоінті. Це створює незмінний аудиторський слід: будь-хто може перевірити, що навчання дійсно пройшло, а ваги не були підмінені. Така дворівнева верифікація — PoC V2 для inference, Proof-of-Learning для навчання — робить Gonka однією з найбільш захищених децентралізованих AI-мереж, що пройшла аудит CertiK.

Gonka — повноцінна блокчейн-інфраструктура: Transfer Agents маршрутизують запити, Sprint поєднує консенсус з AI inference, DiLoCo навчає моделі розподілено, а PoC V2 гарантує чесність.

Бажаєте дізнатися більше?

Вивчіть інші розділи або почніть заробляти GNK прямо зараз.

Спробувати AI через Gonka →