Разделы базы знаний ▾

Инструменты

Технологии

Архитектура сети Gonka: Sprint, Transfer Agents, DiLoCo

Gonka — не просто «GPU в облаке». Это полноценная блокчейн-сеть с собственным консенсусом, верификацией вычислений и распределённым обучением. Разберём ключевые компоненты.

Transfer Agents: шлюзы между клиентом и GPU

Transfer Agents — ключевой компонент архитектуры Gonka, выполняющий роль интеллектуального шлюза между клиентами и ML-нодами. Когда пользователь отправляет AI-запрос, он попадает не напрямую на GPU, а на Transfer Agent — специализированную ноду-посредник, которая решает, какой именно GPU обработает этот запрос.

Процесс выглядит так: клиент делает стандартный POST /v1/chat/completions запрос через OpenAI-совместимый API. Transfer Agent проверяет криптографическую подпись запроса, определяет нужную модель и находит свободную ML-ноду с подходящими характеристиками. Каждая ML-нода при регистрации публикует свои параметры: какие модели она поддерживает, объём VRAM, текущую пропускную способность и загрузку. Transfer Agent использует эти данные для балансировки нагрузки — задачи распределяются равномерно, а не скапливаются на одной ноде.

Для отказоустойчивости в сети работает несколько Transfer Agents одновременно. Если один выходит из строя — клиент автоматически переключается на другой. Каждый Transfer Agent публикует свой адрес через endpoint /v1/identity, что позволяет нодам и клиентам динамически обнаруживать друг друга. Transfer Agents также управляют очередями запросов: если все ноды заняты, запрос ставится в очередь с приоритетом на основе комиссии. Это архитектура, напоминающая CDN, но для AI-вычислений — распределённая, отказоустойчивая и без единой точки контроля.

Sprint: консенсус через реальный inference

Sprint — это Transformer PoW 2.0, уникальный консенсус Gonka, который фундаментально отличается от всех существующих блокчейн-протоколов. В Bitcoin майнеры тратят 26 ГВт мощности на вычисление бессмысленных SHA-256 хэшей — единственная цель которых доказать, что энергия была потрачена. В Ethereum Proof of Stake вообще отказались от вычислительной работы — валидаторы просто блокируют токены, жертвуя децентрализацией ради энергоэффективности. Sprint предлагает третий путь.

В Sprint каждое вычисление — это реальный AI-запрос. Пользователь отправляет промпт «напиши функцию на Python» → GPU генерирует ответ через нейросеть Qwen3-235B → этот inference одновременно обслуживает пользователя и подтверждает блок в блокчейне. Результат: 99% ресурсов сети идёт на полезную работу (AI inference), и лишь 1% — на криптографическое обеспечение безопасности. Для сравнения: в Bitcoin 100% энергии уходит на безопасность, 0% — на полезную работу.

Работа сети организована в эпохи. В каждой эпохе Transfer Agents распределяют AI-задачи между ML-нодами. По завершении эпохи формируется блок, содержащий доказательства выполненной работы. Награды распределяются пропорционально вкладу каждой ноды — чем больше запросов обработал GPU, тем больше GNK он получает. Это создаёт рыночный стимул: хосты конкурируют за задачи, оптимизируя производительность и снижая стоимость inference для пользователей.

DiLoCo: распределённое обучение моделей

DiLoCo — технология распределённого обучения AI-моделей, которая решает фундаментальную проблему: как обучить нейросеть на миллиардах параметров, когда GPU находятся в разных странах и соединены обычным интернетом, а не высокоскоростным NVLink внутри одного дата-центра?

Традиционный подход к обучению требует синхронизации параметров после каждого шага — это возможно только при скорости связи в сотни гигабит/с, то есть внутри одного кластера NVIDIA. DiLoCo переосмысливает процесс: узлы синхронизируют параметры раз в ~1000 шагов, а не после каждого. Между синхронизациями каждый узел обучается локально на своём подмножестве данных. Это снижает требования к пропускной способности на три порядка, делая обучение через интернет практически осуществимым.

Оптимизация работает на двух уровнях: локально каждый узел использует AdamW — стандартный оптимизатор для трансформеров. Глобально, при синхронизации, применяется Nesterov momentum — алгоритм, который «предсказывает» направление обновления и ускоряет сходимость. Результат: модели на 30—50 миллиардов параметров можно обучать на кластерах из 8xH100, распределённых по планете, без центрального сервера. Для сравнения: обучение GPT-4 потребовало тысячи GPU в одном дата-центре с инвестициями в миллиарды долларов. DiLoCo потенциально позволяет достичь сопоставимого результата на распределённой инфраструктуре Gonka.

Зачем это важно? Обучение — самая дорогая часть AI. Компании вроде OpenAI тратят сотни миллионов на один цикл обучения. DiLoCo позволяет Gonka со временем обучать собственные модели силами сети — без необходимости строить дата-центры за миллиарды. Это делает Gonka не просто inference-сетью, а полноценной AI-платформой с вертикальной интеграцией.

PoC V2: верификация честности нод

PoC V2 — механизм верификации, который гарантирует, что каждая ML-нода действительно выполнила вычисление, а не вернула случайный мусор. Это критически важно: без верификации злоумышленник мог бы зарегистрировать «ноду», которая отдаёт фейковые ответы и получает награды, не тратя ни ватта на GPU.

Механизм работает через перекрёстную проверку. Сеть случайным образом выбирает 1—10% задач и отправляет их на повторное выполнение другой нодой. Если результаты совпадают — обе ноды получают вознаграждение. Если результаты расходятся — начинается арбитражный процесс (dispute). Проигравшая нода теряет 20% своего залога (stake), который распределяется между честными участниками. Этот штраф делает мошенничество экономически невыгодным: потенциальный доход от фейковых ответов значительно меньше риска потерять залог.

Скорость верификации обеспечивают BLS-подписи — криптографический примитив, позволяющий агрегировать множество подписей в одну и верифицировать её менее чем за 10 миллисекунд. Это означает, что проверка честности не замедляет работу сети — пользователь получает ответ без задержки, а верификация происходит параллельно.

Для задач обучения моделей (через DiLoCo) используется дополнительный механизм — Proof-of-Learning. Каждый узел фиксирует в блокчейне хеши весов модели и состояния оптимизатора на каждом чекпоинте. Это создаёт неизменяемый аудиторский след: любой может проверить, что обучение действительно прошло, а веса не были подменены. Такая двухуровневая верификация — PoC V2 для inference, Proof-of-Learning для обучения — делает Gonka одной из наиболее защищённых децентрализованных AI-сетей, прошедшей аудит CertiK.

Gonka — полноценная блокчейн-инфраструктура: Transfer Agents маршрутизируют запросы, Sprint совмещает консенсус с AI inference, DiLoCo обучает модели распределённо, а PoC V2 гарантирует честность.

Хотите узнать больше?

Изучите другие разделы или начните зарабатывать GNK прямо сейчас.

Попробовать AI через Gonka →