Разделы базы знаний ▾
Для начинающих
Инвесторам
- Откуда ценность токена GNK
- Gonka vs конкуренты: Render, Akash, io.net
- Либерманы: от биофизики к децентрализованному AI
- Токеномика GNK
- Риски и перспективы Gonka: объективный анализ
- Gonka vs Render Network: детальное сравнение
- Gonka vs Akash: AI inference vs контейнеры
- Gonka vs io.net: inference vs маркетплейс GPU
- Gonka vs Bittensor: детальное сравнение двух подходов к AI
- Gonka vs Flux: два подхода к полезному майнингу
- Governance в Gonka: как управляется децентрализованная сеть
Техническое
Аналитика
Инструменты
- Cursor + Gonka AI — дешёвый LLM для кодинга
- Claude Code + Gonka AI — LLM для терминала
- OpenClaw + Gonka AI — доступные AI-агенты
- OpenCode + Gonka AI — бесплатный AI для кода
- Continue.dev + Gonka AI — AI для VS Code/JetBrains
- Cline + Gonka AI — AI-агент в VS Code
- Aider + Gonka AI — парное программирование с AI
- LangChain + Gonka AI — AI-приложения за копейки
- n8n + Gonka AI — автоматизация с дешёвым AI
- Open WebUI + Gonka AI — свой ChatGPT
- LibreChat + Gonka AI — open-source ChatGPT
- API быстрый старт — curl, Python, TypeScript
- JoinGonka Gateway — полный обзор
- Management Keys — SaaS на Gonka
Технологии
Архитектура сети Gonka: Sprint, Transfer Agents, DiLoCo
Transfer Agents: шлюзы между клиентом и GPU
Transfer Agents — ключевой компонент архитектуры Gonka, выполняющий роль интеллектуального шлюза между клиентами и ML-нодами. Когда пользователь отправляет AI-запрос, он попадает не напрямую на GPU, а на Transfer Agent — специализированную ноду-посредник, которая решает, какой именно GPU обработает этот запрос.
Процесс выглядит так: клиент делает стандартный POST /v1/chat/completions запрос через OpenAI-совместимый API. Transfer Agent проверяет криптографическую подпись запроса, определяет нужную модель и находит свободную ML-ноду с подходящими характеристиками. Каждая ML-нода при регистрации публикует свои параметры: какие модели она поддерживает, объём VRAM, текущую пропускную способность и загрузку. Transfer Agent использует эти данные для балансировки нагрузки — задачи распределяются равномерно, а не скапливаются на одной ноде.
Для отказоустойчивости в сети работает несколько Transfer Agents одновременно. Если один выходит из строя — клиент автоматически переключается на другой. Каждый Transfer Agent публикует свой адрес через endpoint /v1/identity, что позволяет нодам и клиентам динамически обнаруживать друг друга. Transfer Agents также управляют очередями запросов: если все ноды заняты, запрос ставится в очередь с приоритетом на основе комиссии. Это архитектура, напоминающая CDN, но для AI-вычислений — распределённая, отказоустойчивая и без единой точки контроля.
Sprint: консенсус через реальный inference
Sprint — это Transformer PoW 2.0, уникальный консенсус Gonka, который фундаментально отличается от всех существующих блокчейн-протоколов. В Bitcoin майнеры тратят 26 ГВт мощности на вычисление бессмысленных SHA-256 хэшей — единственная цель которых доказать, что энергия была потрачена. В Ethereum Proof of Stake вообще отказались от вычислительной работы — валидаторы просто блокируют токены, жертвуя децентрализацией ради энергоэффективности. Sprint предлагает третий путь.
В Sprint каждое вычисление — это реальный AI-запрос. Пользователь отправляет промпт «напиши функцию на Python» → GPU генерирует ответ через нейросеть Qwen3-235B → этот inference одновременно обслуживает пользователя и подтверждает блок в блокчейне. Результат: 99% ресурсов сети идёт на полезную работу (AI inference), и лишь 1% — на криптографическое обеспечение безопасности. Для сравнения: в Bitcoin 100% энергии уходит на безопасность, 0% — на полезную работу.
Работа сети организована в эпохи. В каждой эпохе Transfer Agents распределяют AI-задачи между ML-нодами. По завершении эпохи формируется блок, содержащий доказательства выполненной работы. Награды распределяются пропорционально вкладу каждой ноды — чем больше запросов обработал GPU, тем больше GNK он получает. Это создаёт рыночный стимул: хосты конкурируют за задачи, оптимизируя производительность и снижая стоимость inference для пользователей.
DiLoCo: распределённое обучение моделей
DiLoCo — технология распределённого обучения AI-моделей, которая решает фундаментальную проблему: как обучить нейросеть на миллиардах параметров, когда GPU находятся в разных странах и соединены обычным интернетом, а не высокоскоростным NVLink внутри одного дата-центра?
Традиционный подход к обучению требует синхронизации параметров после каждого шага — это возможно только при скорости связи в сотни гигабит/с, то есть внутри одного кластера NVIDIA. DiLoCo переосмысливает процесс: узлы синхронизируют параметры раз в ~1000 шагов, а не после каждого. Между синхронизациями каждый узел обучается локально на своём подмножестве данных. Это снижает требования к пропускной способности на три порядка, делая обучение через интернет практически осуществимым.
Оптимизация работает на двух уровнях: локально каждый узел использует AdamW — стандартный оптимизатор для трансформеров. Глобально, при синхронизации, применяется Nesterov momentum — алгоритм, который «предсказывает» направление обновления и ускоряет сходимость. Результат: модели на 30—50 миллиардов параметров можно обучать на кластерах из 8xH100, распределённых по планете, без центрального сервера. Для сравнения: обучение GPT-4 потребовало тысячи GPU в одном дата-центре с инвестициями в миллиарды долларов. DiLoCo потенциально позволяет достичь сопоставимого результата на распределённой инфраструктуре Gonka.
Зачем это важно? Обучение — самая дорогая часть AI. Компании вроде OpenAI тратят сотни миллионов на один цикл обучения. DiLoCo позволяет Gonka со временем обучать собственные модели силами сети — без необходимости строить дата-центры за миллиарды. Это делает Gonka не просто inference-сетью, а полноценной AI-платформой с вертикальной интеграцией.
PoC V2: верификация честности нод
PoC V2 — механизм верификации, который гарантирует, что каждая ML-нода действительно выполнила вычисление, а не вернула случайный мусор. Это критически важно: без верификации злоумышленник мог бы зарегистрировать «ноду», которая отдаёт фейковые ответы и получает награды, не тратя ни ватта на GPU.
Механизм работает через перекрёстную проверку. Сеть случайным образом выбирает 1—10% задач и отправляет их на повторное выполнение другой нодой. Если результаты совпадают — обе ноды получают вознаграждение. Если результаты расходятся — начинается арбитражный процесс (dispute). Проигравшая нода теряет 20% своего залога (stake), который распределяется между честными участниками. Этот штраф делает мошенничество экономически невыгодным: потенциальный доход от фейковых ответов значительно меньше риска потерять залог.
Скорость верификации обеспечивают BLS-подписи — криптографический примитив, позволяющий агрегировать множество подписей в одну и верифицировать её менее чем за 10 миллисекунд. Это означает, что проверка честности не замедляет работу сети — пользователь получает ответ без задержки, а верификация происходит параллельно.
Для задач обучения моделей (через DiLoCo) используется дополнительный механизм — Proof-of-Learning. Каждый узел фиксирует в блокчейне хеши весов модели и состояния оптимизатора на каждом чекпоинте. Это создаёт неизменяемый аудиторский след: любой может проверить, что обучение действительно прошло, а веса не были подменены. Такая двухуровневая верификация — PoC V2 для inference, Proof-of-Learning для обучения — делает Gonka одной из наиболее защищённых децентрализованных AI-сетей, прошедшей аудит CertiK.
Хотите узнать больше?
Изучите другие разделы или начните зарабатывать GNK прямо сейчас.
Попробовать AI через Gonka →