Для продвинутых
Свой хост: пошаговый гайд
В Gonka видеокарты обрабатывают запросы к нейросети Qwen3-235B и получают токены GNK за каждый выполненный запрос.
Не хотите разбираться в серверах?
Для заработка GNK не нужно собственное оборудование. Вступите в пул — вложите от $30 и получайте GNK без технических навыков.
Требования к оборудованию
Network Node (сервер сети)
- 16-ядерный CPU (amd64)
- 64GB+ RAM
- 1TB NVMe SSD
- 100Mbps+ сеть
ML Node (вычислительный узел)
- MLNode 3.0.12+ минимум
- Go 1.22.8, Docker Desktop 4.37+, Java 19+
- NVIDIA GPU (поколение новее Tesla)
- Минимум 40GB VRAM на каждый контейнер MLNode
- Для текущей модели (Qwen3-235B): 640GB VRAM суммарно, минимум 2 ML-ноды
- Референсная конфигурация: 8xH200 на ноду
- CUDA 12.6-12.9, NVIDIA Container Toolkit
Совет: Нет своих GPU? Арендуйте bare-metal у GPU-провайдеров от ~$10,500/мес за 8xH100.
Gonka.Top — лучшая реферральная в экосистеме
Коллективный тариф от $100. 25% L1 + 5% L2 от прибыли пула. Выплаты ежемесячно 180 дней.
Не хватает GPU? Spheron — bare-metal GPU marketplace. H100/H200/B200 серверы от ~$12,600/мес с 99.9% SLA.
Арендовать GPU →Шаги настройки
01 Установите inferenced CLI
Скачайте последнюю версию (v0.2.10+) из GitHub releases.
# Скачать и установить inferenced CLI
wget https://github.com/gonka-ai/gonka/releases/latest/download/inferenced-linux-amd64
chmod +x inferenced-linux-amd64
sudo mv inferenced-linux-amd64 /usr/local/bin/inferenced 02 Создайте ключ холодного кошелька
Холодный кошелёк используется для управления нодой и получения наград.
inferenced keys add cold-wallet Сохраните мнемоническую фразу в надёжном месте!
03 Клонируйте репозиторий и настройте
git clone https://github.com/gonka-ai/gonka.git
cd gonka
cp config.env.example config.env
# Отредактируйте config.env — укажите ваши параметры 04 Скачайте веса модели
Текущая модель — Qwen3-235B-A22B-Instruct-2507-FP8. Загрузка через HuggingFace CLI. подробнее →
pip install huggingface-cli
huggingface-cli download Qwen/Qwen3-235B-A22B-Instruct-2507-FP8 05 Запустите Docker-сервисы
docker compose pull
docker compose up -d 06 Зарегистрируйтесь on-chain
Создайте ML-операционный ключ и зарегистрируйте ноду в сети.
# Создать операционный ключ
inferenced keys add ml-operator
# Зарегистрировать ноду
inferenced tx register-ml-node --from cold-wallet
# Выдать права оператору
inferenced tx grant-ml-permissions --from cold-wallet --to ml-operator 07 Настройте SSL и запустите
Настройте DNS (Cloudflare/AWS/GCP/Azure/DO/Hetzner), получите SSL-сертификат, запустите полную сеть и проверьте регистрацию.
# Проверить статус ноды
inferenced status
# Проверить регистрацию
inferenced query node-info Не хотите настраивать сами?
Есть GPU-хостинг и пулы, которые делают всё за вас:
Аренда GPU
- Spheron — от ~$12,600/мес, H100/H200/B200, 99.9% SLA
Майнинг-пулы
- Gonka.Top — от $100, 25% реферральная + 5% L2, ежемесячные выплаты
- GonkaPool.ai — Telegram-бот, удобный вход
- Hashiro — от $100, ежедневные выплаты
- Mingles Cloud — от $30
- Gonka.Wallet — Telegram Mini App, кошелёк в 1 клик, встроенные пулы
Лучшая реферральная: Gonka.Top — 25% от прибыли. Самый доступный вход: Mingles Cloud — от $30.
Что влияет на доходность
- Weight (вес): базовый вес = 20% автоматически. Оставшиеся 80% активируются залоком GNK как коллатерал. подробнее →
- GPU производительность: чем мощнее видеокарта, тем больше запросов к нейросети обрабатывается за раунд.
- Утилизация сети: при загрузке 40-60% цена стабильна. Выше 60% — цена растёт (больше дохода за запрос).
- Справедливые награды: Система автоматически проверяет каждое вычисление (<10ms) и справедливо распределяет награды. При обновлениях сети действует переходный период (~5 часов), чтобы никто не потерял доход. подробнее →