Dla zaawansowanych
Samodzielne hostowanie: poradnik krok po kroku
W Gonka, karty graficzne przetwarzają żądania sieci neuronowej Qwen3-235B i otrzymują tokeny GNK za każde wykonane żądanie.
Nie chcesz zajmować się serwerami?
Nie potrzebujesz własnego sprzętu, aby zarabiać GNK. Dołącz do puli — zainwestuj od 30 $ i otrzymuj GNK bez umiejętności technicznych.
Wymagania sprzętowe
Network Node (serwer sieciowy)
- 16-rdzeniowy CPU (amd64)
- 64GB+ RAM
- 1TB NVMe SSD
- Sieć 100Mbps+
ML Node (węzeł obliczeniowy)
- Minimum MLNode 3.0.12+
- Go 1.22.8, Docker Desktop 4.37+, Java 19+
- NVIDIA GPU (generacja nowsza niż Tesla)
- Minimum 40GB VRAM na każdy kontener MLNode
- Dla aktualnego modelu (Qwen3-235B): 640GB VRAM łącznie, minimum 2 ML node'y
- Konfiguracja referencyjna: 8xH200 na noda
- CUDA 12.6-12.9, NVIDIA Container Toolkit
Wskazówka: Nie masz własnych GPU? Wynajmij bare-metal od dostawców GPU od ~$10 500/mies. za 8xH100.
Gonka.Top — najlepszy program referralowy w ekosystemie
Zbiorowa taryfa od $100. 25% L1 + 5% L2 od zysku puli. Wypłaty miesięczne przez 180 dni.
Za mało GPU? Spheron – rynek GPU bare-metal. Serwery H100/H200/B200 od ~12 600 $/miesiąc z 99.9% SLA.
Wynajmij GPU →Kroki konfiguracji
01 Zainstaluj inferenced CLI
Pobierz najnowszą wersję (v0.2.10+) z GitHub releases.
# Pobierz i zainstaluj inferenced CLI
wget https://github.com/gonka-ai/gonka/releases/latest/download/inferenced-linux-amd64
chmod +x inferenced-linux-amd64
sudo mv inferenced-linux-amd64 /usr/local/bin/inferenced 02 Utwórz klucz cold wallet
Cold wallet służy do zarządzania nodem i otrzymywania nagród.
inferenced keys add cold-wallet Zapisz frazę mnemoniczną w bezpiecznym miejscu!
03 Sklonuj repozytorium i skonfiguruj
git clone https://github.com/gonka-ai/gonka.git
cd gonka
cp config.env.example config.env
# Edytuj config.env — podaj swoje parametry 04 Pobierz wagi modelu
Aktualny model to Qwen3-235B-A22B-Instruct-2507-FP8. Pobieranie przez HuggingFace CLI. подробнее →
pip install huggingface-cli
huggingface-cli download Qwen/Qwen3-235B-A22B-Instruct-2507-FP8 05 Uruchom usługi Docker
docker compose pull
docker compose up -d 06 Zarejestruj się on-chain
Utwórz klucz operacyjny ML i zarejestruj noda w sieci.
# Utwórz klucz operacyjny
inferenced keys add ml-operator
# Zarejestruj noda
inferenced tx register-ml-node --from cold-wallet
# Nadaj uprawnienia operatorowi
inferenced tx grant-ml-permissions --from cold-wallet --to ml-operator 07 Skonfiguruj SSL i uruchom
Skonfiguruj DNS (Cloudflare/AWS/GCP/Azure/DO/Hetzner), uzyskaj certyfikat SSL, uruchom pełną sieć i sprawdź rejestrację.
# Sprawdź status noda
inferenced status
# Sprawdź rejestrację
inferenced query node-info Nie chcesz konfigurować samodzielnie?
Istnieją hostingi GPU i pule, które zrobią wszystko za Ciebie:
Wynajem GPU
- Spheron — od ~12 600 $/miesiąc, H100/H200/B200, 99.9% SLA
Pule miningowe
- Gonka.Top — od $100, 25% referral + 5% L2, miesięczne wypłaty
- GonkaPool.ai — Bot Telegram, wygodne wejście
- Hashiro — od $100, dzienne wypłaty
- Mingles Cloud — od $30
- Gonka.Wallet — Telegram Mini App, portfel w 1 klik, wbudowane pule
Najlepszy program referralowy: Gonka.Top — 25% od zysku. Najtańsze wejście: Mingles Cloud – od 30 $.
Co wpływa na rentowność
- Weight (waga): waga bazowa = 20% automatycznie. Pozostałe 80% jest aktywowane przez zablokowanie GNK jako kolateral. подробнее →
- Wydajność GPU: im mocniejsza karta graficzna, tym więcej żądań sieci neuronowej jest przetwarzanych na rundę.
- Wykorzystanie sieci: przy obciążeniu 40-60% cena jest stabilna. Powyżej 60% cena rośnie (więcej przychodu za żądanie).
- Sprawiedliwe nagrody: System automatycznie weryfikuje każde obliczenie (<10ms) i sprawiedliwie rozdziela nagrody. Podczas aktualizacji sieci obowiązuje okres przejściowy (~5 godzin), aby nikt nie stracił dochodu. подробнее →