Sezioni dell'archivio conoscenza ▾
Per principianti
Per investitori
- Da dove viene il valore del token GNK
- Gonka vs concorrenti: Render, Akash, io.net
- Lieberman: dalla biofisica all'AI decentralizzata
- Tokenomics di GNK
- Rischi e prospettive di Gonka: analisi oggettiva
- Gonka vs Render Network: confronto dettagliato
- Gonka vs Akash: inferenza AI vs contenitori
- Gonka vs io.net: inferenza vs marketplace GPU
- Gonka vs Bittensor: un confronto dettagliato di due approcci all'IA
- Gonka vs Flux: due approcci al mining utile
- Governance in Gonka: come viene gestita una rete decentralizzata
Tecnico
Analitica
Strumenti
- Cursor + Gonka AI — LLM economico per la codifica
- Claude Code + Gonka AI — LLM per terminale
- OpenClaw + Gonka AI — agenti AI accessibili
- OpenCode + Gonka AI — AI gratuito per il codice
- Continue.dev + Gonka AI — AI per VS Code/JetBrains
- Cline + Gonka AI — Agente AI in VS Code
- Aider + Gonka AI — Programmazione a coppie con AI
- LangChain + Gonka AI — Applicazioni AI a un costo minimo
- n8n + Gonka AI — automazione con AI economica
- Open WebUI + Gonka AI — il tuo ChatGPT
- LibreChat + Gonka AI — ChatGPT open-source
- Avvio rapido API — curl, Python, TypeScript
- JoinGonka Gateway — panoramica completa
- Management Keys — SaaS su Gonka
Tecnologie
Architettura di rete Gonka: Sprint, Transfer Agents, DiLoCo
Transfer Agents: gateway tra client e GPU
I Transfer Agents sono un componente chiave dell'architettura Gonka, svolgono il ruolo di gateway intelligente tra i clienti e gli ML-node. Quando un utente invia una richiesta AI, questa non arriva direttamente alla GPU, ma a un Transfer Agent — un nodo intermediario specializzato che decide quali GPU elaboreranno la richiesta.
Il processo è il seguente: il client effettua una richiesta standard POST /v1/chat/completions tramite l'API compatibile con OpenAI. Il Transfer Agent verifica la firma crittografica della richiesta, determina il modello necessario e trova un ML-node disponibile con le caratteristiche adatte. Ogni ML-node, al momento della registrazione, pubblica i suoi parametri: quali modelli supporta, la quantità di VRAM, la larghezza di banda attuale e il carico. Il Transfer Agent utilizza questi dati per bilanciare il carico: i compiti vengono distribuiti in modo uniforme, senza accumularsi su un unico nodo.
Per la tolleranza agli errori, diversi Transfer Agents operano simultaneamente nella rete. Se uno smette di funzionare, il client si commuta automaticamente su un altro. Ogni Transfer Agent pubblica il proprio indirizzo tramite l'endpoint /v1/identity, consentendo ai nodi e ai client di scoprirsi dinamicamente. I Transfer Agents gestiscono anche le code di richieste: se tutti i nodi sono occupati, la richiesta viene messa in coda con priorità basata sulla commissione. Questa è un'architettura che ricorda una CDN, ma per i calcoli AI — distribuita, tollerante agli errori e senza un unico punto di controllo.
Sprint: consenso tramite inferenza reale
Sprint è un Transformer PoW 2.0, il consenso unico di Gonka, che differisce fondamentalmente da tutti i protocolli blockchain esistenti. In Bitcoin, i miner spendono 26 GW di potenza per calcolare hash SHA-256 senza senso, il cui unico scopo è dimostrare che l'energia è stata spesa. In Ethereum Proof of Stake, si è rinunciato completamente al lavoro computazionale: i validatori bloccano semplicemente i token, sacrificando la decentralizzazione per l'efficienza energetica. Sprint propone una terza via.
In Sprint, ogni calcolo è una reale richiesta AI. L'utente invia un prompt «scrivi una funzione Python» → la GPU genera una risposta tramite la rete neurale Qwen3-235B → questa inferenza serve contemporaneamente l'utente e conferma un blocco nella blockchain. Risultato: il 99% delle risorse della rete è destinato a lavori utili (inferenza AI), e solo l'1% per la sicurezza crittografica. Per confronto: in Bitcoin, il 100% dell'energia è destinato alla sicurezza, lo 0% a lavori utili.
Il lavoro della rete è organizzato in epoche. In ogni epoca, i Transfer Agent distribuiscono i compiti AI tra i nodi ML. Al termine di un'epoca, viene formato un blocco contenente le prove del lavoro svolto. Le ricompense sono distribuite proporzionalmente al contributo di ogni nodo: più richieste ha elaborato una GPU, più GNK riceve. Questo crea un incentivo di mercato: gli host competono per i compiti, ottimizzando le prestazioni e riducendo il costo dell'inferenza per gli utenti.
DiLoCo: formazione distribuita dei modelli
DiLoCo — una tecnologia di apprendimento distribuito di modelli AI che risolve un problema fondamentale: come addestrare una rete neurale su miliardi di parametri quando le GPU si trovano in paesi diversi e sono connesse tramite la normale internet, e non tramite una NVLink ad alta velocità all'interno di un unico data center?
L'approccio tradizionale all'addestramento richiede la sincronizzazione dei parametri dopo ogni passo — questo è possibile solo con velocità di connessione di centinaia di gigabit/s, cioè all'interno di un singolo cluster NVIDIA. DiLoCo ripensa il processo: i nodi sincronizzano i parametri una volta ogni ~1000 passi, invece che dopo ogni singolo passo. Tra le sincronizzazioni, ogni nodo si addestra localmente sul proprio sottoinsieme di dati. Ciò riduce i requisiti di larghezza di banda di tre ordini di grandezza, rendendo l'addestramento tramite internet praticamente realizzabile.
L'ottimizzazione funziona su due livelli: localmente, ogni nodo utilizza AdamW — un ottimizzatore standard per i trasformatori. Globalmente, durante la sincronizzazione, viene utilizzato il Nesterov momentum — un algoritmo che “prevede” la direzione dell'aggiornamento e accelera la convergenza. Il risultato: modelli da 30-50 miliardi di parametri possono essere addestrati su cluster di 8xH100, distribuiti in tutto il pianeta, senza un server centrale. In confronto: l'addestramento di GPT-4 ha richiesto migliaia di GPU in un unico data center con investimenti di miliardi di dollari. DiLoCo permette potenzialmente a Gonka di raggiungere un risultato comparabile su infrastrutture distribuite.
Perché è importante? L'addestramento è la parte più costosa dell'AI. Aziende come OpenAI spendono centinaia di milioni per un singolo ciclo di addestramento. DiLoCo consente a Gonka di addestrare nel tempo i propri modelli con la potenza della rete — senza la necessità di costruire data center da miliardi. Questo rende Gonka non solo una rete di inference, ma una piattaforma AI a tutti gli effetti con integrazione verticale.
PoC V2: verifica dell'onestà dei nodi
PoC V2 — un meccanismo di verifica che garantisce che ogni ML-node abbia effettivamente eseguito il calcolo, e non abbia restituito dati casuali. Questo è di importanza critica: senza verifica, un attaccante potrebbe registrare un "nodo" che restituisce risposte false e riceve ricompense senza spendere un watt sulla GPU.
Il meccanismo funziona tramite un controllo incrociato. La rete seleziona casualmente l'1-10% dei compiti e li invia per una nuova esecuzione a un altro nodo. Se i risultati corrispondono, entrambi i nodi ricevono una ricompensa. Se i risultati divergono, inizia un processo di arbitrato (dispute). Il nodo perdente perde il 20% della sua stake, che viene distribuita tra i partecipanti onesti. Questa penale rende la frode economicamente svantaggiosa: il potenziale reddito da risposte false è significativamente inferiore al rischio di perdere la stake.
La velocità di verifica è assicurata dalle firme BLS — un primitivo crittografico che permette di aggregare molte firme in una singola e verificarle in meno di 10 millisecondi. Ciò significa che il controllo dell'onestà non rallenta il funzionamento della rete: l'utente riceve la risposta senza ritardi, e la verifica avviene in parallelo.
Per i compiti di addestramento dei modelli (tramite DiLoCo) viene utilizzato un meccanismo aggiuntivo — Proof-of-Learning. Ogni nodo registra nella blockchain gli hash dei pesi del modello e dello stato dell'ottimizzatore a ogni checkpoint. Ciò crea una traccia di audit immutabile: chiunque può verificare che l'addestramento sia effettivamente avvenuto e che i pesi non siano stati alterati. Questa verifica a due livelli — PoC V2 per l'inference, Proof-of-Learning per l'addestramento — rende Gonka una delle reti AI decentralizzate più sicure, avendo superato l'audit di CertiK.
Vuoi saperne di più?
Esplora altre sezioni o inizia a guadagnare GNK subito.
Prova l'AI tramite Gonka →