Concetti di base

Cos'è l'inference (inferenza)

Se hai usato ChatGPT — sai già cos'è l'inferenza. Ogni volta che scrivi una domanda e ricevi una risposta da una rete neurale — questo è l'inferenza. Approfondiamo.

Spiegazione semplice

Scrivi una domanda a ChatGPT — ricevi una risposta. Questo processo si chiama inferenza. La rete neurale 'pensa' e genera una risposta parola per parola. Ogni tale richiesta richiede una potente GPU — una scheda video che può elaborare rapidamente i calcoli della rete neurale.

Inferenza nella rete Gonka

Quando qualcuno invia una richiesta tramite l'API Gonka, viene elaborata da uno dei nodi — un server GPU collegato alla rete. Modello attuale: Qwen3-235B (235 miliardi di parametri). L'host proprietario di questo server riceve GNK per ogni richiesta elaborata. Più potente è la GPU — più richieste può elaborare il nodo.

Perché l'inferenza è la base del valore GNK

Più persone usano l'AI tramite Gonka — maggiore è la domanda di potenza GPU. Maggiore la domanda — maggiore il carico della rete — maggiore il prezzo dell'inferenza — maggiori i guadagni degli host. A differenza di Bitcoin, il valore di GNK è legato al mercato reale dei calcoli AI, non a una 'complessità' astratta.

L'inferenza — è una richiesta a una rete neurale. Ogni volta che qualcuno usa l'AI tramite Gonka, gli host guadagnano GNK. Più utenti = maggiore valore del token.

Vuoi saperne di più?

Comprendi l'economia GNK o inizia a guadagnare subito.

Leggi anche