Podstawowe pojęcia

Czym jest inference (inferencja)

Jeśli używałeś ChatGPT — to już wiesz, czym jest inferencja. Za każdym razem, gdy zadajesz pytanie i otrzymujesz odpowiedź od sieci neuronowej — to jest inferencja. Przyjrzyjmy się temu bliżej.

Proste wyjaśnienie

Piszesz pytanie do ChatGPT — otrzymujesz odpowiedź. Ten proces nazywa się inferencją. Sieć neuronowa „myśli” i generuje odpowiedź słowo po słowie. Każde takie zapytanie wymaga potężnego procesora graficznego — karty graficznej, która potrafi szybko przetwarzać obliczenia sieci neuronowej.

Inferencja w sieci Gonka

Gdy ktoś wysyła zapytanie przez Gonka API, jest ono przetwarzane przez jeden z węzłów — serwer GPU podłączony do sieci. Obecny model: Qwen3-235B (235 miliardów parametrów). Właściciel tego serwera otrzymuje GNK za każde przetworzone zapytanie. Im mocniejszy procesor graficzny — tym więcej zapytań może przetworzyć węzeł.

Dlaczego inferencja jest podstawą wartości GNK

Im więcej osób korzysta z AI za pośrednictwem Gonka — tym większe zapotrzebowanie na moc GPU. Większe zapotrzebowanie — większe obciążenie sieci — wyższa cena inferencji — więcej zarabiają hosty. W przeciwieństwie do Bitcoin, wartość GNK jest związana z rzeczywistym rynkiem obliczeń AI, a nie z abstrakcyjną „złożonością”.

Inferencja — to zapytanie do sieci neuronowej. Za każdym razem, gdy ktoś używa AI za pośrednictwem Gonka, hosty zarabiają GNK. Więcej użytkowników = większa wartość tokena.

Chcesz dowiedzieć się więcej?

Poznaj ekonomię GNK lub zacznij zarabiać już teraz.

Przeczytaj także