Podstawowe pojęcia
Czym jest inference (inferencja)
Jeśli używałeś ChatGPT — to już wiesz, czym jest inferencja. Za każdym razem, gdy zadajesz pytanie i otrzymujesz odpowiedź od sieci neuronowej — to jest inferencja. Przyjrzyjmy się temu bliżej.
Proste wyjaśnienie
Piszesz pytanie do ChatGPT — otrzymujesz odpowiedź. Ten proces nazywa się inferencją. Sieć neuronowa „myśli” i generuje odpowiedź słowo po słowie. Każde takie zapytanie wymaga potężnego procesora graficznego — karty graficznej, która potrafi szybko przetwarzać obliczenia sieci neuronowej.
Inferencja w sieci Gonka
Gdy ktoś wysyła zapytanie przez Gonka API, jest ono przetwarzane przez jeden z węzłów — serwer GPU podłączony do sieci. Obecny model: Qwen3-235B (235 miliardów parametrów). Właściciel tego serwera otrzymuje GNK za każde przetworzone zapytanie. Im mocniejszy procesor graficzny — tym więcej zapytań może przetworzyć węzeł.
Dlaczego inferencja jest podstawą wartości GNK
Im więcej osób korzysta z AI za pośrednictwem Gonka — tym większe zapotrzebowanie na moc GPU. Większe zapotrzebowanie — większe obciążenie sieci — wyższa cena inferencji — więcej zarabiają hosty. W przeciwieństwie do Bitcoin, wartość GNK jest związana z rzeczywistym rynkiem obliczeń AI, a nie z abstrakcyjną „złożonością”.
Inferencja — to zapytanie do sieci neuronowej. Za każdym razem, gdy ktoś używa AI za pośrednictwem Gonka, hosty zarabiają GNK. Więcej użytkowników = większa wartość tokena.
Chcesz dowiedzieć się więcej?
Poznaj ekonomię GNK lub zacznij zarabiać już teraz.