Pangunahing Konsepto

Ano ang inference (inferens)

Kung gumamit ka ng ChatGPT — alam mo na kung ano ang inference. Sa tuwing nagtatanong ka at nakakakuha ng sagot mula sa neural network — iyon ang inference. Tuklasin pa natin nang mas detalyado.

Simpleng Paliwanag

Nagtatanong ka sa ChatGPT — nakakakuha ka ng sagot. Ang prosesong ito ay tinatawag na inference (inferens). Ang neural network ay “nag-iisip” at bumubuo ng sagot sa bawat salita. Bawat ganoong kahilingan ay nangangailangan ng malakas na GPU — isang graphics card na kayang mabilis na iproseso ang mga neural network computations.

Inference sa Gonka network

Kapag nagpapadala ng kahilingan ang isang tao sa pamamagitan ng Gonka API, pinoproseso ito ng isa sa mga node — isang GPU-server na nakakonekta sa network. Kasalukuyang modelo: Qwen3-235B (235 bilyong parameter). Ang may-ari ng host ng server na ito ay nakakakuha ng GNK sa bawat naprosesong kahilingan. Kung mas malakas ang GPU — mas maraming kahilingan ang kayang iproseso ng node.

Bakit ang inference ang batayan ng halaga ng GNK

Kung mas maraming tao ang gumagamit ng AI sa pamamagitan ng Gonka — mas malaki ang demand para sa GPU-powers. Mas malaki ang demand — mas mataas ang network utilization — mas mataas ang presyo ng inference — mas malaki ang kinikita ng mga host. Sa kaibahan ng Bitcoin, ang halaga ng GNK ay nakatali sa tunay na merkado ng AI-computations, hindi sa isang abstract na “komplikasyon.”

Ang inference ay isang kahilingan sa neural network. Sa tuwing may gumagamit ng AI sa pamamagitan ng Gonka, kumikita ang mga host ng GNK. Mas maraming user = mas malaking halaga ng token.

Gusto mo bang matuto pa?

Unawain ang ekonomiya ng GNK o magsimulang kumita ngayon.

Basahin din