Mga Seksyon ng Base ng Kaalaman ▾

Teknolohiya

Arkitektura ng Network ng Gonka: Sprint, Transfer Agents, DiLoCo

Ang Gonka — hindi lang "GPU sa cloud". Ito ay isang ganap na blockchain network na may sariling consensus, pagpapatunay sa mga computation at desentralisadong pag-aaral. Pag-aralan natin ang mga pangunahing bahagi.

Transfer Agents: mga gateway sa pagitan ng kliyente at GPU

Ang Transfer Agents ay ang susi na bahagi ng Gonka architecture, na nagsisilbing isang intelligent gateway sa pagitan ng mga kliyente at ML-nodes. Kapag nagpadala ang isang user ng AI request, hindi ito direktang napupunta sa GPU, kundi sa Transfer Agent—isang espesyal na intermediate node na nagpapasya kung aling GPU ang magpoproseso ng request na ito.

Ang proseso ay ganito: ang kliyente ay gumagawa ng isang standard na POST /v1/chat/completions request sa pamamagitan ng OpenAI-compatible API. Sinusuri ng Transfer Agent ang cryptographic signature ng request, tinutukoy ang kinakailangang modelo, at naghahanap ng isang libreng ML-node na may angkop na mga katangian. Bawat ML-node sa pagpaparehistro ay naglalathala ng kanilang mga parameter: kung anong mga modelo ang sinusuportahan nito, ang dami ng VRAM, ang kasalukuyang throughput, at workload. Ginagamit ng Transfer Agent ang data na ito para sa load balancing—ang mga gawain ay ibinabahagi nang pantay-pantay, hindi nagtitipon sa isang node.

Para sa fault tolerance, maraming Transfer Agents ang gumagana nang sabay-sabay sa network. Kung ang isa ay masira—awtomatikong lumilipat ang kliyente sa iba. Bawat Transfer Agent ay naglalathala ng kanyang address sa pamamagitan ng endpoint /v1/identity, na nagpapahintulot sa mga node at kliyente na dinamikong matuklasan ang bawat isa. Pinamamahalaan din ng Transfer Agents ang mga queue ng request: kung abala ang lahat ng node, ang request ay inilalagay sa queue na may priyoridad batay sa komisyon. Ito ay isang architecture na kahawig ng CDN, ngunit para sa AI computing—distributed, fault-tolerant, at walang iisang punto ng kontrol.

Sprint: consensus sa pamamagitan ng tunay na inference

Ang Sprint ay isang Transformer PoW 2.0, isang natatanging consensus ng Gonka, na sa pangkalahatan ay naiiba sa lahat ng umiiral na blockchain protocols. Sa Bitcoin, gumagasta ang mga minero ng 26 GW ng kapangyarihan sa pag-compute ng walang kabuluhang SHA-256 hashes — ang tanging layunin nito ay patunayan na ginugol ang enerhiya. Sa Ethereum Proof of Stake, ganap na tinalikuran ang computational work — ang mga validator ay simpleng nagba-block ng mga token, na isinakripisyo ang desentralisasyon para sa energy efficiency. Ang Sprint ay nag-aalok ng pangatlong paraan.

Sa Sprint, bawat computational ay isang tunay na AI-request. Nagpapadala ang user ng prompt na «sumulat ng function sa Python» → Bumubuo ang GPU ng sagot sa pamamagitan ng neural network na Qwen3-235B → Ang inference na ito ay sabay na naghahatid sa user at nagpapatunay ng isang bloke sa blockchain. Resulta: 99% ng mga mapagkukunan ng network ay napupunta sa kapaki-pakinabang na gawain (AI inference), at 1% lamang — sa cryptographic security. Para sa paghahambing: sa Bitcoin, 100% ng enerhiya ay napupunta sa seguridad, 0% — sa kapaki-pakinabang na gawain.

Ang pagpapatakbo ng network ay isinaayos sa mga yugto. Sa bawat yugto, ipinamamahagi ng mga Transfer Agent ang mga AI-tasks sa pagitan ng mga ML-node. Sa pagtatapos ng yugto, isang bloke ang nabubuo, na naglalaman ng mga patunay ng nakumpletong gawain. Ipinamamahagi ang mga gantimpala nang proporsyonal sa kontribusyon ng bawat node — kung mas maraming request ang naproseso ng GPU, mas maraming GNK ang natatanggap nito. Lumilikha ito ng market incentive: nakikipagkumpitensya ang mga host para sa mga gawain, pinapabuti ang performance at binabawasan ang halaga ng inference para sa mga user.

DiLoCo: Distributed Model Training

DiLoCo — isang teknolohiya para sa distributed training ng mga modelo ng AI, na lumulutas sa pundamental na problema: paano mag-train ng neural network sa bilyun-bilyong parameter, kung ang mga GPU ay nasa iba't ibang bansa at konektado sa pamamagitan ng regular na internet, at hindi sa pamamagitan ng mataas na bilis ng NVLink sa loob ng isang data center?

Ang tradisyonal na diskarte sa pagtuturo ay nangangailangan ng pag-synchronize ng mga parameter pagkatapos ng bawat hakbang—posible lamang ito sa bilis ng komunikasyon ng daan-daang gigabits/s, ibig sabihin, sa loob ng isang NVIDIA cluster. Binago ng DiLoCo ang proseso: ang mga node ay nagsa-synchronize ng mga parameter isang beses sa ~1000 na hakbang, at hindi pagkatapos ng bawat isa. Sa pagitan ng mga pag-synchronize, ang bawat node ay natututo nang lokal sa kanyang subset ng data. Binabawasan nito ang mga kinakailangan sa bandwidth ng tatlong order ng magnitude, na ginagawang praktikal ang pagtuturo sa internet.

Ang optimisasyon ay gumagana sa dalawang antas: lokal, ang bawat node ay gumagamit ng AdamW—isang standard na optimizer para sa mga transformer. Sa pangkalahatan, sa pag-synchronize, ginagamit ang Nesterov momentum—isang algorithm na 'hinuhulaan' ang direksyon ng pag-update at pinapabilis ang convergence. Ang resulta: ang mga modelo na 30–50 bilyong parameter ay maaaring turuan sa mga cluster ng 8xH100, na nakakalat sa buong planeta, nang walang sentral na server. Para sa paghahambing: ang pagtuturo ng GPT-4 ay nangailangan ng libu-libong GPU sa isang data center na may pamumuhunan na bilyun-bilyong dolyar. Posibleng payagan ng DiLoCo na makamit ang katulad na resulta sa distributed infrastructure ng Gonka.

Bakit ito mahalaga? Ang pagsasanay—ang pinakamahal na bahagi ng AI. Ang mga kumpanyang tulad ng OpenAI ay gumagastos ng daan-daang milyon sa isang cycle ng pagsasanay. Pinapayagan ng DiLoCo ang Gonka na sa kalaunan ay turuan ang sarili nilang mga modelo sa pamamagitan ng lakas ng network—nang hindi kinakailangang magtayo ng mga data center na bilyun-bilyon. Ginagawa nitong hindi lamang isang inference network ang Gonka, kundi isang ganap na AI platform na may vertical integration.

PoC V2: pagpapatunay sa katapatan ng mga node

PoC V2 — isang mekanismo ng pag-verify na ginagarantiyahan na ang bawat ML-node ay talagang nagsagawa ng computation, at hindi nagbalik ng random na basura. Ito ay kritikal na mahalaga: kung walang pag-verify, maaaring magrehistro ang isang umaatake ng isang 'node' na nagbibigay ng mga pekeng sagot at tumatanggap ng mga gantimpala, nang hindi gumagasta ng isang Watt sa GPU.

Gumagana ang mekanismo sa pamamagitan ng cross-verification. Random na pinipili ng network ang 1–10% ng mga gawain at ipinapadala ang mga ito upang muling isagawa ng ibang node. Kung magkatugma ang mga resulta—parehong node ang makakakuha ng gantimpala. Kung magkaiba ang mga resulta—nagsisimula ang proseso ng arbitrasyon (dispute). Mawawalan ng 20% ng kanyang stake ang natalong node, na ipinapamahagi sa mga tapat na kalahok. Ginagawa ng parusang ito na hindi economically viable ang pandaraya: ang potensyal na kita mula sa mga pekeng sagot ay mas mababa kaysa sa panganib na mawalan ng stake.

Ang bilis ng pag-verify ay tinitiyak ng BLS-signatures—isang cryptographic primitive na nagpapahintulot na pagsamahin ang maraming signature sa isa at i-verify ito sa mas mababa sa 10 milliseconds. Nangangahulugan ito na ang pag-verify ng integridad ay hindi nagpapabagal sa operasyon ng network—natatanggap ng user ang sagot nang walang pagkaantala, at ang pag-verify ay nangyayari nang sabay-sabay.

Para sa mga gawain ng pagsasanay ng modelo (sa pamamagitan ng DiLoCo), ginagamit ang karagdagang mekanismo—Proof-of-Learning. Itinatala ng bawat node sa blockchain ang mga hash ng timbang ng modelo at ang estado ng optimizer sa bawat checkpoint. Lumilikha ito ng isang hindi nababagong audit trail: sinuman ay maaaring mag-verify na talagang naganap ang pagsasanay, at hindi napalitan ang mga timbang. Ang dalawang-antas na pag-verify na ito—PoC V2 para sa inference, Proof-of-Learning para sa pagsasanay—ginagawang isa ang Gonka sa pinakaprotektadong desentralisadong AI network, na naipasa ang audit ng CertiK.

Ang Gonka — isang ganap na imprastraktura ng blockchain: ang Transfer Agents ay nagruruta ng mga kahilingan, pinagsasama ng Sprint ang consensus sa AI inference, sinasanay ng DiLoCo ang mga modelo nang desentralisado, at ginagarantiyahan ng PoC V2 ang katapatan.

Gusto mo pang matuto?

Galugarin ang iba pang mga seksyon o simulang kumita ng GNK ngayon.

Subukan ang AI sa pamamagitan ng Gonka →