ส่วนของฐานความรู้ ▾
สำหรับผู้เริ่มต้น
สำหรับนักลงทุน
- มูลค่าของโทเค็น GNK มาจากไหน
- Gonka กับคู่แข่ง: Render, Akash, io.net
- Libermans: จากชีวฟิสิกส์สู่ AI แบบกระจายอำนาจ
- โทเค็นโนมิคส์ของ GNK
- ความเสี่ยงและโอกาสของ Gonka: การวิเคราะห์เชิงวัตถุประสงค์
- Gonka vs Render Network: การเปรียบเทียบโดยละเอียด
- Gonka vs Akash: AI inference vs คอนเทนเนอร์
- Gonka vs io.net: inference vs marketplace GPU
- Gonka vs Bittensor: การเปรียบเทียบเชิงลึกสองแนวทางสู่ AI
- Gonka vs Flux: สองแนวทางสู่การขุดที่มีประโยชน์
- การกำกับดูแลใน Gonka: เครือข่ายกระจายอำนาจได้รับการบริหารจัดการอย่างไร
เทคนิค
การวิเคราะห์
เครื่องมือ
- Cursor + Gonka AI - LLM ราคาถูกสำหรับการเขียนโค้ด
- Claude Code + Gonka AI - LLM สำหรับเทอร์มินัล
- OpenClaw + Gonka AI - เอเจนต์ AI ที่เข้าถึงได้
- OpenCode + Gonka AI - AI ฟรีสำหรับโค้ด
- Continue.dev + Gonka AI - AI สำหรับ VS Code/JetBrains
- Cline + Gonka AI - เอเจนต์ AI ใน VS Code
- Aider + Gonka AI - การเขียนโปรแกรมคู่กับ AI
- LangChain + Gonka AI - แอปพลิเคชัน AI ในราคาที่ถูกมาก
- n8n + Gonka AI - การทำงานอัตโนมัติด้วย AI ราคาถูก
- Open WebUI + Gonka AI - ChatGPT ของคุณเอง
- LibreChat + Gonka AI — open-source ChatGPT
- API เริ่มต้นอย่างรวดเร็ว — curl, Python, TypeScript
- JoinGonka Gateway — ภาพรวมโดยละเอียด
- Management Keys — SaaS บน Gonka
เทคโนโลยี
สถาปัตยกรรมเครือข่าย Gonka: Sprint, Transfer Agents, DiLoCo
Transfer Agents: เกตเวย์ระหว่างลูกค้าและ GPU
Transfer Agents เป็นส่วนประกอบสำคัญของสถาปัตยกรรม Gonka ซึ่งทำหน้าที่เป็นเกตเวย์อัจฉริยะระหว่างลูกค้าและ ML-โหนด เมื่อผู้ใช้ส่งคำขอ AI คำขอนั้นจะไม่ไปถึง GPU โดยตรง แต่จะไปถึง Transfer Agent — โหนดตัวกลางพิเศษที่ตัดสินใจว่า GPU ใดจะประมวลผลคำขอนั้น
กระบวนการมีดังนี้: ลูกค้าทำการร้องขอ POST /v1/chat/completions มาตรฐานผ่าน API ที่เข้ากันได้กับ OpenAI Transfer Agent จะตรวจสอบลายเซ็นการเข้ารหัสของคำขอ กำหนดโมเดลที่ต้องการ และค้นหา ML-โหนดที่ว่างที่มีคุณสมบัติเหมาะสม ML-โหนดแต่ละโหนดจะเผยแพร่พารามิเตอร์ของตนเองเมื่อลงทะเบียน: โมเดลที่รองรับ ปริมาณ VRAM แบนด์วิดท์ปัจจุบัน และโหลด Transfer Agent ใช้ข้อมูลเหล่านี้เพื่อปรับสมดุลโหลด — งานจะถูกกระจายอย่างสม่ำเสมอ ไม่ใช่กระจุกตัวที่โหนดเดียว
เพื่อให้ทนทานต่อความผิดพลาด มี Transfer Agents หลายตัวทำงานพร้อมกันในเครือข่าย หากตัวใดตัวหนึ่งล้มเหลว ลูกค้าจะสลับไปใช้งานตัวอื่นโดยอัตโนมัติ Transfer Agent แต่ละตัวจะเผยแพร่ที่อยู่ของตนเองผ่าน endpoint /v1/identity ซึ่งช่วยให้โหนดและลูกค้าสามารถค้นหากันและกันได้แบบไดนามิก Transfer Agents ยังจัดการคิวคำขอ: หากโหนดทั้งหมดไม่ว่าง คำขอจะถูกจัดคิวโดยมีลำดับความสำคัญตามค่าคอมมิชชัน นี่คือสถาปัตยกรรมที่คล้ายกับ CDN แต่สำหรับ การประมวลผล AI — กระจาย ทนทานต่อความผิดพลาด และไม่มีจุดควบคุมเดียว
Sprint: ฉันทามติผ่านการอนุมานจริง
Sprint คือ Transformer PoW 2.0 ซึ่งเป็นฉันทามติที่เป็นเอกลักษณ์ของ Gonka ที่แตกต่างโดยพื้นฐานจากโปรโตคอลบล็อกเชนที่มีอยู่ทั้งหมด ใน Bitcoin นักขุดใช้พลังงาน 26 GW ในการคำนวณแฮช SHA-256 ที่ไร้ความหมาย — จุดประสงค์เดียวคือเพื่อพิสูจน์ว่าพลังงานถูกใช้ไปแล้ว ใน Ethereum Proof of Stake ได้ละทิ้งการทำงานของการคำนวณไปเลย — ผู้ตรวจสอบเพียงแค่บล็อกโทเค็น โดยแลกกับการกระจายอำนาจเพื่อประสิทธิภาพการใช้พลังงาน Sprint เสนอทางเลือกที่สาม
ใน Sprint การคำนวณทุกครั้งคือ คำขอ AI ที่แท้จริง ผู้ใช้ส่งข้อความแจ้งเตือน «เขียนฟังก์ชัน Python» → GPU สร้างคำตอบผ่านเครือข่ายประสาท Qwen3-235B → การอนุมานนี้ให้บริการผู้ใช้และยืนยันบล็อกในบล็อกเชนพร้อมกัน ผลลัพธ์: 99% ของทรัพยากรเครือข่ายถูกใช้ไปกับงานที่มีประโยชน์ (การอนุมาน AI) และเพียง 1% เท่านั้นที่ใช้ในการรักษาความปลอดภัยทางคริปโต สำหรับการเปรียบเทียบ: ใน Bitcoin 100% ของพลังงานถูกใช้ไปกับความปลอดภัย 0% — กับงานที่มีประโยชน์
การทำงานของเครือข่ายถูกจัดในแต่ละยุค ในแต่ละยุค Transfer Agents จะกระจายงาน AI ระหว่าง ML-nodes เมื่อสิ้นสุดยุค บล็อกจะถูกสร้างขึ้นซึ่งประกอบด้วยหลักฐานของการทำงานที่เสร็จสมบูรณ์ รางวัลจะถูกกระจายตามสัดส่วนการมีส่วนร่วมของแต่ละโหนด — ยิ่ง GPU ประมวลผลคำขอมากเท่าไหร่ มันก็จะได้รับ GNK มากขึ้นเท่านั้น สิ่งนี้สร้างแรงจูงใจทางการตลาด: เจ้าบ้านแข่งขันกันเพื่อรับงาน ปรับปรุงประสิทธิภาพและลดต้นทุนการอนุมานสำหรับผู้ใช้
DiLoCo: การฝึกอบรมโมเดลแบบกระจายอำนาจ
DiLoCo — เทคโนโลยีการฝึกอบรมโมเดล AI แบบกระจายศูนย์ที่แก้ปัญหาพื้นฐาน: จะฝึกอบรมเครือข่ายประสาทเทียมที่มีพารามิเตอร์นับพันล้านตัวได้อย่างไร ในเมื่อ GPU อยู่ในประเทศที่แตกต่างกัน และเชื่อมต่อกันด้วยอินเทอร์เน็ตทั่วไป ไม่ใช่ NVLink ความเร็วสูงภายในศูนย์ข้อมูลเดียวกัน?
แนวทางแบบดั้งเดิมในการฝึกอบรมต้องมีการซิงโครไนซ์พารามิเตอร์หลังจากแต่ละขั้นตอน — ซึ่งเป็นไปได้เฉพาะเมื่อความเร็วการสื่อสารอยู่ที่หลายร้อยกิกะบิต/วินาที นั่นคือภายในคลัสเตอร์ NVIDIA เดียว DiLoCo คิดค้นกระบวนการใหม่: โหนดจะซิงโครไนซ์พารามิเตอร์ประมาณทุกๆ 1000 ขั้นตอน ไม่ใช่หลังจากแต่ละขั้นตอน ระหว่างการซิงโครไนซ์แต่ละโหนดจะฝึกอบรมภายในเครื่องบนชุดข้อมูลย่อยของตนเอง ซึ่งลดข้อกำหนดด้านแบนด์วิดท์ลงสามอันดับ ทำให้การฝึกอบรมผ่านอินเทอร์เน็ตสามารถทำได้จริง
การเพิ่มประสิทธิภาพทำงานในสองระดับ: ในระดับท้องถิ่น แต่ละโหนดใช้ AdamW — เครื่องมือเพิ่มประสิทธิภาพมาตรฐานสำหรับ Transformer ในระดับโลก ในระหว่างการซิงโครไนซ์ จะใช้ Nesterov momentum — อัลกอริทึมที่ 'คาดการณ์' ทิศทางการอัปเดตและเร่งการบรรจบกัน ผลลัพธ์: โมเดลที่มีพารามิเตอร์ 30-50 พันล้านตัวสามารถฝึกอบรมบนคลัสเตอร์ 8xH100 ซึ่งกระจายอยู่ทั่วโลก โดยไม่มีเซิร์ฟเวอร์ส่วนกลาง เปรียบเทียบ: การฝึกอบรม GPT-4 ต้องใช้ GPU นับพันในศูนย์ข้อมูลเดียวด้วยการลงทุนหลายพันล้านดอลลาร์ DiLoCo มีศักยภาพที่จะบรรลุผลลัพธ์ที่เทียบเคียงได้บนโครงสร้างพื้นฐานแบบกระจายของ Gonka
ทำไมสิ่งนี้จึงสำคัญ? การฝึกอบรมเป็นส่วนที่แพงที่สุดของ AI บริษัทเช่น OpenAI ใช้เงินหลายร้อยล้านในการฝึกอบรมแต่ละรอบ DiLoCo ช่วยให้ Gonka สามารถฝึกอบรมโมเดลของตนเองด้วยพลังของเครือข่าย — โดยไม่จำเป็นต้องสร้าง ศูนย์ข้อมูลที่มีราคาเป็นพันล้าน สิ่งนี้ทำให้ Gonka ไม่ใช่แค่เครือข่ายการอนุมาน แต่เป็นแพลตฟอร์ม AI แบบครบวงจร
PoC V2: การยืนยันความซื่อสัตย์ของโหนด
PoC V2 — กลไกการตรวจสอบที่รับประกันว่า ML-โหนดแต่ละโหนดได้ทำการคำนวณจริง ไม่ได้คืนค่าข้อมูลขยะแบบสุ่ม เรื่องนี้สำคัญอย่างยิ่ง: หากไม่มีการตรวจสอบ ผู้ไม่หวังดีสามารถลงทะเบียน 'โหนด' ที่ให้คำตอบปลอมและรับรางวัลโดยไม่ต้องเสียพลังงาน GPU เลย
กลไกนี้ทำงานผ่านการตรวจสอบข้ามเครือข่าย เครือข่ายจะเลือกงานแบบสุ่ม 1–10% และส่งให้โหนดอื่นดำเนินการซ้ำ หากผลลัพธ์ตรงกัน ทั้งสองโหนดจะได้รับรางวัล หากผลลัพธ์ไม่ตรงกัน จะมีการเริ่มกระบวนการอนุญาโตตุลาการ (การโต้แย้ง) โหนดที่แพ้จะสูญเสียเงินประกัน 20% ซึ่งจะถูกแจกจ่ายให้กับผู้เข้าร่วมที่ซื่อสัตย์ บทลงโทษนี้ทำให้การฉ้อโกงไม่คุ้มค่าทางเศรษฐกิจ: รายได้ที่อาจเกิดขึ้นจากคำตอบปลอมน้อยกว่าความเสี่ยงที่จะสูญเสียเงินประกันอย่างมาก
ความเร็วในการตรวจสอบรับรองโดยลายเซ็น BLS — หลักการพื้นฐานทางคริปโตที่ช่วยให้สามารถรวมลายเซ็นจำนวนมากเป็นหนึ่งเดียวและตรวจสอบได้ภายในเวลาไม่ถึง 10 มิลลิวินาที ซึ่งหมายความว่าการตรวจสอบความซื่อสัตย์ไม่ได้ทำให้การทำงานของเครือข่ายช้าลง — ผู้ใช้จะได้รับคำตอบโดยไม่ล่าช้า และการตรวจสอบจะเกิดขึ้นพร้อมกัน
สำหรับงานการฝึกอบรมโมเดล (ผ่าน DiLoCo) มีกลไกเพิ่มเติม — Proof-of-Learning โหนดแต่ละโหนดจะบันทึกแฮชของน้ำหนักโมเดลและสถานะของ Optimizer ในบล็อกเชนที่แต่ละจุดตรวจสอบ ซึ่งสร้างเส้นทางการตรวจสอบที่ไม่สามารถเปลี่ยนแปลงได้: ใครๆ ก็สามารถตรวจสอบได้ว่าการฝึกอบรมเกิดขึ้นจริง และน้ำหนักไม่ได้ถูกเปลี่ยนแปลง การตรวจสอบสองระดับนี้ — PoC V2 สำหรับการอนุมาน, Proof-of-Learning สำหรับการฝึกอบรม — ทำให้ Gonka เป็นหนึ่งในเครือข่าย AI แบบกระจายอำนาจที่ได้รับการป้องกันมากที่สุด ซึ่งได้รับการตรวจสอบจาก CertiK