ส่วนของฐานความรู้ ▾
สำหรับผู้เริ่มต้น
สำหรับนักลงทุน
- มูลค่าของโทเค็น GNK มาจากไหน
- Gonka กับคู่แข่ง: Render, Akash, io.net
- Libermans: จากชีวฟิสิกส์สู่ AI แบบกระจายอำนาจ
- โทเค็นโนมิคส์ของ GNK
- ความเสี่ยงและโอกาสของ Gonka: การวิเคราะห์เชิงวัตถุประสงค์
- Gonka vs Render Network: การเปรียบเทียบโดยละเอียด
- Gonka vs Akash: AI inference vs คอนเทนเนอร์
- Gonka vs io.net: inference vs marketplace GPU
- Gonka vs Bittensor: การเปรียบเทียบเชิงลึกสองแนวทางสู่ AI
- Gonka vs Flux: สองแนวทางสู่การขุดที่มีประโยชน์
- การกำกับดูแลใน Gonka: เครือข่ายกระจายอำนาจได้รับการบริหารจัดการอย่างไร
เทคนิค
การวิเคราะห์
เครื่องมือ
- Cursor + Gonka AI - LLM ราคาถูกสำหรับการเขียนโค้ด
- Claude Code + Gonka AI - LLM สำหรับเทอร์มินัล
- OpenClaw + Gonka AI - เอเจนต์ AI ที่เข้าถึงได้
- OpenCode + Gonka AI - AI ฟรีสำหรับโค้ด
- Continue.dev + Gonka AI - AI สำหรับ VS Code/JetBrains
- Cline + Gonka AI - เอเจนต์ AI ใน VS Code
- Aider + Gonka AI - การเขียนโปรแกรมคู่กับ AI
- LangChain + Gonka AI - แอปพลิเคชัน AI ในราคาที่ถูกมาก
- n8n + Gonka AI - การทำงานอัตโนมัติด้วย AI ราคาถูก
- Open WebUI + Gonka AI - ChatGPT ของคุณเอง
- LibreChat + Gonka AI — open-source ChatGPT
- API เริ่มต้นอย่างรวดเร็ว — curl, Python, TypeScript
- JoinGonka Gateway — ภาพรวมโดยละเอียด
- Management Keys — SaaS บน Gonka
เทคโนโลยี
การเลือก GPU สำหรับ Gonka: คำแนะนำฮาร์ดแวร์
ข้อกำหนดขั้นต่ำ
Gonka ต้องการ NVIDIA GPU ที่รองรับ CUDA และมี VRAM ขั้นต่ำ 40GB ต่อ MLNode นี่เป็นข้อจำกัดด้านฮาร์ดแวร์ที่เข้มงวด: โมเดล Qwen3-235B ที่มีสถาปัตยกรรม MoE (22 พันล้านพารามิเตอร์ที่ทำงานอยู่จากทั้งหมด 235 พันล้าน) ต้องการหน่วยความจำวิดีโอจำนวนมากเพื่อโหลดน้ำหนักและการทำ inference GPU ของ AMD และ Intel ไม่รองรับ — Gonka ใช้ CUDA-stack ของ NVIDIA รวมถึง cuBLAS สำหรับการดำเนินการเมทริกซ์และ cuDNN สำหรับเลเยอร์โครงข่ายประสาทเทียม
รายการข้อกำหนดฉบับเต็ม:
- GPU: NVIDIA ที่มี CUDA, VRAM ขั้นต่ำ 40GB การ์ดที่มีหน่วยความจำน้อยกว่า (RTX 4090 ที่มี 24GB, RTX 3090 ที่มี 24GB) ไม่เหมาะสม — ไม่สามารถโหลดส่วนของโมเดลได้จริง
- CPU: ต้องรองรับชุดคำสั่ง AVX — inferenced จะไม่ทำงานหากไม่มี (SIGILL เมื่อเริ่มต้น)
- RAM: แนะนำ 64GB+ RAM เพื่อการทำงานที่ราบรื่น, การโหลดน้ำหนักและการจัดการคิวคำขอ
- ดิสก์: NVMe SSD ที่มีพื้นที่เพียงพอ — ชุดน้ำหนัก Qwen3-235B ทั้งหมดใช้ประมาณ ~640GB และการโหลดที่รวดเร็วจาก NVMe เป็นสิ่งสำคัญสำหรับเวลาเริ่มต้นแบบเย็นของโหนด
- อินเทอร์เน็ต: การเชื่อมต่อที่เสถียรขั้นต่ำ 100 Mbps — โหนดรับคำขอจาก Transfer Agents และส่งผลลัพธ์ไปยังลูกค้าแบบเรียลไทม์
- Uptime: 24/7 — การพลาดช่วงเวลาจะลดรางวัล และการหยุดทำงานเป็นเวลานานอาจนำไปสู่การถูกตัดออกจากกลุ่มงาน
การ์ดที่แนะนำ
มาดูการ์ดแต่ละใบที่แนะนำโดยละเอียด:
NVIDIA H100 80GB — เป็นเรือธงของรุ่นปัจจุบันและเป็นตัวเลือกที่ดีที่สุดสำหรับ Gonka TDP (กำลังประมวลผลความร้อน) 700 วัตต์ ราคาประมาณ ~$25—35K ต่อการ์ด รองรับการทำ FP8 inference ซึ่งช่วยเร่งการประมวลผลคำขอโดยไม่ลดคุณภาพ NVLink ช่วยให้สามารถรวม H100 หลายตัวเข้าด้วยกันในคลัสเตอร์ที่มีการเชื่อมต่อความเร็วสูงระหว่างการ์ด สำหรับคลัสเตอร์ Qwen3-235B เต็มรูปแบบ จำเป็นต้องใช้ H100 จำนวน 8 การ์ด (8 x 80GB = 640GB VRAM โดยรวม) นี่เป็นการกำหนดค่าที่พบมากที่สุดในเครือข่าย Gonka
NVIDIA H200 141GB — รุ่นถัดไปที่มีหน่วยความจำเกือบสองเท่า VRAM ที่เพิ่มขึ้นช่วยให้สามารถประมวลผลคำขอได้มากขึ้นพร้อมกัน (batch size ที่ใหญ่ขึ้น) ซึ่งช่วยเพิ่มรายได้ใน GNK ต่อหน่วยเวลา แบนด์วิดท์หน่วยความจำ HBM3e สูงกว่า H100 — โหลดน้ำหนักได้เร็วขึ้น, inference เร็วขึ้น สำหรับคลัสเตอร์ Qwen3-235B เพียงพอที่จะใช้ H200 จำนวน 5 การ์ดแทน H100 จำนวน 8 การ์ด ซึ่งช่วยลดความซับซ้อนของโครงสร้างพื้นฐาน
NVIDIA A100 40/80GB — รุ่นก่อนหน้า แต่ยังคงรองรับโดยเครือข่าย ราคาประมาณ ~$10—15K ต่อการ์ด — ถูกกว่า H100 อย่างมาก ประสิทธิภาพต่ำกว่า: ไม่มี FP8, HBM2e ช้ากว่า รุ่น 40GB — เป็นรุ่นที่อนุญาตขั้นต่ำสำหรับ Gonka, รุ่น 80GB จะดีกว่า A100 เหมาะสำหรับการเข้าสู่เครือข่ายด้วยการลงทุนเริ่มต้นที่น้อยลง
สิ่งที่ไม่เหมาะสม: การ์ดผู้บริโภค RTX 4090 (24GB), RTX 3090 (24GB), RTX 4080 (16GB) — VRAM ไม่เพียงพอสำหรับการทำงานกับ Qwen3-235B แม้แต่การ์ดผู้บริโภคที่มีประสิทธิภาพสูงสุดก็ไม่ถึงเกณฑ์ขั้นต่ำ 40GB สำหรับคลัสเตอร์เต็มรูปแบบ (640GB VRAM) จะต้องใช้ H100 จำนวน 8 การ์ด, H200 จำนวน 5 การ์ด หรือ A100 80GB จำนวน 8—16 การ์ด ขึ้นอยู่กับการกำหนดค่า
การกำหนดค่าโหนด
MLNode ในเครือข่าย Gonka คือเซิร์ฟเวอร์ที่มี GPU ที่ทำการ AI inference การตั้งค่าโหนดประกอบด้วยหลายขั้นตอน ซึ่งแต่ละขั้นตอนมีความสำคัญต่อการทำงานที่เสถียรและรายได้ GNK สูงสุด
ซอฟต์แวร์: ส่วนประกอบหลักคือ inferenced CLI ซึ่งจัดการการโหลดโมเดล, การประมวลผลคำขอและการสื่อสารกับบล็อกเชน Inferenced ทำงานภายใน Docker-container ซึ่งช่วยให้การปรับใช้และอัปเดตทำได้ง่าย สำหรับการกำหนดค่า Qwen3-235B เต็มรูปแบบ ต้องใช้ VRAM รวม 640GB — ตัวอย่างเช่น H100 จำนวน 8 การ์ด แต่ละการ์ดมี 80GB น้ำหนักโมเดล (~640GB) จะถูกโหลดจาก NVMe SSD เมื่อเริ่มต้นโหนด
การลงทะเบียน: หลังจากติดตั้ง โหนดจะถูกลงทะเบียน on-chain — สร้างรายการในบล็อกเชน Gonka พร้อมระบุที่อยู่, โมเดลที่รองรับและคุณสมบัติ (VRAM, แบนด์วิดท์, ตำแหน่ง) จากนั้น Transfer Agents จะเริ่มส่งคำขอ AI จากผู้ใช้ไปยังโหนด
การทำงานในเครือข่าย: คำขอที่เข้ามาแต่ละครั้ง — พรอมต์จากผู้ใช้ — จะถูกประมวลผลโดย GPU ผ่านโครงข่ายประสาทเทียม ผลลัพธ์จะถูกส่งกลับผ่าน Transfer Agent ไปยังลูกค้า ฉันทามติ Sprint จะพิจารณาการคำนวณแต่ละครั้งที่เสร็จสมบูรณ์เมื่อสร้างบล็อก และรางวัลจะถูกแจกจ่ายตามสัดส่วนของปริมาณงานที่ทำ โหนดสามารถเผยแพร่คุณสมบัติที่อัปเดตได้แบบเรียลไทม์ — หากโหลดเพิ่มขึ้น Transfer Agents จะเปลี่ยนเส้นทางคำขอส่วนหนึ่งไปยังโหนดที่มีโหลดน้อยกว่า คำแนะนำโดยละเอียดสำหรับการตั้งค่า — อยู่ใน คู่มือการขุด
สถานที่เช่า GPU
หากไม่มีอุปกรณ์เป็นของตัวเอง — มีสามวิธีในการเข้าถึง GPU สำหรับ Gonka โดยแต่ละวิธีมีความสมดุลระหว่างต้นทุน ความซับซ้อน และการควบคุมที่แตกต่างกัน:
| เส้นทาง | ค่าใช้จ่าย | ความซับซ้อน | การควบคุม |
|---|---|---|---|
| พูล | จาก $100 | น้อยที่สุด | ต่ำ |
| เซิร์ฟเวอร์เฉพาะ | จาก $12,000/เดือน | ต่ำ | ปานกลาง |
| การเช่า Bare-metal | จาก $2—3/ชั่วโมง GPU | สูง | เต็มที่ |
พูล (จาก $100): Gonka.Top, GonkaPool.ai, Hashiro, Mingles CloudMine — ผู้ดำเนินการเช่า GPU, ตั้งค่าโหนด, ตรวจสอบความพร้อมใช้งาน คุณจะได้รับ GNK ตามสัดส่วนของการลงทุน โดยไม่ต้องยุ่งเกี่ยวกับรายละเอียดทางเทคนิค เส้นทางที่เหมาะสำหรับ มือใหม่ และนักลงทุนแบบพาสซีฟ
เซิร์ฟเวอร์เฉพาะ (จาก $12,000/เดือน): Gonka.Top ไม่เพียงแต่นำเสนอพูลเท่านั้น แต่ยังรวมถึงเซิร์ฟเวอร์เฉพาะพร้อมการบริการเต็มรูปแบบ คุณจะได้รับโหนดที่พร้อมใช้งาน — ผู้ดำเนินการจัดการการตั้งค่า inferenced, การตรวจสอบตลอด 24 ชั่วโมงทุกวัน, การอัปเดตและการแก้ไขปัญหา การขุดตรงไปยังกระเป๋าเงินของคุณ — รายได้ทั้งหมดใน GNK เป็นของคุณ หักค่าเช่าคงที่
การเช่า Bare-metal: Spheron ให้บริการเซิร์ฟเวอร์ bare-metal พร้อม H100/H200 ซึ่งคุณสามารถตั้งค่าได้ด้วยตัวเอง นี่เป็นเส้นทางสำหรับผู้ใช้ที่มีความรู้ด้านเทคนิคที่คุ้นเคยกับ Linux, Docker และ CLI การควบคุมสูงสุด แต่ก็มีความรับผิดชอบสูงสุดในการตั้งค่า, ความพร้อมใช้งานและการอัปเดต การเปรียบเทียบผู้ให้บริการทั้งหมดโดยละเอียด — บนหน้า “รับ GNK”
ต้องการเรียนรู้เพิ่มเติมหรือไม่?
สำรวจส่วนอื่นๆ หรือเริ่มรับ GNK ทันที
เปรียบเทียบผู้ให้บริการและเช่า →