ส่วนของฐานความรู้ ▾

สำหรับนักลงทุน

เครื่องมือ

เทคโนโลยี

Qwen3-235B: โมเดลที่ Gonka ใช้ในการขุด

เครือข่าย Gonka ไม่ได้เพียงแค่ให้เช่า GPU เท่านั้น แต่ยังให้บริการโมเดล AI เฉพาะด้วย ปัจจุบันคือ Qwen3-235B-A22B-Instruct ซึ่งเป็นหนึ่งในโมเดลโอเพนซอร์สที่ใหญ่ที่สุดในโลกที่พัฒนาโดย Alibaba Cloud มาดูว่าโมเดลนี้คืออะไร ทำไม Gonka ถึงเลือกใช้ และจะลองใช้ผ่าน API Gateway ของเราได้อย่างไร

Qwen3-235B คืออะไร

Qwen3-235B-A22B-Instruct-2507-FP8 เป็น Large Language Model (LLM) ในตระกูล Qwen3 ที่พัฒนาโดยทีม Qwen ใน Alibaba Cloud ชื่อเต็มสามารถถอดรหัสได้ดังนี้: Qwen3 — รุ่นที่สามของซีรีส์, 235B — มีพารามิเตอร์ทั้งหมด 235 พันล้านตัว, A22B — มีพารามิเตอร์ที่ใช้งานอยู่ 22 พันล้านตัวต่อคำขอแต่ละครั้ง, Instruct — เวอร์ชันที่ได้รับการฝึกอบรมให้ทำตามคำแนะนำ, 2507 — รุ่นที่ออกในเดือนกรกฎาคม 2025, FP8 — การควอนไทซ์ 8 บิตเพื่อเพิ่มประสิทธิภาพหน่วยความจำ

คุณสมบัติทางสถาปัตยกรรมที่สำคัญคือ MoE (Mixture of Experts) แตกต่างจากโมเดล “หนาแน่น” (GPT-5.4, Claude Sonnet 4.5) ที่ทุกโทเค็นผ่านพารามิเตอร์ทั้งหมด โมเดล MoE จะเปิดใช้งานเฉพาะกลุ่มย่อยของ “ผู้เชี่ยวชาญ” — บล็อกโครงข่ายประสาทเทียมที่เชี่ยวชาญ — สำหรับแต่ละคำขอ ในกรณีของ Qwen3-235B จากพารามิเตอร์ 235 พันล้านตัว มีเพียง 22 พันล้านตัวเท่านั้นที่เปิดใช้งานต่อโทเค็น — น้อยกว่า 10% สิ่งนี้ให้คุณภาพระดับโมเดลที่มีพารามิเตอร์มากกว่า 200 พันล้านตัว พร้อมค่าใช้จ่ายในการประมวลผลของโมเดล 22 พันล้านตัว

ในทางปฏิบัติหมายความว่า: โมเดลฉลาดกว่าที่คาดไว้จากความเร็วในการประมวลผล มันประมวลผลคำขอได้เร็วกว่าโมเดลหนาแน่นที่มีคุณภาพเทียบเท่าอย่างมาก ในขณะที่ใช้ VRAM น้อยกว่ามากสำหรับการอนุมาน นั่นคือเหตุผลที่ MoE กลายเป็นสถาปัตยกรรมที่โดดเด่นสำหรับโมเดลที่ใหญ่ที่สุดในปี 2025-2026

หน้าต่างบริบทของ Qwen3-235B คือ 131,072 โทเค็น (~100,000 คำ) — เพียงพอสำหรับการวิเคราะห์หนังสือทั้งเล่ม ฐานโค้ด หรือเอกสารทางกฎหมายยาวๆ ในคำขอเดียว โมเดลรองรับ 119 ภาษา รวมถึงรัสเซีย อังกฤษ จีน อาหรับ ฮินดี และภาษาอื่นๆ อีกหลายสิบภาษา — ซึ่งทำให้เป็นหนึ่งในโมเดลหลายภาษามากที่สุดในตลาด

คุณสมบัติและเกณฑ์มาตรฐาน

Qwen3-235B แข่งขันกับโมเดลแบบปิดและแบบเปิดที่ใหญ่ที่สุด นี่คือการเปรียบเทียบคุณสมบัติหลัก:

รุ่นพารามิเตอร์บริบทMoEโอเพนซอร์สราคา (ต่อ 1M โทเค็น)
Qwen3-235B (ผ่าน JoinGonka)235B (22B ที่ใช้งานอยู่)131Kใช่ใช่ (Apache 2.0)$0.001
GPT-5.4 (OpenAI)ประมาณ 1.8T (ประมาณการณ์)128Kใช่ (คาดการณ์)ไม่ใช่$2.50
Claude Sonnet 4.5 (Anthropic)ไม่เปิดเผย200Kไม่ใช่ (คาดการณ์)ไม่ใช่$3.00
Llama 4 Maverick (Meta)400B (17B ที่ใช้งานอยู่)1Mใช่ใช่ (Llama License)$0.20+ (โฮสติ้ง)
DeepSeek-R1 (DeepSeek)671B (37B ที่ใช้งานอยู่)128Kใช่ใช่ (MIT)$0.55

Qwen3-235B แสดงระดับคุณภาพเทียบเท่ากับ GPT-5.4 และ Claude Sonnet 4.5 ในเกณฑ์มาตรฐานส่วนใหญ่ ในขณะที่ค่าใช้จ่ายผ่าน JoinGonka Gateway ต่ำกว่า 2,500 เท่า เมื่อเทียบกับ GPT-5.4 สิ่งนี้เป็นไปได้ด้วยปัจจัยสองประการ: สถาปัตยกรรม MoE ลดค่าใช้จ่ายในการคำนวณ และเครือข่ายกระจายศูนย์ Gonka ช่วยขจัดส่วนต่างของศูนย์ข้อมูล

ในเกณฑ์มาตรฐาน MMLU-Pro, HumanEval, MATH-500 และ GSM8K โมเดลดังกล่าวติดอันดับสามอันดับแรกของโมเดลโอเพนซอร์ส โดยเป็นรองเพียง DeepSeek-R1 ในงานการให้เหตุผลทางคณิตศาสตร์ (reasoning) ในงานการสร้างโค้ด การแปล และการปฏิบัติตามคำแนะนำ Qwen3-235B มีประสิทธิภาพเหนือ Llama 4 Maverick อย่างสม่ำเสมอและเทียบเท่ากับ Claude Sonnet 4.5

Gonkha ใช้ Qwen3-235B อย่างไร

โมเดล Qwen3-235B ทำงานแบบกระจายใน เครือข่าย Gonka ผ่านโปรโตคอล DiLoCo ซึ่งปรับให้เหมาะกับการอนุมาน โมเดลเต็มรูปแบบในรูปแบบ FP8 ต้องการ VRAM ประมาณ 640 GB (VRAM) ซึ่งไม่สามารถใส่ลงบน GPU ตัวเดียวได้ — แม้แต่ H100 80GB หรือ H200 141GB ก็ไม่เพียงพอ ดังนั้น โมเดลจึงถูกแบ่งออกเป็นเลเยอร์ต่างๆ (tensor parallelism + pipeline parallelism) ระหว่างโหนด ML หลายตัว

ในทางปฏิบัติ Qwen3-235B ทำงานบนคลัสเตอร์ของโหนด GPU 8-16 ตัว ซึ่งแต่ละตัวมี VRAM อย่างน้อย 40 GB Transfer Agents จะกำหนดเส้นทางคำขอไปยังคลัสเตอร์ที่เหมาะสม vLLM บนแต่ละโหนดจะประมวลผลส่วนของโมเดล ผลลัพธ์จะถูกรวบรวมและส่งคืนไปยังผู้ใช้ กระบวนการทั้งหมดใช้เวลาหลายร้อยมิลลิวินาที — ผู้ใช้จะไม่รู้สึกว่าคำขอของตนได้รับการประมวลผลโดย GPU สิบตัวในจุดต่างๆ กันทั่วโลก

รายละเอียดทางเทคนิคที่สำคัญ: Gonka ใช้ vLLM เป็นเครื่องมือสำหรับการให้บริการ vLLM เป็นโครงการโอเพนซอร์สที่ให้การสร้างข้อความประสิทธิภาพสูงผ่าน PagedAttention — อัลกอริทึมที่ปรับการใช้ VRAM ให้เหมาะสมเมื่อประมวลผลคำขอหลายรายการพร้อมกัน สิ่งนี้ช่วยให้เครือข่ายสามารถให้บริการผู้ใช้พร้อมกันหลายพันรายโดยไม่มีคุณภาพลดลง

โมเดลรองรับ การเรียกใช้เครื่องมือแบบ Native — การเรียกฟังก์ชันและเครื่องมือโดยตรงจากคำตอบของโมเดล ความสามารถนี้ถูกเพิ่มเข้ามาใน Gonka ผ่าน PR #767 ที่มีเกณฑ์ 0.958 สำหรับการตรวจจับการเรียกใช้เครื่องมือ ซึ่งหมายความว่านักพัฒนาสามารถสร้าง AI agents ที่โต้ตอบกับ API ภายนอก ฐานข้อมูล และเครื่องมือ — ทั้งหมดผ่านคำขอเดียวไปยัง Qwen3-235B

เครือข่าย Gonka ปัจจุบันมี GPU มากกว่า 4,000 ตัว (H100, H200, A100, RTX 4090 และอื่นๆ) รวมกันในโหนด ML มากกว่า 120 โหนด นี่เป็นหนึ่งในเครือข่าย GPU แบบกระจายศูนย์ที่ใหญ่ที่สุดสำหรับ AI inference ในโลก — และพลังงานทั้งหมดนี้ถูกนำไปใช้เพื่อให้บริการ Qwen3-235B

วิธีทดลองใช้ Qwen3-235B

วิธีที่ง่ายที่สุดในการลองใช้ Qwen3-235B คือผ่าน JoinGonka API Gateway Gateway ให้ API ที่เข้ากันได้กับ OpenAI ซึ่งหมายความว่า: โค้ดใดๆ ที่เขียนสำหรับ OpenAI จะทำงานร่วมกับ Qwen3-235B โดยไม่มีการเปลี่ยนแปลง — เพียงแค่เปลี่ยน URL และ API-key

ตัวอย่างคำขอ:

curl https://gate.joingonka.ai/api/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen3-235b-a22b",
    "messages": [{"role": "user", "content": "อธิบายสถาปัตยกรรม MoE"}]
  }'

ราคา: $0.001 ต่อ 1 ล้านโทเค็น — ซึ่งถูกกว่า GPT-5.4 ($2.50/1M) ถึง 2,500 เท่า และถูกกว่า Claude Sonnet 4.5 ($3.00/1M) ถึง 3,000 เท่า เมื่อลงทะเบียนคุณจะได้รับ 10 ล้านโทเค็นฟรีสำหรับการทดสอบ

Gateway เข้ากันได้กับเครื่องมือพัฒนาที่นิยม: Quick Start อธิบายการเชื่อมต่อผ่าน Python, Node.js และ curl นอกจากนี้ยังรองรับการรวม IDE — Cursor, Continue, Cline, Aider และ Claude Code — และเฟรมเวิร์กสำหรับ AI-agents: LangChain, n8n, LibreChat, Open WebUI

สำหรับการเริ่มต้นอย่างรวดเร็ว:

  1. ลงทะเบียนที่ gate.joingonka.ai (เชื่อมต่อกระเป๋าเงินหรือสร้างใหม่)
  2. รับ API-key ใน Dashboard
  3. เปลี่ยน api.openai.com เป็น gate.joingonka.ai/api ในโค้ดของคุณ
  4. ใช้โมเดล qwen3-235b-a22b

Qwen3-235B ผ่าน JoinGonka เป็น AI ระดับองค์กรในราคาโครงการอดิเรก

Qwen3-235B-A22B เป็นโมเดล MoE ที่มี 235 พันล้านพารามิเตอร์จาก Alibaba Cloud ซึ่งเครือข่าย Gonka ใช้สำหรับการอนุมาน AI แบบกระจายศูนย์ ด้วยสถาปัตยกรรม MoE มันให้คุณภาพระดับ GPT-5.4 ในขณะที่ราคาถูกกว่า 2,500 เท่า ผ่าน JoinGonka Gateway โมเดลสามารถเข้าถึงได้ผ่าน API ที่เข้ากันได้กับ OpenAI ในราคา $0.001/1M โทเค็น

ต้องการเรียนรู้เพิ่มเติมหรือไม่?

สำรวจส่วนอื่นๆ หรือเริ่มรับ GNK ทันที

ลองใช้ Qwen3-235B →