Mga Seksyon ng Base ng Kaalaman ▾

Teknolohiya

Qwen3-235B: Ang modelo na minimina ng Gonka

Ang Gonka network ay hindi basta-basta nagpaparenta ng mga GPU — ito ay nagbibigay ng serbisyo sa isang partikular na modelo ng AI. Sa kasalukuyan, ito ay ang Qwen3-235B-A22B-Instruct — isa sa pinakamalaking open-source na modelo sa mundo, na binuo ng Alibaba Cloud. Suriin natin kung ano ang modelong ito, kung bakit ito pinili ng Gonka, at kung paano ito subukan sa pamamagitan ng aming API Gateway.

Ano ang Qwen3-235B

Ang Qwen3-235B-A22B-Instruct-2507-FP8 ay isang malaking modelo ng wika (LLM) ng pamilyang Qwen3, na binuo ng koponan ng Qwen sa Alibaba Cloud. Ang buong pangalan ay nangangahulugang: Qwen3 — ikatlong henerasyon ng serye, 235B — 235 bilyong parameter sa kabuuan, A22B — 22 bilyong aktibong parameter sa bawat kahilingan, Instruct — bersyon na sanay sa pagsunod sa mga tagubilin, 2507 — release noong Hulyo 2025, FP8 — 8-bit na quantization para sa optimisasyon ng memorya.

Ang pangunahing arkitektural na tampok — MoE (Mixture of Experts). Kakaiba sa mga "dense" na modelo (GPT-5.4, Claude Sonnet 4.5), kung saan ang bawat token ay dumadaan sa lahat ng parameter, ang MoE-modelo ay nag-aaktibo lamang ng isang subset ng "eksperto" — mga espesyal na bloke ng neural network — sa bawat kahilingan. Sa kaso ng Qwen3-235B, mula sa 235 bilyong parameter, 22 bilyon lamang ang aktibo sa bawat token — mas mababa sa 10%. Nagbibigay ito ng kalidad ng antas ng mga modelo na may 200B+ parameter sa computational cost ng isang 22B na modelo.

Sa praktikal na paraan, nangangahulugan ito: mas matalino ang modelo kaysa sa inaasahan mula sa bilis nito. Ito ay nagpoproseso ng mga kahilingan nang mas mabilis kaysa sa mga dense na modelo na may katulad na kalidad, habang nangangailangan ng mas kaunting VRAM para sa inference. Ito ang dahilan kung bakit ang MoE ay naging dominanteng arkitektura para sa pinakamalaking modelo noong 2025–2026.

Ang kontekstong window ng Qwen3-235B ay 131,072 token (~100,000 salita) — sapat na ito para sa pagsusuri ng buong libro, codebase, o mahabang legal na dokumento sa isang kahilingan. Sinusuportahan ng modelo ang 119 na wika, kabilang ang Russian, English, Chinese, Arabic, Hindi, at dose-dosenang iba pa — na ginagawa itong isa sa mga pinaka-multilingual na modelo sa merkado.

Mga Katangian at Benchmark

Ang Qwen3-235B ay nakikipagkumpitensya sa pinakamalaking sarado at bukas na modelo. Narito ang paghahambing ng mga pangunahing katangian:

ModeloMga ParameterKontekstoMoEOpen SourcePresyo (bawat 1M token)
Qwen3-235B (sa pamamagitan ng JoinGonka)235B (22B aktibo)131KOoOo (Apache 2.0)$0.001
GPT-5.4 (OpenAI)~1.8T (estimate)128KOo (ipinapalagay)Hindi$2.50
Claude Sonnet 4.5 (Anthropic)Hindi inilabas200KHindi (ipinapalagay)Hindi$3.00
Llama 4 Maverick (Meta)400B (17B aktibo)1MOoOo (Llama License)$0.20+ (hosting)
DeepSeek-R1 (DeepSeek)671B (37B aktibo)128KOoOo (MIT)$0.55

Ang Qwen3-235B ay nagpapakita ng antas ng kalidad na maihahambing sa GPT-5.4 at Claude Sonnet 4.5 sa karamihan ng mga benchmark, habang ang gastos nito sa pamamagitan ng JoinGonka Gateway ay 2,500 beses na mas mababa kaysa sa GPT-5.4. Ito ay posible dahil sa dalawang kadahilanan: ang arkitektura ng MoE ay binabawasan ang computational costs, at ang decentralized na network ng Gonka ay nag-aalis ng margin ng mga data center.

Sa mga benchmark ng MMLU-Pro, HumanEval, MATH-500 at GSM8K, ang modelo ay kabilang sa nangungunang tatlong open-source na modelo, na nalalampasan lamang ng DeepSeek-R1 sa mga gawain ng mathematical reasoning. Sa mga gawain ng code generation, translation at instruction following, ang Qwen3-235B ay patuloy na nalalampasan ang Llama 4 Maverick at maihahambing sa Claude Sonnet 4.5.

Paano Gumamit ng Qwen3-235B ang Gonka

Ang modelong Qwen3-235B ay gumagana sa Gonka network nang distributed — sa pamamagitan ng protocol na DiLoCo, na inangkop para sa inference. Ang buong modelo sa format na FP8 ay nangangailangan ng humigit-kumulang 640 GB ng video memory (VRAM), na imposibleng ilagay sa isang solong GPU — kahit ang H100 80GB o H200 141GB ay hindi sapat. Kaya ang modelo ay nahahati sa mga layer (tensor parallelism + pipeline parallelism) sa pagitan ng ilang ML-node.

Sa praktika, ang Qwen3-235B ay tumatakbo sa isang cluster ng 8–16 GPU-node, bawat isa ay may minimum na 40 GB VRAM. Ang mga Transfer Agent ay nagruruta ng kahilingan sa kinakailangang cluster, ang vLLM sa bawat node ay nagpoproseso ng sarili nitong fragment ng modelo, ang mga resulta ay pinagsama-sama at ibinabalik sa gumagamit. Ang buong proseso ay tumatagal ng daan-daang millisecond — hindi nararamdaman ng gumagamit na ang kanyang kahilingan ay pinroseso ng isang dosenang GPU sa iba't ibang bahagi ng planeta.

Mahalagang teknikal na detalye: Gumagamit ang Gonka ng vLLM bilang engine para sa serving. Ang vLLM ay isang open-source na proyekto na nagbibigay ng high-performance text generation sa pamamagitan ng PagedAttention — isang algorithm na nag-optimize ng paggamit ng video memory sa parallel processing ng maraming request. Pinapayagan nito ang network na magsilbi sa libu-libong sabay-sabay na user nang walang pagkasira ng kalidad.

Sinusuportahan ng modelo ang native tool calling — pagtawag ng mga function at tool direkta mula sa sagot ng modelo. Ang kakayahang ito ay idinagdag sa Gonka sa pamamagitan ng PR #767 na may threshold na 0.958 para sa pagtukoy ng mga tool calls. Nangangahulugan ito na maaaring bumuo ang mga developer ng AI agent na nakikipag-ugnayan sa mga panlabas na API, database, at tool — lahat sa pamamagitan ng isang solong kahilingan sa Qwen3-235B.

Ang kasalukuyang network ng Gonka ay binubuo ng mahigit 4,000 GPU (H100, H200, A100, RTX 4090 at iba pa), na pinagsama-sama sa 120+ ML-nodes. Ito ay isa sa pinakamalaking distributed GPU network para sa AI inference sa mundo — at ang lahat ng kapangyarihan na ito ay nakatuon sa pagseserbisyo sa Qwen3-235B.

Paano Subukan ang Qwen3-235B

Ang pinakamadaling paraan upang subukan ang Qwen3-235B ay sa pamamagitan ng JoinGonka API Gateway. Nagbibigay ang Gateway ng OpenAI-compatible API, na nangangahulugan na: anumang code na nakasulat para sa OpenAI ay gumagana sa Qwen3-235B nang walang pagbabago — sapat nang palitan ang URL at API key.

Halimbawa ng kahilingan:

curl https://gate.joingonka.ai/api/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen3-235b-a22b",
    "messages": [{"role": "user", "content": "Ipaliwanag ang arkitektura ng MoE"}]
  }'

Halaga: $0.001 bawat 1 milyong token — ito ay 2,500 beses na mas mura kaysa sa GPT-5.4 ($2.50/1M) at 3,000 beses na mas mura kaysa sa Claude Sonnet 4.5 ($3.00/1M). Sa pagpaparehistro ay makakakuha ka ng libreng 10 milyong token para sa pagsubok.

Ang Gateway ay compatible sa mga sikat na development tool: inilalarawan ng Quick Start ang koneksyon sa pamamagitan ng Python, Node.js at curl. Sinusuportahan din ang IDE integrations — Cursor, Continue, Cline, Aider at Claude Code — at frameworks para sa AI agents: LangChain, n8n, LibreChat, Open WebUI.

Para sa mabilis na pagsisimula:

  1. Magrehistro sa gate.joingonka.ai (ikonekta ang wallet o gumawa ng bago)
  2. Kumuha ng API key sa Dashboard
  3. Palitan ang api.openai.com ng gate.joingonka.ai/api sa iyong code
  4. Gamitin ang modelong qwen3-235b-a22b

Ang Qwen3-235B sa pamamagitan ng JoinGonka ay AI ng enterprise-level sa presyo ng proyekto ng hobby.

Qwen3-235B-A22B — ito ay isang MoE-modelo na may 235 bilyong parameter mula sa Alibaba Cloud, na ginagamit ng Gonka network para sa decentralized AI inference. Salamat sa arkitektura ng MoE, nagbibigay ito ng kalidad ng antas ng GPT-5.4 sa gastos na 2,500 beses na mas mababa. Sa pamamagitan ng JoinGonka Gateway, available ang modelo sa OpenAI-compatible API sa halagang $0.001/1M token.

Gusto mo pang matuto?

Galugarin ang iba pang mga seksyon o simulang kumita ng GNK ngayon.

Subukan ang Qwen3-235B →