知識ベースのセクション ▾

ツール

技術

Qwen3-235B:Gonkaが採掘するモデル

Gonkaネットワークは単にGPUをレンタルするだけでなく、特定のAIモデルを提供しています。現在、これはAlibaba Cloudによって開発された世界最大のオープンソースモデルの1つであるQwen3-235B-A22B-Instructです。このモデルとは何か、なぜGonkaがそれを選んだのか、そして当社のAPI Gatewayを通じてそれを試す方法について説明します。

Qwen3-235Bとは

Qwen3-235B-A22B-Instruct-2507-FP8は、Alibaba CloudのQwenチームが開発したQwen3ファミリーの「大規模言語モデル」(LLM)です。完全な名前は次のように展開されます。Qwen3 — 第3世代シリーズ、235B — 合計2350億個のパラメータ、A22B — 各リクエストでアクティブな220億個のパラメータ、Instruct — 命令に従うように訓練されたバージョン、2507 — 2025年7月リリース、FP8 — メモリ最適化のための8ビット量子化。

主要なアーキテクチャの特徴は、MoE(Mixture of Experts)です。すべてのトークンがすべてのパラメータを通過する「密な」モデル(GPT-5.4、Claude Sonnet 4.5)とは異なり、MoEモデルは各リクエストに対して「エキスパート」(専門化されたニューラルネットワークブロック)のサブセットのみをアクティブにします。Qwen3-235Bの場合、2350億個のパラメータのうち、トークンごとにアクティブになるのは220億個のみ(10%未満)です。これにより、200B以上のパラメータを持つモデルの計算コストで、22Bモデルの計算コストで200B以上のモデルと同等の品質が得られます。

実際には、これはモデルがその速度から予想されるよりも賢いことを意味します。同等の品質の密なモデルよりもはるかに速くリクエストを処理し、推論に必要なVRAMははるかに少なくなります。このため、MoEは2025年〜2026年の最大のモデルにとって支配的なアーキテクチャになっています。

Qwen3-235Bのコンテキストウィンドウは131,072トークン(約10万語)で、これは1つのリクエストで本全体、コードベース、または長い法的文書を分析するのに十分です。このモデルは、ロシア語、英語、中国語、アラビア語、ヒンディー語、その他数十の言語を含む119の言語をサポートしており、市場で最も多言語対応のモデルの1つとなっています。

特徴とベンチマーク

Qwen3-235Bは、最大のクローズドおよびオープンモデルと競合しています。主要な特徴の比較は次のとおりです。

モデルパラメータコンテキストMoEオープンソース価格(1Mトークンあたり)
Qwen3-235B (JoinGonka経由)235B (22Bアクティブ)131Kはいはい (Apache 2.0)$0.001
GPT-5.4 (OpenAI)~1.8T (推定)128Kはい (推定)いいえ$2.50
Claude Sonnet 4.5 (Anthropic)非公開200Kいいえ (推定)いいえ$3.00
Llama 4 Maverick (Meta)400B (17Bアクティブ)1Mはいはい (Llama License)$0.20+ (ホスティング)
DeepSeek-R1 (DeepSeek)671B (37Bアクティブ)128Kはいはい (MIT)$0.55

Qwen3-235Bは、ほとんどのベンチマークでGPT-5.4やClaude Sonnet 4.5に匹敵する品質レベルを示しており、JoinGonka Gatewayを介したコストはGPT-5.4の2,500分の1です。これは、MoEアーキテクチャが計算コストを削減し、Gonkaの分散型ネットワークがデータセンターのマージンを排除するという2つの要因によるものです。

MMLU-Pro、HumanEval、MATH-500、GSM8Kのベンチマークでは、モデルはオープンソースモデルのトップ3に入り、数学的な推論タスクではDeepSeek-R1に劣るだけです。コード生成、翻訳、命令追従などのタスクでは、Qwen3-235BはLlama 4 Maverickを安定して上回り、Claude Sonnet 4.5に匹敵します。

GonkaによるQwen3-235Bの利用方法

Qwen3-235Bモデルは、分散型でGonkaネットワークで実行されます。これは、推論向けに適合されたDiLoCoプロトコルを介して行われます。FP8形式の完全なモデルには約640 GBのビデオメモリVRAM)が必要であり、これは単一のGPUでは収まりません。H100 80GBやH200 141GBでさえ十分ではありません。そのため、モデルは複数のMLノード間でレイヤーごとに分割されます(テンソル並列処理 + パイプライン並列処理)。

実際には、Qwen3-235Bは、それぞれ少なくとも40GBのVRAMを持つ8〜16個のGPUノードからなるクラスターで実行されます。Transfer Agentsは要求を適切なクラスターにルーティングし、各ノードのvLLMがモデルのフラグメントを処理し、結果は集約されてユーザーに返されます。このプロセス全体は数百ミリ秒かかります。ユーザーは、要求が地球上のさまざまな場所にある10個のGPUによって処理されたことを感じません。

重要な技術的詳細:Gonkaは、サービスのエンジンとしてvLLMを使用しています。vLLMはオープンソースプロジェクトであり、PagedAttentionを介して高性能なテキスト生成を提供します。これは、多数の要求を並行して処理する際のビデオメモリの使用を最適化するアルゴリズムです。これにより、ネットワークは品質の低下なしに数千の同時ユーザーにサービスを提供できます。

このモデルは、ネイティブのツール呼び出し(モデルの応答から直接関数やツールを呼び出す)をサポートしています。この機能は、ツール呼び出しを検出するための閾値0.958でPR #767を介してGonkaに追加されました。これは、開発者が外部API、データベース、ツールと対話するAIエージェントを構築できることを意味します。すべてQwen3-235Bへの単一の要求を介して行われます。

現在のGonkaネットワークは、120以上のMLノードに結合された4,000以上のGPU(H100、H200、A100、RTX 4090など)で構成されています。これは、世界最大のAI推論用の分散型GPUネットワークの1つであり、このすべてのパワーはQwen3-235Bのサービスに向けられています。

Qwen3-235Bを試す方法

Qwen3-235Bを試す最も簡単な方法は、JoinGonka API Gatewayを使用することです。GatewayはOpenAI互換APIを提供するため、OpenAI用に書かれたコードは、URLとAPIキーを置き換えるだけでQwen3-235Bでも動作します。

リクエスト例:

curl https://gate.joingonka.ai/api/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen3-235b-a22b",
    "messages": [{"role": "user", "content": "MoEアーキテクチャを説明してください"}]
  }'

料金:100万トークンあたり$0.001 — これはGPT-5.4($2.50/1M)の2,500倍、Claude Sonnet 4.5($3.00/1M)の3,000倍安いです。登録すると、テスト用に1000万無料トークンを受け取ります。

Gatewayは人気のある開発ツールと互換性があります。クイックスタートガイドでは、Python、Node.js、curlを介した接続について説明しています。また、IDE統合(Cursor、Continue、Cline、Aider、Claude Code)やAIエージェントフレームワーク(LangChain、n8n、LibreChat、Open WebUI)もサポートされています。

迅速な開始には:

  1. gate.joingonka.aiで登録(ウォレットを接続するか、新しいウォレットを作成)
  2. ダッシュボードでAPIキーを取得
  3. コード内のapi.openai.comgate.joingonka.ai/apiに置き換え
  4. qwen3-235b-a22bモデルを使用

JoinGonkaを介したQwen3-235Bは、趣味のプロジェクトの価格でエンタープライズレベルのAIを提供します。

Qwen3-235B-A22Bは、Alibaba Cloudの2350億パラメータを持つMoEモデルで、Gonkaネットワークは分散型AI推論にこれを利用しています。MoEアーキテクチャのおかげで、GPT-5.4レベルの品質を2,500倍安いコストで提供します。JoinGonka Gatewayを介して、モデルはOpenAI互換APIを$0.001/1Mトークンで利用できます。

もっと知りたいですか?

他のセクションを探索するか、Gonkaを今すぐ獲得し始めましょう。

Qwen3-235Bを試す →