知識ベースのセクション ▾
初心者向け
投資家向け
技術関連
分析
ツール
- Cursor + Gonka AI — コーディングのための安価な LLM
- Claude Code + Gonka AI — ターミナルのための LLM
- OpenClaw + Gonka AI — 利用しやすい AI エージェント
- OpenCode + Gonka AI — コードのための無料 AI
- Continue.dev + Gonka AI — VS Code/JetBrains のための AI
- Cline + Gonka AI — VS Code の AI エージェント
- Aider + Gonka AI — AI とのペアプログラミング
- LangChain + Gonka AI — ごくわずかなコストの AI アプリケーション
- n8n + Gonka AI — 安価な AI による自動化
- Open WebUI + Gonka AI — 独自の ChatGPT
- LibreChat + Gonka AI — オープンソースのChatGPT
- APIクイックスタート — curl, Python, TypeScript
- JoinGonka Gateway — 完全な概要
- マネジメントキー — Gonka 上の SaaS
技術
Gonkaで利用するGPUの選択: ハードウェアの推奨事項
最小要件
Gonkaは、CUDAをサポートするNVIDIA GPUと、MLノードあたり最低40GBのVRAMを必要とします。これは厳格なハードウェア制限です。MoEアーキテクチャ(2,350億の全パラメータのうち220億の活性化パラメータ)を持つQwen3-235Bモデルは、重みのロードと推論の実行のためにかなりの量のビデオメモリを必要とします。AMDおよびIntel GPUはサポートされていません。Gonkaは、行列演算用のcuBLASやニューラルネットワーク層用のcuDNNを含むNVIDIAのCUDAスタックを使用しています。
要件の完全なリスト:
- GPU: NVIDIA、CUDAサポート、最低40GB VRAM。それ以下のVRAMを持つカード(RTX 4090の24GB、RTX 3090の24GB)は適していません。物理的にモデルのシャードをロードできません。
- CPU: AVX命令のサポートが必須です。これがないとinferencedは起動しません(起動時にSIGILL)。
- RAM: 快適な動作、重みのロード、要求キューの処理のために64GB以上のRAMを推奨します。
- ディスク: 十分なスペースを持つNVMe SSD — Qwen3-235Bの重みの一式は約640GBを占め、ノードのコールドスタート時間にとってNVMeからの高速ロードが重要です。
- インターネット: 安定した接続で最低100 Mbps — ノードはTransfer Agentsから要求を受け取り、リアルタイムでクライアントに結果を送信します。
- 稼働時間: 24時間7日 — エポックを пропускаすると報酬が減少し、長時間のダウンタイムはタスクプールからの除外につながる可能性があります。
推奨カード
推奨カードを詳細に分析してみましょう。
NVIDIA H100 80GB — 現世代のフラッグシップであり、Gonkaにとって最適な選択肢です。TDP(熱設計電力)は700 W、価格は1枚あたり約25,000〜35,000ドルです。FP8推論をサポートしており、品質を損なうことなく要求処理を高速化します。NVLinkにより、複数のH100を高速なカード間通信でクラスターに統合できます。Qwen3-235Bのフルクラスターには8枚のH100カードが必要です(8 x 80GB = 合計640GBのVRAM)。これはGonkaネットワークで最も一般的な構成です。
NVIDIA H200 141GB — 次世代で、ほぼ2倍のメモリ容量を持っています。VRAMの増加により、AI推論をより多くの要求を同時に処理できます(バッチサイズが大きい)、これにより単位時間あたりのGNK収益が向上します。HBM3eのメモリ帯域幅はH100よりも高く、重みのロードと推論が高速化されます。Qwen3-235Bのクラスターには、H100が8枚必要なところをH200が5枚で済むため、インフラが簡素化されます。
NVIDIA A100 40/80GB — 前世代ですが、ネットワークでまだサポートされています。1枚あたり約10,000〜15,000ドルと、H100よりも大幅に安価です。性能は低く、FP8がなく、HBM2eが遅いです。40GB版はGonkaの最小要件ですが、80GB版がより推奨されます。A100は、初期投資を抑えてネットワークに参加するのに適しています。
不適切なもの: 個人向けカードRTX 4090(24GB)、RTX 3090(24GB)、RTX 4080(16GB) — Qwen3-235Bでの作業にはVRAMが不足しています。最も強力な個人向けカードでさえ、最小しきい値である40GBには達しません。フルクラスター(640GB VRAM)には、構成に応じて8枚のH100、5枚のH200、または8〜16枚のA100 80GBカードが必要です。
ノード構成
GonkaネットワークにおけるMLノードは、AI推論を実行するGPUを備えたサーバーです。ノードの設定にはいくつかの段階があり、それぞれが安定した動作と最大GNK収益のために重要です。
ソフトウェア: 主要なコンポーネントはinferenced CLIで、モデルのロード、要求処理、ブロックチェーンとの通信を管理します。inferencedはDockerコンテナ内で動作するため、デプロイと更新が容易です。Qwen3-235Bの完全な構成には、合計640GBのVRAMが必要です。たとえば、80GBのH100カードが8枚です。モデルの重み(約640GB)は、ノードの起動時にNVMe SSDからロードされます。
登録: インストール後、ノードはオンチェーンで登録されます。Gonkaブロックチェーンに、そのアドレス、サポートされているモデル、特性(VRAM、帯域幅、場所)を示すレコードを作成します。この時点から、Transfer AgentsはユーザーからのAI要求をノードにルーティングし始めます。
ネットワークでの動作: 各入力要求(ユーザーからのプロンプト)は、ニューラルネットワークを介してGPUによって処理されます。結果はTransfer Agentを介してクライアントに送り返されます。コンセンサススプリントは、ブロック形成時に実行された各計算を考慮し、報酬は作業量に比例して分配されます。ノードはリアルタイムで更新された特性を公開できます。負荷が増加した場合、Transfer Agentsは要求の一部をより負荷の低いノードにリダイレクトします。設定の詳細については、マイニングガイドを参照してください。
GPUのレンタル場所
独自の機器がない場合、Gonka の GPU にアクセスするには 3 つの方法があり、それぞれコスト、複雑さ、および制御のバランスが異なります。
| パス | コスト | 複雑さ | コントロール |
|---|---|---|---|
| プール | $100から | 最小限 | 低い |
| 専用サーバー | 月額$12,000から | 低い | 中程度 |
| ベアメタルレンタル | GPUあたり$2〜3/時間から | 高い | 完全 |
プール(100 ドルから):Gonka.Top、GonkaPool.ai、Hashiro、Mingles CloudMine — オペレーターは GPU をレンタルし、ノードを設定し、稼働時間を監視します。あなたは技術的な詳細に触れることなく、投資に比例して GNK を受け取ります。初心者やパッシブ投資家にとって理想的な方法です。
専用サーバー(月額 12,000 ドルから):Gonka.Top はプールだけでなく、完全マネージド専用サーバーも提供しています。inferenced の設定、24 時間 365 日の監視、更新、トラブルシューティングはオペレーターが行います。マイニングは直接あなたのウォレットに行われます。固定のレンタル料を差し引いた GNK でのすべての収入はあなたのものです。
ベアメタルレンタル:Spheron は、H100/H200 を搭載したベアメタルサーバーを提供し、自分で設定します。これは、Linux、Docker、CLI に精通した技術ユーザー向けのパスです。最大限の制御が可能ですが、設定、稼働時間、および更新に関する最大限の責任も伴います。すべてのプロバイダーの詳細な比較は、「GNK を取得する」ページにあります。