知識ベースのセクション ▾
初心者向け
投資家向け
技術関連
分析
ツール
- Cursor + Gonka AI — コーディングのための安価な LLM
- Claude Code + Gonka AI — ターミナルのための LLM
- OpenClaw + Gonka AI — 利用しやすい AI エージェント
- OpenCode + Gonka AI — コードのための無料 AI
- Continue.dev + Gonka AI — VS Code/JetBrains のための AI
- Cline + Gonka AI — VS Code の AI エージェント
- Aider + Gonka AI — AI とのペアプログラミング
- LangChain + Gonka AI — ごくわずかなコストの AI アプリケーション
- n8n + Gonka AI — 安価な AI による自動化
- Open WebUI + Gonka AI — 独自の ChatGPT
- LibreChat + Gonka AI — オープンソースのChatGPT
- APIクイックスタート — curl, Python, TypeScript
- JoinGonka Gateway — 完全な概要
- マネジメントキー — Gonka 上の SaaS
技術
Gonkaネットワークアーキテクチャ:Sprint、Transfer Agents、DiLoCo
Transfer Agents:クライアントとGPU間のゲートウェイ
Transfer Agentsは、Gonkaアーキテクチャの主要コンポーネントであり、クライアントとMLノード間のインテリジェントゲートウェイとして機能します。ユーザーがAIリクエストを送信すると、直接GPUに送られるのではなく、Transfer Agent(リクエストをどのGPUが処理するかを決定する特殊な仲介ノード)に送られます。
プロセスは次のようになります。クライアントは、OpenAI互換APIを通じて標準的なPOST /v1/chat/completionsリクエストを行います。Transfer Agentは、リクエストの暗号署名を検証し、必要なモデルを特定し、適切な特性を持つ空いているMLノードを見つけます。各MLノードは、登録時にサポートするモデル、VRAM容量、現在のスループット、負荷などのパラメータを公開します。Transfer Agentはこれらのデータを使用して負荷分散を行います。タスクは均等に分散され、1つのノードに集中することはありません。
フォールトトレランスのため、ネットワークでは複数のTransfer Agentsが同時に稼働しています。1つが故障した場合、クライアントは自動的に別のAgentに切り替わります。各Transfer Agentは、エンドポイント/v1/identityを通じて独自のアドレスを公開します。これにより、ノードとクライアントは動的に相互を発見できます。Transfer Agentsはリクエストキューも管理します。すべてのノードがビジーの場合、リクエストは手数料に基づいて優先順位付けされてキューに入れられます。これは、CDNに似たアーキテクチャですが、AI計算用であり、分散型でフォールトトレラントであり、単一の制御点はありません。
Sprint: 実際の推論を通じたコンセンサス
SprintはTransformer PoW 2.0であり、既存のすべてのブロックチェーンプロトコルとは根本的に異なるGonka独自のコンセンサスです。Bitcoinでは、マイナーは無意味なSHA-256ハッシュを計算するために26GWの電力を消費します。その唯一の目的は、エネルギーが消費されたことを証明することです。EthereumのProof of Stakeでは、計算作業を完全に放棄し、バリデーターはトークンをロックするだけで、エネルギー効率のために分散化を犠牲にしています。Sprintは第三の道を提供します。
Sprintでは、各計算は実際のAIリクエストです。ユーザーが「Pythonで関数を記述してください」というプロンプトを送信すると、GPUはQwen3-235Bニューラルネットワークを通じて応答を生成します。この推論は同時にユーザーにサービスを提供し、ブロックチェーン内のブロックを承認します。結果として、ネットワークリソースの99%が有用な作業(AI推論)に費やされ、わずか1%が暗号セキュリティに費やされます。比較のために、Bitcoinではエネルギーの100%がセキュリティに費やされ、0%が有用な作業に費やされます。
ネットワークの動作はエポックで組織されています。各エポックで、Transfer AgentsはAIタスクをML-ノードに分散します。エポックが終了すると、完了した作業の証明を含むブロックが形成されます。報酬は各ノードの貢献に比例して分配されます。GPUが処理したリクエストが多いほど、より多くのGNKを受け取ります。これは市場のインセンティブを生み出します。ホストはタスクをめぐって競争し、パフォーマンスを最適化し、ユーザーの推論コストを削減します。
DiLoCo:モデルの分散学習
DiLoCoは、AIモデルの分散学習技術であり、根本的な問題を解決します。つまり、何十億ものパラメーターを持つニューラルネットワークを、GPUが異なる国にあり、単一のデータセンター内の高速NVLinkではなく、通常のインターネットで接続されている場合に、どのように学習させるかということです。
従来の学習アプローチでは、各ステップ後にパラメーターを同期する必要があります。これは、数百ギガビット/秒の通信速度、つまり単一のNVIDIAクラスター内でのみ可能です。DiLoCoはこのプロセスを再考します。ノードは各ステップ後ではなく、約1000ステップに1回パラメーターを同期します。同期の間、各ノードはデータサブセットでローカルに学習します。これにより帯域幅の要件が3桁減少し、インターネット経由での学習が実質的に可能になります。
最適化は2つのレベルで機能します。ローカルでは、各ノードはAdamW(トランスフォーマーの標準オプティマイザ)を使用します。グローバルでは、同期時にNesterov momentum(更新方向を「予測」し、収束を加速するアルゴリズム)が適用されます。その結果、300億から500億のパラメーターを持つモデルを、中央サーバーなしで、世界中に分散された8台のH100のクラスターで学習させることができます。比較すると、GPT-4の学習には、単一のデータセンターで数千のGPUと数十億ドルの投資が必要でした。DiLoCoは潜在的に、Gonkaの分散インフラで同等の結果を達成することを可能にします。
なぜこれが重要なのか?学習はAIの最も高価な部分です。OpenAIのような企業は、1回の学習サイクルに数億ドルを費やします。DiLoCoにより、Gonkaは最終的に、数十億ドルのデータセンターを構築することなく、ネットワークの力で独自のモデルを学習させることができます。これにより、Gonkaは単なる推論ネットワークではなく、垂直統合された完全なAIプラットフォームとなります。
PoC V2:ノードの誠実性の検証
PoC V2は、各MLノードが実際に計算を実行し、ランダムなゴミを返さなかったことを保証する検証メカニズムです。これは非常に重要です。検証がなければ、悪意のあるアクターは「ノード」を登録し、GPUに1ワットも費やすことなく偽の応答を返し、報酬を得ることができてしまいます。
このメカニズムは、相互検証を通じて機能します。ネットワークは、タスクの1〜10%をランダムに選択し、別のノードに再実行させます。結果が一致した場合、両方のノードは報酬を受け取ります。結果が一致しない場合、仲裁プロセス(dispute)が開始されます。敗訴したノードはステークの20%を失い、それは正直な参加者の間で分配されます。この罰則により、詐欺は経済的に不利になります。偽の応答から得られる潜在的な収益は、ステークを失うリスクよりも大幅に小さくなるからです。
検証速度は、BLS署名によって確保されます。これは、多数の署名を1つに集約し、10ミリ秒未満で検証できる暗号プリミティブです。これは、誠実さの検証がネットワークの動作を遅らせないことを意味します。ユーザーは遅延なく応答を受け取り、検証は並行して行われます。
モデル学習タスク(DiLoCoを通じて)には、追加のメカニズムであるProof-of-Learningが使用されます。各ノードは、各チェックポイントでのモデルの重みとオプティマイザの状態のハッシュをブロックチェーンに記録します。これにより、変更不可能な監査証跡が作成されます。これにより、学習が実際に実行され、重みが置き換えられていないことを誰でも確認できます。この二層検証(推論用のPoC V2、学習用のProof-of-Learning)により、GonkaはCertiKの監査を受けた、最もセキュアな分散型AIネットワークの1つとなっています。