知识库章节 ▾
投资者
分析
工具
- Cursor + Gonka AI — 便宜的 LLM 用于编码
- Claude Code + Gonka AI — 终端的 LLM
- OpenClaw + Gonka AI — 可负担的 AI 代理
- OpenCode + Gonka AI — 免费的代码 AI
- Continue.dev + Gonka AI — 适用于 VS Code/JetBrains 的 AI
- Cline + Gonka AI — VS Code 中的 AI 代理
- Aider + Gonka AI — 与 AI 结对编程
- LangChain + Gonka AI — 便宜的 AI 应用程序
- n8n + Gonka AI — 通过便宜的 AI 实现自动化
- Open WebUI + Gonka AI — 您的 ChatGPT
- LibreChat + Gonka AI — 开源 ChatGPT
- API 快速入门 — curl, Python, TypeScript
- JoinGonka Gateway - 全面概述
- 管理密钥 — Gonka 上的 SaaS
技术
为Gonka选择GPU:硬件推荐
最低要求
Gonka 需要支持CUDA的 NVIDIA GPU,并且每个MLNode至少需要 40GB VRAM。这是一个严格的硬件限制:具有MoE架构(235 亿总参数中,220 亿为活跃参数)的Qwen3-235B模型需要大量的显存来加载权重和执行推理。不支持 AMD 和 Intel GPU——Gonka 使用 NVIDIA 的 CUDA 堆栈,包括用于矩阵运算的 cuBLAS 和用于神经网络层的 cuDNN。
完整要求列表:
- GPU:NVIDIA,支持 CUDA,最低 40GB VRAM。显存较少的显卡(RTX 4090 24GB,RTX 3090 24GB)不适用——它们物理上无法加载模型分片。
- CPU:必须支持AVX指令集——否则 inferenced 将无法启动(启动时 SIGILL)。
- RAM:建议 64GB+ 内存,以确保舒适运行、加载权重和处理请求队列。
- 磁盘:NVMe SSD 具有足够的空间——Qwen3-235B 的完整权重集占用约 640GB,从中快速加载对于节点冷启动时间至关重要。
- 互联网:最低 100 Mbps 稳定连接——节点从传输代理接收请求,并实时将结果发送给客户端。
- 运行时间:24/7——跳过 epochs 会降低奖励,长时间停机可能导致被排除在任务池之外。
推荐显卡
让我们详细检查每张推荐的显卡:
NVIDIA H100 80GB——当前一代的旗舰产品,也是 Gonka 的最佳选择。TDP(功耗)700W,每张显卡成本约为 2.5-3.5 万美元。支持FP8推理,从而在不损失质量的情况下加快请求处理速度。NVLink 可以将多个 H100 组合成一个集群,显卡之间进行高速通信。对于完整的 Qwen3-235B 集群,需要 8 张 H100 显卡(8 x 80GB = 总计 640GB VRAM)。这是 Gonka 网络中最常见的配置。
NVIDIA H200 141GB——下一代产品,内存容量几乎翻倍。增加的 VRAM 允许同时处理更多请求(更大的批处理大小),从而提高单位时间的GNK收入。HBM3e 内存带宽高于 H100——更快的权重加载,更快的推理。对于 Qwen3-235B 集群,5 张 H200 显卡就足够了,而不是 8 张 H100,这简化了基础设施。
NVIDIA A100 40/80GB——上一代产品,但仍受网络支持。每张显卡价格约为 1-1.5 万美元——比 H100 便宜得多。性能较低:不支持 FP8,HBM2e 速度较慢。40GB 版本是 Gonka 最低可接受的,80GB 版本更受青睐。A100 适用于以较低的初始投资进入网络。
不适合的显卡:消费级显卡 RTX 4090 (24GB)、RTX 3090 (24GB)、RTX 4080 (16GB)——VRAM 不足,无法处理 Qwen3-235B。即使是最强大的消费级显卡也达不到 40GB 的最低门槛。对于完整的集群(640GB VRAM),根据配置,将需要 8 张 H100 显卡、5 张 H200 显卡或 8-16 张 A100 80GB 显卡。
节点配置
Gonka 网络中的MLNode是带有 GPU 的服务器,用于执行 AI 推理。节点的设置涉及多个阶段,每个阶段对于稳定运行和最大化GNK收益都至关重要。
软件:主要组件是 inferenced CLI,它管理模型加载、请求处理以及与区块链的通信。Inferenced 在 Docker 容器内运行,这简化了部署和更新。完整的 Qwen3-235B 配置需要 640GB 的总 VRAM——例如,8 张 H100 显卡,每张 80GB。模型权重(~640GB)在节点启动时从 NVMe SSD 加载。
注册:安装后,节点在链上注册——它在 Gonka 区块链中创建一条记录,指明其地址、支持的模型和特性(VRAM、带宽、位置)。从这一刻起,传输代理开始将用户发出的 AI 请求导向该节点。
网络运行:每个传入请求——来自用户的提示——都由 GPU 通过神经网络处理。结果通过传输代理发送回客户端。Sprint 共识在生成区块时会考虑每个已完成的计算,奖励会按工作量比例分配。节点可以实时发布更新的特性——如果负载增加,传输代理会将部分请求重定向到负载较轻的节点。详细设置说明可在挖矿指南中找到。
在哪里租用GPU
如果没有自己的设备,有三种方式可以获取Gonka的GPU访问权限,每种方式在成本、复杂性和控制方面都有不同的平衡:
| 路径 | 成本 | 复杂性 | 控制 |
|---|---|---|---|
| 矿池 | $100起 | 最小 | 低 |
| 专用服务器 | $12,000/月起 | 低 | 中 |
| 裸金属租赁 | $2—3/小时 GPU | 高 | 完全 |
矿池(100美元起):Gonka.Top、GonkaPool.ai、Hashiro、Mingles CloudMine——运营商租用GPU,设置节点,监控正常运行时间。您根据贡献比例获得GNK,无需处理技术细节。是新手和被动投资者的理想选择。
专用服务器(每月12,000美元起):Gonka.Top 不仅提供矿池,还提供全包式专用服务器。您会获得一个现成的节点——运营商负责 inferenced 设置、24/7监控、更新和故障排除。挖矿直接到您的钱包——扣除固定租赁费后,所有GNK收入都归您。
裸金属租赁:Spheron 提供H100/H200的裸金属服务器,由您自行配置。这条路径适用于熟悉Linux、Docker和CLI的技术用户。拥有最大程度的控制权,但也要承担设置、正常运行时间和更新的最大责任。所有提供商的详细比较请参阅“获取GNK”页面。