지식 기반 섹션 ▾

기술

Gonka용 GPU 선택: 하드웨어 권장 사항

기술 마이너에게 가장 중요한 질문: Gonka에는 어떤 GPU가 필요합니까? 최소 요구 사항, 최적 구성, 그리고 하드웨어가 없는 경우 서버를 어디서 임대해야 하는지 분석합니다.

최소 요구 사항

Gonka는 CUDA를 지원하는 NVIDIA GPU와 MLNode당 최소 40GB의 VRAM을 필요로 합니다. 이는 엄격한 하드웨어 제한입니다. MoE 아키텍처(총 2,350억 개 중 220억 개 활성 매개변수)를 가진 Qwen3-235B 모델은 가중치를 로드하고 추론을 수행하기 위해 상당한 양의 비디오 메모리가 필요합니다. AMD 및 Intel GPU는 지원되지 않습니다. Gonka는 매트릭스 연산을 위한 cuBLAS 및 신경망 계층을 위한 cuDNN을 포함하여 NVIDIA의 CUDA 스택을 사용합니다.

전체 요구 사항 목록:

  • GPU: NVIDIA(CUDA 지원), 최소 40GB VRAM. VRAM 용량이 더 낮은 카드(RTX 4090 24GB, RTX 3090 24GB)는 적합하지 않습니다. 물리적으로 모델의 샤드를 로드할 수 없습니다.
  • CPU: AVX 명령어 세트 지원 필수 — 이가 없으면 inferenced가 시작되지 않습니다(시작 시 SIGILL).
  • RAM: 원활한 작동, 가중치 로드 및 요청 큐 처리를 위해 64GB 이상의 RAM을 권장합니다.
  • 디스크: 충분한 공간을 가진 NVMe SSD — Qwen3-235B의 전체 가중치 세트는 약 640GB를 차지하며, 노드의 콜드 스타트 시간에 NVMe에서 빠른 로딩이 중요합니다.
  • 인터넷: 최소 100Mbps의 안정적인 연결 — 노드는 Transfer Agents로부터 요청을 받아 실시간으로 클라이언트에게 결과를 보냅니다.
  • 업타임: 24시간 7일 — 에포크를 놓치면 보상이 줄어들고, 장시간 다운타임은 작업 풀에서 제외될 수 있습니다.

권장 카드

각 권장 카드를 자세히 분석해 보겠습니다.

NVIDIA H100 80GB — 현재 세대의 플래그십이며 Gonka에 최적의 선택입니다. TDP(열 설계 전력)는 700W이고, 카드당 가격은 약 25,000~35,000달러입니다. FP8 추론을 지원하여 품질 저하 없이 요청 처리 속도를 높입니다. NVLink를 통해 여러 H100을 고속 카드 간 연결로 클러스터에 통합할 수 있습니다. Qwen3-235B 전체 클러스터에는 8개의 H100 카드가 필요합니다(8 x 80GB = 총 640GB VRAM). 이것은 Gonka 네트워크에서 가장 일반적인 구성입니다.

NVIDIA H200 141GB — 다음 세대로, 메모리 용량이 거의 두 배에 달합니다. 증가된 VRAM은 더 많은 요청을 동시에 처리할 수 있게 하므로(더 큰 배치 크기), 단위 시간당 GNK 수익을 높입니다. HBM3e의 메모리 대역폭은 H100보다 높아 가중치 로딩 및 추론 속도가 더 빠릅니다. Qwen3-235B 클러스터의 경우 H100 8개 대신 H200 5개만 있으면 되므로 인프라를 단순화할 수 있습니다.

NVIDIA A100 40/80GB — 이전 세대이지만 네트워크에서 여전히 지원됩니다. 카드당 가격은 약 10,000~15,000달러로, H100보다 훨씬 저렴합니다. 성능은 더 낮습니다. FP8이 없고 HBM2e가 더 느립니다. 40GB 버전은 Gonka의 최소 허용치이며, 80GB 버전이 더 선호됩니다. A100은 초기 투자를 줄여 네트워크에 진입하는 데 적합합니다.

적합하지 않은 것: 소비자용 카드 RTX 4090(24GB), RTX 3090(24GB), RTX 4080(16GB) — Qwen3-235B 작업에는 VRAM이 부족합니다. 가장 강력한 소비자용 카드조차 최소 임계값인 40GB에 미치지 못합니다. 전체 클러스터(640GB VRAM)에는 구성에 따라 8개의 H100, 5개의 H200 또는 8-16개의 A100 80GB 카드가 필요합니다.

노드 구성

Gonka 네트워크의 MLNode는 AI 추론을 수행하는 GPU가 있는 서버입니다. 노드 설정에는 여러 단계가 있으며, 각 단계는 안정적인 작동과 최대 GNK 수입을 위해 중요합니다.

소프트웨어: 핵심 구성 요소는 inferenced CLI입니다. 이는 모델 로딩, 요청 처리 및 블록체인과의 통신을 관리합니다. inferenced는 Docker 컨테이너 내에서 작동하여 배포 및 업데이트를 간소화합니다. Qwen3-235B의 완전한 구성에는 총 640GB의 VRAM이 필요합니다. 예를 들어, 80GB H100 카드 8개입니다. 모델 가중치(약 640GB)는 노드 시작 시 NVMe SSD에서 로드됩니다.

등록: 설치 후 노드는 온체인으로 등록됩니다. Gonka 블록체인에 주소, 지원 모델 및 특성(VRAM, 대역폭, 위치)을 나타내는 레코드를 생성합니다. 이때부터 Transfer Agents는 사용자로부터 AI 요청을 노드에 라우팅하기 시작합니다.

네트워크 작동: 각 수신 요청(사용자 프롬프트)은 신경망을 통해 GPU에 의해 처리됩니다. 결과는 Transfer Agent를 통해 클라이언트에게 다시 전송됩니다. Sprint 합의는 블록을 형성할 때 수행된 각 계산을 고려하며, 보상은 작업량에 비례하여 분배됩니다. 노드는 실시간으로 업데이트된 특성을 게시할 수 있습니다. 로드가 증가하면 Transfer Agents는 일부 요청을 덜 로드된 노드로 리디렉션합니다. 설정에 대한 자세한 지침은 채굴 가이드를 참조하십시오.

GPU 임대처

장비가 없다면, Gonka를 위한 GPU에 접근하는 세 가지 방법이 있습니다. 각각 비용, 복잡성, 제어의 균형이 다릅니다.

경로비용복잡성제어
$100부터최소낮음
전용 서버월 $12,000부터낮음보통
베어메탈 임대GPU당 시간당 $2~$3부터높음완전

($100부터): Gonka.Top, GonkaPool.ai, Hashiro, Mingles CloudMine — 운영자가 GPU를 임대하고, 노드를 설정하고, 가동 시간을 모니터링합니다. 기술적인 세부 사항에 관여하지 않고 투자에 비례하여 GNK를 받습니다. 초보자 및 수동 투자자에게 이상적인 방법입니다.

전용 서버(월 $12,000부터): Gonka.Top은 풀뿐만 아니라 완전 관리형 전용 서버도 제공합니다. inferenced 설정, 24시간 연중무휴 모니터링, 업데이트 및 문제 해결은 운영자가 담당합니다. 마이닝은 고정된 임대료를 제외한 모든 GNK 수입이 직접 귀하의 지갑으로 들어옵니다.

베어메탈 임대: Spheron은 H100/H200을 갖춘 베어메탈 서버를 제공하며, 직접 설정해야 합니다. 이는 Linux, Docker 및 CLI에 익숙한 기술 사용자에게 적합한 경로입니다. 최대 제어가 가능하지만 설정, 가동 시간 및 업데이트에 대한 최대 책임도 따릅니다. 모든 공급업체에 대한 자세한 비교는 «GNK 받기» 페이지에서 확인할 수 있습니다.

Gonka에는 CUDA와 40GB+ VRAM을 지원하는 NVIDIA GPU가 필요합니다. 최적의 카드는 H100, H200, A100입니다. Qwen3-235B의 전체 클러스터에는 640GB VRAM이 필요합니다. 자체 하드웨어가 없다면 Gonka.Top 또는 Spheron에서 임대하거나 풀에서 시작하세요.

더 자세히 알고 싶으세요?

다른 섹션을 탐색하거나 지금 GNK를 얻기 시작하세요.

제공업체 비교 및 임대 →