지식 기반 섹션 ▾

기술

Gonka 네트워크 아키텍처: Sprint, Transfer Agents, DiLoCo

Gonka는 단순히 '클라우드 GPU'가 아닙니다. 자체 합의, 계산 검증 및 분산 훈련을 갖춘 완전한 블록체인 네트워크입니다. 주요 구성 요소를 살펴보겠습니다.

Transfer Agents: 클라이언트와 GPU 간의 게이트웨이

전송 에이전트(Transfer Agents)는 Gonka 아키텍처의 핵심 구성 요소로, 클라이언트와 ML-노드 간의 지능형 게이트웨이 역할을 합니다. 사용자가 AI 요청을 보내면, 이 요청은 GPU로 직접 가는 것이 아니라 전송 에이전트로 이동합니다. 전송 에이전트는 특정 GPU가 이 요청을 처리할지 결정하는 특화된 중개 노드입니다.

프로세스는 다음과 같습니다. 클라이언트는 OpenAI 호환 API를 통해 표준 POST /v1/chat/completions 요청을 보냅니다. 전송 에이전트는 요청의 암호화 서명을 확인하고, 필요한 모델을 결정하며, 적절한 특성을 가진 사용 가능한 ML-노드를 찾습니다. 각 ML-노드는 등록 시 지원하는 모델, VRAM 볼륨, 현재 대역폭 및 로드와 같은 매개변수를 게시합니다. 전송 에이전트는 이 데이터를 사용하여 로드를 균형 있게 분배합니다. 작업은 균등하게 분배되며, 하나의 노드에 집중되지 않습니다.

내결함성을 위해 여러 전송 에이전트가 동시에 네트워크에서 작동합니다. 하나가 실패하면 클라이언트는 자동으로 다른 것으로 전환됩니다. 각 전송 에이전트는 /v1/identity 엔드포인트를 통해 자신의 주소를 게시하여 노드와 클라이언트가 서로를 동적으로 검색할 수 있도록 합니다. 전송 에이전트는 요청 대기열도 관리합니다. 모든 노드가 사용 중이면 요청은 수수료를 기준으로 우선순위가 지정되어 대기열에 추가됩니다. 이것은 CDN과 유사한 아키텍처이지만, AI 컴퓨팅을 위한 것으로 분산되고 내결함성이 있으며 단일 제어 지점이 없습니다.

스프린트: 실제 추론을 통한 합의

Sprint는 Transformer PoW 2.0으로, 기존의 모든 블록체인 프로토콜과 근본적으로 다른 Gonka의 독특한 합의 알고리즘입니다. 비트코인에서는 채굴자들이 무의미한 SHA-256 해시를 계산하는 데 26GW의 전력을 소비합니다. 이들의 유일한 목적은 에너지가 소비되었다는 것을 증명하는 것입니다. 이더리움의 지분 증명(Proof of Stake)은 계산 작업을 완전히 포기하고, 검증자들이 에너지 효율성을 위해 탈중앙화를 희생하며 단순히 토큰을 예치합니다. Sprint는 세 번째 길을 제시합니다.

Sprint에서는 모든 계산이 실제 AI 요청입니다. 사용자가 'Python 함수 작성'과 같은 프롬프트를 보내면, GPU는 Qwen3-235B 신경망을 통해 응답을 생성합니다. 이 추론은 동시에 사용자에게 서비스를 제공하고 블록체인에서 블록을 확인합니다. 결과적으로 네트워크 리소스의 99%는 유용한 작업(AI 추론)에 사용되고, 1%만이 암호화 보안에 사용됩니다. 비교하자면, 비트코인의 경우 100%의 에너지가 보안에 사용되고 유용한 작업에는 0%가 사용됩니다.

네트워크 작동은 에포크(epoch)로 구성됩니다. 각 에포크에서 Transfer Agents는 ML 노드 간에 AI 작업을 분배합니다. 에포크가 끝나면 완료된 작업 증명을 포함하는 블록이 형성됩니다. 보상은 각 노드의 기여도에 비례하여 분배됩니다. GPU가 더 많은 요청을 처리할수록 더 많은 GNK를 받습니다. 이는 시장 인센티브를 창출하여 호스트가 작업을 놓고 경쟁하고 성능을 최적화하며 사용자에게 추론 비용을 절감하도록 합니다.

DiLoCo: 모델 분산 학습

DiLoCo는 AI 모델의 분산 학습 기술로, 근본적인 문제를 해결합니다. GPU가 서로 다른 국가에 있고 고속 NVLink 대신 일반 인터넷으로 연결되어 있을 때 수십억 개의 매개변수로 신경망을 훈련하는 방법은 무엇일까요?

전통적인 학습 방법은 매 단계마다 매개변수를 동기화해야 합니다. 이는 초당 수백 기가비트의 통신 속도가 가능할 때, 즉 단일 NVIDIA 클러스터 내에서만 가능합니다. DiLoCo는 이 과정을 재정의합니다. 노드는 매 단계마다 동기화하는 대신 약 1000단계에 한 번 매개변수를 동기화합니다. 동기화 사이에는 각 노드가 로컬에서 자체 데이터 하위 집합을 학습합니다. 이는 대역폭 요구 사항을 세 자릿수로 줄여 인터넷을 통한 학습을 사실상 실현 가능하게 만듭니다.

최적화는 두 가지 수준에서 작동합니다. 로컬에서는 각 노드가 트랜스포머를 위한 표준 최적화 프로그램인 AdamW를 사용합니다. 전역적으로는 동기화 시, Nesterov momentum이라는 알고리즘을 적용하여 업데이트 방향을 '예측'하고 수렴을 가속화합니다. 결과적으로 300억에서 500억 개의 매개변수를 가진 모델은 중앙 서버 없이 전 세계에 분산된 8xH100 클러스터에서 학습될 수 있습니다. 비교하자면, GPT-4 학습에는 수십억 달러의 투자를 통해 단일 데이터 센터에 수천 개의 GPU가 필요했습니다. DiLoCo는 잠재적으로 분산된 Gonka 인프라에서 이와 유사한 결과를 달성할 수 있습니다.

왜 이것이 중요할까요? 학습은 AI에서 가장 비용이 많이 드는 부분입니다. OpenAI와 같은 회사들은 한 번의 학습 주기에 수억 달러를 소비합니다. DiLoCo는 Gonka가 시간이 지남에 따라 네트워크의 힘으로 자체 모델을 학습할 수 있게 해줍니다. 수십억 달러 규모의 데이터 센터를 구축할 필요가 없다는 것입니다. 이것은 Gonka를 단순한 추론 네트워크가 아닌 수직 통합된 완전한 AI 플랫폼으로 만듭니다.

PoC V2: 노드 정직성 확인

PoC V2는 각 ML-노드가 실제로 계산을 수행했으며 임의의 데이터를 반환하지 않았음을 보장하는 검증 메커니즘입니다. 이는 매우 중요합니다. 검증이 없으면 악의적인 사용자가 '노드'를 등록하여 가짜 응답을 반환하고 GPU에 전력을 소비하지 않고 보상을 받을 수 있기 때문입니다.

이 메커니즘은 상호 확인을 통해 작동합니다. 네트워크는 무작위로 1-10%의 작업을 선택하여 다른 노드에 다시 수행하도록 보냅니다. 결과가 일치하면 두 노드 모두 보상을 받습니다. 결과가 일치하지 않으면 중재 프로세스(분쟁)가 시작됩니다. 패배한 노드는 담보(스테이크)의 20%를 잃고, 이는 정직한 참가자들에게 분배됩니다. 이 벌칙은 사기를 경제적으로 비합리적으로 만듭니다. 가짜 응답으로 인한 잠재적 수익은 담보를 잃을 위험보다 훨씬 적기 때문입니다.

검증 속도는 BLS-서명으로 보장됩니다. BLS-서명은 여러 서명을 하나로 집계하고 10밀리초 미만으로 검증할 수 있는 암호화 기본 요소입니다. 이는 정직성 검사가 네트워크 작동을 늦추지 않는다는 것을 의미합니다. 사용자는 지연 없이 응답을 받고, 검증은 병렬로 진행됩니다.

모델 학습 작업(DiLoCo를 통해)의 경우, 추가적인 메커니즘인 Proof-of-Learning이 사용됩니다. 각 노드는 모델 가중치와 최적화 프로그램 상태의 해시를 각 체크포인트에서 블록체인에 기록합니다. 이는 불변의 감사 추적을 생성합니다. 누구나 학습이 실제로 진행되었고 가중치가 위조되지 않았음을 확인할 수 있습니다. 이러한 2단계 검증(추론을 위한 PoC V2, 학습을 위한 Proof-of-Learning)은 Gonka를 CertiK 감사를 통과한 가장 안전한 분산형 AI 네트워크 중 하나로 만듭니다.

Gonka는 완전한 블록체인 인프라입니다. Transfer Agents는 요청을 라우팅하고, Sprint는 합의와 AI 추론을 통합하며, DiLoCo는 모델을 분산적으로 훈련하고, PoC V2는 정직성을 보장합니다.

더 자세히 알고 싶으세요?

다른 섹션을 탐색하거나 지금 GNK를 얻기 시작하세요.

Gonka를 통해 AI 사용해 보기 →