기본 개념
inference (추론)란 무엇인가
ChatGPT를 사용해 본 경험이 있다면, 이미 inference가 무엇인지 알고 있을 것입니다. 질문을 작성하고 신경망에서 답변을 받을 때마다, 그것이 바로 inference입니다. 자세히 알아보겠습니다.
간단한 설명
ChatGPT에 질문을 작성하면 답변이 나옵니다. 이 과정을 inference(추론)라고 합니다. 신경망은 '생각'하고 단어별로 답변을 생성합니다. 이러한 각각의 요청은 강력한 GPU, 즉 신경망 계산을 빠르게 처리할 수 있는 비디오 카드를 필요로 합니다.
Gonka 네트워크에서의 inference
누군가 Gonka API를 통해 요청을 보내면, 노드 중 하나(네트워크에 연결된 GPU 서버)가 이를 처리합니다. 현재 모델은 Qwen3-235B(2350억 개의 매개변수)입니다. 이 서버의 호스트 소유자는 처리된 각 요청에 대해 GNK를 받습니다. GPU가 강력할수록 노드가 처리할 수 있는 요청이 많아집니다.
왜 inference가 GNK 가치의 기반인가
Gonka를 통해 AI를 사용하는 사람이 많아질수록 GPU 컴퓨팅 파워에 대한 수요가 증가합니다. 수요가 높아지면 네트워크 부하도 높아지고, inference 가격도 상승하며, 호스트는 더 많은 돈을 벌게 됩니다. 비트코인과는 달리, GNK의 가치는 추상적인 '복잡성'이 아니라 실제 AI 컴퓨팅 시장에 연결되어 있습니다.
Inference는 신경망에 대한 요청입니다. 누군가 Gonka를 통해 AI를 사용할 때마다 호스트는 GNK를 얻습니다. 더 많은 사용자가 있을수록 토큰의 가치가 높아집니다.
관련 읽기
기술
Proof of Work 2.0이란 무엇인가
기술
Proof-of-Computation V2: 노드의 정직성을 확인하는 방법
토크노믹스
GNK 분배 방식: 제네시스 vs 수익
보안
담보 및 슬래싱: 네트워크는 어떻게 보호되는가
토크노믹스
베스팅: 보상이 즉시 지급되지 않는 이유
건축술
Gonka의 Transfer Agent란?
기술
DiLoCo: Gonka의 분산 모델 학습
기술
Sprint: Gonka 컨센서스의 작동 방식
기본 개념
GNK는 무엇인가: Gonka 네트워크 토큰
기본 개념
Gonka의 에포크: 네트워크 시간 단위
토큰경제학
Community Pool: Gonka 생태계의 공동 기금