기본 개념
inference (추론)란 무엇인가
ChatGPT를 사용해 본 경험이 있다면, 이미 inference가 무엇인지 알고 있을 것입니다. 질문을 작성하고 신경망에서 답변을 받을 때마다, 그것이 바로 inference입니다. 자세히 알아보겠습니다.
간단한 설명
ChatGPT에 질문을 작성하면 답변이 나옵니다. 이 과정을 inference(추론)라고 합니다. 신경망은 '생각'하고 단어별로 답변을 생성합니다. 이러한 각각의 요청은 강력한 GPU, 즉 신경망 계산을 빠르게 처리할 수 있는 비디오 카드를 필요로 합니다.
Gonka 네트워크에서의 inference
누군가 Gonka API를 통해 요청을 보내면, 노드 중 하나(네트워크에 연결된 GPU 서버)가 이를 처리합니다. 현재 모델은 Qwen3-235B(2350억 개의 매개변수)입니다. 이 서버의 호스트 소유자는 처리된 각 요청에 대해 GNK를 받습니다. GPU가 강력할수록 노드가 처리할 수 있는 요청이 많아집니다.
왜 inference가 GNK 가치의 기반인가
Gonka를 통해 AI를 사용하는 사람이 많아질수록 GPU 컴퓨팅 파워에 대한 수요가 증가합니다. 수요가 높아지면 네트워크 부하도 높아지고, inference 가격도 상승하며, 호스트는 더 많은 돈을 벌게 됩니다. 비트코인과는 달리, GNK의 가치는 추상적인 '복잡성'이 아니라 실제 AI 컴퓨팅 시장에 연결되어 있습니다.
Inference는 신경망에 대한 요청입니다. 누군가 Gonka를 통해 AI를 사용할 때마다 호스트는 GNK를 얻습니다. 더 많은 사용자가 있을수록 토큰의 가치가 높아집니다.