Konsep Dasar
Apa itu inferensi
Jika Anda pernah menggunakan ChatGPT — Anda sudah tahu apa itu inferensi. Setiap kali Anda menulis pertanyaan dan mendapatkan jawaban dari jaringan saraf — itulah inferensi. Mari kita selami lebih detail.
Penjelasan sederhana
Anda menulis pertanyaan ke ChatGPT — Anda mendapatkan jawaban. Proses ini disebut inferensi. Jaringan saraf “berpikir” dan menghasilkan jawaban kata demi kata. Setiap permintaan semacam itu membutuhkan GPU yang kuat — kartu grafis yang dapat dengan cepat memproses perhitungan jaringan saraf.
Inferensi di jaringan Gonka
Ketika seseorang mengirimkan permintaan melalui Gonka API, permintaan itu diproses oleh salah satu node — server GPU yang terhubung ke jaringan. Model saat ini: Qwen3-235B (235 miliar parameter). Pemilik host server ini menerima GNK untuk setiap permintaan yang diproses. Semakin kuat GPU — semakin banyak permintaan yang dapat diproses node.
Mengapa inferensi adalah dasar nilai GNK
Semakin banyak orang menggunakan AI melalui Gonka — semakin besar permintaan untuk kekuatan GPU. Semakin besar permintaan — semakin tinggi lalu lintas jaringan — semakin tinggi harga inferensi — semakin banyak penghasilan host. Tidak seperti Bitcoin, nilai GNK dikaitkan dengan pasar komputasi AI nyata, bukan pada “kompleksitas” abstrak.
Inferensi adalah permintaan ke jaringan saraf. Setiap kali seseorang menggunakan AI melalui Gonka, host mendapatkan GNK. Semakin banyak pengguna = semakin tinggi nilai token.
Ingin tahu lebih banyak?
Pahami ekonomi GNK atau mulai dapatkan penghasilan sekarang juga.