Bilgi Tabanı Bölümleri ▾
Yeni Başlayanlar İçin
Yatırımcılar İçin
- GNK tokeninin değeri nereden geliyor
- Gonka rakiplere karşı: Render, Akash, io.net
- Libermanlar: biyofizikten merkeziyetsiz yapay zekaya
- GNK Tokenomikleri
- Gonka'nın riskleri ve beklentileri: objektif analiz
- Gonka vs Render Network: detaylı karşılaştırma
- Gonka vs Akash: AI çıkarımı vs konteynerler
- Gonka vs io.net: çıkarım vs GPU pazarı
- Gonka vs Bittensor: Yapay Zekaya İki Yaklaşımın Detaylı Karşılaştırması
- Gonka vs Flux: Faydalı Madenciliğe İki Yaklaşım
- Gonka'da Yönetişim: Merkezi Olmayan Bir Ağ Nasıl Yönetilir
Teknik
Analitik
- Gonka — Yapay Zeka Çağı için Linux
- Katil Anahtar: yapay zekanın merkeziyetsizliği neden gerekli?
- Yakıt, altın değil — dijital altından AI yakıtına
- Faydalı İş Kanıtı: Faydalı Madencilik İçin Tam Rehber
- 112 milyar dolarlık delik - Big Tech'in gizli iflası
- DePIN Projeleri 2026: Kapsamlı İnceleme ve Karşılaştırma
Araçlar
- Cursor + Gonka AI — Kodlama için Ucuz LLM
- Claude Code + Gonka AI — Terminal için LLM
- OpenClaw + Gonka AI — Erişilebilir Yapay Zeka Ajanları
- OpenCode + Gonka AI — Kod için Ücretsiz Yapay Zeka
- Continue.dev + Gonka AI — VS Code/JetBrains için Yapay Zeka
- Cline + Gonka AI — VS Code'da Yapay Zeka Ajanı
- Aider + Gonka AI — Yapay Zeka ile Eşli Programlama
- LangChain + Gonka AI — Kuruşlarla Yapay Zeka Uygulamaları
- n8n + Gonka AI — Ucuz Yapay Zeka ile Otomasyon
- Open WebUI + Gonka AI — Kendi ChatGPT'niz
- LibreChat + Gonka AI — Açık kaynaklı ChatGPT
- API Hızlı Başlangıç — curl, Python, TypeScript
- JoinGonka Gateway — Tam İnceleme
- Yönetim Anahtarları – Gonka'da SaaS
- En Ucuz AI API: Sağlayıcı Karşılaştırması 2026
Teknoloji
Qwen3-235B: Gonka'nın çıkardığı model
Qwen3-235B nedir
Qwen3-235B-A22B-Instruct-2507-FP8, Alibaba Cloud'daki Qwen ekibi tarafından geliştirilen Qwen3 ailesinin büyük bir dil modelidir (LLM). Tam adı şöyle açılır: Qwen3 — serinin üçüncü nesli, 235B — toplam 235 milyar parametre, A22B — her istek için 22 milyar aktif parametre, Instruct — talimatları takip etmek üzere eğitilmiş sürüm, 2507 — Temmuz 2025 sürümü, FP8 — bellek optimizasyonu için 8 bit nicemleme.
Anahtar mimari özellik — MoE (Uzman Karışımı). Her tokenın tüm parametrelerden geçtiği “yoğun” modellerin (GPT-5.4, Claude Sonnet 4.5) aksine, MoE modeli her istek için sadece bir “uzman” alt kümesini – sinir ağının özelleşmiş bloklarını – etkinleştirir. Qwen3-235B durumunda, 235 milyar parametreden her token için sadece 22 milyar etkinleştirilir – %10'dan az. Bu, 22B'lik bir modelin hesaplama maliyetleriyle 200B+ parametreli modellerin kalitesini verir.
Pratikte bu şu anlama gelir: model hızından beklendiğinden daha akıllı. Karşılaştırılabilir kalitedeki yoğun modellerden önemli ölçüde daha hızlı istekleri işlerken, inference için kat kat daha az VRAM gerektirir. Bu nedenle MoE, 2025-2026'nın en büyük modelleri için baskın mimari haline gelmiştir.
Qwen3-235B'nin bağlamsal penceresi 131.072 tokendir (~100.000 kelime) – bu, tüm kitapları, kod tabanlarını veya uzun yasal belgeleri tek bir istekte analiz etmek için yeterlidir. Model, Rusça, İngilizce, Çince, Arapça, Hintçe ve düzinelerce diğer dil dahil olmak üzere 119 dili destekler – bu da onu piyasadaki en çok dilli modellerden biri yapar.
Özellikler ve Benchmarklar
Qwen3-235B, en büyük kapalı ve açık modellerle rekabet eder. İşte temel özelliklerin karşılaştırması:
| Model | Parametreler | Bağlam | MoE | Açık Kaynak | Fiyat (1M token için) |
|---|---|---|---|---|---|
| Qwen3-235B (JoinGonka aracılığıyla) | 235B (22B aktif) | 131K | Evet | Evet (Apache 2.0) | 0,001 ABD Doları |
| GPT-5.4 (OpenAI) | ~1.8T (tahmini) | 128K | Evet (varsayılan) | Hayır | 2,50 ABD Doları |
| Claude Sonnet 4.5 (Anthropic) | Açıklanmadı | 200K | Hayır (varsayılan) | Hayır | 3,00 ABD Doları |
| Llama 4 Maverick (Meta) | 400B (17B aktif) | 1M | Evet | Evet (Llama Lisansı) | 0,20+ ABD Doları (barındırma) |
| DeepSeek-R1 (DeepSeek) | 671B (37B aktif) | 128K | Evet | Evet (MIT) | 0,55 ABD Doları |
Qwen3-235B, çoğu benchmarkta GPT-5.4 ve Claude Sonnet 4.5 ile karşılaştırılabilir bir kalite seviyesi sergilemektedir; JoinGonka Gateway aracılığıyla maliyeti ise GPT-5.4'ten 2.500 kat daha düşüktür. Bu iki faktör sayesinde mümkündür: MoE mimarisi hesaplama maliyetlerini düşürür ve merkezi olmayan Gonka ağı veri merkezlerinin marjını ortadan kaldırır.
MMLU-Pro, HumanEval, MATH-500 ve GSM8K benchmarklarında model, yalnızca matematiksel akıl yürütme (reasoning) görevlerinde DeepSeek-R1'in gerisinde kalarak en iyi üç açık kaynak model arasına girmektedir. Kod üretimi, çeviri ve talimatları takip etme görevlerinde Qwen3-235B, Llama 4 Maverick'i sürekli olarak geride bırakmakta ve Claude Sonnet 4.5 ile karşılaştırılabilir bir performans sergilemektedir.
Gonka Qwen3-235B'yi nasıl kullanıyor?
Qwen3-235B modeli, Gonka ağı içinde dağıtılmış olarak çalışır — inference için uyarlanmış DiLoCo protokolü aracılığıyla. FP8 formatında tam model yaklaşık 640 GB video belleği (VRAM) gerektirir, bu da tek bir GPU'ya sığdırılamaz — hatta H100 80GB veya H200 141GB bile yeterli değildir. Bu nedenle model, katmanlar halinde (tensor parallelism + pipeline parallelism) birden fazla ML düğümü arasında bölünmüştür.
Pratikte Qwen3-235B, her biri en az 40 GB VRAM'e sahip 8-16 GPU düğümlü bir kümede çalışır. Aktarım Aracıları isteği doğru kümeye yönlendirir, her düğümdeki vLLM modelin kendi parçasını işler, sonuçlar birleştirilir ve kullanıcıya döndürülür. Tüm süreç yüzlerce milisaniye sürer — kullanıcı, isteğinin dünyanın farklı yerlerindeki bir düzine GPU tarafından işlendiğini fark etmez.
Önemli bir teknik detay: Gonka, hizmet vermek için vLLM'yi motor olarak kullanır. vLLM, PagedAttention aracılığıyla yüksek performanslı metin üretimi sağlayan açık kaynaklı bir projedir — bu algoritma, birden fazla isteğin paralel olarak işlenmesi sırasında video belleği kullanımını optimize eder. Bu, ağın binlerce eşzamanlı kullanıcıya kaliteden ödün vermeden hizmet vermesini sağlar.
Model, yerel araç çağrısını destekler — doğrudan model yanıtından fonksiyonların ve araçların çağrılması. Bu özellik, araç çağrılarını belirlemek için 0.958 eşikle PR #767 aracılığıyla Gonka'ya eklendi. Bu, geliştiricilerin harici API'ler, veritabanları ve araçlarla etkileşim kuran AI aracıları oluşturabileceği anlamına gelir — hepsi Qwen3-235B'ye tek bir istek aracılığıyla.
Mevcut Gonka ağı, 120'den fazla ML düğümünde birleştirilmiş 4.000'den fazla GPU'ya (H100, H200, A100, RTX 4090 ve diğerleri) sahiptir. Bu, dünyadaki AI inference için en büyük dağıtılmış GPU ağlarından biridir — ve tüm bu güç Qwen3-235B'ye hizmet etmeye yöneliktir.
Qwen3-235B nasıl denenir?
Qwen3-235B'yi denemenin en basit yolu JoinGonka API Gateway aracılığıyladır. Ağ Geçidi, OpenAI uyumlu bir API sağlar, bu da şu anlama gelir: OpenAI için yazılan herhangi bir kod, URL ve API anahtarını değiştirmek yeterli olmak koşuluyla Qwen3-235B ile aynı şekilde çalışır.
İstek örneği:
curl https://gate.joingonka.ai/api/v1/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen3-235b-a22b",
"messages": [{"role": "user", "content": "MoE mimarisini açıkla"}]
}'Maliyet: 1 milyon token için 0,001 ABD doları — bu, GPT-5.4'ten (2,50 ABD doları/1M) 2.500 kat ve Claude Sonnet 4.5'ten (3,00 ABD doları/1M) 3.000 kat daha ucuzdur. Kayıt olduğunuzda, test için 10 milyon ücretsiz token alırsınız.
Ağ Geçidi, popüler geliştirme araçlarıyla uyumludur: Hızlı Başlangıç, Python, Node.js ve curl aracılığıyla bağlantıyı açıklar. Ayrıca IDE entegrasyonları — Cursor, Continue, Cline, Aider ve Claude Code — ve AI ajanları için çerçeveler: LangChain, n8n, LibreChat, Open WebUI desteklenmektedir.
Hızlı başlangıç için:
- gate.joingonka.ai adresinden kaydolun (cüzdanı bağlayın veya yeni bir tane oluşturun)
- Kontrol Panelinden bir API anahtarı alın
- Kodunuzdaki
api.openai.comdeğerinigate.joingonka.ai/apiile değiştirin qwen3-235b-a22bmodelini kullanın
JoinGonka aracılığıyla Qwen3-235B, bir hobi projesi maliyetine kurumsal düzeyde AI'dır.
Daha fazla bilgi edinmek ister misiniz?
Diğer bölümleri keşfedin veya şimdi GNK kazanmaya başlayın.
Qwen3-235B'yi Deneyin →