Bilgi Tabanı Bölümleri ▾

Teknoloji

Qwen3-235B: Gonka'nın çıkardığı model

Gonka ağı sadece GPU kiralamakla kalmaz, belirli bir AI modeline hizmet eder. Şu anda bu, Alibaba Cloud tarafından geliştirilen dünyanın en büyük açık kaynak modellerinden biri olan Qwen3-235B-A22B-Instruct'tur. Bu modelin ne olduğunu, Gonka'nın neden onu seçtiğini ve API Ağ Geçidimiz aracılığıyla nasıl deneneceğini inceleyelim.

Qwen3-235B nedir

Qwen3-235B-A22B-Instruct-2507-FP8, Alibaba Cloud'daki Qwen ekibi tarafından geliştirilen Qwen3 ailesinin büyük bir dil modelidir (LLM). Tam adı şöyle açılır: Qwen3 — serinin üçüncü nesli, 235B — toplam 235 milyar parametre, A22B — her istek için 22 milyar aktif parametre, Instruct — talimatları takip etmek üzere eğitilmiş sürüm, 2507 — Temmuz 2025 sürümü, FP8 — bellek optimizasyonu için 8 bit nicemleme.

Anahtar mimari özellik — MoE (Uzman Karışımı). Her tokenın tüm parametrelerden geçtiği “yoğun” modellerin (GPT-5.4, Claude Sonnet 4.5) aksine, MoE modeli her istek için sadece bir “uzman” alt kümesini – sinir ağının özelleşmiş bloklarını – etkinleştirir. Qwen3-235B durumunda, 235 milyar parametreden her token için sadece 22 milyar etkinleştirilir – %10'dan az. Bu, 22B'lik bir modelin hesaplama maliyetleriyle 200B+ parametreli modellerin kalitesini verir.

Pratikte bu şu anlama gelir: model hızından beklendiğinden daha akıllı. Karşılaştırılabilir kalitedeki yoğun modellerden önemli ölçüde daha hızlı istekleri işlerken, inference için kat kat daha az VRAM gerektirir. Bu nedenle MoE, 2025-2026'nın en büyük modelleri için baskın mimari haline gelmiştir.

Qwen3-235B'nin bağlamsal penceresi 131.072 tokendir (~100.000 kelime) – bu, tüm kitapları, kod tabanlarını veya uzun yasal belgeleri tek bir istekte analiz etmek için yeterlidir. Model, Rusça, İngilizce, Çince, Arapça, Hintçe ve düzinelerce diğer dil dahil olmak üzere 119 dili destekler – bu da onu piyasadaki en çok dilli modellerden biri yapar.

Özellikler ve Benchmarklar

Qwen3-235B, en büyük kapalı ve açık modellerle rekabet eder. İşte temel özelliklerin karşılaştırması:

ModelParametrelerBağlamMoEAçık KaynakFiyat (1M token için)
Qwen3-235B (JoinGonka aracılığıyla)235B (22B aktif)131KEvetEvet (Apache 2.0)0,001 ABD Doları
GPT-5.4 (OpenAI)~1.8T (tahmini)128KEvet (varsayılan)Hayır2,50 ABD Doları
Claude Sonnet 4.5 (Anthropic)Açıklanmadı200KHayır (varsayılan)Hayır3,00 ABD Doları
Llama 4 Maverick (Meta)400B (17B aktif)1MEvetEvet (Llama Lisansı)0,20+ ABD Doları (barındırma)
DeepSeek-R1 (DeepSeek)671B (37B aktif)128KEvetEvet (MIT)0,55 ABD Doları

Qwen3-235B, çoğu benchmarkta GPT-5.4 ve Claude Sonnet 4.5 ile karşılaştırılabilir bir kalite seviyesi sergilemektedir; JoinGonka Gateway aracılığıyla maliyeti ise GPT-5.4'ten 2.500 kat daha düşüktür. Bu iki faktör sayesinde mümkündür: MoE mimarisi hesaplama maliyetlerini düşürür ve merkezi olmayan Gonka ağı veri merkezlerinin marjını ortadan kaldırır.

MMLU-Pro, HumanEval, MATH-500 ve GSM8K benchmarklarında model, yalnızca matematiksel akıl yürütme (reasoning) görevlerinde DeepSeek-R1'in gerisinde kalarak en iyi üç açık kaynak model arasına girmektedir. Kod üretimi, çeviri ve talimatları takip etme görevlerinde Qwen3-235B, Llama 4 Maverick'i sürekli olarak geride bırakmakta ve Claude Sonnet 4.5 ile karşılaştırılabilir bir performans sergilemektedir.

Gonka Qwen3-235B'yi nasıl kullanıyor?

Qwen3-235B modeli, Gonka ağı içinde dağıtılmış olarak çalışır — inference için uyarlanmış DiLoCo protokolü aracılığıyla. FP8 formatında tam model yaklaşık 640 GB video belleği (VRAM) gerektirir, bu da tek bir GPU'ya sığdırılamaz — hatta H100 80GB veya H200 141GB bile yeterli değildir. Bu nedenle model, katmanlar halinde (tensor parallelism + pipeline parallelism) birden fazla ML düğümü arasında bölünmüştür.

Pratikte Qwen3-235B, her biri en az 40 GB VRAM'e sahip 8-16 GPU düğümlü bir kümede çalışır. Aktarım Aracıları isteği doğru kümeye yönlendirir, her düğümdeki vLLM modelin kendi parçasını işler, sonuçlar birleştirilir ve kullanıcıya döndürülür. Tüm süreç yüzlerce milisaniye sürer — kullanıcı, isteğinin dünyanın farklı yerlerindeki bir düzine GPU tarafından işlendiğini fark etmez.

Önemli bir teknik detay: Gonka, hizmet vermek için vLLM'yi motor olarak kullanır. vLLM, PagedAttention aracılığıyla yüksek performanslı metin üretimi sağlayan açık kaynaklı bir projedir — bu algoritma, birden fazla isteğin paralel olarak işlenmesi sırasında video belleği kullanımını optimize eder. Bu, ağın binlerce eşzamanlı kullanıcıya kaliteden ödün vermeden hizmet vermesini sağlar.

Model, yerel araç çağrısını destekler — doğrudan model yanıtından fonksiyonların ve araçların çağrılması. Bu özellik, araç çağrılarını belirlemek için 0.958 eşikle PR #767 aracılığıyla Gonka'ya eklendi. Bu, geliştiricilerin harici API'ler, veritabanları ve araçlarla etkileşim kuran AI aracıları oluşturabileceği anlamına gelir — hepsi Qwen3-235B'ye tek bir istek aracılığıyla.

Mevcut Gonka ağı, 120'den fazla ML düğümünde birleştirilmiş 4.000'den fazla GPU'ya (H100, H200, A100, RTX 4090 ve diğerleri) sahiptir. Bu, dünyadaki AI inference için en büyük dağıtılmış GPU ağlarından biridir — ve tüm bu güç Qwen3-235B'ye hizmet etmeye yöneliktir.

Qwen3-235B nasıl denenir?

Qwen3-235B'yi denemenin en basit yolu JoinGonka API Gateway aracılığıyladır. Ağ Geçidi, OpenAI uyumlu bir API sağlar, bu da şu anlama gelir: OpenAI için yazılan herhangi bir kod, URL ve API anahtarını değiştirmek yeterli olmak koşuluyla Qwen3-235B ile aynı şekilde çalışır.

İstek örneği:

curl https://gate.joingonka.ai/api/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen3-235b-a22b",
    "messages": [{"role": "user", "content": "MoE mimarisini açıkla"}]
  }'

Maliyet: 1 milyon token için 0,001 ABD doları — bu, GPT-5.4'ten (2,50 ABD doları/1M) 2.500 kat ve Claude Sonnet 4.5'ten (3,00 ABD doları/1M) 3.000 kat daha ucuzdur. Kayıt olduğunuzda, test için 10 milyon ücretsiz token alırsınız.

Ağ Geçidi, popüler geliştirme araçlarıyla uyumludur: Hızlı Başlangıç, Python, Node.js ve curl aracılığıyla bağlantıyı açıklar. Ayrıca IDE entegrasyonları — Cursor, Continue, Cline, Aider ve Claude Code — ve AI ajanları için çerçeveler: LangChain, n8n, LibreChat, Open WebUI desteklenmektedir.

Hızlı başlangıç için:

  1. gate.joingonka.ai adresinden kaydolun (cüzdanı bağlayın veya yeni bir tane oluşturun)
  2. Kontrol Panelinden bir API anahtarı alın
  3. Kodunuzdaki api.openai.com değerini gate.joingonka.ai/api ile değiştirin
  4. qwen3-235b-a22b modelini kullanın

JoinGonka aracılığıyla Qwen3-235B, bir hobi projesi maliyetine kurumsal düzeyde AI'dır.

Qwen3-235B-A22B, Alibaba Cloud'dan 235 milyar parametreli bir MoE modelidir ve Gonka ağı tarafından merkezi olmayan AI çıkarımı için kullanılır. MoE mimarisi sayesinde, GPT-5.4 seviyesinde kaliteyi 2.500 kat daha düşük maliyetle sunar. JoinGonka Gateway aracılığıyla model, OpenAI uyumlu bir API ile 0.001$/1M token karşılığında kullanılabilir.

Daha fazla bilgi edinmek ister misiniz?

Diğer bölümleri keşfedin veya şimdi GNK kazanmaya başlayın.

Qwen3-235B'yi Deneyin →