أقسام قاعدة المعرفة ▾

أدوات

تقنية

Qwen3-235B: النموذج الذي تعدنه Gonka

شبكة Gonka لا تقوم فقط بتأجير وحدات معالجة الرسوميات (GPU) - بل تخدم نموذجًا محددًا للذكاء الاصطناعي. حاليًا، هو Qwen3-235B-A22B-Instruct - أحد أكبر النماذج مفتوحة المصدر في العالم، والذي طورته Alibaba Cloud. دعنا نحلل ما هو هذا النموذج، ولماذا اختارت Gonka هذا النموذج على وجه التحديد، وكيف تجربته عبر بوابة API الخاصة بنا.

ما هو Qwen3-235B

Qwen3-235B-A22B-Instruct-2507-FP8 هو نموذج لغوي كبير (LLM) من عائلة Qwen3، تم تطويره بواسطة فريق Qwen في Alibaba Cloud. الاسم الكامل يُفكك كالتالي: Qwen3 - الجيل الثالث من السلسلة، 235B - 235 مليار معلمة إجمالاً، A22B - 22 مليار معلمة نشطة لكل طلب، Instruct - نسخة مدربَة على اتباع التعليمات، 2507 - إصدار يوليو 2025، FP8 - تحديد كمي 8 بت لتحسين الذاكرة.

الميزة المعمارية الرئيسية هي MoE (Mixture of Experts). على عكس النماذج "الكثيفة" (GPT-5.4, Claude Sonnet 4.5)، حيث يمر كل إشارة عبر جميع المعلمات، تنشط نماذج MoE لمجموعة فرعية من "الخبراء" - كتل متخصصة من الشبكة العصبية - لكل طلب. في حالة Qwen3-235B، من بين 235 مليار معلمة، يتم تنشيط 22 مليار فقط لكل إشارة - أقل من 10٪. وهذا يوفر جودة نماذج بأكثر من 200 مليار معلمة بتكاليف حاسوبية تعادل نموذج 22 مليار معلمة.

من الناحية العملية، يعني هذا: أن النموذج أكثر ذكاءً مما قد تتوقعه من سرعته. يعالج الطلبات بشكل أسرع بكثير من النماذج الكثيفة ذات الجودة المماثلة، بينما يتطلب VRAM أقل بكثير للاستدلال. لهذا السبب أصبحت MoE هي البنية المهيمنة لأكبر النماذج في 2025-2026.

تصل نافذة السياق لـ Qwen3-235B إلى 131,072 إشارة (~100,000 كلمة) - وهو ما يكفي لتحليل الكتب بأكملها، قواعد الأكواد، أو الوثائق القانونية الطويلة في طلب واحد. يدعم النموذج 119 لغة، بما في ذلك الروسية والإنجليزية والصينية والعربية والهندية وعشرات اللغات الأخرى - مما يجعله أحد أكثر النماذج تعددًا للغات في السوق.

الخصائص والمعايير

ينافس Qwen3-235B أكبر النماذج المغلقة والمفتوحة المصدر. إليك مقارنة بالخصائص الرئيسية:

النموذجالمعلماتالسياقMoEالمصدر المفتوحالسعر (لكل مليون رمز)
Qwen3-235B (عبر JoinGonka)235B (22B نشط)131Kنعمنعم (Apache 2.0)0.001 دولار
GPT-5.4 (OpenAI)~1.8T (تقدير)128Kنعم (مفترض)لا2.50 دولار
Claude Sonnet 4.5 (Anthropic)غير معلن200Kلا (مفترض)لا3.00 دولار
Llama 4 Maverick (Meta)400B (17B نشط)1Mنعمنعم (ترخيص Llama)0.20 دولار+ (استضافة)
DeepSeek-R1 (DeepSeek)671B (37B نشط)128Kنعمنعم (MIT)0.55 دولار

يُظهر Qwen3-235B مستوى جودة يضاهي GPT-5.4 و Claude Sonnet 4.5 في معظم المعايير المرجعية، ومع ذلك، فإن تكلفته عبر JoinGonka Gateway هي أقل بـ 2500 مرة من تكلفة GPT-5.4. هذا ممكن بفضل عاملين: تقلل بنية MoE من تكاليف الحوسبة، وتزيل شبكة Gonka اللامركزية هامش مراكز البيانات.

في معايير MMLU-Pro, HumanEval, MATH-500, و GSM8K، يُصنف النموذج ضمن أفضل ثلاث نماذج مفتوحة المصدر، متفوقًا فقط على DeepSeek-R1 في مهام الاستدلال الرياضي. في مهام توليد الكود والترجمة واتباع التعليمات، يتفوق Qwen3-235B باستمرار على Llama 4 Maverick ويضاهي Claude Sonnet 4.5.

كيف تستخدم Gonka نموذج Qwen3-235B

يعمل نموذج Qwen3-235B في شبكة Gonka بطريقة موزعة - عبر بروتوكول DiLoCo، المُكيف للاستدلال. يتطلب النموذج الكامل بتنسيق FP8 حوالي 640 جيجابايت من ذاكرة الفيديو (VRAM)، وهو ما لا يمكن استيعابه على وحدة معالجة رسوميات واحدة - حتى H100 80GB أو H200 141GB لا يكفيان. لذلك يتم تقسيم النموذج حسب الطبقات (tensor parallelism + pipeline parallelism) بين عدة عقد ML.

عمليًا، يعمل Qwen3-235B على مجموعة من 8-16 عقدة GPU، كل منها بحد أدنى 40 جيجابايت VRAM. تقوم وكلاء النقل بتوجيه الطلب إلى المجموعة الصحيحة، ويقوم vLLM على كل عقدة بمعالجة الجزء الخاص به من النموذج، ثم يتم تجميع النتائج وإعادتها للمستخدم. تستغرق العملية بأكملها مئات المللي ثانية - لا يشعر المستخدم أن طلبه تم معالجته بواسطة عشرة وحدات معالجة رسوميات في أماكن مختلفة حول العالم.

تفاصيل تقنية مهمة: تستخدم Gonka vLLM كمحرك للخدمة. vLLM هو مشروع مفتوح المصدر يوفر توليد نص عالي الأداء من خلال PagedAttention - خوارزمية تحسن استخدام ذاكرة الفيديو عند معالجة العديد من الطلبات بشكل متزامن. يسمح هذا للشبكة بخدمة آلاف المستخدمين المتزامنين دون تدهور في الجودة.

يدعم النموذج اتصال الأدوات الأصلي - استدعاء الوظائف والأدوات مباشرة من استجابة النموذج. تمت إضافة هذه الميزة في Gonka عبر PR #767 مع عتبة 0.958 لتحديد استدعاءات الأدوات. وهذا يعني أن المطورين يمكنهم بناء وكلاء ذكاء اصطناعي يتفاعلون مع واجهات برمجة التطبيقات الخارجية وقواعد البيانات والأدوات - كل ذلك من خلال طلب واحد لـ Qwen3-235B.

تضم شبكة Gonka الحالية أكثر من 4000 وحدة معالجة رسومية (H100, H200, A100, RTX 4090 وغيرها)، مجمعة في أكثر من 120 عقدة ML. هذه إحدى أكبر شبكات وحدات معالجة الرسوميات الموزعة لاستدلال الذكاء الاصطناعي في العالم - وكل هذه القوة موجهة لخدمة Qwen3-235B.

كيف تجرب Qwen3-235B

أسهل طريقة لتجربة Qwen3-235B هي عبر JoinGonka API Gateway. توفر البوابة واجهة برمجة تطبيقات متوافقة مع OpenAI، مما يعني أن أي كود مكتوب لـ OpenAI يعمل مع Qwen3-235B دون تغييرات - ما عليك سوى استبدال عنوان URL ومفتاح API.

مثال على طلب:

curl https://gate.joingonka.ai/api/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen3-235b-a22b",
    "messages": [{"role": "user", "content": "اشرح بنية MoE"}]
  }'

التكلفة: 0.001 دولار لكل مليون رمز - وهذا أرخص بـ 2500 مرة من GPT-5.4 (2.50 دولار/مليون) و 3000 مرة أرخص من Claude Sonnet 4.5 (3.00 دولار/مليون). عند التسجيل، تحصل على 10 ملايين رمز مجاني للاختبار.

تتوافق البوابة مع أدوات التطوير الشائعة: Quick Start يصف الاتصال عبر Python و Node.js و curl. كما تدعم تكاملات بيئات التطوير المتكاملة (IDE) - Cursor, Continue, Cline, Aider و Claude Code - وأطر عمل وكلاء الذكاء الاصطناعي: LangChain, n8n, LibreChat, Open WebUI.

للبدء السريع:

  1. سجل في gate.joingonka.ai (ربط محفظة أو إنشاء واحدة جديدة)
  2. احصل على مفتاح API في لوحة التحكم
  3. استبدل api.openai.com بـ gate.joingonka.ai/api في كودك
  4. استخدم النموذج qwen3-235b-a22b

Qwen3-235B عبر JoinGonka هو مستوى مؤسسي للذكاء الاصطناعي بسعر مشروع هواية.

Qwen3-235B-A22B هو نموذج MoE بـ 235 مليار معلمة من Alibaba Cloud، تستخدمه شبكة Gonka لاستدلال الذكاء الاصطناعي اللامركزي. بفضل بنية MoE، فإنه يوفر جودة على مستوى GPT-5.4 بتكلفة أقل بـ 2500 مرة. عبر JoinGonka Gateway، يتوفر النموذج من خلال واجهة برمجة تطبيقات متوافقة مع OpenAI بسعر 0.001 دولار / مليون رمز.

تريد معرفة المزيد؟

استكشف الأقسام الأخرى أو ابدأ في كسب GNK الآن.

جرب Qwen3-235B →