أقسام قاعدة المعرفة ▾
للمبتدئين
للمستثمرين
- من أين تأتي قيمة رمز GNK
- Gonka مقابل المنافسين: Render، Akash، io.net
- الليبرمانز: من الفيزياء الحيوية إلى الذكاء الاصطناعي اللامركزي
- اقتصاديات توكن GNK
- مخاطر وآفاق Gonka: تحليل موضوعي
- Gonka ضد Render Network: مقارنة تفصيلية
- Gonka ضد Akash: استدلال الذكاء الاصطناعي مقابل الحاويات
- Gonka ضد io.net: استدلال مقابل سوق GPU
- Gonka مقابل Bittensor: مقارنة مفصلة بين نهجين للذكاء الاصطناعي
- Gonka مقابل Flux: نهجان للتعدين المفيد
- الحوكمة في Gonka: كيف تدار شبكة لامركزية
تقني
تحليل
- Gonka — لينكس لعصر الذكاء الاصطناعي
- مفتاح القتل: لماذا اللامركزية في الذكاء الاصطناعي ضرورية
- وقود، لا ذهب - من الذهب الرقمي إلى وقود الذكاء الاصطناعي
- إثبات العمل المفيد: دليل كامل للتعدين المفيد
- فجوة 112 مليار دولار - الإفلاس الخفي لشركات التكنولوجيا الكبرى
- مشاريع DePIN لعام 2026: مراجعة ومقارنة كاملة
أدوات
- Cursor + Gonka AI - LLM رخيص للبرمجة
- Claude Code + Gonka AI - LLM للطرفية
- OpenClaw + Gonka AI - وكلاء AI متاحون
- OpenCode + Gonka AI - AI مجاني للكود
- Continue.dev + Gonka AI - AI لـ VS Code/JetBrains
- Cline + Gonka AI - وكيل AI في VS Code
- Aider + Gonka AI - برمجة زوجية مع AI
- LangChain + Gonka AI - تطبيقات AI بتكلفة زهيدة
- n8n + Gonka AI - أتمتة مع AI رخيص
- Open WebUI + Gonka AI - ChatGPT الخاص بك
- LibreChat + Gonka AI — ChatGPT مفتوح المصدر
- بدء سريع لواجهة برمجة التطبيقات - curl، Python، TypeScript
- JoinGonka Gateway - مراجعة كاملة
- مفاتيح الإدارة — SaaS على Gonka
- أرخص واجهة برمجة تطبيقات AI: مقارنة المزودين 2026
تقنية
Qwen3-235B: النموذج الذي تعدنه Gonka
ما هو Qwen3-235B
Qwen3-235B-A22B-Instruct-2507-FP8 هو نموذج لغوي كبير (LLM) من عائلة Qwen3، تم تطويره بواسطة فريق Qwen في Alibaba Cloud. الاسم الكامل يُفكك كالتالي: Qwen3 - الجيل الثالث من السلسلة، 235B - 235 مليار معلمة إجمالاً، A22B - 22 مليار معلمة نشطة لكل طلب، Instruct - نسخة مدربَة على اتباع التعليمات، 2507 - إصدار يوليو 2025، FP8 - تحديد كمي 8 بت لتحسين الذاكرة.
الميزة المعمارية الرئيسية هي MoE (Mixture of Experts). على عكس النماذج "الكثيفة" (GPT-5.4, Claude Sonnet 4.5)، حيث يمر كل إشارة عبر جميع المعلمات، تنشط نماذج MoE لمجموعة فرعية من "الخبراء" - كتل متخصصة من الشبكة العصبية - لكل طلب. في حالة Qwen3-235B، من بين 235 مليار معلمة، يتم تنشيط 22 مليار فقط لكل إشارة - أقل من 10٪. وهذا يوفر جودة نماذج بأكثر من 200 مليار معلمة بتكاليف حاسوبية تعادل نموذج 22 مليار معلمة.
من الناحية العملية، يعني هذا: أن النموذج أكثر ذكاءً مما قد تتوقعه من سرعته. يعالج الطلبات بشكل أسرع بكثير من النماذج الكثيفة ذات الجودة المماثلة، بينما يتطلب VRAM أقل بكثير للاستدلال. لهذا السبب أصبحت MoE هي البنية المهيمنة لأكبر النماذج في 2025-2026.
تصل نافذة السياق لـ Qwen3-235B إلى 131,072 إشارة (~100,000 كلمة) - وهو ما يكفي لتحليل الكتب بأكملها، قواعد الأكواد، أو الوثائق القانونية الطويلة في طلب واحد. يدعم النموذج 119 لغة، بما في ذلك الروسية والإنجليزية والصينية والعربية والهندية وعشرات اللغات الأخرى - مما يجعله أحد أكثر النماذج تعددًا للغات في السوق.
الخصائص والمعايير
ينافس Qwen3-235B أكبر النماذج المغلقة والمفتوحة المصدر. إليك مقارنة بالخصائص الرئيسية:
| النموذج | المعلمات | السياق | MoE | المصدر المفتوح | السعر (لكل مليون رمز) |
|---|---|---|---|---|---|
| Qwen3-235B (عبر JoinGonka) | 235B (22B نشط) | 131K | نعم | نعم (Apache 2.0) | 0.001 دولار |
| GPT-5.4 (OpenAI) | ~1.8T (تقدير) | 128K | نعم (مفترض) | لا | 2.50 دولار |
| Claude Sonnet 4.5 (Anthropic) | غير معلن | 200K | لا (مفترض) | لا | 3.00 دولار |
| Llama 4 Maverick (Meta) | 400B (17B نشط) | 1M | نعم | نعم (ترخيص Llama) | 0.20 دولار+ (استضافة) |
| DeepSeek-R1 (DeepSeek) | 671B (37B نشط) | 128K | نعم | نعم (MIT) | 0.55 دولار |
يُظهر Qwen3-235B مستوى جودة يضاهي GPT-5.4 و Claude Sonnet 4.5 في معظم المعايير المرجعية، ومع ذلك، فإن تكلفته عبر JoinGonka Gateway هي أقل بـ 2500 مرة من تكلفة GPT-5.4. هذا ممكن بفضل عاملين: تقلل بنية MoE من تكاليف الحوسبة، وتزيل شبكة Gonka اللامركزية هامش مراكز البيانات.
في معايير MMLU-Pro, HumanEval, MATH-500, و GSM8K، يُصنف النموذج ضمن أفضل ثلاث نماذج مفتوحة المصدر، متفوقًا فقط على DeepSeek-R1 في مهام الاستدلال الرياضي. في مهام توليد الكود والترجمة واتباع التعليمات، يتفوق Qwen3-235B باستمرار على Llama 4 Maverick ويضاهي Claude Sonnet 4.5.
كيف تستخدم Gonka نموذج Qwen3-235B
يعمل نموذج Qwen3-235B في شبكة Gonka بطريقة موزعة - عبر بروتوكول DiLoCo، المُكيف للاستدلال. يتطلب النموذج الكامل بتنسيق FP8 حوالي 640 جيجابايت من ذاكرة الفيديو (VRAM)، وهو ما لا يمكن استيعابه على وحدة معالجة رسوميات واحدة - حتى H100 80GB أو H200 141GB لا يكفيان. لذلك يتم تقسيم النموذج حسب الطبقات (tensor parallelism + pipeline parallelism) بين عدة عقد ML.
عمليًا، يعمل Qwen3-235B على مجموعة من 8-16 عقدة GPU، كل منها بحد أدنى 40 جيجابايت VRAM. تقوم وكلاء النقل بتوجيه الطلب إلى المجموعة الصحيحة، ويقوم vLLM على كل عقدة بمعالجة الجزء الخاص به من النموذج، ثم يتم تجميع النتائج وإعادتها للمستخدم. تستغرق العملية بأكملها مئات المللي ثانية - لا يشعر المستخدم أن طلبه تم معالجته بواسطة عشرة وحدات معالجة رسوميات في أماكن مختلفة حول العالم.
تفاصيل تقنية مهمة: تستخدم Gonka vLLM كمحرك للخدمة. vLLM هو مشروع مفتوح المصدر يوفر توليد نص عالي الأداء من خلال PagedAttention - خوارزمية تحسن استخدام ذاكرة الفيديو عند معالجة العديد من الطلبات بشكل متزامن. يسمح هذا للشبكة بخدمة آلاف المستخدمين المتزامنين دون تدهور في الجودة.
يدعم النموذج اتصال الأدوات الأصلي - استدعاء الوظائف والأدوات مباشرة من استجابة النموذج. تمت إضافة هذه الميزة في Gonka عبر PR #767 مع عتبة 0.958 لتحديد استدعاءات الأدوات. وهذا يعني أن المطورين يمكنهم بناء وكلاء ذكاء اصطناعي يتفاعلون مع واجهات برمجة التطبيقات الخارجية وقواعد البيانات والأدوات - كل ذلك من خلال طلب واحد لـ Qwen3-235B.
تضم شبكة Gonka الحالية أكثر من 4000 وحدة معالجة رسومية (H100, H200, A100, RTX 4090 وغيرها)، مجمعة في أكثر من 120 عقدة ML. هذه إحدى أكبر شبكات وحدات معالجة الرسوميات الموزعة لاستدلال الذكاء الاصطناعي في العالم - وكل هذه القوة موجهة لخدمة Qwen3-235B.
كيف تجرب Qwen3-235B
أسهل طريقة لتجربة Qwen3-235B هي عبر JoinGonka API Gateway. توفر البوابة واجهة برمجة تطبيقات متوافقة مع OpenAI، مما يعني أن أي كود مكتوب لـ OpenAI يعمل مع Qwen3-235B دون تغييرات - ما عليك سوى استبدال عنوان URL ومفتاح API.
مثال على طلب:
curl https://gate.joingonka.ai/api/v1/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen3-235b-a22b",
"messages": [{"role": "user", "content": "اشرح بنية MoE"}]
}'التكلفة: 0.001 دولار لكل مليون رمز - وهذا أرخص بـ 2500 مرة من GPT-5.4 (2.50 دولار/مليون) و 3000 مرة أرخص من Claude Sonnet 4.5 (3.00 دولار/مليون). عند التسجيل، تحصل على 10 ملايين رمز مجاني للاختبار.
تتوافق البوابة مع أدوات التطوير الشائعة: Quick Start يصف الاتصال عبر Python و Node.js و curl. كما تدعم تكاملات بيئات التطوير المتكاملة (IDE) - Cursor, Continue, Cline, Aider و Claude Code - وأطر عمل وكلاء الذكاء الاصطناعي: LangChain, n8n, LibreChat, Open WebUI.
للبدء السريع:
- سجل في gate.joingonka.ai (ربط محفظة أو إنشاء واحدة جديدة)
- احصل على مفتاح API في لوحة التحكم
- استبدل
api.openai.comبـgate.joingonka.ai/apiفي كودك - استخدم النموذج
qwen3-235b-a22b
Qwen3-235B عبر JoinGonka هو مستوى مؤسسي للذكاء الاصطناعي بسعر مشروع هواية.