জ্ঞানকোষের বিভাগসমূহ ▾
নতুনদের জন্য
বিনিয়োগকারীদের জন্য
- GNK টোকেনের মূল্য কোথা থেকে আসে
- গঞ্জা বনাম প্রতিদ্বন্দ্বী: রেন্ডার, আকাশ, io.net
- লিবেরমানস: বায়োফিজিক্স থেকে বিকেন্দ্রীভূত এআই পর্যন্ত
- GNK টোকেনমিক্স
- Gonka-এর ঝুঁকি এবং সম্ভাবনা: বস্তুনিষ্ঠ বিশ্লেষণ
- Gonka বনাম Render Network: বিস্তারিত তুলনা
- Gonka বনাম Akash: এআই ইনফারেন্স বনাম কন্টেইনার
- Gonka বনাম io.net: ইনফারেন্স বনাম GPU মার্কেটপ্লেস
- গঙ্কা বনাম বিটেনসর: এআই-এর দুটি পদ্ধতির বিস্তারিত তুলনা
- গঙ্কা বনাম ফ্ল্যাক্স: উপকারী মাইনিংয়ের জন্য দুটি পদ্ধতি
- গঙ্কার শাসন: কিভাবে একটি বিকেন্দ্রীভূত নেটওয়ার্ক পরিচালিত হয়
প্রযুক্তিগত
বিশ্লেষণ
সরঞ্জাম
- Cursor + Gonka AI — কোডিংয়ের জন্য সস্তা LLM
- Claude Code + Gonka AI — টার্মিনালের জন্য LLM
- OpenClaw + Gonka AI — সাশ্রয়ী এআই এজেন্ট
- OpenCode + Gonka AI — কোডের জন্য ফ্রি এআই
- Continue.dev + Gonka AI — VS Code/JetBrains-এর জন্য এআই
- Cline + Gonka AI — VS Code এ এআই এজেন্ট
- Aider + Gonka AI — এআই এর সাথে পেয়ার প্রোগ্রামিং
- LangChain + Gonka AI — অল্প খরচে এআই অ্যাপ্লিকেশন
- n8n + Gonka AI — সস্তা এআই এর সাথে অটোমেশন
- Open WebUI + Gonka AI — আপনার নিজের ChatGPT
- LibreChat + Gonka AI — ওপেন-সোর্স ChatGPT
- API দ্রুত শুরু — curl, Python, TypeScript
- JoinGonka Gateway — সম্পূর্ণ ওভারভিউ
- ম্যানেজমেন্ট কীজ — Gonka-এ SaaS
- সবচেয়ে সস্তা AI API: প্রদানকারীদের তুলনা 2026
প্রযুক্তি
Qwen3-235B: Gonka দ্বারা খনন করা মডেল
Qwen3-235B কী?
Qwen3-235B-A22B-Instruct-2507-FP8 হল LLM (বৃহৎ ভাষা মডেল) Qwen3-পরিবারের একটি মডেল, যা Alibaba Cloud-এর Qwen দল দ্বারা তৈরি। সম্পূর্ণ নামটির ব্যাখ্যা হল: Qwen3 — সিরিজের তৃতীয় প্রজন্ম, 235B — মোট 235 বিলিয়ন প্যারামিটার, A22B — প্রতিটি অনুরোধে 22 বিলিয়ন সক্রিয় প্যারামিটার, Instruct — নির্দেশাবলী অনুসরণ করার জন্য প্রশিক্ষিত সংস্করণ, 2507 — জুলাই 2025-এর রিলিজ, FP8 — মেমরি অপ্টিমাইজেশনের জন্য 8-বিট কোয়ান্টাইজেশন।
প্রধান স্থাপত্যগত বৈশিষ্ট্য — MoE (Mixture of Experts)। “ঘন” মডেলগুলির (GPT-5.4, Claude Sonnet 4.5) বিপরীতে, যেখানে প্রতিটি টোকেন সমস্ত প্যারামিটারের মধ্য দিয়ে যায়, MoE-মডেল প্রতিটি অনুরোধের জন্য শুধুমাত্র “বিশেষজ্ঞদের” একটি উপসেট সক্রিয় করে — নিউরাল নেটওয়ার্কের বিশেষায়িত ব্লক। Qwen3-235B এর ক্ষেত্রে, 235 বিলিয়ন প্যারামিটারের মধ্যে, 22 বিলিয়নটি প্রতিটি টোকেনের জন্য সক্রিয় হয় — 10% এরও কম। এটি 200B+ প্যারামিটারের মডেল স্তরের গুণমান দেয় যখন 22B মডেলের গণনামূলক খরচ হয়।
কার্যত এর অর্থ হল: মডেলটি তার গতি থেকে যা আশা করা যায় তার চেয়ে স্মার্ট। এটি তুলনামূলক গুণমানের ঘন মডেলগুলির তুলনায় অনুরোধগুলি উল্লেখযোগ্যভাবে দ্রুত প্রক্রিয়া করে, যখন inference-এর জন্য অনেক কম VRAM প্রয়োজন হয়। এই কারণেই MoE 2025-2026 সালের বৃহত্তম মডেলগুলির জন্য প্রভাবশালী স্থাপত্য হয়ে উঠেছে।
Qwen3-235B এর কনটেক্সট উইন্ডো 131,072 টোকেন (~100,000 শব্দ) — এটি একটি অনুরোধে সম্পূর্ণ বই, কোডবেস বা দীর্ঘ আইনি নথি বিশ্লেষণ করার জন্য যথেষ্ট। মডেলটি বাংলা, ইংরেজি, চীনা, আরবি, হিন্দি সহ 119টি ভাষা সমর্থন করে — যা এটিকে বাজারের সবচেয়ে বহুভাষিক মডেলগুলির মধ্যে একটি করে তোলে।
বৈশিষ্ট্য এবং বেঞ্চমার্ক
Qwen3-235B বৃহত্তম বন্ধ এবং উন্মুক্ত মডেলগুলির সাথে প্রতিযোগিতা করে। এখানে মূল বৈশিষ্ট্যগুলির একটি তুলনা দেওয়া হল:
| মডেল | প্যারামিটার | সন্দর্ভ | MoE | ওপেন সোর্স | মূল্য (প্রতি 1M টোকেন) |
|---|---|---|---|---|---|
| Qwen3-235B (JoinGonka-এর মাধ্যমে) | 235B (22B সক্রিয়) | 131K | হ্যাঁ | হ্যাঁ (Apache 2.0) | $0.001 |
| GPT-5.4 (OpenAI) | ~1.8T (অনুমান) | 128K | হ্যাঁ (অনুমান করা হয়) | না | $2.50 |
| Claude Sonnet 4.5 (Anthropic) | প্রকাশ করা হয়নি | 200K | না (অনুমান করা হয়) | না | $3.00 |
| Llama 4 Maverick (Meta) | 400B (17B সক্রিয়) | 1M | হ্যাঁ | হ্যাঁ (Llama License) | $0.20+ (হোস্টিং) |
| DeepSeek-R1 (DeepSeek) | 671B (37B সক্রিয়) | 128K | হ্যাঁ | হ্যাঁ (MIT) | $0.55 |
Qwen3-235B বেশিরভাগ বেঞ্চমার্কে GPT-5.4 এবং Claude Sonnet 4.5 এর সমতুল্য মানের স্তর প্রদর্শন করে, যেখানে JoinGonka Gateway এর মাধ্যমে এর খরচ GPT-5.4 এর চেয়ে 2500 গুণ কম। এটি দুটি কারণের জন্য সম্ভব: MoE-আর্কিটেকচার গণনার খরচ কমায়, এবং বিকেন্দ্রীকৃত Gonka নেটওয়ার্ক ডেটা সেন্টারগুলির মার্জিন দূর করে।
MMLU-Pro, HumanEval, MATH-500 এবং GSM8K বেঞ্চমার্কে মডেলটি শীর্ষ তিনটি ওপেন-সোর্স মডেলের মধ্যে রয়েছে, শুধুমাত্র গাণিতিক যুক্তির (reasoning) কাজগুলিতে DeepSeek-R1 এর চেয়ে পিছিয়ে। কোড তৈরি, অনুবাদ এবং নির্দেশাবলী অনুসরণ করার মতো কাজগুলিতে Qwen3-235B নিয়মিতভাবে Llama 4 Maverick কে ছাড়িয়ে যায় এবং Claude Sonnet 4.5 এর সমতুল্য।
Gonka কিভাবে Qwen3-235B ব্যবহার করে
Qwen3-235B মডেলটি Gonka নেটওয়ার্কে Gonka নেটওয়ার্ক-এ বিতরণ করা হয় — DiLoCo প্রোটোকলের মাধ্যমে, যা inference-এর জন্য অভিযোজিত। FP8 ফরম্যাটে সম্পূর্ণ মডেলের জন্য প্রায় 640 GB ভিডিও মেমরি (VRAM) প্রয়োজন, যা একটি GPU-তে রাখা সম্ভব নয় — এমনকি H100 80GB বা H200 141GB যথেষ্ট নয়। তাই মডেলটি কয়েকটি ML-নোডের মধ্যে স্তরে স্তরে বিভক্ত করা হয় (tensor parallelism + pipeline parallelism)।
ব্যবহারিকভাবে Qwen3-235B 8-16টি GPU-নোডের একটি ক্লাস্টারে কাজ করে, যার প্রতিটিতে ন্যূনতম 40 GB VRAM থাকে। Transfer Agents অনুরোধটি সঠিক ক্লাস্টারে রুট করে, প্রতিটি নোডের উপর vLLM মডেলের নিজস্ব অংশ প্রক্রিয়া করে, ফলাফল একত্রিত হয় এবং ব্যবহারকারীকে ফেরত দেওয়া হয়। পুরো প্রক্রিয়াটি কয়েকশো মিলিসেকেন্ড সময় নেয় — ব্যবহারকারী অনুভব করেন না যে তার অনুরোধটি বিশ্বের বিভিন্ন প্রান্তে থাকা দশটি GPU দ্বারা প্রক্রিয়া করা হয়েছে।
একটি গুরুত্বপূর্ণ প্রযুক্তিগত বিবরণ: Gonka serving-এর জন্য vLLM একটি ইঞ্জিন হিসাবে ব্যবহার করে। vLLM হল একটি ওপেন-সোর্স প্রকল্প, যা PagedAttention-এর মাধ্যমে উচ্চ-পারফরম্যান্স টেক্সট জেনারেশন সরবরাহ করে — একটি অ্যালগরিদম যা একাধিক অনুরোধের সমান্তরাল প্রক্রিয়াকরণের সময় ভিডিও মেমরির ব্যবহার অপ্টিমাইজ করে। এটি নেটওয়ার্ককে গুণমানের অবনতি ছাড়াই হাজার হাজার সমসাময়িক ব্যবহারকারীকে সেবা দিতে দেয়।
মডেলটি নেটিভ টুল কলিং সমর্থন করে — মডেলের প্রতিক্রিয়া থেকে সরাসরি ফাংশন এবং সরঞ্জাম কল করা। এই ক্ষমতাটি Gonka-তে PR #767 এর মাধ্যমে যুক্ত করা হয়েছিল, যার জন্য সরঞ্জাম কলগুলি নির্ধারণের জন্য 0.958 থ্রেশহোল্ড ছিল। এর অর্থ হল ডেভেলপাররা AI-এজেন্ট তৈরি করতে পারে যা বাহ্যিক API, ডেটাবেস এবং সরঞ্জামগুলির সাথে যোগাযোগ করে — সবই Qwen3-235B-তে একটি একক অনুরোধের মাধ্যমে।
বর্তমান Gonka নেটওয়ার্কটিতে 4,000টিরও বেশি GPU (H100, H200, A100, RTX 4090 এবং অন্যান্য) রয়েছে, যা 120+ ML-নোডে একত্রিত হয়েছে। এটি বিশ্বের AI inference-এর জন্য সবচেয়ে বড় বিতরণ করা GPU নেটওয়ার্কগুলির মধ্যে একটি — এবং এই সমস্ত ক্ষমতা Qwen3-235B-কে সেবা দিতে ব্যবহৃত হয়।
কিভাবে Qwen3-235B চেষ্টা করবেন
Qwen3-235B চেষ্টা করার সবচেয়ে সহজ উপায় হল JoinGonka API Gateway এর মাধ্যমে। গেটওয়ে একটি OpenAI-সামঞ্জস্যপূর্ণ API সরবরাহ করে, যার অর্থ হল: OpenAI-এর জন্য লেখা যেকোনো কোড Qwen3-235B-এর সাথে কোনো পরিবর্তন ছাড়াই কাজ করে — শুধু URL এবং API-কী প্রতিস্থাপন করাই যথেষ্ট।
অনুরোধের উদাহরণ:
curl https://gate.joingonka.ai/api/v1/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "qwen3-235b-a22b",
"messages": [{"role": "user", "content": "MoE-আর্কিটেকচার ব্যাখ্যা করুন"}]
}'খরচ: প্রতি 1 মিলিয়ন টোকেন $0.001 — এটি GPT-5.4 ($2.50/1M) এর চেয়ে 2,500 গুণ সস্তা এবং Claude Sonnet 4.5 ($3.00/1M) এর চেয়ে 3,000 গুণ সস্তা। রেজিস্ট্রেশন করলে আপনি পরীক্ষার জন্য 10 মিলিয়ন বিনামূল্যে টোকেন পাবেন।
গেটওয়ে জনপ্রিয় ডেভেলপমেন্ট টুলগুলির সাথে সামঞ্জস্যপূর্ণ: Quick Start পাইথন, Node.js এবং curl এর মাধ্যমে সংযোগ বর্ণনা করে। এছাড়াও IDE-ইনটিগ্রেশন সমর্থন করে — Cursor, Continue, Cline, Aider এবং Claude Code — এবং AI-এজেন্টদের ফ্রেমওয়ার্ক: LangChain, n8n, LibreChat, Open WebUI।
দ্রুত শুরু করার জন্য:
- gate.joingonka.ai-তে নিবন্ধন করুন (একটি ওয়ালেট সংযুক্ত করুন বা নতুন তৈরি করুন)
- ড্যাশবোর্ডে API-কী পান
- আপনার কোডে
api.openai.comকেgate.joingonka.ai/apiদিয়ে প্রতিস্থাপন করুন qwen3-235b-a22bমডেলটি ব্যবহার করুন
JoinGonka এর মাধ্যমে Qwen3-235B হল শখের প্রকল্পের মূল্যে এন্টারপ্রাইজ-স্তরের AI।
আরও জানতে চান?
অন্যান্য বিভাগগুলি অন্বেষণ করুন অথবা এখনই GNK উপার্জন শুরু করুন।
Qwen3-235B চেষ্টা করুন →