জ্ঞানকোষের বিভাগসমূহ ▾

বিনিয়োগকারীদের জন্য

সরঞ্জাম

প্রযুক্তি

Qwen3-235B: Gonka দ্বারা খনন করা মডেল

Gonka নেটওয়ার্ক শুধু GPU ভাড়া দেয় না — এটি একটি নির্দিষ্ট AI মডেলকে পরিবেশন করে। বর্তমানে এটি Qwen3-235B-A22B-Instruct — Alibaba Cloud দ্বারা তৈরি বিশ্বের বৃহত্তম ওপেন-সোর্স মডেলগুলির মধ্যে একটি। আমরা আলোচনা করব এই মডেলটি কী, কেন Gonka এটিকে বেছে নিয়েছে এবং কীভাবে আমাদের API গেটওয়ের মাধ্যমে এটি চেষ্টা করবেন।

Qwen3-235B কী?

Qwen3-235B-A22B-Instruct-2507-FP8 হল LLM (বৃহৎ ভাষা মডেল) Qwen3-পরিবারের একটি মডেল, যা Alibaba Cloud-এর Qwen দল দ্বারা তৈরি। সম্পূর্ণ নামটির ব্যাখ্যা হল: Qwen3 — সিরিজের তৃতীয় প্রজন্ম, 235B — মোট 235 বিলিয়ন প্যারামিটার, A22B — প্রতিটি অনুরোধে 22 বিলিয়ন সক্রিয় প্যারামিটার, Instruct — নির্দেশাবলী অনুসরণ করার জন্য প্রশিক্ষিত সংস্করণ, 2507 — জুলাই 2025-এর রিলিজ, FP8 — মেমরি অপ্টিমাইজেশনের জন্য 8-বিট কোয়ান্টাইজেশন।

প্রধান স্থাপত্যগত বৈশিষ্ট্য — MoE (Mixture of Experts)। “ঘন” মডেলগুলির (GPT-5.4, Claude Sonnet 4.5) বিপরীতে, যেখানে প্রতিটি টোকেন সমস্ত প্যারামিটারের মধ্য দিয়ে যায়, MoE-মডেল প্রতিটি অনুরোধের জন্য শুধুমাত্র “বিশেষজ্ঞদের” একটি উপসেট সক্রিয় করে — নিউরাল নেটওয়ার্কের বিশেষায়িত ব্লক। Qwen3-235B এর ক্ষেত্রে, 235 বিলিয়ন প্যারামিটারের মধ্যে, 22 বিলিয়নটি প্রতিটি টোকেনের জন্য সক্রিয় হয় — 10% এরও কম। এটি 200B+ প্যারামিটারের মডেল স্তরের গুণমান দেয় যখন 22B মডেলের গণনামূলক খরচ হয়।

কার্যত এর অর্থ হল: মডেলটি তার গতি থেকে যা আশা করা যায় তার চেয়ে স্মার্ট। এটি তুলনামূলক গুণমানের ঘন মডেলগুলির তুলনায় অনুরোধগুলি উল্লেখযোগ্যভাবে দ্রুত প্রক্রিয়া করে, যখন inference-এর জন্য অনেক কম VRAM প্রয়োজন হয়। এই কারণেই MoE 2025-2026 সালের বৃহত্তম মডেলগুলির জন্য প্রভাবশালী স্থাপত্য হয়ে উঠেছে।

Qwen3-235B এর কনটেক্সট উইন্ডো 131,072 টোকেন (~100,000 শব্দ) — এটি একটি অনুরোধে সম্পূর্ণ বই, কোডবেস বা দীর্ঘ আইনি নথি বিশ্লেষণ করার জন্য যথেষ্ট। মডেলটি বাংলা, ইংরেজি, চীনা, আরবি, হিন্দি সহ 119টি ভাষা সমর্থন করে — যা এটিকে বাজারের সবচেয়ে বহুভাষিক মডেলগুলির মধ্যে একটি করে তোলে।

বৈশিষ্ট্য এবং বেঞ্চমার্ক

Qwen3-235B বৃহত্তম বন্ধ এবং উন্মুক্ত মডেলগুলির সাথে প্রতিযোগিতা করে। এখানে মূল বৈশিষ্ট্যগুলির একটি তুলনা দেওয়া হল:

মডেলপ্যারামিটারসন্দর্ভMoEওপেন সোর্সমূল্য (প্রতি 1M টোকেন)
Qwen3-235B (JoinGonka-এর মাধ্যমে)235B (22B সক্রিয়)131Kহ্যাঁহ্যাঁ (Apache 2.0)$0.001
GPT-5.4 (OpenAI)~1.8T (অনুমান)128Kহ্যাঁ (অনুমান করা হয়)না$2.50
Claude Sonnet 4.5 (Anthropic)প্রকাশ করা হয়নি200Kনা (অনুমান করা হয়)না$3.00
Llama 4 Maverick (Meta)400B (17B সক্রিয়)1Mহ্যাঁহ্যাঁ (Llama License)$0.20+ (হোস্টিং)
DeepSeek-R1 (DeepSeek)671B (37B সক্রিয়)128Kহ্যাঁহ্যাঁ (MIT)$0.55

Qwen3-235B বেশিরভাগ বেঞ্চমার্কে GPT-5.4 এবং Claude Sonnet 4.5 এর সমতুল্য মানের স্তর প্রদর্শন করে, যেখানে JoinGonka Gateway এর মাধ্যমে এর খরচ GPT-5.4 এর চেয়ে 2500 গুণ কম। এটি দুটি কারণের জন্য সম্ভব: MoE-আর্কিটেকচার গণনার খরচ কমায়, এবং বিকেন্দ্রীকৃত Gonka নেটওয়ার্ক ডেটা সেন্টারগুলির মার্জিন দূর করে।

MMLU-Pro, HumanEval, MATH-500 এবং GSM8K বেঞ্চমার্কে মডেলটি শীর্ষ তিনটি ওপেন-সোর্স মডেলের মধ্যে রয়েছে, শুধুমাত্র গাণিতিক যুক্তির (reasoning) কাজগুলিতে DeepSeek-R1 এর চেয়ে পিছিয়ে। কোড তৈরি, অনুবাদ এবং নির্দেশাবলী অনুসরণ করার মতো কাজগুলিতে Qwen3-235B নিয়মিতভাবে Llama 4 Maverick কে ছাড়িয়ে যায় এবং Claude Sonnet 4.5 এর সমতুল্য।

Gonka কিভাবে Qwen3-235B ব্যবহার করে

Qwen3-235B মডেলটি Gonka নেটওয়ার্কে Gonka নেটওয়ার্ক-এ বিতরণ করা হয় — DiLoCo প্রোটোকলের মাধ্যমে, যা inference-এর জন্য অভিযোজিত। FP8 ফরম্যাটে সম্পূর্ণ মডেলের জন্য প্রায় 640 GB ভিডিও মেমরি (VRAM) প্রয়োজন, যা একটি GPU-তে রাখা সম্ভব নয় — এমনকি H100 80GB বা H200 141GB যথেষ্ট নয়। তাই মডেলটি কয়েকটি ML-নোডের মধ্যে স্তরে স্তরে বিভক্ত করা হয় (tensor parallelism + pipeline parallelism)।

ব্যবহারিকভাবে Qwen3-235B 8-16টি GPU-নোডের একটি ক্লাস্টারে কাজ করে, যার প্রতিটিতে ন্যূনতম 40 GB VRAM থাকে। Transfer Agents অনুরোধটি সঠিক ক্লাস্টারে রুট করে, প্রতিটি নোডের উপর vLLM মডেলের নিজস্ব অংশ প্রক্রিয়া করে, ফলাফল একত্রিত হয় এবং ব্যবহারকারীকে ফেরত দেওয়া হয়। পুরো প্রক্রিয়াটি কয়েকশো মিলিসেকেন্ড সময় নেয় — ব্যবহারকারী অনুভব করেন না যে তার অনুরোধটি বিশ্বের বিভিন্ন প্রান্তে থাকা দশটি GPU দ্বারা প্রক্রিয়া করা হয়েছে।

একটি গুরুত্বপূর্ণ প্রযুক্তিগত বিবরণ: Gonka serving-এর জন্য vLLM একটি ইঞ্জিন হিসাবে ব্যবহার করে। vLLM হল একটি ওপেন-সোর্স প্রকল্প, যা PagedAttention-এর মাধ্যমে উচ্চ-পারফরম্যান্স টেক্সট জেনারেশন সরবরাহ করে — একটি অ্যালগরিদম যা একাধিক অনুরোধের সমান্তরাল প্রক্রিয়াকরণের সময় ভিডিও মেমরির ব্যবহার অপ্টিমাইজ করে। এটি নেটওয়ার্ককে গুণমানের অবনতি ছাড়াই হাজার হাজার সমসাময়িক ব্যবহারকারীকে সেবা দিতে দেয়।

মডেলটি নেটিভ টুল কলিং সমর্থন করে — মডেলের প্রতিক্রিয়া থেকে সরাসরি ফাংশন এবং সরঞ্জাম কল করা। এই ক্ষমতাটি Gonka-তে PR #767 এর মাধ্যমে যুক্ত করা হয়েছিল, যার জন্য সরঞ্জাম কলগুলি নির্ধারণের জন্য 0.958 থ্রেশহোল্ড ছিল। এর অর্থ হল ডেভেলপাররা AI-এজেন্ট তৈরি করতে পারে যা বাহ্যিক API, ডেটাবেস এবং সরঞ্জামগুলির সাথে যোগাযোগ করে — সবই Qwen3-235B-তে একটি একক অনুরোধের মাধ্যমে।

বর্তমান Gonka নেটওয়ার্কটিতে 4,000টিরও বেশি GPU (H100, H200, A100, RTX 4090 এবং অন্যান্য) রয়েছে, যা 120+ ML-নোডে একত্রিত হয়েছে। এটি বিশ্বের AI inference-এর জন্য সবচেয়ে বড় বিতরণ করা GPU নেটওয়ার্কগুলির মধ্যে একটি — এবং এই সমস্ত ক্ষমতা Qwen3-235B-কে সেবা দিতে ব্যবহৃত হয়।

কিভাবে Qwen3-235B চেষ্টা করবেন

Qwen3-235B চেষ্টা করার সবচেয়ে সহজ উপায় হল JoinGonka API Gateway এর মাধ্যমে। গেটওয়ে একটি OpenAI-সামঞ্জস্যপূর্ণ API সরবরাহ করে, যার অর্থ হল: OpenAI-এর জন্য লেখা যেকোনো কোড Qwen3-235B-এর সাথে কোনো পরিবর্তন ছাড়াই কাজ করে — শুধু URL এবং API-কী প্রতিস্থাপন করাই যথেষ্ট।

অনুরোধের উদাহরণ:

curl https://gate.joingonka.ai/api/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen3-235b-a22b",
    "messages": [{"role": "user", "content": "MoE-আর্কিটেকচার ব্যাখ্যা করুন"}]
  }'

খরচ: প্রতি 1 মিলিয়ন টোকেন $0.001 — এটি GPT-5.4 ($2.50/1M) এর চেয়ে 2,500 গুণ সস্তা এবং Claude Sonnet 4.5 ($3.00/1M) এর চেয়ে 3,000 গুণ সস্তা। রেজিস্ট্রেশন করলে আপনি পরীক্ষার জন্য 10 মিলিয়ন বিনামূল্যে টোকেন পাবেন।

গেটওয়ে জনপ্রিয় ডেভেলপমেন্ট টুলগুলির সাথে সামঞ্জস্যপূর্ণ: Quick Start পাইথন, Node.js এবং curl এর মাধ্যমে সংযোগ বর্ণনা করে। এছাড়াও IDE-ইনটিগ্রেশন সমর্থন করে — Cursor, Continue, Cline, Aider এবং Claude Code — এবং AI-এজেন্টদের ফ্রেমওয়ার্ক: LangChain, n8n, LibreChat, Open WebUI।

দ্রুত শুরু করার জন্য:

  1. gate.joingonka.ai-তে নিবন্ধন করুন (একটি ওয়ালেট সংযুক্ত করুন বা নতুন তৈরি করুন)
  2. ড্যাশবোর্ডে API-কী পান
  3. আপনার কোডে api.openai.com কে gate.joingonka.ai/api দিয়ে প্রতিস্থাপন করুন
  4. qwen3-235b-a22b মডেলটি ব্যবহার করুন

JoinGonka এর মাধ্যমে Qwen3-235B হল শখের প্রকল্পের মূল্যে এন্টারপ্রাইজ-স্তরের AI।

Qwen3-235B-A22B হল Alibaba Cloud থেকে 235 বিলিয়ন প্যারামিটার সহ একটি MoE মডেল, যা Gonka নেটওয়ার্ক বিকেন্দ্রীভূত AI inference-এর জন্য ব্যবহার করে। MoE-আর্কিটেকচারের জন্য ধন্যবাদ, এটি GPT-5.4-এর স্তরের গুণমান সরবরাহ করে, যখন খরচ 2,500 গুণ কম। JoinGonka Gateway-এর মাধ্যমে মডেলটি OpenAI-সামঞ্জস্যপূর্ণ API-এর মাধ্যমে $0.001/1M টোকেনে উপলব্ধ।

আরও জানতে চান?

অন্যান্য বিভাগগুলি অন্বেষণ করুন অথবা এখনই GNK উপার্জন শুরু করুন।

Qwen3-235B চেষ্টা করুন →