علم کے مرکز کے حصے ▾
نئے سیکھنے والوں کے لیے
سرمایہ کاروں کے لیے
- GNK ٹوکن کی قدر کہاں سے آتی ہے
- گونکا بمقابلہ حریف: ریندر، آکاش، io.net
- لبرمانز: بایو فزکس سے غیر مرکزی AI تک
- GNK ٹوکنومکس
- Gonka کے خطرات اور امکانات: معروضی تجزیہ
- Gonka بمقابلہ Render Network: تفصیلی موازنہ
- Gonka بمقابلہ Akash: AI inference بمقابلہ کنٹینرز
- Gonka بمقابلہ io.net: inference بمقابلہ GPU مارکیٹ پلیس
- گونکا بمقابلہ بٹ ٹینسر: AI کے دو طریقوں کا تفصیلی موازنہ
- گونکا بمقابلہ فلکس: مفید مائننگ کے لیے دو طریقے
- گونکا میں حکمرانی: ایک غیر مرکزی نیٹ ورک کو کیسے چلایا جاتا ہے
تکنیکی
تجزیہ
ٹولز
- Cursor + Gonka AI – کوڈنگ کے لیے سستا LLM
- Claude Code + Gonka AI – ٹرمینل کے لیے LLM
- OpenClaw + Gonka AI – سستے AI ایجنٹس
- OpenCode + Gonka AI – کوڈ کے لیے مفت AI
- Continue.dev + Gonka AI – VS Code/JetBrains کے لیے AI
- Cline + Gonka AI – VS Code میں AI ایجنٹ
- Aider + Gonka AI – AI کے ساتھ جوڑا پروگرامنگ
- LangChain + Gonka AI – AI ایپلیکیشنز بہت کم قیمت پر
- n8n + Gonka AI – سستے AI کے ساتھ آٹومیشن
- Open WebUI + Gonka AI – اپنا ChatGPT
- LibreChat + Gonka AI — اوپن سورس ChatGPT
- API فوری آغاز — curl, Python, TypeScript
- JoinGonka Gateway — مکمل جائزہ
- مینجمنٹ کیز — Gonka پر SaaS
ٹولز
LangChain + Gonka AI – AI ایپلیکیشنز بہت کم قیمت پر
LangChain – پائتھن اور جاوا اسکرپٹ میں AI ایپلی کیشنز بنانے کے لیے سب سے مشہور فریم ورک ہے۔ < پرانا>RAG — Retrieval-Augmented Generation, علم کے ڈیٹا بیس سے سوالات کا جواب دینے کے لیے ایک آرکیٹیکچر-پائپ لائنز، چینز، ایجنٹس، دستاویزات کے ساتھ کام – LangChain ان سب کے لیے abstractions فراہم کرتا ہے۔
LangChain مقامی طور پر ChatOpenAI کلاس کے ذریعے OpenAI-مطابق APIs کو سپورٹ کرتا ہے۔ اس کا مطلب ہے کہ JoinGonka Gateway 3 لائنز کوڈ میں انٹیگریٹ ہو جاتا ہے – بغیر اضافی پیکجز اور سیٹنگز کے۔
نتیجہ: ایک RAG سسٹم، چیٹ بوٹ یا AI ایجنٹ جو $0.001/1M ٹوکنز میں کام کرتا ہے بجائے OpenAI کے $2.50-15 کے۔
فوری آغاز: کوڈ کی 3 لائنز
ایک کم از کم مثال — LangChain کو گونگا سے جوڑنا:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-آپ کی کلید",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
response = llm.invoke("RAG کیا ہے وضاحت کریں")
print(response.content)بس اتنا ہی ہے۔ تین سطریں — اور آپ کا LangChain پروجیکٹ گونگا کے غیر مرکزی نیٹ ورک کے ذریعے معمولی قیمت پر چلتا ہے۔
انحصار کی تنصیب:
pip install langchain langchain-openaiتجویز: واضح طور پر max_tokens=2048 کی وضاحت کریں — یہ JoinGonka Gateway کے ذریعے زیادہ سے زیادہ ہے۔ Qwen3-235B کی سیاق و سباق کی ونڈو — 128K ٹوکن — اسے RAG پائپ لائنز میں chunk_size ترتیب دیتے وقت مدنظر رکھیں۔
مثال: Gonka کے ساتھ RAG-پائپ لائن
RAG (Retrieval-Augmented Generation) — AI ایپلی کیشنز کا سب سے مشہور پیٹرن ہے۔ آپ دستاویزات لوڈ کرتے ہیں، انہیں چنکس میں تقسیم کرتے ہیں، ایمبیڈنگز بناتے ہیں، متعلقہ حصوں کو تلاش کرتے ہیں اور تناظر کے ساتھ جواب تیار کرتے ہیں۔
from langchain_openai import ChatOpenAI
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains import RetrievalQA
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.document_loaders import TextLoader
# 1. Gonka کے ذریعے LLM
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-آپکی-کی",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
streaming=True,
)
# 2. دستاویزات کی لوڈنگ اور انڈیکسنگ
loader = TextLoader("docs/my_document.txt")
docs = loader.load()
splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
chunks = splitter.split_documents(docs)
# 3. ویکٹر اسٹور (مقامی، مفت)
embeddings = HuggingFaceEmbeddings()
vectorstore = FAISS.from_documents(chunks, embeddings)
# 4. RAG-چین
qa = RetrievalQA.from_chain_type(
llm=llm,
retriever=vectorstore.as_retriever(),
)
# 5. درخواست
result = qa.invoke("یہ دستاویز کس بارے میں ہے؟")
print(result["result"])لاگت: ایک RAG-پائپ لائن درخواست (retrieval + generation) ~2-5K LLM ٹوکنز استعمال کرتی ہے۔ Gonka کے ذریعے یہ $0.000002-0.000005 ہے۔ OpenAI کے ذریعے – $0.005-0.05۔ فرق – 10,000x۔
پروڈکشن سسٹمز کے لیے جو روزانہ ہزاروں درخواستیں پروسیس کرتے ہیں، بچت ماہانہ دسیوں ہزار ڈالرز ہوتی ہے۔
مثال: ٹول کالنگ کے ساتھ AI ایجنٹ
LangChain ٹولز کے ساتھ ایجنٹ بنانے کی اجازت دیتا ہے۔ Qwen3-235B مقامی ٹول کالنگ کو سپورٹ کرتا ہے – ایجنٹ ٹیکسٹ جوابات کو پارس کیے بغیر قابل اعتماد طریقے سے کام کرتے ہیں۔
from langchain_openai import ChatOpenAI
from langchain.agents import create_openai_tools_agent, AgentExecutor
from langchain.tools import tool
from langchain.prompts import ChatPromptTemplate
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-آپکی-کی",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
@tool
def calculator(expression: str) -> str:
"""ریاضی کی عبارت کا حساب لگاتا ہے۔"""
return str(eval(expression))
@tool
def search_web(query: str) -> str:
"""انٹرنیٹ پر معلومات تلاش کرتا ہے۔"""
return f"تلاش کے نتائج برائے: {query}"
prompt = ChatPromptTemplate.from_messages([
("system", "آپ ایک مفید اسسٹنٹ ہیں۔"),
("human", "{input}"),
("placeholder", "{agent_scratchpad}"),
])
agent = create_openai_tools_agent(llm, [calculator, search_web], prompt)
executor = AgentExecutor(agent=agent, tools=[calculator, search_web])
result = executor.invoke({"input": "2**10 * 3.14 کتنا ہوگا؟"})
print(result["output"])ایجنٹ calculator کو بلاتا ہے، نتیجہ حاصل کرتا ہے اور جواب بناتا ہے۔ Gonka کے ذریعے پورے سائیکل کی لاگت ~$0.00001 ہے۔ OpenAI کے ذریعے – $0.01-0.05۔ ہزاروں صارفین والے سسٹمز کے لیے، یہ دسیوں ہزار ڈالرز کا فرق ہے۔
مزید جاننا چاہتے ہیں؟
دیگر حصوں کو دریافت کریں یا ابھی GNK کمانا شروع کریں۔
10M مفت ٹوکنز حاصل کریں →