علم کے مرکز کے حصے ▾

سرمایہ کاروں کے لیے

ٹولز

LangChain + Gonka AI – AI ایپلیکیشنز بہت کم قیمت پر

LangChain – پائتھن اور جاوا اسکرپٹ میں AI ایپلی کیشنز بنانے کے لیے سب سے مشہور فریم ورک ہے۔ < پرانا>RAG — Retrieval-Augmented Generation, علم کے ڈیٹا بیس سے سوالات کا جواب دینے کے لیے ایک آرکیٹیکچر-پائپ لائنز، چینز، ایجنٹس، دستاویزات کے ساتھ کام – LangChain ان سب کے لیے abstractions فراہم کرتا ہے۔

LangChain مقامی طور پر ChatOpenAI کلاس کے ذریعے OpenAI-مطابق APIs کو سپورٹ کرتا ہے۔ اس کا مطلب ہے کہ JoinGonka Gateway 3 لائنز کوڈ میں انٹیگریٹ ہو جاتا ہے – بغیر اضافی پیکجز اور سیٹنگز کے۔

نتیجہ: ایک RAG سسٹم، چیٹ بوٹ یا AI ایجنٹ جو $0.001/1M ٹوکنز میں کام کرتا ہے بجائے OpenAI کے $2.50-15 کے۔

فوری آغاز: کوڈ کی 3 لائنز

ایک کم از کم مثال — LangChain کو گونگا سے جوڑنا:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(
    base_url="https://gate.joingonka.ai/v1",
    api_key="jg-آپ کی کلید",
    model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)

response = llm.invoke("RAG کیا ہے وضاحت کریں")
print(response.content)

بس اتنا ہی ہے۔ تین سطریں — اور آپ کا LangChain پروجیکٹ گونگا کے غیر مرکزی نیٹ ورک کے ذریعے معمولی قیمت پر چلتا ہے۔

انحصار کی تنصیب:

pip install langchain langchain-openai

تجویز: واضح طور پر max_tokens=2048 کی وضاحت کریں — یہ JoinGonka Gateway کے ذریعے زیادہ سے زیادہ ہے۔ Qwen3-235B کی سیاق و سباق کی ونڈو — 128K ٹوکن — اسے RAG پائپ لائنز میں chunk_size ترتیب دیتے وقت مدنظر رکھیں۔

مثال: Gonka کے ساتھ RAG-پائپ لائن

RAG (Retrieval-Augmented Generation) — AI ایپلی کیشنز کا سب سے مشہور پیٹرن ہے۔ آپ دستاویزات لوڈ کرتے ہیں، انہیں چنکس میں تقسیم کرتے ہیں، ایمبیڈنگز بناتے ہیں، متعلقہ حصوں کو تلاش کرتے ہیں اور تناظر کے ساتھ جواب تیار کرتے ہیں۔

from langchain_openai import ChatOpenAI
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains import RetrievalQA
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.document_loaders import TextLoader

# 1. Gonka کے ذریعے LLM
llm = ChatOpenAI(
    base_url="https://gate.joingonka.ai/v1",
    api_key="jg-آپکی-کی",
    model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
    streaming=True,
)

# 2. دستاویزات کی لوڈنگ اور انڈیکسنگ
loader = TextLoader("docs/my_document.txt")
docs = loader.load()
splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
chunks = splitter.split_documents(docs)

# 3. ویکٹر اسٹور (مقامی، مفت)
embeddings = HuggingFaceEmbeddings()
vectorstore = FAISS.from_documents(chunks, embeddings)

# 4. RAG-چین
qa = RetrievalQA.from_chain_type(
    llm=llm,
    retriever=vectorstore.as_retriever(),
)

# 5. درخواست
result = qa.invoke("یہ دستاویز کس بارے میں ہے؟")
print(result["result"])

لاگت: ایک RAG-پائپ لائن درخواست (retrieval + generation) ~2-5K LLM ٹوکنز استعمال کرتی ہے۔ Gonka کے ذریعے یہ $0.000002-0.000005 ہے۔ OpenAI کے ذریعے – $0.005-0.05۔ فرق – 10,000x۔

پروڈکشن سسٹمز کے لیے جو روزانہ ہزاروں درخواستیں پروسیس کرتے ہیں، بچت ماہانہ دسیوں ہزار ڈالرز ہوتی ہے۔

مثال: ٹول کالنگ کے ساتھ AI ایجنٹ

LangChain ٹولز کے ساتھ ایجنٹ بنانے کی اجازت دیتا ہے۔ Qwen3-235B مقامی ٹول کالنگ کو سپورٹ کرتا ہے – ایجنٹ ٹیکسٹ جوابات کو پارس کیے بغیر قابل اعتماد طریقے سے کام کرتے ہیں۔

from langchain_openai import ChatOpenAI
from langchain.agents import create_openai_tools_agent, AgentExecutor
from langchain.tools import tool
from langchain.prompts import ChatPromptTemplate

llm = ChatOpenAI(
    base_url="https://gate.joingonka.ai/v1",
    api_key="jg-آپکی-کی",
    model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)

@tool
def calculator(expression: str) -> str:
    """ریاضی کی عبارت کا حساب لگاتا ہے۔"""
    return str(eval(expression))

@tool
def search_web(query: str) -> str:
    """انٹرنیٹ پر معلومات تلاش کرتا ہے۔"""
    return f"تلاش کے نتائج برائے: {query}"

prompt = ChatPromptTemplate.from_messages([
    ("system", "آپ ایک مفید اسسٹنٹ ہیں۔"),
    ("human", "{input}"),
    ("placeholder", "{agent_scratchpad}"),
])

agent = create_openai_tools_agent(llm, [calculator, search_web], prompt)
executor = AgentExecutor(agent=agent, tools=[calculator, search_web])

result = executor.invoke({"input": "2**10 * 3.14 کتنا ہوگا؟"})
print(result["output"])

ایجنٹ calculator کو بلاتا ہے، نتیجہ حاصل کرتا ہے اور جواب بناتا ہے۔ Gonka کے ذریعے پورے سائیکل کی لاگت ~$0.00001 ہے۔ OpenAI کے ذریعے – $0.01-0.05۔ ہزاروں صارفین والے سسٹمز کے لیے، یہ دسیوں ہزار ڈالرز کا فرق ہے۔

LangChain + Gonka = پروڈکشن کے لیے تیار AI ایپلی کیشنز بہت کم قیمت پر۔ RAG، ایجنٹس، چینز – سب ChatOpenAI کے ساتھ 3 لائنز کوڈ کے ذریعے $0.001/1M ٹوکنز، مقامی ٹول کالنگ، اسٹریمنگ۔

مزید جاننا چاہتے ہیں؟

دیگر حصوں کو دریافت کریں یا ابھی GNK کمانا شروع کریں۔

10M مفت ٹوکنز حاصل کریں →