ज्ञानकोश अनुभाग ▾
शुरुआती लोगों के लिए
निवेशकों के लिए
- GNK टोकन का मूल्य कहाँ से आता है
- Gonka बनाम प्रतियोगी: Render, Akash, io.net
- लिबरमैन: बायोफिज़िक्स से विकेन्द्रीकृत AI तक
- GNK टोकनोमिक्स
- Gonka के जोखिम और संभावनाएँ: वस्तुनिष्ठ विश्लेषण
- Gonka बनाम रेंडर नेटवर्क: विस्तृत तुलना
- Gonka बनाम आकाश: AI अनुमान बनाम कंटेनर
- Gonka बनाम io.net: अनुमान बनाम GPU मार्केटप्लेस
- गोंका बनाम बिटटेंसर: एआई के दो दृष्टिकोणों की विस्तृत तुलना
- गोंका बनाम फ्लक्स: उपयोगी माइनिंग के लिए दो दृष्टिकोण
- गोंका में शासन: एक विकेन्द्रीकृत नेटवर्क का प्रबंधन कैसे किया जाता है
तकनीकी
विश्लेषण
उपकरण
- कर्सर + Gonka AI – कोडिंग के लिए सस्ता LLM
- Claude Code + Gonka AI – टर्मिनल के लिए LLM
- OpenClaw + Gonka AI – किफायती AI-एजेंट
- OpenCode + Gonka AI – कोड के लिए मुफ्त AI
- Continue.dev + Gonka AI – VS कोड/JetBrains के लिए AI
- Cline + Gonka AI – VS कोड में AI-एजेंट
- Aider + Gonka AI – AI के साथ युग्म प्रोग्रामिंग
- LangChain + Gonka AI – नाममात्र की लागत पर AI-अनुप्रयोग
- n8n + Gonka AI – सस्ते AI के साथ स्वचालन
- Open WebUI + Gonka AI – अपना ChatGPT
- LibreChat + Gonka AI — ओपन-सोर्स ChatGPT
- API त्वरित शुरुआत — curl, Python, TypeScript
- JoinGonka Gateway — पूर्ण अवलोकन
- प्रबंधन कुंजी — गोनका पर साaएस
उपकरण
LangChain + Gonka AI – नाममात्र की लागत पर AI-अनुप्रयोग
LangChain पायथन और जावास्क्रिप्ट में AI-अनुप्रयोग बनाने के लिए सबसे लोकप्रिय फ्रेमवर्क है। RAG-पाइपलाइन, चेन, एजेंट, दस्तावेज़ों के साथ काम करना – LangChain इन सबके लिए अमूर्तता प्रदान करता है।
LangChain ChatOpenAI वर्ग के माध्यम से OpenAI-संगत API का स्वाभाविक रूप से समर्थन करता है। इसका मतलब है कि JoinGonka Gateway 3 पंक्तियों के कोड में एकीकृत हो जाता है – बिना अतिरिक्त पैकेज और सेटिंग्स के।
परिणाम: एक RAG-प्रणाली, चैट-बॉट या AI-एजेंट, जो OpenAI में $2.50-15 के बजाय $0.001/1M टोकन पर काम कर रहा है।
त्वरित शुरुआत: 3 पंक्तियों का कोड
न्यूनतम उदाहरण — LangChain को Gonka से जोड़ना:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-आपका-कुंजी",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
response = llm.invoke("RAG क्या है समझाइए")
print(response.content)बस इतना ही। तीन लाइनें — और आपकी LangChain परियोजना विकेन्द्रीकृत Gonka नेटवर्क के माध्यम से कुछ पैसे में काम करती है।
निर्भरता स्थापित करना:
pip install langchain langchain-openaiसिफारिश: स्पष्ट रूप से max_tokens=2048 इंगित करें — यह JoinGonka Gateway के माध्यम से अधिकतम है। Qwen3-235B की संदर्भ विंडो — 128K टोकन — RAG पाइपलाइनों में chunk_size को कॉन्फ़िगर करते समय इसे ध्यान में रखें।
उदाहरण: Gonka के साथ RAG-पाइपलाइन
RAG (रिट्रीवल-ऑगमेंटेड जनरेशन) AI-अनुप्रयोगों का सबसे लोकप्रिय पैटर्न है। आप दस्तावेज़ लोड करते हैं, उन्हें चंक्स में विभाजित करते हैं, एम्बेडिंग बनाते हैं, प्रासंगिक खंडों की खोज करते हैं और संदर्भ के साथ एक उत्तर उत्पन्न करते हैं।
from langchain_openai import ChatOpenAI
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains import RetrievalQA
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.document_loaders import TextLoader
# 1. Gonka के माध्यम से LLM
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-आपका-कुंजी",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
streaming=True,
)
# 2. दस्तावेज़ लोड करना और इंडेक्स करना
loader = TextLoader("docs/my_document.txt")
docs = loader.load()
splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
chunks = splitter.split_documents(docs)
# 3. वेक्टर स्टोर (स्थानीय, मुफ्त)
embeddings = HuggingFaceEmbeddings()
vectorstore = FAISS.from_documents(chunks, embeddings)
# 4. RAG-चेन
qa = RetrievalQA.from_chain_type(
llm=llm,
retriever=vectorstore.as_retriever(),
)
# 5. क्वेरी
result = qa.invoke("यह दस्तावेज़ किसके बारे में है?")
print(result["result"])लागत: RAG-पाइपलाइन का एक अनुरोध (पुनर्प्राप्ति + जनरेशन) LLM के ~2-5K टोकन का उपयोग करता है। Gonka के माध्यम से यह $0.000002-0.000005 है। OpenAI के माध्यम से – $0.005-0.05 है। अंतर – 10,000x।
उत्पादन प्रणालियों के लिए, जो प्रतिदिन हजारों अनुरोधों को संसाधित करती हैं, बचत प्रति माह दसियों हज़ार डॉलर होती है।
उदाहरण: टूल कॉलिंग के साथ AI-एजेंट
LangChain औजारों (tools) के साथ एजेंट बनाने की अनुमति देता है। Qwen3-235B नेटिव टूल कॉलिंग का समर्थन करता है – एजेंट बिना टेक्स्ट प्रतिक्रियाओं को पार्स किए विश्वसनीय रूप से काम करते हैं।
from langchain_openai import ChatOpenAI
from langchain.agents import create_openai_tools_agent, AgentExecutor
from langchain.tools import tool
from langchain.prompts import ChatPromptTemplate
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-आपका-कुंजी",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
@tool
def calculator(expression: str) -> str:
"""गणितीय व्यंजक की गणना करता है।"""
return str(eval(expression))
@tool
def search_web(query: str) -> str:
"""इंटरनेट पर जानकारी खोजता है।"""
return f"खोज के परिणाम: {query}"
prompt = ChatPromptTemplate.from_messages([
("system", "आप एक उपयोगी सहायक हैं।"),
("human", "{input}"),
("placeholder", "{agent_scratchpad}"),
])
agent = create_openai_tools_agent(llm, [calculator, search_web], prompt)
executor = AgentExecutor(agent=agent, tools=[calculator, search_web])
result = executor.invoke({"input": "2**10 * 3.14 कितना होगा?"})
print(result["output"])एजेंट calculator को कॉल करता है, परिणाम प्राप्त करता है और एक उत्तर बनाता है। Gonka के माध्यम से पूरे चक्र की लागत ~$0.00001 है। OpenAI के माध्यम से – $0.01-0.05। हजारों उपयोगकर्ताओं वाली प्रणालियों के लिए यह दसियों हज़ार डॉलर का अंतर है।
अधिक जानना चाहते हैं?
अन्य अनुभागों का अन्वेषण करें या अभी GNK कमाना शुरू करें।
10M मुफ्त टोकन प्राप्त करें →