أقسام قاعدة المعرفة ▾
للمبتدئين
للمستثمرين
- من أين تأتي قيمة رمز GNK
- Gonka مقابل المنافسين: Render، Akash، io.net
- الليبرمانز: من الفيزياء الحيوية إلى الذكاء الاصطناعي اللامركزي
- اقتصاديات توكن GNK
- مخاطر وآفاق Gonka: تحليل موضوعي
- Gonka ضد Render Network: مقارنة تفصيلية
- Gonka ضد Akash: استدلال الذكاء الاصطناعي مقابل الحاويات
- Gonka ضد io.net: استدلال مقابل سوق GPU
- Gonka مقابل Bittensor: مقارنة مفصلة بين نهجين للذكاء الاصطناعي
- Gonka مقابل Flux: نهجان للتعدين المفيد
- الحوكمة في Gonka: كيف تدار شبكة لامركزية
تقني
تحليل
أدوات
- Cursor + Gonka AI - LLM رخيص للبرمجة
- Claude Code + Gonka AI - LLM للطرفية
- OpenClaw + Gonka AI - وكلاء AI متاحون
- OpenCode + Gonka AI - AI مجاني للكود
- Continue.dev + Gonka AI - AI لـ VS Code/JetBrains
- Cline + Gonka AI - وكيل AI في VS Code
- Aider + Gonka AI - برمجة زوجية مع AI
- LangChain + Gonka AI - تطبيقات AI بتكلفة زهيدة
- n8n + Gonka AI - أتمتة مع AI رخيص
- Open WebUI + Gonka AI - ChatGPT الخاص بك
- LibreChat + Gonka AI — ChatGPT مفتوح المصدر
- بدء سريع لواجهة برمجة التطبيقات - curl، Python، TypeScript
- JoinGonka Gateway - مراجعة كاملة
- مفاتيح الإدارة — SaaS على Gonka
أدوات
LangChain + Gonka AI - تطبيقات AI بتكلفة زهيدة
LangChain - أشهر إطار عمل لإنشاء تطبيقات AI في Python و JavaScript. أنابيب RAG، سلاسل (chains)، وكلاء، العمل مع المستندات - يوفر LangChain تجريدات لكل هذا.
يدعم LangChain واجهات برمجة تطبيقات متوافقة مع OpenAI بشكل أصلي من خلال الفئة ChatOpenAI. وهذا يعني أن JoinGonka Gateway يتكامل في 3 أسطر من الكود - بدون حزم أو إعدادات إضافية.
النتيجة: نظام RAG، أو روبوت محادثة، أو وكيل AI، يعمل مقابل 0.001 دولار لكل مليون رمز بدلاً من 2.50-15 دولارًا مع OpenAI.
بداية سريعة: 3 أسطر من الكود
مثال بسيط - ربط LangChain بـ Gonka:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-your-key",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
response = llm.invoke("اشرح ما هو RAG")
print(response.content)هذا كل شيء. ثلاثة أسطر - ومشروعك LangChain يعمل عبر شبكة Gonka اللامركزية مقابل بضعة سنتات.
تثبيت التبعيات:
pip install langchain langchain-openaiتوصية: حدد max_tokens=2048 صراحةً - هذا هو الحد الأقصى عبر JoinGonka Gateway. نافذة سياق Qwen3-235B - 128 ألف رمز مميز - ضع ذلك في الاعتبار عند إعداد chunk_size في أنابيب RAG.
مثال: خط أنابيب RAG مع Gonka
RAG (Retrieval-Augmented Generation) - هو النمط الأكثر شيوعًا لتطبيقات الذكاء الاصطناعي. تقوم بتحميل المستندات، وتقسيمها إلى أجزاء، وإنشاء تضمينات، والبحث عن الأجزاء ذات الصلة، وتوليد الإجابة مع السياق.
from langchain_openai import ChatOpenAI\nfrom langchain.text_splitter import RecursiveCharacterTextSplitter\nfrom langchain.chains import RetrievalQA\nfrom langchain_community.vectorstores import FAISS\nfrom langchain_community.embeddings import HuggingFaceEmbeddings\nfrom langchain_community.document_loaders import TextLoader\n\n# 1. LLM عبر Gonka\nllm = ChatOpenAI(\n base_url=\"https://gate.joingonka.ai/v1\",\n api_key=\"jg-your-key\",\n model=\"Qwen/Qwen3-235B-A22B-Instruct-2507-FP8\",\n streaming=True,\n)\n\n# 2. تحميل وفهرسة المستندات\nloader = TextLoader(\"docs/my_document.txt\")\ndocs = loader.load()\nsplitter = RecursiveCharacterTextSplitter(chunk_size=1000)\nchunks = splitter.split_documents(docs)\n\n# 3. مخزن المتجهات (محلي، مجاني)\nembeddings = HuggingFaceEmbeddings()\nvectorstore = FAISS.from_documents(chunks, embeddings)\n\n# 4. سلسلة RAG\nqa = RetrievalQA.from_chain_type(\n llm=llm,\n retriever=vectorstore.as_retriever(),\n)\n\n# 5. الاستعلام\nresult = qa.invoke(\"ماذا يتحدث هذا المستند عن؟\")\nprint(result[\"result\"])التكلفة: يستخدم طلب واحد من خط أنابيب RAG (استرجاع + توليد) حوالي 2-5 آلاف رمز LLM. عبر Gonka يكون هذا 0.000002-0.000005 دولار. عبر OpenAI - 0.005-0.05 دولار. الفرق - 10000x.
لأنظمة الإنتاج التي تعالج آلاف الطلبات يوميًا، يصل التوفير إلى عشرات الآلاف من الدولارات شهريًا.
مثال: وكيل AI مع استدعاء الأدوات
تسمح LangChain بإنشاء وكلاء باستخدام الأدوات (tools). يدعم Qwen3-235B استدعاء الأدوات الأصلي - يعمل الوكلاء بشكل موثوق، دون تحليل الإجابات النصية.
from langchain_openai import ChatOpenAI\nfrom langchain.agents import create_openai_tools_agent, AgentExecutor\nfrom langchain.tools import tool\nfrom langchain.prompts import ChatPromptTemplate\n\nllm = ChatOpenAI(\n base_url=\"https://gate.joingonka.ai/v1\",\n api_key=\"jg-your-key\",\n model=\"Qwen/Qwen3-235B-A22B-Instruct-2507-FP8\",\n)\n\n@tool\ndef calculator(expression: str) -> str:\n \"\"\"يحسب تعبيرًا رياضيًا.\"\"\"\n return str(eval(expression))\n\n@tool\ndef search_web(query: str) -> str:\n \"\"\"يبحث عن معلومات على الإنترنت.\"\"\"\n return f\"نتائج البحث لـ: {query}\"\n\nprompt = ChatPromptTemplate.from_messages([\n (\"system\", \"أنت مساعد مفيد.\"),\n (\"human\", \"{input}\"),\n (\"placeholder\", \"{agent_scratchpad}\"),\n])\n\nagent = create_openai_tools_agent(llm, [calculator, search_web], prompt)\nexecutor = AgentExecutor(agent=agent, tools=[calculator, search_web])\n\nresult = executor.invoke({\"input\": \"كم سيكون 2**10 * 3.14؟\"})\nprint(result[\"output\"])يستدعي الوكيل calculator، ويحصل على النتيجة ويشكل الإجابة. تكلفة الدورة بأكملها حوالي 0.00001 دولار عبر Gonka. عبر OpenAI - 0.01-0.05 دولار. للأنظمة التي تضم آلاف المستخدمين، هذا فرق بعشرات الآلاف من الدولارات.