知识库章节 ▾
投资者
分析
工具
- Cursor + Gonka AI — 便宜的 LLM 用于编码
- Claude Code + Gonka AI — 终端的 LLM
- OpenClaw + Gonka AI — 可负担的 AI 代理
- OpenCode + Gonka AI — 免费的代码 AI
- Continue.dev + Gonka AI — 适用于 VS Code/JetBrains 的 AI
- Cline + Gonka AI — VS Code 中的 AI 代理
- Aider + Gonka AI — 与 AI 结对编程
- LangChain + Gonka AI — 便宜的 AI 应用程序
- n8n + Gonka AI — 通过便宜的 AI 实现自动化
- Open WebUI + Gonka AI — 您的 ChatGPT
- LibreChat + Gonka AI — 开源 ChatGPT
- API 快速入门 — curl, Python, TypeScript
- JoinGonka Gateway - 全面概述
- 管理密钥 — Gonka 上的 SaaS
工具
LangChain + Gonka AI — 便宜的 AI 应用程序
LangChain 是最流行的用于创建 Python 和 JavaScript AI 应用程序的框架。RAG 管道、链、代理、文档处理——LangChain 为所有这些提供了抽象。
LangChain 通过 ChatOpenAI 类原生支持 OpenAI 兼容的 API。这意味着 JoinGonka Gateway 可以通过 3 行代码集成——无需额外的包和配置。
结果:RAG 系统、聊天机器人或 AI 代理,每百万 token $0.001,而 OpenAI 为 $2.50-15。
快速入门:3 行代码
最小示例——将 LangChain 连接到 Gonka:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-您的密钥",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
response = llm.invoke("解释 RAG 是什么")
print(response.content)就这样。三行代码——您的 LangChain 项目通过 去中心化 Gonka 网络 以低廉的价格运行。
安装依赖项:
pip install langchain langchain-openai建议:明确指定 max_tokens=2048——这是通过 JoinGonka Gateway 的最大值。Qwen3-235B 的上下文窗口为 128K token——在 RAG 管道中配置 chunk_size 时请考虑这一点。
示例:使用 Gonka 的 RAG 管道
RAG(检索增强生成)是最流行的 AI 应用程序模式。加载文档,将其拆分为块,创建嵌入,查找相关片段,并生成带有上下文的答案。
from langchain_openai import ChatOpenAI
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains import RetrievalQA
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.document_loaders import TextLoader
# 1. 通过 Gonka 的 LLM
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-您的密钥",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
streaming=True,
)
# 2. 加载和索引文档
loader = TextLoader("docs/my_document.txt")
docs = loader.load()
splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
chunks = splitter.split_documents(docs)
# 3. 向量存储(本地,免费)
embeddings = HuggingFaceEmbeddings()
vectorstore = FAISS.from_documents(chunks, embeddings)
# 4. RAG 链
qa = RetrievalQA.from_chain_type(
llm=llm,
retriever=vectorstore.as_retriever(),
)
# 5. 查询
result = qa.invoke("此文档是关于什么的?")
print(result["result"])成本:一个 RAG 管道请求(检索 + 生成)使用约 2-5K LLM token。通过 Gonka,这需要 $0.000002-0.000005。通过 OpenAI,需要 $0.005-0.05。差异是 10,000 倍。
对于每天处理数千个请求的生产系统,每月可节省数万美元。
示例:带工具调用的 AI 代理
LangChain 允许创建带有工具的代理。Qwen3-235B 支持原生 tool calling——代理可靠地工作,无需解析文本响应。
from langchain_openai import ChatOpenAI
from langchain.agents import create_openai_tools_agent, AgentExecutor
from langchain.tools import tool
from langchain.prompts import ChatPromptTemplate
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-您的密钥",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
@tool
def calculator(expression: str) -> str:
"""计算数学表达式。"""
return str(eval(expression))
@tool
def search_web(query: str) -> str:
"""在互联网上搜索信息。"""
return f"搜索结果:{query}"
prompt = ChatPromptTemplate.from_messages([
("system", "你是一个乐于助人的助手。"),
("human", "{input}"),
("placeholder", "{agent_scratchpad}"),
])
agent = create_openai_tools_agent(llm, [calculator, search_web], prompt)
executor = AgentExecutor(agent=agent, tools=[calculator, search_web])
result = executor.invoke({"input": "2**10 * 3.14 是多少?"})
print(result["output"])代理调用 calculator,获取结果并形成响应。整个周期通过 Gonka 花费约 $0.00001。通过 OpenAI,花费 $0.01-0.05。对于拥有数千用户的系统,这是数万美元的差异。