知识库章节 ▾

工具

LangChain + Gonka AI — 便宜的 AI 应用程序

LangChain 是最流行的用于创建 Python 和 JavaScript AI 应用程序的框架。RAG 管道、链、代理、文档处理——LangChain 为所有这些提供了抽象。

LangChain 通过 ChatOpenAI 类原生支持 OpenAI 兼容的 API。这意味着 JoinGonka Gateway 可以通过 3 行代码集成——无需额外的包和配置。

结果:RAG 系统、聊天机器人或 AI 代理,每百万 token $0.001,而 OpenAI 为 $2.50-15。

快速入门:3 行代码

最小示例——将 LangChain 连接到 Gonka:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(
    base_url="https://gate.joingonka.ai/v1",
    api_key="jg-您的密钥",
    model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)

response = llm.invoke("解释 RAG 是什么")
print(response.content)

就这样。三行代码——您的 LangChain 项目通过 去中心化 Gonka 网络 以低廉的价格运行。

安装依赖项

pip install langchain langchain-openai

建议:明确指定 max_tokens=2048——这是通过 JoinGonka Gateway 的最大值。Qwen3-235B 的上下文窗口为 128K token——在 RAG 管道中配置 chunk_size 时请考虑这一点。

示例:使用 Gonka 的 RAG 管道

RAG(检索增强生成)是最流行的 AI 应用程序模式。加载文档,将其拆分为块,创建嵌入,查找相关片段,并生成带有上下文的答案。

from langchain_openai import ChatOpenAI
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains import RetrievalQA
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.document_loaders import TextLoader

# 1. 通过 Gonka 的 LLM
llm = ChatOpenAI(
    base_url="https://gate.joingonka.ai/v1",
    api_key="jg-您的密钥",
    model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
    streaming=True,
)

# 2. 加载和索引文档
loader = TextLoader("docs/my_document.txt")
docs = loader.load()
splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
chunks = splitter.split_documents(docs)

# 3. 向量存储(本地,免费)
embeddings = HuggingFaceEmbeddings()
vectorstore = FAISS.from_documents(chunks, embeddings)

# 4. RAG 链
qa = RetrievalQA.from_chain_type(
    llm=llm,
    retriever=vectorstore.as_retriever(),
)

# 5. 查询
result = qa.invoke("此文档是关于什么的?")
print(result["result"])

成本:一个 RAG 管道请求(检索 + 生成)使用约 2-5K LLM token。通过 Gonka,这需要 $0.000002-0.000005。通过 OpenAI,需要 $0.005-0.05。差异是 10,000 倍。

对于每天处理数千个请求的生产系统,每月可节省数万美元。

示例:带工具调用的 AI 代理

LangChain 允许创建带有工具的代理。Qwen3-235B 支持原生 tool calling——代理可靠地工作,无需解析文本响应。

from langchain_openai import ChatOpenAI
from langchain.agents import create_openai_tools_agent, AgentExecutor
from langchain.tools import tool
from langchain.prompts import ChatPromptTemplate

llm = ChatOpenAI(
    base_url="https://gate.joingonka.ai/v1",
    api_key="jg-您的密钥",
    model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)

@tool
def calculator(expression: str) -> str:
    """计算数学表达式。"""
    return str(eval(expression))

@tool
def search_web(query: str) -> str:
    """在互联网上搜索信息。"""
    return f"搜索结果:{query}"

prompt = ChatPromptTemplate.from_messages([
    ("system", "你是一个乐于助人的助手。"),
    ("human", "{input}"),
    ("placeholder", "{agent_scratchpad}"),
])

agent = create_openai_tools_agent(llm, [calculator, search_web], prompt)
executor = AgentExecutor(agent=agent, tools=[calculator, search_web])

result = executor.invoke({"input": "2**10 * 3.14 是多少?"})
print(result["output"])

代理调用 calculator,获取结果并形成响应。整个周期通过 Gonka 花费约 $0.00001。通过 OpenAI,花费 $0.01-0.05。对于拥有数千用户的系统,这是数万美元的差异。

LangChain + Gonka = 生产就绪的 AI 应用程序,价格低廉。RAG、代理、链——所有这些都通过 ChatOpenAI 的 3 行代码实现。成本——每百万 token $0.001,原生 tool calling,流式传输。

想了解更多?

探索其他章节或立即开始赚取 GNK。

获取免费的 10M token →