知识库章节 ▾
投资者
分析
工具
- Cursor + Gonka AI — 便宜的 LLM 用于编码
- Claude Code + Gonka AI — 终端的 LLM
- OpenClaw + Gonka AI — 可负担的 AI 代理
- OpenCode + Gonka AI — 免费的代码 AI
- Continue.dev + Gonka AI — 适用于 VS Code/JetBrains 的 AI
- Cline + Gonka AI — VS Code 中的 AI 代理
- Aider + Gonka AI — 与 AI 结对编程
- LangChain + Gonka AI — 便宜的 AI 应用程序
- n8n + Gonka AI — 通过便宜的 AI 实现自动化
- Open WebUI + Gonka AI — 您的 ChatGPT
- LibreChat + Gonka AI — 开源 ChatGPT
- API 快速入门 — curl, Python, TypeScript
- JoinGonka Gateway - 全面概述
- 管理密钥 — Gonka 上的 SaaS
工具
API 快速入门 — curl, Python, TypeScript
JoinGonka Gateway 为 去中心化的 Gonka 网络 提供 OpenAI + Anthropic 兼容 API。任何为 OpenAI API (/v1/chat/completions) 编写的代码都可以与 Gonka 配合使用——只需更改 base_url 和 api_key。而使用 Anthropic API (Claude Code) 的工具则通过 /v1/messages 直接连接,无需代理。
本文提供了三种最流行工具的即用型代码示例:curl(命令行)、Python 和 TypeScript/Node.js(OpenAI 格式)。对于 Anthropic 格式,请参阅 Claude Code 说明。
您需要什么:一个 JoinGonka API 密钥(jg-xxx 格式)。在 gate.joingonka.ai/register 免费获取,并附赠 10M token。
curl — 终端请求
测试 API 的最快方法是 curl:
普通请求:
curl https://gate.joingonka.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer jg-您的密钥" \
-d '{
"model": "Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
"messages": [
{"role": "user", "content": "什么是 Gonka?"}
]
}'流式传输(分段响应):
curl https://gate.joingonka.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer jg-您的密钥" \
-d '{
"model": "Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
"messages": [
{"role": "user", "content": "用 Python 写 hello world"}
],
"stream": true
}'响应以 JSON 格式(普通)或 Server-Sent Events(流式传输)返回 — 完全兼容 OpenAI API。
Python — openai SDK
官方 OpenAI Python SDK 可与 JoinGonka Gateway 配合使用,无需更改:
pip install openai普通请求:
from openai import OpenAI
client = OpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-您的密钥",
)
response = client.chat.completions.create(
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
messages=[
{"role": "user", "content": "用简单的话解释区块链"}
],
)
print(response.choices[0].message.content)流式传输:
stream = client.chat.completions.create(
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
messages=[{"role": "user", "content": "用 Python 写排序算法"}],
stream=True,
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")工具调用:
import json
tools = [{
"type": "function",
"function": {
"name": "get_weather",
"description": "获取城市天气",
"parameters": {
"type": "object",
"properties": {
"city": {"type": "string", "description": "城市名称"}
},
"required": ["city"]
}
}
}]
response = client.chat.completions.create(
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
messages=[{"role": "user", "content": "莫斯科的天气怎么样?"}],
tools=tools,
)
tool_call = response.choices[0].message.tool_calls[0]
print(f"函数:{tool_call.function.name}")
print(f"参数:{tool_call.function.arguments}")Qwen3-235B 支持原生工具调用 — 函数调用正确,无需解析文本响应。
TypeScript/Node.js — openai SDK
安装:
npm install openai普通请求:
import OpenAI from 'openai';
const client = new OpenAI({
baseURL: 'https://gate.joingonka.ai/v1',
apiKey: 'jg-您的密钥',
});
async function main() {
const response = await client.chat.completions.create({
model: 'Qwen/Qwen3-235B-A22B-Instruct-2507-FP8',
messages: [
{ role: 'user', content: '编写一个 Express.js 服务器' },
],
});
console.log(response.choices[0].message.content);
}
main();流式传输:
const stream = await client.chat.completions.create({
model: 'Qwen/Qwen3-235B-A22B-Instruct-2507-FP8',
messages: [{ role: 'user', content: '解释 async/await' }],
stream: true,
});
for await (const chunk of stream) {
const content = chunk.choices[0]?.delta?.content || '';
process.stdout.write(content);
}工具调用:
const response = await client.chat.completions.create({
model: 'Qwen/Qwen3-235B-A22B-Instruct-2507-FP8',
messages: [{ role: 'user', content: '将 100 美元兑换成欧元' }],
tools: [{
type: 'function',
function: {
name: 'convert_currency',
description: '货币兑换',
parameters: {
type: 'object',
properties: {
amount: { type: 'number' },
from: { type: 'string' },
to: { type: 'string' },
},
required: ['amount', 'from', 'to'],
},
},
}],
});
const toolCall = response.choices[0].message.tool_calls?.[0];
console.log(`函数:${toolCall?.function.name}`);
console.log(`参数:${toolCall?.function.arguments}`);所有示例都使用官方 OpenAI SDK — 无需额外库。只需替换 base_url 和 api_key。
支持的 API 参数
JoinGonka Gateway 支持所有标准的 OpenAI Chat Completions API 参数:
| 参数 | 类型 | 描述 |
|---|---|---|
model | string | 模型:Qwen/Qwen3-235B-A22B-Instruct-2507-FP8 |
messages | array | 消息历史记录(system、user、assistant) |
stream | boolean | 流式生成 (SSE)。默认:false |
temperature | number | 响应创造力(0.0 — 2.0) |
max_tokens | integer | 最大响应长度(最大:2048,默认:1024) |
tools | array | 工具调用函数定义 |
tool_choice | string/object | 函数调用策略 |
Qwen3-235B 模型参数:上下文窗口 — 128K token,最大响应 — 2048 token。完整规格:HuggingFace。模型列表可通过 GET /v1/models 获取。
两个端点:
- OpenAI 格式:
POST https://gate.joingonka.ai/v1/chat/completions - Anthropic 格式:
POST https://gate.joingonka.ai/v1/messages
身份验证:Authorization: Bearer jg-your-key (OpenAI) 或 x-api-key: jg-your-key (Anthropic)
响应格式与 OpenAI 和 Anthropic 完全兼容——任何支持 OpenAI 或 Anthropic API 的 SDK、库或框架都可以与 JoinGonka Gateway 配合使用,无需修改。Claude Code 通过 Anthropic 格式直接连接。