Abschnitte der Wissensbasis ▾

Tools

API Schnellstart — curl, Python, TypeScript

JoinGonka Gateway bietet eine OpenAI + Anthropic kompatible API für das dezentrale Gonka-Netzwerk. Jeder Code, der für die OpenAI API (/v1/chat/completions) geschrieben wurde, funktioniert mit Gonka – es reicht aus, base_url und api_key zu ändern. Und Tools, die auf der Anthropic API (Claude Code) basieren, können über /v1/messages direkt ohne Proxy angeschlossen werden.

In diesem Artikel finden Sie fertige Codebeispiele für die drei beliebtesten Tools: curl (Befehlszeile), Python und TypeScript/Node.js (OpenAI-Format). Für das Anthropic-Format siehe Claude Code-Anleitung.

Was Sie brauchen: einen JoinGonka API-Schlüssel (Format jg-xxx). Erhalten Sie ihn kostenlos auf gate.joingonka.ai/register zusammen mit einem Bonus von 10M Token.

curl — Abfrage vom Terminal

Der schnellste Weg, die API-Funktionalität zu überprüfen, ist curl:

Normale Anfrage:

curl https://gate.joingonka.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer jg-Ihr-Schlüssel" \
  -d '{
    "model": "Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
    "messages": [
      {"role": "user", "content": "Was ist Gonka?"}
    ]
  }'

Streaming (Antwort in Teilen):

curl https://gate.joingonka.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer jg-Ihr-Schlüssel" \
  -d '{
    "model": "Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
    "messages": [
      {"role": "user", "content": "Schreibe Hello World in Python"}
    ],
    "stream": true
  }'

Die Antwort kommt im JSON-Format (normal) oder als Server-Sent Events (Streaming) – vollständig kompatibel mit OpenAI API.

Python — openai SDK

Das offizielle OpenAI Python SDK funktioniert mit JoinGonka Gateway unverändert:

pip install openai

Normaler Request:

from openai import OpenAI

client = OpenAI(
    base_url="https://gate.joingonka.ai/v1",
    api_key="jg-Ihr-Schlüssel",
)

response = client.chat.completions.create(
    model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
    messages=[
        {"role": "user", "content": "Erkläre Blockchain in einfachen Worten"}
    ],
)

print(response.choices[0].message.content)

Streaming:

stream = client.chat.completions.create(
    model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
    messages=[{"role": "user", "content": "Schreibe eine Sortierung in Python"}],
    stream=True,
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")

Tool Calling:

import json

tools = [{
    "type": "function",
    "function": {
        "name": "get_weather",
        "description": "Hole das Wetter in einer Stadt ab",
        "parameters": {
            "type": "object",
            "properties": {
                "city": {"type": "string", "description": "Name der Stadt"}
            },
            "required": ["city"]
        }
    }
}]

response = client.chat.completions.create(
    model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
    messages=[{"role": "user", "content": "Wie ist das Wetter in Moskau?"}],
    tools=tools,
)

tool_call = response.choices[0].message.tool_calls[0]
print(f"Funktion: {tool_call.function.name}")
print(f"Argumente: {tool_call.function.arguments}")

Qwen3-235B unterstützt natives Tool-Calling – Funktionen werden korrekt aufgerufen, ohne textliche Antworten zu parsen.

TypeScript/Node.js — openai SDK

Installation:

npm install openai

Normaler Request:

import OpenAI from 'openai';

const client = new OpenAI({
  baseURL: 'https://gate.joingonka.ai/v1',
  apiKey: 'jg-Ihr-Schlüssel',
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'Qwen/Qwen3-235B-A22B-Instruct-2507-FP8',
    messages: [
      { role: 'user', content: 'Schreibe einen Express.js Server' },
    ],
  });

  console.log(response.choices[0].message.content);
}

main();

Streaming:

const stream = await client.chat.completions.create({
  model: 'Qwen/Qwen3-235B-A22B-Instruct-2507-FP8',
  messages: [{ role: 'user', content: 'Erkläre async/await' }],
  stream: true,
});

for await (const chunk of stream) {
  const content = chunk.choices[0]?.delta?.content || '';
  process.stdout.write(content);
}

Tool Calling:

const response = await client.chat.completions.create({
  model: 'Qwen/Qwen3-235B-A22B-Instruct-2507-FP8',
  messages: [{ role: 'user', content: 'Konvertiere 100 USD in EUR' }],
  tools: [{
    type: 'function',
    function: {
      name: 'convert_currency',
      description: 'Währungsumrechnung',
      parameters: {
        type: 'object',
        properties: {
          amount: { type: 'number' },
          from: { type: 'string' },
          to: { type: 'string' },
        },
        required: ['amount', 'from', 'to'],
      },
    },
  }],
});

const toolCall = response.choices[0].message.tool_calls?.[0];
console.log(`Funktion: ${toolCall?.function.name}`);
console.log(`Argumente: ${toolCall?.function.arguments}`);

Alle Beispiele verwenden das offizielle OpenAI SDK – es sind keine zusätzlichen Bibliotheken erforderlich. Ersetzen Sie einfach base_url und api_key.

Unterstützte API-Parameter

JoinGonka Gateway unterstützt alle Standardparameter der OpenAI Chat Completions API:

ParameterTypBeschreibung
modelstringModell: Qwen/Qwen3-235B-A22B-Instruct-2507-FP8
messagesarrayNachrichtenverlauf (system, user, assistant)
streambooleanStreaming-Generierung (SSE). Standard: false
temperaturenumberKreativität der Antwort (0.0 — 2.0)
max_tokensintegerMaximale Antwortlänge (max: 2048, Standard: 1024)
toolsarrayFunktionsdefinitionen für Tool Calling
tool_choicestring/objectStrategie zum Aufrufen von Funktionen

Parameter des Qwen3-235B-Modells: Kontextfenster – 128K Token, maximale Antwort – 2048 Token. Vollständige Spezifikationen: HuggingFace. Die Liste der Modelle ist über GET /v1/models verfügbar.

Zwei Endpunkte:

  • OpenAI-Format: POST https://gate.joingonka.ai/v1/chat/completions
  • Anthropic-Format: POST https://gate.joingonka.ai/v1/messages

Authentifizierung: Authorization: Bearer jg-Ihr-Schlüssel (OpenAI) oder x-api-key: jg-Ihr-Schlüssel (Anthropic)

Das Antwortformat ist vollständig kompatibel mit OpenAI und Anthropic – jedes SDK, jede Bibliothek oder jedes Framework, das OpenAI oder Anthropic API unterstützt, funktioniert mit JoinGonka Gateway ohne Änderungen. Claude Code wird über das Anthropic-Format direkt angeschlossen.

JoinGonka Gateway – OpenAI + Anthropic kompatible API für $0.001/1M Token. curl, Python, TypeScript – 3 Zeilen Code. Streaming, Tool Calling, alle Parameter der OpenAI + Anthropic API. Claude Code funktioniert direkt über /v1/messages. 10M kostenlose Token zum Start.

Möchten Sie mehr erfahren?

Erkunden Sie andere Abschnitte oder beginnen Sie jetzt GNK zu verdienen.

Erhalten Sie 10M kostenlose Token →