Разделы базы знаний ▾

Инструменты

Инструменты

Claude Code + Gonka AI — LLM для терминала

Claude Code — мощный AI-ассистент для разработки прямо в терминале. Работает с Git, файловой системой, запускает тесты, рефакторит код. Но нативный Claude Sonnet 4 стоит $3-15 за 1M токенов, и при активной работе счёт за неделю может превысить $200.

JoinGonka Gateway поддерживает нативный Anthropic API (/v1/messages) — Claude Code подключается напрямую, без прокси. Модель Qwen3-235B через децентрализованную сеть Gonka за $0.001/1M токенов — в тысячи раз дешевле, при сопоставимом качестве на задачах кодинга.

Настройка занимает 2 минуты — две переменные окружения.

Шаг 1: Получить API-ключ

Если у вас ещё нет ключа JoinGonka Gateway:

  1. Зарегистрируйтесь на gate.joingonka.ai/register.
  2. Получите бонус 10M бесплатных токенов.
  3. Создайте API-ключ в Dashboard → API Keys.
  4. Скопируйте ключ (формат: jg-xxx).

Один ключ работает с любым OpenAI-совместимым инструментом: Cursor, Aider, LangChain и т.д.

Шаг 2: Подключить Claude Code

JoinGonka Gateway нативно поддерживает Anthropic Messages API (/v1/messages) — прокси не нужен.

Автоматическая настройка (1 команда):

npx @joingonka/claude-code

Installer спросит API-ключ и запишет настройки в Claude Code. Подробнее: GitHub.

Или вручную — через две переменные окружения:

export ANTHROPIC_BASE_URL=https://gate.joingonka.ai
export ANTHROPIC_API_KEY=jg-ваш-ключ
claude

Всё. Claude Code будет отправлять запросы на JoinGonka Gateway в нативном Anthropic-формате. Gateway конвертирует их в запросы к сети Gonka и возвращает ответ в формате Anthropic.

Что поддерживается:

  • Streaming — ответ начинает отображаться сразу (SSE в формате Anthropic: message_start, content_block_delta, message_stop)
  • Tool calling — Claude Code активно использует функции для работы с файлами и командами. Нативный tool calling через Qwen3-235B.
  • System prompts — системные промпты передаются как есть

Проверка: в Claude Code задайте любой вопрос. Если ответ появился — всё работает.

Для Windows/PowerShell:

$env:ANTHROPIC_BASE_URL="https://gate.joingonka.ai"
$env:ANTHROPIC_API_KEY="jg-ваш-ключ"
claude

Сравнение стоимости с Anthropic

Claude Code — один из самых «прожорливых» AI-инструментов: он отправляет полный контекст файлов, историю команд и diff'ы. Типичная сессия потребляет 20-50M токенов.

ПровайдерМодельЦена input/output за 1MСессия 4ч (~30M токенов)Месяц (20 рабочих дней)
JoinGonkaQwen3-235B$0.001 / $0.001$0.03$0.60
AnthropicClaude Sonnet 4$3.00 / $15.00$210$4,200
OpenAIGPT-4o$2.50 / $10.00$150$3,000

Разница — три-четыре порядка. За $0.60 в месяц через JoinGonka вы получаете то, что стоит $4,200+ у Anthropic. Для инди-разработчика это разница между «могу позволить AI-ассистента» и «не могу».

Советы по работе

Несколько рекомендаций для эффективной работы с Claude Code через Gonka:

  • Контекст: Qwen3-235B имеет контекстное окно 128K токенов (~100K слов) — достаточно для большинства проектов. Максимальная длина ответа через Gateway — 2048 токенов. Для длинных генераций может потребоваться разбить задачу на части. Спецификации модели: HuggingFace.
  • Streaming: Gateway поддерживает streaming в нативном Anthropic-формате — ответ начинает отображаться сразу, как при нативном Claude.
  • Tool calling: Qwen3-235B поддерживает нативный tool calling, что важно для Claude Code — инструмент активно использует функции для работы с файлами и командами.
  • Задержка: первый запрос может занять 5-10 секунд (холодный старт ноды). Последующие — 1-3 секунды.
  • Другие инструменты: JoinGonka Gateway совместим и с OpenAI API — Aider, OpenCode, Cursor подключаются через /v1/chat/completions.

Для разработчиков, которые предпочитают другие терминальные инструменты, см. также: Aider, OpenCode.

Claude Code + Gonka = мощный терминальный AI-ассистент за ~$0.60/месяц вместо $4,200 у Anthropic. Прямое подключение через Anthropic API — без прокси, 2 переменные, 2 минуты. 10M бесплатных токенов на старте.

Хотите узнать больше?

Изучите другие разделы или начните зарабатывать GNK прямо сейчас.

Получить бесплатные 10M токенов →