知識ベースのセクション ▾
初心者向け
投資家向け
技術関連
分析
ツール
- Cursor + Gonka AI — コーディングのための安価な LLM
- Claude Code + Gonka AI — ターミナルのための LLM
- OpenClaw + Gonka AI — 利用しやすい AI エージェント
- OpenCode + Gonka AI — コードのための無料 AI
- Continue.dev + Gonka AI — VS Code/JetBrains のための AI
- Cline + Gonka AI — VS Code の AI エージェント
- Aider + Gonka AI — AI とのペアプログラミング
- LangChain + Gonka AI — ごくわずかなコストの AI アプリケーション
- n8n + Gonka AI — 安価な AI による自動化
- Open WebUI + Gonka AI — 独自の ChatGPT
- LibreChat + Gonka AI — オープンソースのChatGPT
- APIクイックスタート — curl, Python, TypeScript
- JoinGonka Gateway — 完全な概要
- マネジメントキー — Gonka 上の SaaS
ツール
LangChain + Gonka AI — ごくわずかなコストの AI アプリケーション
LangChain は、Python および JavaScript で AI アプリケーションを作成するための最も人気のあるフレームワークです。RAG パイプライン、チェーン、エージェント、ドキュメント操作など、LangChain はこれらすべてに対する抽象化を提供します。
LangChain は、ChatOpenAI クラスを介して OpenAI 互換 API をネイティブにサポートしています。これは、追加のパッケージや設定なしに、JoinGonka Gateway が3行のコードで統合できることを意味します。
結果:OpenAI の2.50〜15ドルと比較して、1Mトークンあたり0.001ドルで動作する RAG システム、チャットボット、または AI エージェント。
クイックスタート: 3行のコード
LangChainをGonkaに接続する最小限の例:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-YOUR-KEY",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
response = llm.invoke("Explain what RAG is")
print(response.content)これだけです。3行で、LangChainプロジェクトは分散型Gonkaネットワークを介してわずかな費用で動作します。
依存関係のインストール:
pip install langchain langchain-openai推奨: max_tokens=2048を明示的に指定してください — これはJoinGonka Gatewayの最大値です。Qwen3-235Bのコンテキストウィンドウは128Kトークンです — RAGパイプラインでchunk_sizeを設定する際に考慮してください。
例: Gonka との RAG パイプライン
RAG (Retrieval-Augmented Generation) は、AI アプリケーションの最も人気のあるパターンです。ドキュメントを読み込み、チャンクに分割し、埋め込みを作成し、関連するフラグメントを検索して、コンテキスト付きの応答を生成します。
from langchain_openai import ChatOpenAI
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains import RetrievalQA
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.document_loaders import TextLoader
# 1. Gonka を介した LLM
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-あなたのキー",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
streaming=True,
)
# 2. ドキュメントの読み込みとインデックス作成
loader = TextLoader("docs/my_document.txt")
docs = loader.load()
splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
chunks = splitter.split_documents(docs)
# 3. ベクトルストア(ローカル、無料)
embeddings = HuggingFaceEmbeddings()
vectorstore = FAISS.from_documents(chunks, embeddings)
# 4. RAG チェーン
qa = RetrievalQA.from_chain_type(
llm=llm,
retriever=vectorstore.as_retriever(),
)
# 5. クエリ
result = qa.invoke("このドキュメントは何についてですか?")
print(result["result"])コスト: RAG パイプラインの1つのクエリ(検索 + 生成)は、約2〜5K の LLM トークンを使用します。Gonka を介すると0.000002〜0.000005ドルです。OpenAI を介すると0.005〜0.05ドルです。違いは10,000倍です。
1日に数千のリクエストを処理するプロダクションシステムの場合、節約は月額数万ドルに達します。
例: ツールコーリングを持つ AI エージェント
LangChain を使用すると、ツールを持つエージェントを作成できます。Qwen3-235B はネイティブなツール呼び出しをサポートしており、エージェントはテキスト応答の解析なしに確実に機能します。
from langchain_openai import ChatOpenAI
from langchain.agents import create_openai_tools_agent, AgentExecutor
from langchain.tools import tool
from langchain.prompts import ChatPromptTemplate
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-あなたのキー",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
@tool
def calculator(expression: str) -> str:
"""数学的式を評価します。"""
return str(eval(expression))
@tool
def search_web(query: str) -> str:
"""インターネットで情報を検索します。"""
return f"検索結果: {query}"
prompt = ChatPromptTemplate.from_messages([
("system", "あなたは役立つアシスタントです。"),
("human", "{input}"),
("placeholder", "{agent_scratchpad}"),
])
agent = create_openai_tools_agent(llm, [calculator, search_web], prompt)
executor = AgentExecutor(agent=agent, tools=[calculator, search_web])
result = executor.invoke({"input": "2**10 * 3.14 はどれくらいになりますか?"})
print(result["output"])エージェントは calculator を呼び出し、結果を取得して応答を形成します。Gonka を介したこのサイクル全体は約0.00001ドルです。OpenAI を介すると0.01〜0.05ドルです。数千人のユーザーを持つシステムの場合、これは数万ドルの違いになります。