知識ベースのセクション ▾

ツール

ツール

LangChain + Gonka AI — ごくわずかなコストの AI アプリケーション

LangChain は、Python および JavaScript で AI アプリケーションを作成するための最も人気のあるフレームワークです。RAG パイプライン、チェーン、エージェント、ドキュメント操作など、LangChain はこれらすべてに対する抽象化を提供します。

LangChain は、ChatOpenAI クラスを介して OpenAI 互換 API をネイティブにサポートしています。これは、追加のパッケージや設定なしに、JoinGonka Gateway が3行のコードで統合できることを意味します。

結果:OpenAI の2.50〜15ドルと比較して、1Mトークンあたり0.001ドルで動作する RAG システム、チャットボット、または AI エージェント。

クイックスタート: 3行のコード

LangChainをGonkaに接続する最小限の例:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(
    base_url="https://gate.joingonka.ai/v1",
    api_key="jg-YOUR-KEY",
    model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)

response = llm.invoke("Explain what RAG is")
print(response.content)

これだけです。3行で、LangChainプロジェクトは分散型Gonkaネットワークを介してわずかな費用で動作します。

依存関係のインストール:

pip install langchain langchain-openai

推奨: max_tokens=2048を明示的に指定してください — これはJoinGonka Gatewayの最大値です。Qwen3-235Bのコンテキストウィンドウは128Kトークンです — RAGパイプラインでchunk_sizeを設定する際に考慮してください。

例: Gonka との RAG パイプライン

RAG (Retrieval-Augmented Generation) は、AI アプリケーションの最も人気のあるパターンです。ドキュメントを読み込み、チャンクに分割し、埋め込みを作成し、関連するフラグメントを検索して、コンテキスト付きの応答を生成します。

from langchain_openai import ChatOpenAI
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains import RetrievalQA
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.document_loaders import TextLoader

# 1. Gonka を介した LLM
llm = ChatOpenAI(
    base_url="https://gate.joingonka.ai/v1",
    api_key="jg-あなたのキー",
    model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
    streaming=True,
)

# 2. ドキュメントの読み込みとインデックス作成
loader = TextLoader("docs/my_document.txt")
docs = loader.load()
splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
chunks = splitter.split_documents(docs)

# 3. ベクトルストア(ローカル、無料)
embeddings = HuggingFaceEmbeddings()
vectorstore = FAISS.from_documents(chunks, embeddings)

# 4. RAG チェーン
qa = RetrievalQA.from_chain_type(
    llm=llm,
    retriever=vectorstore.as_retriever(),
)

# 5. クエリ
result = qa.invoke("このドキュメントは何についてですか?")
print(result["result"])

コスト: RAG パイプラインの1つのクエリ(検索 + 生成)は、約2〜5K の LLM トークンを使用します。Gonka を介すると0.000002〜0.000005ドルです。OpenAI を介すると0.005〜0.05ドルです。違いは10,000倍です。

1日に数千のリクエストを処理するプロダクションシステムの場合、節約は月額数万ドルに達します。

例: ツールコーリングを持つ AI エージェント

LangChain を使用すると、ツールを持つエージェントを作成できます。Qwen3-235B はネイティブなツール呼び出しをサポートしており、エージェントはテキスト応答の解析なしに確実に機能します。

from langchain_openai import ChatOpenAI
from langchain.agents import create_openai_tools_agent, AgentExecutor
from langchain.tools import tool
from langchain.prompts import ChatPromptTemplate

llm = ChatOpenAI(
    base_url="https://gate.joingonka.ai/v1",
    api_key="jg-あなたのキー",
    model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)

@tool
def calculator(expression: str) -> str:
    """数学的式を評価します。"""
    return str(eval(expression))

@tool
def search_web(query: str) -> str:
    """インターネットで情報を検索します。"""
    return f"検索結果: {query}"

prompt = ChatPromptTemplate.from_messages([
    ("system", "あなたは役立つアシスタントです。"),
    ("human", "{input}"),
    ("placeholder", "{agent_scratchpad}"),
])

agent = create_openai_tools_agent(llm, [calculator, search_web], prompt)
executor = AgentExecutor(agent=agent, tools=[calculator, search_web])

result = executor.invoke({"input": "2**10 * 3.14 はどれくらいになりますか?"})
print(result["output"])

エージェントは calculator を呼び出し、結果を取得して応答を形成します。Gonka を介したこのサイクル全体は約0.00001ドルです。OpenAI を介すると0.01〜0.05ドルです。数千人のユーザーを持つシステムの場合、これは数万ドルの違いになります。

LangChain + Gonka = 本格的な AI アプリケーションがごくわずかなコストで。RAG、エージェント、チェーンなど、すべて ChatOpenAI を使用した3行のコードで実現。コストは1Mトークンあたり $0.001、ネイティブなツール呼び出し、ストリーミング。

もっと知りたいですか?

他のセクションを探索するか、Gonkaを今すぐ獲得し始めましょう。

10Mの無料トークンを取得 →