Sections de la base de connaissances ▾
Pour les débutants
Pour les investisseurs
- D'où vient la valeur du jeton GNK
- Gonka vs concurrents : Render, Akash, io.net
- Les Liberman : de la biophysique à l'IA décentralisée
- Tokenomics GNK
- Risques et perspectives de Gonka : analyse objective
- Gonka vs Render Network : comparaison détaillée
- Gonka vs Akash : inférence d'IA vs conteneurs
- Gonka vs io.net : inférence vs marketplace GPU
- Gonka vs Bittensor : une comparaison détaillée des deux approches de l'IA
- Gonka vs Flux : deux approches du minage utile
- Gouvernance chez Gonka : comment le réseau décentralisé est géré
Technique
Analyse
Outils
- Cursor + Gonka AI — LLM pas cher pour le codage
- Claude Code + Gonka AI — LLM pour le terminal
- OpenClaw + Gonka AI — Agents IA accessibles
- OpenCode + Gonka AI — IA gratuite pour le code
- Continue.dev + Gonka AI — IA pour VS Code/JetBrains
- Cline + Gonka AI — Agent IA dans VS Code
- Aider + Gonka AI — programmation en binôme avec l'IA
- LangChain + Gonka AI — Applications IA pour des centimes
- n8n + Gonka AI — Automatisation avec IA pas chère
- Open WebUI + Gonka AI — Votre propre ChatGPT
- LibreChat + Gonka AI — ChatGPT open-source
- API démarrage rapide — curl, Python, TypeScript
- JoinGonka Gateway — présentation complète
- Management Keys — SaaS sur Gonka
Outils
LangChain + Gonka AI — Applications IA pour des centimes
LangChain est le framework le plus populaire pour créer des applications IA en Python et JavaScript. Les pipelines RAG, les chaînes (chains), les agents, le travail avec des documents — LangChain fournit des abstractions pour tout cela.
LangChain prend en charge nativement les API compatibles OpenAI via la classe ChatOpenAI. Cela signifie que JoinGonka Gateway s'intègre en 3 lignes de code — sans packages supplémentaires ni configurations.
Résultat : un système RAG, un chatbot ou un agent IA fonctionnant pour 0,001 $/1M de jetons au lieu de 2,50 à 15 $ chez OpenAI.
Démarrage rapide : 3 lignes de code
Exemple minimal — connexion de LangChain à Gonka :
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-votre-clé",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
response = llm.invoke("Expliquez ce qu'est le RAG")
print(response.content)C'est tout. Trois lignes — et votre projet LangChain fonctionne via le réseau décentralisé Gonka pour des centimes.
Installation des dépendances :
pip install langchain langchain-openaiRecommandation : spécifiez explicitement max_tokens=2048 — c'est le maximum via JoinGonka Gateway. La fenêtre de contexte de Qwen3-235B est de 128K jetons — tenez-en compte lors de la configuration de chunk_size dans les pipelines RAG.
Exemple : pipeline RAG avec Gonka
RAG (Retrieval-Augmented Generation) — le modèle le plus populaire d'applications IA. Vous chargez des documents, les divisez en morceaux, créez des embeddings, recherchez des fragments pertinents et générez une réponse avec le contexte.
from langchain_openai import ChatOpenAI
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains import RetrievalQA
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.document_loaders import TextLoader
# 1. LLM via Gonka
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-votre-clé",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
streaming=True,
)
# 2. Chargement et indexation des documents
loader = TextLoader("docs/my_document.txt")
docs = loader.load()
splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
chunks = splitter.split_documents(docs)
# 3. Stockage vectoriel (local, gratuit)
embeddings = HuggingFaceEmbeddings()
vectorstore = FAISS.from_documents(chunks, embeddings)
# 4. Chaîne RAG
qa = RetrievalQA.from_chain_type(
llm=llm,
retriever=vectorstore.as_retriever(),
)
# 5. Requête
result = qa.invoke("De quoi parle ce document ?")
print(result["result"])Coût : une requête de pipeline RAG (récupération + génération) utilise environ 2 à 5 000 jetons LLM. Via Gonka, cela coûte 0,000002 à 0,000005 $. Via OpenAI, 0,005 à 0,05 $. La différence est de 10 000x.
Pour les systèmes de production traitant des milliers de requêtes par jour, l'économie représente des dizaines de milliers de dollars par mois.
Exemple : Agent IA avec appel d'outil
LangChain permet de créer des agents avec des outils (tools). Qwen3-235B prend en charge l'appel d'outil natif — les agents fonctionnent de manière fiable, sans analyser les réponses textuelles.
from langchain_openai import ChatOpenAI
from langchain.agents import create_openai_tools_agent, AgentExecutor
from langchain.tools import tool
from langchain.prompts import ChatPromptTemplate
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-votre-clé",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
@tool
def calculator(expression: str) -> str:
"""Calcule une expression mathématique."""
return str(eval(expression))
@tool
def search_web(query: str) -> str:
"""Recherche des informations sur Internet."""
return f"Résultats de la recherche pour : {query}"
prompt = ChatPromptTemplate.from_messages([
("system", "Vous êtes un assistant utile."),
("human", "{input}"),
("placeholder", "{agent_scratchpad}"),
])
agent = create_openai_tools_agent(llm, [calculator, search_web], prompt)
executor = AgentExecutor(agent=agent, tools=[calculator, search_web])
result = executor.invoke({"input": "Combien font 2**10 * 3.14 ?"})
print(result["output"])L'agent appelle calculator, obtient le résultat et formule la réponse. Le cycle entier coûte environ 0,00001 $ via Gonka. Via OpenAI, 0,01 à 0,05 $. Pour les systèmes avec des milliers d'utilisateurs, c'est une différence de dizaines de milliers de dollars.
Vous voulez en savoir plus ?
Explorez d'autres sections ou commencez à gagner des GNK dès maintenant.
Obtenez 10M de jetons gratuits →