Seções da Base de Conhecimento ▾
Para Iniciantes
Para Investidores
- De onde vem o valor do token GNK
- Gonka vs Concorrentes: Render, Akash, io.net
- Os Libermans: da biofísica à IA descentralizada
- Tokenomics de GNK
- Riscos e perspectivas da Gonka: análise objetiva
- Gonka vs Render Network: comparação detalhada
- Gonka vs Akash: inferência de IA vs contêineres
- Gonka vs io.net: inferência vs marketplace de GPU
- Gonka vs Bittensor: Uma Comparação Detalhada de Duas Abordagens para IA
- Gonka vs Flux: Duas Abordagens para Mineração Útil
- Governança em Gonka: como uma rede descentralizada é gerenciada
Técnico
Análises
Ferramentas
- Cursor + Gonka AI — LLM barato para codificação
- Claude Code + Gonka AI — LLM para terminal
- OpenClaw + Gonka AI — agentes AI acessíveis
- OpenCode + Gonka AI — AI grátis para código
- Continue.dev + Gonka AI — AI para VS Code/JetBrains
- Cline + Gonka AI — agente AI no VS Code
- Aider + Gonka AI — programação em par com AI
- LangChain + Gonka AI — aplicativos AI por uma fração do custo
- n8n + Gonka AI — automação com AI barata
- Open WebUI + Gonka AI — seu próprio ChatGPT
- LibreChat + Gonka AI — ChatGPT de código aberto
- API início rápido — curl, Python, TypeScript
- JoinGonka Gateway — Visão geral completa
- Management Keys — SaaS na Gonka
Ferramentas
LangChain + Gonka AI — aplicativos AI por uma fração do custo
LangChain — o framework mais popular para criar aplicativos AI em Python e JavaScript. RAG-pipelines, cadeias (chains), agentes, trabalho com documentos — LangChain oferece abstrações para tudo isso.
LangChain suporta nativamente APIs compatíveis com OpenAI via a classe ChatOpenAI. Isso significa que JoinGonka Gateway se integra em 3 linhas de código — sem pacotes ou configurações adicionais.
Resultado: um sistema RAG, chatbot ou agente AI, operando por $0.001/1M tokens em vez de $2.50-15 na OpenAI.
Início rápido: 3 linhas de código
Exemplo mínimo — conexão do LangChain à Gonka:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-sua-chave",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
response = llm.invoke("Explique o que é RAG")
print(response.content)É tudo. Três linhas — e seu projeto LangChain funciona através da rede descentralizada Gonka por centavos.
Instalação das dependências:
pip install langchain langchain-openaiRecomendação: especifique explicitamente max_tokens=2048 — este é o máximo via JoinGonka Gateway. A janela de contexto do Qwen3-235B é de 128K tokens — leve isso em consideração ao configurar chunk_size nos pipelines RAG.
Exemplo: pipeline RAG com Gonka
RAG (Retrieval-Augmented Generation) é o padrão mais popular de aplicativos AI. Você carrega documentos, os divide em chunks, cria embeddings, busca fragmentos relevantes e gera uma resposta com contexto.
from langchain_openai import ChatOpenAI
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains import RetrievalQA
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.document_loaders import TextLoader
# 1. LLM via Gonka
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-sua-chave",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
streaming=True,
)
# 2. Carregamento e indexação de documentos
loader = TextLoader("docs/my_document.txt")
docs = loader.load()
splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
chunks = splitter.split_documents(docs)
# 3. Armazenamento vetorial (local, gratuito)
embeddings = HuggingFaceEmbeddings()
vectorstore = FAISS.from_documents(chunks, embeddings)
# 4. Cadeia RAG
qa = RetrievalQA.from_chain_type(
llm=llm,
retriever=vectorstore.as_retriever(),
)
# 5. Consulta
result = qa.invoke("Sobre o que é este documento?")
print(result["result"])Custo: uma consulta de pipeline RAG (recuperação + geração) usa ~2-5K tokens LLM. Via Gonka, isso é $0.000002-0.000005. Via OpenAI — $0.005-0.05. Diferença — 10.000x.
Para sistemas de produção, que processam milhares de requisições por dia, a economia é de dezenas de milhares de dólares por mês.
Exemplo: Agente de IA com tool calling
LangChain permite criar agentes com ferramentas (tools). Qwen3-235B suporta tool calling nativo — os agentes funcionam de forma confiável, sem analisar respostas de texto.
from langchain_openai import ChatOpenAI
from langchain.agents import create_openai_tools_agent, AgentExecutor
from langchain.tools import tool
from langchain.prompts import ChatPromptTemplate
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-sua-chave",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
@tool
def calculator(expression: str) -> str:
"""Calcula uma expressão matemática."""
return str(eval(expression))
@tool
def search_web(query: str) -> str:
"""Pesquisa informações na internet."""
return f"Resultados da pesquisa para: {query}"
prompt = ChatPromptTemplate.from_messages([
("system", "Você é um assistente útil."),
("human", "{input}"),
("placeholder", "{agent_scratchpad}"),
])
agent = create_openai_tools_agent(llm, [calculator, search_web], prompt)
executor = AgentExecutor(agent=agent, tools=[calculator, search_web])
result = executor.invoke({"input": "Quanto é 2**10 * 3.14?"})
print(result["output"])O agente invoca o calculator, obtém o resultado e formula a resposta. Todo o ciclo custa ~$0.00001 via Gonka. Via OpenAI — $0.01-0.05. Para sistemas com milhares de usuários, essa é uma diferença de dezenas de milhares de dólares.
Quer saber mais?
Explore outras seções ou comece a ganhar GNK agora mesmo.
Obtenha 10M tokens grátis →