Secciones de la base de conocimientos ▾
Para principiantes
Para inversores
- De dónde proviene el valor del token GNK
- Gonka vs Competidores: Render, Akash, io.net
- Los Liberman: de la biofísica a la IA descentralizada
- Tokenomics de GNK
- Riesgos y perspectivas de Gonka: análisis objetivo
- Gonka vs Render Network: comparación detallada
- Gonka vs Akash: inferencia de IA vs contenedores
- Gonka vs io.net: inferencia vs marketplace de GPU
- Gonka vs Bittensor: Una Comparación Detallada de Dos Enfoques para la IA
- Gonka vs Flux: Dos Enfoques para la Minería Útil
- Gobernanza en Gonka: cómo se gestiona una red descentralizada
Técnico
Análisis
Herramientas
- Cursor + Gonka AI — LLM barato para codificación
- Claude Code + Gonka AI — LLM para terminal
- OpenClaw + Gonka AI — Agentes de IA accesibles
- OpenCode + Gonka AI — IA gratuita para código
- Continue.dev + Gonka AI — AI para VS Code/JetBrains
- Cline + Gonka AI — Agente de IA en VS Code
- Aider + Gonka AI — Programación en pareja con IA
- LangChain + Gonka AI — Aplicaciones de IA por centavos
- n8n + Gonka AI — Automatización con IA barata
- Open WebUI + Gonka AI — Su propio ChatGPT
- LibreChat + Gonka AI — ChatGPT de código abierto
- API inicio rápido — curl, Python, TypeScript
- JoinGonka Gateway — Resumen completo
- Management Keys — SaaS en Gonka
Herramientas
LangChain + Gonka AI — Aplicaciones de IA por centavos
LangChain es el framework más popular para crear aplicaciones de IA en Python y JavaScript. RAG-pipelines, cadenas (chains), agentes, trabajo con documentos, LangChain proporciona abstracciones para todo esto.
LangChain admite de forma nativa las API compatibles con OpenAI a través de la clase ChatOpenAI. Esto significa que JoinGonka Gateway se integra en 3 líneas de código, sin paquetes ni configuraciones adicionales.
Resultado: un sistema RAG, un chatbot o un agente de IA que funciona por $0.001/1M de tokens en lugar de $2.50-15 en OpenAI.
Inicio rápido: 3 líneas de código
Un ejemplo mínimo: conectar LangChain a Gonka:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-su-clave",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
response = llm.invoke("Explain what RAG is")
print(response.content)Eso es todo. Tres líneas, y su proyecto LangChain funciona a través de la red descentralizada Gonka por centavos.
Instalación de dependencias:
pip install langchain langchain-openaiRecomendación: especifique explícitamente max_tokens=2048, que es el máximo a través de JoinGonka Gateway. La ventana de contexto de Qwen3-235B es de 128K tokens; téngalo en cuenta al configurar chunk_size en las tuberías de RAG.
Ejemplo: pipeline RAG con Gonka
RAG (Retrieval-Augmented Generation) es el patrón más popular de aplicaciones de IA. Cargue documentos, divídalos en fragmentos, cree embeddings, busque fragmentos relevantes y genere una respuesta con contexto.
from langchain_openai import ChatOpenAI
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains import RetrievalQA
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.document_loaders import TextLoader
# 1. LLM a través de Gonka
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-su-clave",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
streaming=True,
)
# 2. Carga e indexación de documentos
loader = TextLoader("docs/my_document.txt")
docs = loader.load()
splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
chunks = splitter.split_documents(docs)
# 3. Almacenamiento vectorial (local, gratuito)
embeddings = HuggingFaceEmbeddings()
vectorstore = FAISS.from_documents(chunks, embeddings)
# 4. Cadena RAG
qa = RetrievalQA.from_chain_type(
llm=llm,
retriever=vectorstore.as_retriever(),
)
# 5. Consulta
result = qa.invoke("What is this document about?")
print(result["result"])Costo: una consulta del pipeline RAG (recuperación + generación) utiliza ~2-5K tokens de LLM. A través de Gonka, esto es $0.000002-0.000005. A través de OpenAI, $0.005-0.05. La diferencia es de 10,000 veces.
Para sistemas de producción que procesan miles de solicitudes al día, el ahorro asciende a decenas de miles de dólares al mes.
Ejemplo: agente de IA con tool calling
LangChain permite crear agentes con herramientas (tools). Qwen3-235B admite el tool calling nativo: los agentes funcionan de forma fiable, sin analizar las respuestas de texto.
from langchain_openai import ChatOpenAI
from langchain.agents import create_openai_tools_agent, AgentExecutor
from langchain.tools import tool
from langchain.prompts import ChatPromptTemplate
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-su-clave",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
@tool
def calculator(expression: str) -> str:
"""Calcula una expresión matemática."""
return str(eval(expression))
@tool
def search_web(query: str) -> str:
"""Busca información en Internet."""
return f"Resultados de búsqueda para: {query}"
prompt = ChatPromptTemplate.from_messages([
("system", "Eres un asistente útil."),
("human", "{input}"),
("placeholder", "{agent_scratchpad}"),
])
agent = create_openai_tools_agent(llm, [calculator, search_web], prompt)
executor = AgentExecutor(agent=agent, tools=[calculator, search_web])
result = executor.invoke({"input": "¿Cuánto es 2**10 * 3.14?"})
print(result["output"])El agente llama a calculator, obtiene el resultado y forma la respuesta. Todo el ciclo cuesta ~$0.00001 a través de Gonka. A través de OpenAI, $0.01-0.05. Para sistemas con miles de usuarios, esta es una diferencia de decenas de miles de dólares.
¿Quieres saber más?
Explora otras secciones o empieza a ganar GNK ahora mismo.
Obtener 10M de tokens gratuitos →