Sekcje bazy wiedzy ▾
Dla początkujących
Dla inwestorów
- Skąd wartość tokena GNK
- Gonka vs konkurenci: Render, Akash, io.net
- Libermanowie: od biofizyki do zdecentralizowanego AI
- Tokenomika GNK
- Ryzyka i perspektywy Gonka: obiektywna analiza
- Gonka vs Render Network: szczegółowe porównanie
- Gonka vs Akash: wnioskowanie AI vs kontenery
- Gonka vs io.net: inferencja vs rynek GPU
- Gonka vs Bittensor: szczegółowe porównanie dwóch podejść do AI
- Gonka vs Flux: dwa podejścia do użytecznego mining
- Zarządzanie w Gonka: Jak zdecentralizowana sieć jest zarządzana
Techniczne
Analiza
Narzędzia
- Cursor + Gonka AI — tani LLM do kodowania
- Claude Code + Gonka AI — LLM dla terminala
- OpenClaw + Gonka AI — dostępne agenty AI
- OpenCode + Gonka AI — bezpłatne AI dla kodu
- Continue.dev + Gonka AI — AI dla VS Code/JetBrains
- Cline + Gonka AI — agent AI w VS Code
- Aider + Gonka AI — programowanie w parach z AI
- LangChain + Gonka AI — aplikacje AI za grosze
- n8n + Gonka AI — automatyzacja z tanim AI
- Open WebUI + Gonka AI — Twój własny ChatGPT
- LibreChat + Gonka AI — open-source ChatGPT
- API szybki start — curl, Python, TypeScript
- JoinGonka Gateway — pełny przegląd
- Klucze Zarządzania — SaaS na Gonka
Narzędzia
LangChain + Gonka AI — aplikacje AI za grosze
LangChain to najpopularniejszy framework do tworzenia aplikacji AI w Pythonie i JavaScript. RAG-potoki, łańcuchy, agenci, praca z dokumentami — LangChain zapewnia abstrakcje dla tego wszystkiego.
LangChain natywnie obsługuje interfejsy API zgodne z OpenAI za pośrednictwem klasy ChatOpenAI. Oznacza to, że JoinGonka Gateway integruje się w 3 liniach kodu — bez dodatkowych pakietów i konfiguracji.
Rezultat: system RAG, chatbot lub agent AI, działający za 0,001 USD/1 M tokenów zamiast 2,50–15 USD w OpenAI.
Szybki start: 3 linie kodu
Minimalny przykład — podłączenie LangChain do Gonka:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-twój-klucz",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
response = llm.invoke("Explain what RAG is")
print(response.content)To wszystko. Trzy linijki — i Twój projekt LangChain działa przez zdecentralizowaną sieć Gonka za grosze.
Instalacja zależności:
pip install langchain langchain-openaiZalecenie: jawnie określ max_tokens=2048 — to maksimum przez JoinGonka Gateway. Okno kontekstowe Qwen3-235B — 128K tokenów — weź to pod uwagę przy konfiguracji chunk_size w potokach RAG.
Przykład: potok RAG z Gonka
RAG (Retrieval-Augmented Generation) — najpopularniejszy wzorzec aplikacji AI. Ładujesz dokumenty, dzielisz na fragmenty, tworzysz osadzenia, wyszukujesz odpowiednie fragmenty i generujesz odpowiedź z kontekstem.
from langchain_openai import ChatOpenAI
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains import RetrievalQA
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.document_loaders import TextLoader
# 1. LLM przez Gonka
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-twój-klucz",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
streaming=True,
)
# 2. Ładowanie i indeksowanie dokumentów
loader = TextLoader("docs/my_document.txt")
docs = loader.load()
splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
chunks = splitter.split_documents(docs)
# 3. Magazyn wektorowy (lokalny, bezpłatny)
embeddings = HuggingFaceEmbeddings()
vectorstore = FAISS.from_documents(chunks, embeddings)
# 4. Łańcuch RAG
qa = RetrievalQA.from_chain_type(
llm=llm,
retriever=vectorstore.as_retriever(),
)
# 5. Zapytanie
result = qa.invoke("O czym jest ten dokument?")
print(result["result"])Koszt: jedno zapytanie potoku RAG (pobieranie + generowanie) zużywa ~2–5K tokenów LLM. Przez Gonka to 0,000002–0,000005 USD. Przez OpenAI — 0,005–0,05 USD. Różnica — 10 000x.
Dla systemów produkcyjnych, przetwarzających tysiące zapytań dziennie, oszczędności wynoszą dziesiątki tysięcy dolarów miesięcznie.
Przykład: Agent AI z wywoływaniem narzędzi
LangChain umożliwia tworzenie agentów z narzędziami (tools). Qwen3-235B obsługuje natywne wywoływanie narzędzi — agenci działają niezawodnie, bez parsowania odpowiedzi tekstowych.
from langchain_openai import ChatOpenAI
from langchain.agents import create_openai_tools_agent, AgentExecutor
from langchain.tools import tool
from langchain.prompts import ChatPromptTemplate
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-twój-klucz",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
@tool
def calculator(expression: str) -> str:
"""Oblicza wyrażenie matematyczne."""
return str(eval(expression))
@tool
def search_web(query: str) -> str:
"""Wyszukuje informacje w internecie."""
return f"Wyniki wyszukiwania dla: {query}"
prompt = ChatPromptTemplate.from_messages([
("system", "Jesteś pomocnym asystentem."),
("human", "{input}"),
("placeholder", "{agent_scratchpad}"),
])
agent = create_openai_tools_agent(llm, [calculator, search_web], prompt)
executor = AgentExecutor(agent=agent, tools=[calculator, search_web])
result = executor.invoke({"input": "Ile wynosi 2**10 * 3.14?"})
print(result["output"])Agent wywołuje calculator, otrzymuje wynik i formułuje odpowiedź. Cały cykl kosztuje ~0,00001 USD przez Gonka. Przez OpenAI — 0,01–0,05 USD. Dla systemów z tysiącami użytkowników to różnica dziesiątek tysięcy dolarów.
Chcesz wiedzieć więcej?
Zapoznaj się z innymi sekcjami lub zacznij zarabiać GNK już teraz.
Uzyskaj bezpłatne 10M tokenów →