Các phần cơ sở kiến thức ▾
Dành cho người mới bắt đầu
Dành cho nhà đầu tư
- Nguồn gốc giá trị của token GNK
- Gonka so với đối thủ: Render, Akash, io.net
- Gia đình Libermans: Từ lý sinh đến AI phi tập trung
- Tokenomics GNK
- Rủi ro và triển vọng của Gonka: phân tích khách quan
- Gonk vs Render Network: so sánh chi tiết
- Gonka vs Akash: suy luận AI vs container
- Gonk vs io.net: suy luận vs thị trường GPU
- Gonka vs Bittensor: So sánh chi tiết hai phương pháp tiếp cận AI
- Gonka vs Flux: Hai cách tiếp cận khai thác hữu ích
- Quản trị trong Gonka: cách một mạng lưới phi tập trung được quản lý
Kỹ thuật
Phân tích
Công cụ
- Cursor + Gonka AI — LLM giá rẻ để viết mã
- Claude Code + Gonka AI — LLM cho thiết bị đầu cuối
- OpenClaw + Gonka AI — tác nhân AI giá cả phải chăng
- OpenCode + Gonka AI — AI miễn phí cho mã
- Continue.dev + Gonka AI — AI cho VS Code/JetBrains
- Cline + Gonka AI — tác nhân AI trong VS Code
- Aider + Gonka AI — lập trình cặp đôi với AI
- LangChain + Gonka AI — ứng dụng AI giá rẻ
- n8n + Gonka AI — tự động hóa với AI giá rẻ
- Open WebUI + Gonka AI — ChatGPT của riêng bạn
- LibreChat + Gonka AI — ChatGPT mã nguồn mở
- Khởi động nhanh API — curl, Python, TypeScript
- JoinGonka Gateway — đánh giá đầy đủ
- Management Keys — SaaS trên Gonka
Công cụ
LangChain + Gonka AI — ứng dụng AI giá rẻ
LangChain — khung công tác phổ biến nhất để tạo ứng dụng AI bằng Python và JavaScript. RAG-pipelines, chuỗi (chains), tác nhân, làm việc với tài liệu — LangChain cung cấp các trừu tượng cho tất cả những điều này.
LangChain hỗ trợ gốc các API tương thích OpenAI thông qua lớp ChatOpenAI. Điều này có nghĩa là JoinGonka Gateway được tích hợp trong 3 dòng mã — không cần gói và cấu hình bổ sung.
Kết quả: hệ thống RAG, chatbot hoặc tác nhân AI, hoạt động với giá 0.001 USD/1M token thay vì 2.50-15 USD với OpenAI.
Bắt đầu nhanh: 3 dòng mã
Ví dụ tối thiểu - kết nối LangChain với Gonka:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-your-key",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
response = llm.invoke("Giải thích RAG là gì")
print(response.content)Chỉ vậy thôi. Ba dòng - và dự án LangChain của bạn hoạt động thông qua mạng lưới phi tập trung Gonka với giá rẻ.
Cài đặt phụ thuộc:
pip install langchain langchain-openaiKhuyến nghị: chỉ định rõ ràng max_tokens=2048 - đây là tối đa thông qua JoinGonka Gateway. Cửa sổ ngữ cảnh của Qwen3-235B là 128K token - hãy tính đến điều này khi định cấu hình chunk_size trong các pipeline RAG.
Ví dụ: RAG-pipeline với Gonka
RAG (Retrieval-Augmented Generation) — mô hình ứng dụng AI phổ biến nhất. Tải tài liệu, chia thành các đoạn nhỏ, tạo nhúng, tìm các đoạn liên quan và tạo câu trả lời với ngữ cảnh.
from langchain_openai import ChatOpenAI
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.chains import RetrievalQA
from langchain_community.vectorstores import FAISS
from langchain_community.embeddings import HuggingFaceEmbeddings
from langchain_community.document_loaders import TextLoader
# 1. LLM thông qua Gonka
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-khóa-của-bạn",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
streaming=True,
)
# 2. Tải và lập chỉ mục tài liệu
loader = TextLoader("docs/my_document.txt")
docs = loader.load()
splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
chunks = splitter.split_documents(docs)
# 3. Kho lưu trữ vector (cục bộ, miễn phí)
embeddings = HuggingFaceEmbeddings()
vectorstore = FAISS.from_documents(chunks, embeddings)
# 4. Chuỗi RAG
qa = RetrievalQA.from_chain_type(
llm=llm,
retriever=vectorstore.as_retriever(),
)
# 5. Truy vấn
result = qa.invoke("Tài liệu này nói về gì?")
print(result["result"])Chi phí: một truy vấn RAG-pipeline (truy xuất + tạo) sử dụng ~2-5K token LLM. Qua Gonka, con số này là 0.000002-0.000005 USD. Qua OpenAI — 0.005-0.05 USD. Khác biệt — 10.000x.
Đối với các hệ thống sản xuất xử lý hàng nghìn truy vấn mỗi ngày, tiết kiệm hàng chục nghìn đô la mỗi tháng.
Ví dụ: tác nhân AI với tool calling
LangChain cho phép tạo tác nhân với các công cụ (tools). Qwen3-235B hỗ trợ tool calling gốc — các tác nhân hoạt động đáng tin cậy, không cần phân tích phản hồi văn bản.
from langchain_openai import ChatOpenAI
from langchain.agents import create_openai_tools_agent, AgentExecutor
from langchain.tools import tool
from langchain.prompts import ChatPromptTemplate
llm = ChatOpenAI(
base_url="https://gate.joingonka.ai/v1",
api_key="jg-khóa-của-bạn",
model="Qwen/Qwen3-235B-A22B-Instruct-2507-FP8",
)
@tool
def calculator(expression: str) -> str:
"""Tính toán biểu thức toán học."""
return str(eval(expression))
@tool
def search_web(query: str) -> str:
"""Tìm kiếm thông tin trên internet."""
return f"Kết quả tìm kiếm cho: {query}"
prompt = ChatPromptTemplate.from_messages([
("system", "Bạn là một trợ lý hữu ích."),
("human", "{input}"),
("placeholder", "{agent_scratchpad}"),
])
agent = create_openai_tools_agent(llm, [calculator, search_web], prompt)
executor = AgentExecutor(agent=agent, tools=[calculator, search_web])
result = executor.invoke({"input": "2**10 * 3.14 là bao nhiêu?"})
print(result["output"])Tác nhân gọi calculator, nhận kết quả và tạo câu trả lời. Toàn bộ chu trình có giá ~0.00001 USD thông qua Gonka. Qua OpenAI — 0.01-0.05 USD. Đối với các hệ thống có hàng nghìn người dùng, đây là sự khác biệt hàng chục nghìn đô la.
Muốn tìm hiểu thêm?
Khám phá các phần khác hoặc bắt đầu kiếm GNK ngay bây giờ.
Nhận 10M token miễn phí →