Sezioni dell'archivio conoscenza ▾

Strumenti

LibreChat + Gonka AI — ChatGPT open-source

LibreChat — un clone open-source di ChatGPT con supporto per più provider LLM contemporaneamente. Passa da un modello all'altro nella stessa interfaccia: Gonka, OpenAI, Anthropic, modelli locali. In più: plugin, prompt preimpostati, multiuser, deploy Docker.

LibreChat supporta sia le API compatibili con OpenAI che le API Anthropic. JoinGonka Gateway fornisce entrambi i formati — /v1/chat/completions (OpenAI) e /v1/messages (Anthropic) — con una singola chiave. La connessione è una singola riga in .env.

Il risultato: una potente alternativa a ChatGPT per il team a $0.001/1M di token, con supporto per entrambi i formati API.

Passaggio 1: Distribuire LibreChat

Docker Compose — il metodo di installazione consigliato:

# Clonazione del repository
git clone https://github.com/danny-avila/LibreChat.git
cd LibreChat

# Copia del file env
cp .env.example .env

Chiave API JoinGonka: registrati su gate.joingonka.ai/register, ottieni 10M token gratuiti, crea una chiave jg-xxx.

Passaggio 2: Configurare Gonka come provider

Modifica il file .env nella root di LibreChat:

# .env
OPENAI_API_KEY=jg-tua-chiave
OPENAI_REVERSE_PROXY=https://gate.joingonka.ai/v1/chat/completions
OPENAI_MODELS=Qwen/Qwen3-235B-A22B-Instruct-2507-FP8

Avvia:

docker compose up -d

Apri http://localhost:3080 — LibreChat è pronto.

Multi-modellabilità: LibreChat ti consente di connettere più provider. Puoi lasciare l'API OpenAI nativa per attività specifiche, aggiungere un modello locale tramite Ollama e utilizzare Gonka come provider principale economico — tutto in un'unica interfaccia.

Per una configurazione avanzata, utilizza librechat.yaml:

# librechat.yaml
endpoints:
  custom:
    - name: "Gonka"
      apiKey: "jg-tua-chiave"
      baseURL: "https://gate.joingonka.ai/v1"
      models:
        default:
          - "Qwen/Qwen3-235B-A22B-Instruct-2507-FP8"
      titleConvo: true
      titleModel: "Qwen/Qwen3-235B-A22B-Instruct-2507-FP8"

LibreChat vs Open WebUI

Le due migliori interfacce ChatGPT self-hosted – confrontiamo:

ParametroLibreChatOpen WebUI
MultimodaleIntegrata (selezione nell'interfaccia utente)Integrata
PluginSì (ecosistema)Sì (estensioni)
RAGTramite pluginIntegrato
Dockerdocker composeUn singolo container
InterfacciaMassimo simile a ChatGPTStile proprio
Comunità30K+ GitHub stars40K+ GitHub stars
Configurazione.env + librechat.yamlUI + env

Entrambi funzionano egregiamente con JoinGonka Gateway. LibreChat è più vicino a ChatGPT per UX ed è migliore per team con più provider. Open WebUI è più semplice da implementare (un singolo container) e ha RAG integrato. La scelta dipende dalle preferenze.

Parametri del modello tramite JoinGonka: finestra di contesto – 128K token, lunghezza massima della risposta – 2048 token. Per risposte più lunghe è possibile collegare provider aggiuntivi in LibreChat.

LibreChat + Gonka = clone ChatGPT con multi-modellabilità a $0.001/1M token. Open-source, deployment Docker, plugin. Una riga in .env — e il tuo team ha il suo ChatGPT.

Vuoi saperne di più?

Esplora altre sezioni o inizia a guadagnare GNK subito.

Ricevi 10M token gratuiti →