Sections de la base de connaissances ▾
Pour les débutants
Pour les investisseurs
- D'où vient la valeur du jeton GNK
- Gonka vs concurrents : Render, Akash, io.net
- Les Liberman : de la biophysique à l'IA décentralisée
- Tokenomics GNK
- Risques et perspectives de Gonka : analyse objective
- Gonka vs Render Network : comparaison détaillée
- Gonka vs Akash : inférence d'IA vs conteneurs
- Gonka vs io.net : inférence vs marketplace GPU
- Gonka vs Bittensor : une comparaison détaillée des deux approches de l'IA
- Gonka vs Flux : deux approches du minage utile
- Gouvernance chez Gonka : comment le réseau décentralisé est géré
Technique
Analyse
Outils
- Cursor + Gonka AI — LLM pas cher pour le codage
- Claude Code + Gonka AI — LLM pour le terminal
- OpenClaw + Gonka AI — Agents IA accessibles
- OpenCode + Gonka AI — IA gratuite pour le code
- Continue.dev + Gonka AI — IA pour VS Code/JetBrains
- Cline + Gonka AI — Agent IA dans VS Code
- Aider + Gonka AI — programmation en binôme avec l'IA
- LangChain + Gonka AI — Applications IA pour des centimes
- n8n + Gonka AI — Automatisation avec IA pas chère
- Open WebUI + Gonka AI — Votre propre ChatGPT
- LibreChat + Gonka AI — ChatGPT open-source
- API démarrage rapide — curl, Python, TypeScript
- JoinGonka Gateway — présentation complète
- Management Keys — SaaS sur Gonka
Technologies
Architecture du réseau Gonka : Sprint, Transfer Agents, DiLoCo
Transfer Agents : passerelles entre le client et le GPU
Les Agents de Transfert sont un composant clé de l'architecture Gonka, agissant comme une passerelle intelligente entre les clients et les nœuds ML. Lorsqu'un utilisateur envoie une requête d'IA, elle n'arrive pas directement sur le GPU, mais sur un Agent de Transfert — un nœud intermédiaire spécialisé qui décide quel GPU traitera la requête.
Le processus se déroule ainsi : le client effectue une requête standard POST /v1/chat/completions via l'API compatible OpenAI. L'Agent de Transfert vérifie la signature cryptographique de la requête, identifie le modèle requis et trouve un nœud ML libre avec les caractéristiques appropriées. Chaque nœud ML publie ses paramètres lors de son enregistrement : les modèles qu'il prend en charge, le volume de VRAM, le débit actuel et sa charge. L'Agent de Transfert utilise ces données pour équilibrer la charge — les tâches sont réparties uniformément et ne s'accumulent pas sur un seul nœud.
Pour la tolérance aux pannes, plusieurs Agents de Transfert fonctionnent simultanément sur le réseau. Si l'un d'eux tombe en panne, le client bascule automatiquement sur un autre. Chaque Agent de Transfert publie son adresse via le point d'accès /v1/identity, ce qui permet aux nœuds et aux clients de se découvrir dynamiquement. Les Agents de Transfert gèrent également les files d'attente de requêtes : si tous les nœuds sont occupés, la requête est placée en file d'attente avec une priorité basée sur la commission. C'est une architecture qui ressemble à un CDN, mais pour les calculs d'IA — distribuée, tolérante aux pannes et sans point de contrôle unique.
Sprint : consensus via l'inférence réelle
Sprint est un Transformateur PoW 2.0, un consensus Gonka unique qui diffère fondamentalement de tous les protocoles blockchain existants. Dans Bitcoin, les mineurs dépensent 26 GW d'énergie pour calculer des hachages SHA-256 dénués de sens – dont le seul but est de prouver que l'énergie a été dépensée. Dans Ethereum Proof of Stake, la puissance de calcul a été complètement abandonnée – les validateurs bloquent simplement les jetons, sacrifiant la décentralisation au profit de l'efficacité énergétique. Sprint propose une troisième voie.
Dans Sprint, chaque calcul est une véritable requête AI. L'utilisateur envoie une incitation « écris une fonction en Python » → le GPU génère une réponse via le réseau neuronal Qwen3-235B → cette inférence sert simultanément l'utilisateur et confirme un bloc dans la blockchain. Résultat : 99% des ressources du réseau vont aux travaux utiles (inférence AI), et seulement 1% – à la sécurité cryptographique. En comparaison : dans Bitcoin, 100% de l'énergie va à la sécurité, 0% – aux travaux utiles.
Le fonctionnement du réseau est organisé en époques. À chaque époque, les Agents de Transfert répartissent les tâches AI entre les nœuds ML. À la fin de l'époque, un bloc est formé, contenant des preuves de travail effectué. Les récompenses sont distribuées proportionnellement à la contribution de chaque nœud – plus un GPU a traité de requêtes, plus il reçoit de GNK. Cela crée une incitation économique : les hôtes se concurrencent pour les tâches, optimisant les performances et réduisant le coût de l'inférence pour les utilisateurs.
DiLoCo : apprentissage distribué de modèles
DiLoCo — une technologie d'apprentissage distribué de modèles IA qui résout un problème fondamental : comment entraîner un réseau neuronal avec des milliards de paramètres lorsque les GPU sont situés dans différents pays et connectés par l'internet ordinaire, et non par le NVLink à haute vitesse au sein d'un même centre de données ?
L'approche traditionnelle de l'apprentissage nécessite une synchronisation des paramètres après chaque étape — ce qui n'est possible qu'avec des vitesses de connexion de centaines de gigabits/s, c'est-à-dire au sein d'un même cluster NVIDIA. DiLoCo repense le processus : les nœuds synchronisent les paramètres environ toutes les 1000 étapes, et non après chaque. Entre les synchronisations, chaque nœud apprend localement sur son sous-ensemble de données. Cela réduit les exigences de bande passante par trois ordres de grandeur, rendant l'apprentissage via internet pratiquement réalisable.
L'optimisation fonctionne à deux niveaux : localement, chaque nœud utilise AdamW — un optimiseur standard pour les transformateurs. Globalement, lors de la synchronisation, un momentum de Nesterov est appliqué — un algorithme qui « prédit » la direction de la mise à jour et accélère la convergence. Résultat : des modèles de 30 à 50 milliards de paramètres peuvent être entraînés sur des clusters de 8xH100, répartis sur la planète, sans serveur central. À titre de comparaison : l'entraînement de GPT-4 a nécessité des milliers de GPU dans un seul centre de données avec des investissements de milliards de dollars. DiLoCo permet potentiellement d'atteindre un résultat comparable sur l'infrastructure distribuée de Gonka.
Pourquoi est-ce important ? L'apprentissage est la partie la plus coûteuse de l'IA. Des entreprises comme OpenAI dépensent des centaines de millions pour un cycle d'apprentissage. DiLoCo permet à Gonka d'entraîner ses propres modèles avec le temps grâce au réseau — sans avoir à construire des centres de données pour des milliards. Cela fait de Gonka non seulement un réseau d'inférence, mais une plateforme d'IA complète avec une intégration verticale.
PoC V2 : vérification de l'honnêteté des nœuds
PoC V2 — un mécanisme de vérification qui garantit que chaque nœud ML a réellement effectué le calcul, et n'a pas renvoyé de données aléatoires. C'est d'une importance critique : sans vérification, un attaquant pourrait enregistrer un « nœud » qui renvoie de fausses réponses et reçoit des récompenses, sans dépenser un seul watt sur le GPU.
Le mécanisme fonctionne par vérification croisée. Le réseau sélectionne aléatoirement 1 à 10 % des tâches et les envoie pour réexécution à un autre nœud. Si les résultats concordent — les deux nœuds reçoivent une récompense. Si les résultats divergent — un processus d'arbitrage (dispute) est lancé. Le nœud perdant perd 20 % de sa mise (stake), qui est distribuée aux participants honnêtes. Cette pénalité rend la fraude économiquement non rentable : le revenu potentiel des fausses réponses est nettement inférieur au risque de perdre la mise.
La vitesse de vérification est assurée par les signatures BLS — un primitif cryptographique qui permet d'agréger de nombreuses signatures en une seule et de la vérifier en moins de 10 millisecondes. Cela signifie que la vérification de l'honnêteté ne ralentit pas le fonctionnement du réseau — l'utilisateur reçoit une réponse sans délai, et la vérification s'effectue en parallèle.
Pour les tâches d'apprentissage de modèles (via DiLoCo), un mécanisme supplémentaire est utilisé — Proof-of-Learning. Chaque nœud enregistre dans la blockchain les hachages des poids du modèle et l'état de l'optimiseur à chaque point de contrôle. Cela crée une piste d'audit immuable : n'importe qui peut vérifier que l'apprentissage a réellement eu lieu et que les poids n'ont pas été remplacés. Cette vérification à deux niveaux — PoC V2 pour l'inférence, Proof-of-Learning pour l'apprentissage — fait de Gonka l'un des réseaux d'IA décentralisés les plus sécurisés, ayant passé l'audit de CertiK.
Vous voulez en savoir plus ?
Explorez d'autres sections ou commencez à gagner des GNK dès maintenant.
Essayer l'IA via Gonka →