Secciones de la base de conocimientos ▾
Para principiantes
Para inversores
- De dónde proviene el valor del token GNK
- Gonka vs Competidores: Render, Akash, io.net
- Los Liberman: de la biofísica a la IA descentralizada
- Tokenomics de GNK
- Riesgos y perspectivas de Gonka: análisis objetivo
- Gonka vs Render Network: comparación detallada
- Gonka vs Akash: inferencia de IA vs contenedores
- Gonka vs io.net: inferencia vs marketplace de GPU
- Gonka vs Bittensor: Una Comparación Detallada de Dos Enfoques para la IA
- Gonka vs Flux: Dos Enfoques para la Minería Útil
- Gobernanza en Gonka: cómo se gestiona una red descentralizada
Técnico
Análisis
Herramientas
- Cursor + Gonka AI — LLM barato para codificación
- Claude Code + Gonka AI — LLM para terminal
- OpenClaw + Gonka AI — Agentes de IA accesibles
- OpenCode + Gonka AI — IA gratuita para código
- Continue.dev + Gonka AI — AI para VS Code/JetBrains
- Cline + Gonka AI — Agente de IA en VS Code
- Aider + Gonka AI — Programación en pareja con IA
- LangChain + Gonka AI — Aplicaciones de IA por centavos
- n8n + Gonka AI — Automatización con IA barata
- Open WebUI + Gonka AI — Su propio ChatGPT
- LibreChat + Gonka AI — ChatGPT de código abierto
- API inicio rápido — curl, Python, TypeScript
- JoinGonka Gateway — Resumen completo
- Management Keys — SaaS en Gonka
Tecnología
Arquitectura de red de Gonka: Sprint, Agentes de Transferencia, DiLoCo
Agente de Transferencia: Gateways entre el Cliente y la GPU
Los Transfer Agents son un componente clave de la arquitectura de Gonka, funcionando como una puerta de enlace inteligente entre clientes y ML-nodos. Cuando un usuario envía una solicitud de IA, esta no llega directamente a la GPU, sino a un Transfer Agent, un nodo intermediario especializado que decide qué GPU procesará esa solicitud.
El proceso es así: el cliente realiza una solicitud estándar POST /v1/chat/completions a través de la API compatible con OpenAI. El Transfer Agent verifica la firma criptográfica de la solicitud, determina el modelo necesario y encuentra un ML-nodo libre con las características adecuadas. Cada ML-nodo, al registrarse, publica sus parámetros: qué modelos soporta, la cantidad de VRAM, el rendimiento actual y la carga. El Transfer Agent utiliza estos datos para equilibrar la carga: las tareas se distribuyen uniformemente y no se acumulan en un solo nodo.
Para la tolerancia a fallos, varios Transfer Agents operan simultáneamente en la red. Si uno falla, el cliente cambia automáticamente a otro. Cada Transfer Agent publica su dirección a través del endpoint /v1/identity, lo que permite a los nodos y clientes descubrirse dinámicamente entre sí. Los Transfer Agents también gestionan las colas de solicitudes: si todos los nodos están ocupados, la solicitud se pone en cola con una prioridad basada en la tarifa. Esta es una arquitectura que se asemeja a una CDN, pero para la computación de IA: distribuida, tolerante a fallos y sin un único punto de control.
Sprint: Consenso a través de inferencia real
Sprint es el Transformer PoW 2.0, el consenso único de Gonka que difiere fundamentalmente de todos los protocolos blockchain existentes. En Bitcoin, los mineros gastan 26 GW de energía en calcular hashes SHA-256 sin sentido, cuyo único propósito es demostrar que se gastó energía. En Ethereum Proof of Stake, se abandonó por completo el trabajo computacional; los validadores simplemente bloquean tokens, sacrificando la descentralización por la eficiencia energética. Sprint ofrece un tercer camino.
En Sprint, cada cálculo es una solicitud de IA real. El usuario envía un prompt como 'escribe una función en Python' → la GPU genera una respuesta a través de la red neuronal Qwen3-235B → esta inferencia atiende simultáneamente al usuario y confirma un bloque en la blockchain. El resultado: el 99% de los recursos de la red se destina a trabajo útil (inferencia de IA), y solo el 1% a la seguridad criptográfica. En comparación: en Bitcoin, el 100% de la energía se destina a la seguridad, el 0% a trabajo útil.
El trabajo de la red se organiza en épocas. En cada época, los Transfer Agents distribuyen las tareas de IA entre los ML-nodos. Al finalizar la época, se forma un bloque que contiene pruebas del trabajo realizado. Las recompensas se distribuyen proporcionalmente a la contribución de cada nodo: cuantas más solicitudes procese una GPU, más GNK recibirá. Esto crea un incentivo de mercado: los hosts compiten por las tareas, optimizando el rendimiento y reduciendo el costo de la inferencia para los usuarios.
DiLoCo: Entrenamiento distribuido de modelos
DiLoCo es una tecnología de entrenamiento distribuido de modelos de IA que resuelve un problema fundamental: ¿cómo entrenar una red neuronal con miles de millones de parámetros cuando las GPU están en diferentes países y conectadas por Internet normal, en lugar de un NVLink de alta velocidad dentro de un mismo centro de datos?
El enfoque tradicional de entrenamiento requiere la sincronización de parámetros después de cada paso; esto solo es factible con velocidades de comunicación de cientos de gigabits/s, es decir, dentro de un mismo clúster de NVIDIA. DiLoCo reinterpreta el proceso: los nodos sincronizan los parámetros una vez cada ~1000 pasos, y no después de cada uno. Entre las sincronizaciones, cada nodo se entrena localmente en su subconjunto de datos. Esto reduce los requisitos de ancho de banda en tres órdenes de magnitud, haciendo que el entrenamiento a través de Internet sea prácticamente factible.
La optimización funciona en dos niveles: localmente, cada nodo utiliza AdamW, un optimizador estándar para transformadores. Globalmente, durante la sincronización, se aplica el momentum de Nesterov, un algoritmo que «predice» la dirección de la actualización y acelera la convergencia. El resultado: modelos de 30-50 mil millones de parámetros pueden ser entrenados en clústeres de 8xH100, distribuidos por el planeta, sin un servidor central. En comparación: el entrenamiento de GPT-4 requirió miles de GPU en un solo centro de datos con inversiones de miles de millones de dólares. DiLoCo potencialmente permite lograr un resultado comparable en la infraestructura distribuida de Gonka.
¿Por qué es esto importante? El entrenamiento es la parte más cara de la IA. Empresas como OpenAI gastan cientos de millones en un solo ciclo de entrenamiento. DiLoCo permite a Gonka, con el tiempo, entrenar sus propios modelos utilizando la red, sin necesidad de construir centros de datos de miles de millones. Esto convierte a Gonka no solo en una red de inferencia, sino en una plataforma de IA completa con integración vertical.
PoC V2: Verificación de la honestidad de los nodos
PoC V2 es el mecanismo de verificación que garantiza que cada ML-nodo ha realizado realmente el cálculo y no ha devuelto basura aleatoria. Esto es críticamente importante: sin verificación, un atacante podría registrar un «nodo» que devuelve respuestas falsas y recibe recompensas sin gastar ni un vatio en la GPU.
El mecanismo funciona mediante verificación cruzada. La red selecciona aleatoriamente del 1 % al 10 % de las tareas y las envía para su posterior ejecución por otro nodo. Si los resultados coinciden, ambos nodos reciben una recompensa. Si los resultados difieren, se inicia un proceso de arbitraje (disputa). El nodo perdedor pierde el 20 % de su participación (stake), que se distribuye entre los participantes honestos. Esta penalización hace que el fraude sea económicamente inviable: el beneficio potencial de las respuestas falsas es significativamente menor que el riesgo de perder la participación.
La velocidad de verificación la proporcionan las firmas BLS, un primitivo criptográfico que permite agregar muchas firmas en una sola y verificarla en menos de 10 milisegundos. Esto significa que la verificación de la honestidad no ralentiza el funcionamiento de la red: el usuario recibe la respuesta sin demora y la verificación se realiza en paralelo.
Para las tareas de entrenamiento de modelos (a través de DiLoCo), se utiliza un mecanismo adicional: Proof-of-Learning. Cada nodo registra en la blockchain los hashes de los pesos del modelo y el estado del optimizador en cada punto de control. Esto crea un rastro de auditoría inmutable: cualquiera puede verificar que el entrenamiento realmente tuvo lugar y que los pesos no fueron alterados. Esta verificación de dos niveles (PoC V2 para inferencia, Proof-of-Learning para entrenamiento) convierte a Gonka en una de las redes de IA descentralizadas más seguras, habiendo pasado la auditoría de CertiK.
¿Quieres saber más?
Explora otras secciones o empieza a ganar GNK ahora mismo.
Prueba la IA a través de Gonka →