Abschnitte der Wissensbasis ▾
Für Anfänger
Für Investoren
- Woher kommt der Wert des GNK-Tokens
- Gonka vs. Konkurrenten: Render, Akash, io.net
- Die Libermans: von der Biophysik zur dezentralen KI
- GNK Tokenomics
- Risiken und Perspektiven von Gonka: Objektive Analyse
- Gonka vs Render Network: detaillierter Vergleich
- Gonka vs Akash: KI-Inferenz vs Container
- Gonka vs io.net: Inferenz vs GPU-Marktplatz
- Gonka vs Bittensor: Ein detaillierter Vergleich zweier AI-Ansätze
- Gonka vs Flux: Zwei Ansätze zum nützlichen Mining
- Governance in Gonka: Wie ein dezentrales Netzwerk verwaltet wird
Technisch
Analysen
Werkzeuge
- Cursor + Gonka AI – günstige LLM zum Codieren
- Claude Code + Gonka AI – LLM für das Terminal
- OpenClaw + Gonka AI – erschwingliche KI-Agenten
- OpenCode + Gonka AI – kostenlose KI für Code
- Continue.dev + Gonka AI – AI für VS Code/JetBrains
- Cline + Gonka AI – KI-Agent in VS Code
- Aider + Gonka AI – Paarprogrammierung mit KI
- LangChain + Gonka AI – KI-Anwendungen für wenige Cent
- n8n + Gonka AI – Automatisierung mit günstiger KI
- Open WebUI + Gonka AI – Ihr eigenes ChatGPT
- LibreChat + Gonka AI — Open-Source ChatGPT
- API Schnellstart — curl, Python, TypeScript
- JoinGonka Gateway — vollständige Übersicht
- Management Keys – SaaS auf Gonka
Analytik
112 Mrd. US-Dollar Loch – die versteckte Pleite von Big Tech
Das Rechenzentren-Rennen
Das Stargate-Projekt – Hunderte von Milliarden Dollar für den Bau riesiger Rechenzentren. Das ist kein Tippfehler: Es geht um Summen, die dem BIP kleinerer Länder entsprechen. Microsoft, Google und Meta geben jährlich Dutzende Milliarden für GPU-Infrastruktur aus: Allein Microsoft investierte 2025 über 50 Milliarden US-Dollar in Investitionsausgaben, der größte Teil davon in KI.
Das Problem ist in der Buchhaltung verborgen. GPUs der Generation H100 veralten in 2 Jahren mit der Einführung von H200, B100, B200 – jede nächste Generation ist 50–100 % schneller als die vorherige. Aber Unternehmen schreiben sie über 5–6 Jahre ab, wodurch eine buchhalterische Illusion entsteht. Beispiel: Ein Unternehmen kaufte GPUs für 20 Milliarden US-Dollar. In den Geschäftsbüchern sind sie nach 2 Jahren immer noch „13 Milliarden US-Dollar wert“ (bei linearer Abschreibung über 6 Jahre). In Wirklichkeit kosten sie ~5 Milliarden US-Dollar, weil die neue Generation die gleiche Arbeit doppelt so schnell und billiger erledigt.
Das schafft ein verstecktes Defizit: Die Differenz zwischen dem Buchwert der Vermögenswerte und ihrem realen Marktwert – Billionen von Dollar in der gesamten Branche. Wenn (nicht „ob“, sondern „wann“) die Prüfer eine Neubewertung fordern – dies könnte zu massiven Abschreibungen führen, die Aktien von KI-Unternehmen zum Absturz bringen und eine Vertrauenskrise in der gesamten Branche auslösen.
112 Milliarden Dollar Verlust für OpenAI
Analysten prognostizieren, dass OpenAI bis 2030 Verluste von rund 112 Milliarden US-Dollar anhäufen wird. Diese Zahl kommt nicht aus dem Nichts: Sie spiegelt ein grundlegendes Problem des Geschäftsmodells zentralisierter KI wider.
Einerseits steigen die Einnahmen beeindruckend: Milliarden von Dollar jährlich durch ChatGPT-Abonnements und APIs. Andererseits steigen die Ausgaben noch schneller. Jede neue Modellgeneration erfordert ein Vielfaches an Ressourcen:
- GPT-3 → GPT-4: Die Trainingskosten stiegen um etwa das 10-fache
- GPT-4 → GPT-5: Eine weitere exponentielle Steigerung – eine exponentielle Kurve
- Inference: Millionen von Nutzern = Milliarden von Token pro Tag = Milliarden von Dollar pro Jahr für GPU-Kapazitäten
Dieses Modell funktioniert nur mit einem unendlichen Zufluss von Risikokapital. OpenAI hat Dutzende von Milliarden an Investitionen angezogen, darunter Runden von Microsoft und SoftBank. Aber Investoren sind keine Wohltäter. Früher oder später werden sie Gewinne fordern. Die Frage ist nicht „ob“, sondern „wann“ – und was passiert in diesem Moment mit Millionen von Unternehmen, die auf der OpenAI-API aufbauen?
Zum Vergleich: Gonka hat 80 Millionen US-Dollar angezogen und verarbeitet bereits echte KI-Anfragen über ein Netzwerk von ~4.648 GPUs. Die Inferenzkosten betragen 0,0009 US-Dollar/1 Mio. Token. Das ist möglich, weil im dezentralen Modell keine Billionen-Investitionen in Rechenzentren amortisiert werden müssen.
Warum Gonka keine Blase ist
Gonka baut keine Rechenzentren – es verbindet bereits existierende GPUs weltweit. Dies ist nicht nur ein alternatives Geschäftsmodell – es ist eine grundlegend andere Wirtschaftsarchitektur, die die Wurzel des Problems, der Blase, eliminiert.
Keine Kapitalkosten: Das Gonka-Netzwerk zieht keine Hunderte von Milliarden für den Bau an. Protokoll, Blockchain, Software – das ist alles, was das Team erstellt. GPUs werden von unabhängigen Hosts weltweit bereitgestellt – jeder auf eigene Kosten.
Keine über 6 Jahre gestreckte Abschreibung: Wenn eine H100 veraltet ist, ersetzt der Host sie einfach durch eine H200 oder die nächste Generation. Die Entscheidung trifft der Gerätebesitzer auf der Grundlage der Marktbedingungen, nicht der CFO eines Unternehmens, der versucht, Abschreibungen zu verbergen.
Keine buchhalterischen Tricks: Alle Transaktionen in der Gonka-Blockchain sind transparent. Belohnungen werden gemäß dem von CertiK geprüften Protokoll verteilt. Es gibt keine „versteckten“ Kosten, die erst in 5 Jahren bei einer Neubewertung der Vermögenswerte entdeckt werden.
Verteiltes Risiko: Jeder Host trägt sein eigenes Risiko. Wenn ein Host durch eine schlechte GPU-Investition ruiniert wird, ist das sein Problem, nicht das Problem des gesamten Netzwerks. In einem zentralisierten Modell kann ein einziger Fehler von 10 Milliarden US-Dollar das gesamte Unternehmen zerstören. In Gonka ist ein solcher Fehler per Definition unmöglich – weil kein einziger Teilnehmer eine Entscheidung über 10 Milliarden US-Dollar treffen kann.
Ergebnis: Die Inferenzkosten über Gonka betragen 0,0009 US-Dollar pro Million Token. Das ist ~2.800-mal billiger als OpenAI. Und dieser Preis ist stabil – weil dahinter keine Billionen-Infrastruktur steht, die amortisiert werden muss.
Kontrast: Zentralisierung vs. Dezentralisierung
Vergleichen wir zwei KI-Infrastrukturmodelle:
| Parameter | Zentrale KI | Dezentrale KI (Gonka) |
|---|---|---|
| Kapitalausgaben | Zehn- bis Hunderte Milliarden US-Dollar | 0 US-Dollar (GPU bei Hosts) |
| GPU-Abschreibung | 6 Jahre (buchhalterisch) vs. 2 Jahre (real) | Risiko beim Host |
| Schulden | Billionen (Kredite, Anleihen) | Keine Schulden des Protokolls |
| Skalierung | Rechenzentrum bauen = Jahre + Milliarden | Organisches Wachstum (Hosts verbinden sich) |
| Inferenzpreis | 2,50–15 US-Dollar/1 Mio. Tokens | 0,0009 US-Dollar/1 Mio. Tokens |
| Single Point of Failure | Ja (Rechenzentrum, Unternehmen) | Nein (Tausende von Knoten) |
In Gonka arbeiten etwa 4.648 GPUs bei ~113 Teilnehmern (~582 ML-Knoten). Das Projekt hat 80 Millionen US-Dollar eingeworben – das ist Tausende Male weniger, als ein Stargate ausgibt. Aber das Netzwerk macht dasselbe: Es verarbeitet KI-Anfragen über das neuronale Netzwerk Qwen3-235B, das über eine OpenAI-kompatible API verfügbar ist.
Analogie: Stellen Sie sich vor, jemand hätte in den 2000er Jahren vorgeschlagen: „Anstatt riesige Serverfarmen für das Internet zu bauen, sollte jeder Haushalt einen Mini-Server aufstellen und eine Belohnung für die Teilnahme erhalten.“ Das klingt utopisch – aber genau so funktioniert Airbnb für Unterkünfte, Uber für Transport und Gonka für KI-Berechnungen. Dezentralisierung ist keine Utopie – es ist die nächste Stufe der Infrastrukturentwicklung.
Möchten Sie mehr erfahren?
Erkunden Sie andere Abschnitte oder beginnen Sie jetzt GNK zu verdienen.
Vollständige GNK-Tokenomics →