Bittensors 72-Milliarden-DeepSeek-Moment: Als dezentrales KI endlich bewies, dass die Skeptiker falsch lagen
Am 20. Januar 2026 veröffentlichte DeepSeek still und leise ein Modell, das die gesamte KI-Industrie erschütterte: ein Open-Source-Reasoning-System, das OpenAIs Bestes für etwa 1/50 der Trainingskosten erreichte. Nvidia verlor an einem einzigen Tag 600 Milliarden Dollar Marktkapitalisierung. Die zugrunde liegende Lektion betraf nicht nur Chinas KI-Fortschritt – es war die Erkenntnis, dass die Annahme "nur massive zentralisierte Labore können Frontier-KI bauen" gerissen war.
Sechs Wochen später, am 10. März 2026, schloss ein Netzwerk von 70 unabhängigen Beitragenden – mit handelsüblichen GPUs und gewöhnlichen Heiminternetverbindungen – das Training eines Sprachmodells mit 72 Milliarden Parametern ohne ein einziges Rechenzentrum ab. Das Templar-Subnetz von Bittensor hatte seinen eigenen DeepSeek-Moment, und die Implikationen für dezentrale KI sind genauso tiefgreifend.