もし、次世代のフロンティア AI モデルが、一企業の所有する数十億ドルのデータセンターではなく、世界中に分散した数十人の匿名コントリビューターによって、ブロックチェーンで調整され、一般的なインターネット接続を介してトレーニングされたとしたらどうでしょうか?

それこそが、今まさに起きたことです。Templar の Covenant-72B は、Bittensor の Subnet 3 のみで事前学習された 727 億パラメータの大規模言語モデル(LLM)であり、暗号資産の歴史の中で最大の共同トレーニングによる AI モデルとなりました。また、完全にパーミッションレスな参加を許可しながら、中央集権的なベースラインと同等の競争力のあるパフォーマンスを達成した最初のモデルの 1 つでもあります。ホワイトリストはありません。企業のゲートキーパーもいません。あるのは GPU、圧縮された勾配、そして全員を誠実さに保つトークンインセンティブメカニズムだけです。
Anthropic の共同創設者である Jack Clark 氏は、彼の影響力のあるニュースレター「Import AI」でこの成果を取り上げ、分散型トレーニングの計算能力が年間 20 倍で成長していることを指摘しました。これは、中央集権的なフロンティアトレーニングの年間成長率 5 倍の 4 倍の速さです。
これが Bittensor エ コシステムを遥かに超えて重要である理由は以下の通りです。