Момент DeepSeek для Bittensor: может ли TAO стать вторым полюсом мирового ИИ?
Когда 70 незнакомцев, разбросанных по всему миру — вооруженных потребительскими GPU и домашним интернет-соединением — коллективно обучили языковую модель с 72 миллиардами параметров, которая превзошла LLaMA-2-70B от Meta, в повествовании об ИИ что-то изменилось. Никаких корпоративных белых списков. Никаких дата-центров за 100 миллионов долларов. Никаких централизованных лабораторий, дергающих за ниточки. Только Subnet 3 сети Bittensor, криптоэкономическая система стимулов и технический прием под названием SparseLoCo, который сделал все это возможным.
В начале 2026 года мир ИИ был одержим доказательством DeepSeek того, что модели фронтирного уровня не требуют бюджетов масштаба OpenAI. Сообщество Bittensor называет событие 10 марта 2026 года своим собственным «моментом DeepSeek» — доказательством того, что большие языковые модели теперь могут появляться полностью за пределами централизованных институтов. Стоит задаться вопросом: действительно ли Bittensor строит второй полюс глобальной инфраструктуры ИИ, или это захватывающая история, обернутая вокруг элегантного, но хрупкого эксперимента?
Что на самом деле представляет собой Bittensor
Если отбросить спекуляции с токенами, Bittensor лучше всего понимать как слой стимулов для ИИ-ресурсов (AI commodities). Сеть организована в виде «подсетей» (subnets) — более 128 специализированных конкурентных арен, где каждая подсеть производит определенный тип ИИ-продукта: инференс языковых моделей, генерацию изображений, хранение данных, финансовые прогнозы, помощь в написании кода.
В каждой подсети есть два типа участников:
- Майнеры запускают модели ИИ и отвечают на запросы. Они соревнуются в качестве выдаваемых данных.
- Валидаторы опрашивают майнеров, оценивают их ответы и сообщают о качестве в блокчейн.
Алгоритм Yuma Consensus — эквивалент центрального процессора Bittensor — агрегирует оценки валидаторов и соответствующим образом распределяет эмиссию TAO. Распределение токенов: 41% майнерам, 41% валидаторам и 18% создателю подсети. Это означает, что каждый участник несет финансовые риски, а попытки обмануть систему экономически невыгодны, так как валидаторы, сообщающие неверные оценки, теряют свою часть эмиссии.
Что отличает эту систему от обычного фриланс-маркетплейса, так это механизм Dynamic TAO, внедренный в конце 2024 года. Теперь каждая подсеть управляет собственным автоматическим маркет-мейкером (AMM) с двумя резервами: TAO и специфическим для подсети токеном «alpha». Когда держатели TAO вносят средства в стейкинг подсети, они получают взамен токены alpha — фактически голо суя капиталом за то, какие подсети заслуживают больше сетевых ресурсов. Подсети, привлекающие больше стейкинга TAO, получают большую эмиссию, что создает самоорганизующуюся систему распределения капитала, где рынок решает, какие ИИ-услуги достойны финансирования.
Веха Covenant-72B
10 марта 2026 года Subnet 3 сети Bittensor — работавшая тогда под названием Templar — завершила Covenant-72B: крупнейший в истории задокументированный цикл децентрализованного предварительного обучения LLM. Модель была обучена на примерно 1,1 триллиона токенов и достигла оценки 67,1 по метрике MMLU (zero-shot), преодолев бенчмарк LLaMA-2-70B.
Технической основой стал SparseLoCo — протокол связи, который сократил накладные расходы на передачу данных между распределенными узлами в 146 раз. Традиционное распределенное обучение требует постоянной синхронизации градиентов — каждый GPU должен делиться своими обновлениями с каждым другим GPU, что становится узким местом, когда узлы разбросаны по кон тинентам и используют обычный домашний интернет. SparseLoCo достигает этого за счет сочетания разреживания (передача только наиболее значимых обновлений градиента), 2-битного квантования (дальнейшее сжатие этих обновлений) и обратной связи по ошибкам (накопление пропущенных обновлений для будущей передачи, чтобы ничего не было потеряно безвозвратно).
Результат: цикл обучения, к которому любой пользователь с достаточным количеством GPU мог свободно присоединиться или покинуть его, не дестабилизируя процесс. Никаких выделенных соединений. Никаких контрактных обязательств. Никакого корпоративного надзора. Это действительно нечто новое.
Генеральный директор Nvidia Дженсен Хуанг назвал модель распределенного обучения Bittensor «современной версией folding@home» — знаменитого проекта добровольных вычислений, который направлял простаивающее оборудование пользователей на научные исследования. Сравнение уместно: folding@home доказал, что фрагментированные вычислительные мощности могут решать задачи, ранее доступные только суперкомпьютерам. Covenant-72B — это эквивалент в мире ИИ.