Перейти к основному контенту

79 постов с тегом "ИИ"

Приложения искусственного интеллекта и машинного обучения

Посмотреть все теги

Прорыв DePIN на $19,2 млрд: от хайпа вокруг IoT к корпоративной реальности

· 12 мин чтения
Dora Noda
Software Engineer

На протяжении многих лет обещание децентрализованной физической инфраструктуры казалось решением, которое ищет проблему. Блокчейн-энтузиасты рассуждали о токенизации всего — от точек доступа Wi-Fi до солнечных панелей, в то время как корпорации тихо отмахивались от этого как от крипто-хайпа, оторванного от операционной реальности. Но это пренебрежение только что стало слишком дорогим удовольствием.

Сектор DePIN (Decentralized Physical Infrastructure Network) вырос с 5,2млрддо5,2 млрд до 19,2 млрд рыночной капитализации всего за один год — скачок на 270 %, который не имеет ничего общего со спекулятивной манией, но напрямую связан с тем, что предприятия обнаружили возможность сократить расходы на инфраструктуру на 50–85 %, сохраняя при этом качество обслуживания. Имея 321 активный проект, приносящий на данный момент 150млнежемесячногодохода,ипрогнозыВсемирногоэкономическогофорумаотом,чток2028годурынокдостигнет150 млн ежемесячного дохода, и прогнозы Всемирного экономического форума о том, что к 2028 году рынок достигнет 3,5 трлн, DePIN преодолел пропасть между экспериментальной технологией и критически важной инфраструктурой.

Цифры, изменившие риторику

CoinGecko отслеживает почти 250 проектов DePIN по состоянию на сентябрь 2025 года, что в несколько раз больше, чем всего 24 месяца назад. Но настоящая история заключается не в количестве проектов, а в доходах. В 2025 году сектор принес около $ 72 млн ончейн-выручки, при этом проекты высшего уровня сейчас демонстрируют восьмизначный годовой регулярный доход.

Только в январе 2026 года проекты DePIN в совокупности принесли 150млндохода.Лидеромсталпровайдеринфраструктурынабазеграфическихпроцессоров(GPU)Aethirсдоходом150 млн дохода. Лидером стал провайдер инфраструктуры на базе графических процессоров (GPU) Aethir с доходом 55 млн. За ним последовал Render Network с 38млнотдецентрализованныхуслугGPUрендеринга.Heliumпринес38 млн от децентрализованных услуг GPU-рендеринга. Helium принес 24 млн от операций своей беспроводной сети. Это не пустые метрики от фармеров аирдропов — это реальные предприятия, платящие за вычисления, связь и хранение данных.

Состав рынка рассказывает еще более показательную историю: 48 % проектов DePIN по рыночной капитализации сейчас ориентированы на инфраструктуру для ИИ. Поскольку рабочие нагрузки ИИ стремительно растут, а гиперскейлеры с трудом справляются со спросом, децентрализованные вычислительные сети становятся «выпускным клапаном» для индустрии, зашедшей в тупик, который традиционные дата-центры не могут разрешить достаточно быстро.

Доминирование Solana в DePIN: почему важна скорость

Если Ethereum — это дом для DeFi, а Bitcoin — цифровое золото, то Solana незаметно стала предпочтительным блокчейном для координации физической инфраструктуры. Имея 63 проекта DePIN в своей сети, включая Helium, Grass и Hivemapper, низкие транзакционные издержки и высокая пропускная способность Solana делают ее единственным блокчейном первого уровня (Layer 1), способным обрабатывать интенсивные рабочие нагрузки в реальном времени, которых требует физическая инфраструктура.

Трансформация Helium особенно показательна. После миграции на Solana в апреле 2023 года беспроводная сеть масштабировалась до более чем 115 000 хот-спотов, обслуживающих 1,9 млн пользователей ежедневно. Количество подписчиков Helium Mobile выросло со 115 000 в сентябре 2024 года до почти 450 000 к сентябрю 2025 года — рост на 300 % в годовом исчислении. Только во втором квартале 2025 года сеть передала 2 721 терабайт данных для партнеров-операторов, что на 138,5 % больше по сравнению с предыдущим кварталом.

Экономика убедительна: Helium обеспечивает мобильную связь за долю от стоимости традиционных операторов, стимулируя частных лиц развертывать и обслуживать хот-споты. Подписчики получают безлимитные звонки, SMS и данные за $ 20 в месяц. Операторы хот-спотов зарабатывают токены в зависимости от покрытия сети и передачи данных. Традиционные операторы не могут конкурировать с такой структурой затрат.

Render Network демонстрирует потенциал DePIN в сфере ИИ и творческих индустрий. Имея рыночную капитализацию в $ 770 млн, Render обработал более 1,49 млн кадров рендеринга только в июле 2025 года, при этом было сожжено 207 900 USDC комиссионных сборов. Художники и исследователи ИИ используют незадействованные мощности GPU игровых ПК и майнинговых ферм, платя копейки по сравнению с централизованными облачными сервисами рендеринга.

Grass, самый быстрорастущий проект DePIN на Solana с более чем 3 млн пользователей, монетизирует неиспользуемую пропускную способность интернет-канала для наборов данных обучения ИИ. Пользователи делятся своим неиспользуемым интернет-соединением, зарабатывая токены, в то время как компании собирают веб-данные для больших языковых моделей. Это инфраструктурный арбитраж в масштабе — использование избыточных, недоиспользуемых ресурсов (домашнего интернета) и их упаковка для предприятий, готовых платить по премиальным тарифам за распределенный сбор данных.

Корпоративное внедрение: сокращение затрат на 50–85 %, которое не может игнорировать ни один финансовый директор

Переход от пилотных программ к промышленному развертыванию резко ускорился в 2025 году. Телекоммуникационные операторы, облачные провайдеры и энергетические компании не просто экспериментируют с DePIN — они встраивают их в свои основные операции.

Беспроводная инфраструктура сейчас насчитывает более 5 млн зарегистрированных децентрализованных роутеров по всему миру. Одна телекоммуникационная компания из списка Fortune 500 зафиксировала рост числа клиентов DePIN-связи на 23 %, доказав, что предприятия примут децентрализованные модели, если экономика и надежность совпадают. Партнерство T-Mobile с Helium для расширения покрытия сети в сельской местности демонстрирует, как действующие игроки используют DePIN для решения проблем «последней мили», которые традиционные капитальные затраты не могут оправдать.

Телекоммуникационный сектор сталкивается с экзистенциальным давлением: капитальные затраты на строительство вышек и лицензии на частоты уничтожают маржу, в то время как клиенты требуют повсеместного покрытия. Прогнозируется, что рынок блокчейна в телекоме вырастет с 1,07млрдв2024годудо1,07 млрд в 2024 году до 7,25 млрд к 2030 году, поскольку операторы понимают, что стимулирование частных лиц к развертыванию инфраструктуры обходится дешевле, чем делать это самостоятельно.

Облачные вычисления открывают еще большие возможности. Поддерживаемый Nvidia проект brev.dev и другие провайдеры DePIN-вычислений обслуживают корпоративные нагрузки ИИ, которые в 2–3 раза дороже в AWS, Google Cloud или Azure. Поскольку ожидается, что к 2026 году на инференс (исполнение моделей) будет приходиться две трети всех вычислений ИИ (по сравнению с одной третью в 2023 году), спрос на экономически эффективные мощности GPU будет только усиливаться. Децентрализованные сети могут привлекать GPU из игровых компьютеров, майнинговых операций и недоиспользуемых дата-центров — мощности, к которым централизованные облака не имеют доступа.

Энергосети, пожалуй, являются наиболее трансформирующим вариантом использования DePIN. Централизованные энергосистемы с трудом балансируют спрос и предложение на местном уровне, что ведет к неэффективности и сбоям. Децентрализованные энергетические сети используют блокчейн-координацию для отслеживания выработки энергии от частных солнечных панелей, аккумуляторов и счетчиков. Участники генерируют энергию, делятся излишками с соседями и зарабатывают токены в зависимости от вклада. Результат: повышение устойчивости сети, сокращение потерь энергии и финансовые стимулы для внедрения возобновляемых источников.

ИИ-инфраструктура: 48 %, которые переопределяют стек

Почти половина рыночной капитализации DePIN сейчас сосредоточена на инфраструктуре ИИ — сближение, которое меняет способы обработки ресурсоемких рабочих нагрузок. Расходы на хранение в секторе ИИ-инфраструктуры продемонстрировали рост на 20,5 % в годовом исчислении во втором квартале 2025 года, при этом 48 % расходов пришлось на облачные развертывания. Но централизованные облака сталкиваются с ограничениями мощностей именно в тот момент, когда спрос взлетает.

Мировой рынок GPU для центров обработки данных составил 14,48млрдв2024годуи,согласнопрогнозам,достигнет14,48 млрд в 2024 году и, согласно прогнозам, достигнет 155,2 млрд к 2032 году. Тем не менее, Nvidia едва успевает за спросом, что приводит к задержкам поставок чипов H100 и H200 от 6 до 12 месяцев. Сети DePIN обходят это «узкое место», объединяя потребительские и корпоративные GPU, которые простаивают 80–90 % времени.

Рабочие нагрузки инференса — запуск моделей ИИ в рабочей среде после завершения обучения — являются самым быстрорастущим сегментом. В то время как большая часть инвестиций в 2025 году была сосредоточена на чипах для обучения, ожидается, что рынок чипов, оптимизированных для инференса, превысит $ 50 млрд в 2026 году, так как компании переходят от разработки моделей к их масштабному развертыванию. Вычислительные сети DePIN преуспевают в инференсе, потому что такие рабочие нагрузки легко распараллеливаются и устойчивы к задержкам, что делает их идеальными для распределенной инфраструктуры.

Проекты, такие как Render, Akash и Aethir, удовлетворяют этот спрос, предлагая дробный доступ к GPU, спотовое ценообразование и географическое распределение, с которыми централизованные облака не могут сравниться. ИИ-стартап может запустить 100 GPU для пакетного задания на выходные и платить только за использование, без минимальных обязательств или корпоративных контрактов. Для гиперскейлеров это барьер. Для DePIN — это основное ценностное предложение.

Категории, стимулирующие рост

DePIN делится на две фундаментальные категории: сети физических ресурсов (оборудование, такое как вышки беспроводной связи, энергетические сети и датчики) и сети цифровых ресурсов (вычисления, пропускная способность и хранение). Обе категории переживают взрывной рост, но цифровые ресурсы масштабируются быстрее из-за более низких барьеров для развертывания.

Сети хранения, такие как Filecoin, позволяют пользователям сдавать в аренду неиспользуемое место на жестких дисках, создавая распределенные альтернативы AWS S3 и Google Cloud Storage. Ценностное предложение: более низкие затраты, географическое резервирование и устойчивость к единым точкам отказа. Предприятия пилотируют Filecoin для архивных данных и резервных копий — сценарии использования, где комиссии за исходящий трафик в централизованных облаках могут составлять миллионы долларов ежегодно.

Вычислительные ресурсы охватывают рендеринг на GPU (Render), вычисления общего назначения (Akash) и инференс ИИ (Aethir). Akash управляет открытым маркетплейсом для развертывания Kubernetes, позволяя разработчикам запускать контейнеры на недостаточно используемых серверах по всему миру. Экономия средств составляет от 30 % до 85 % по сравнению с AWS, в зависимости от типа нагрузки и требований к доступности.

Беспроводные сети, такие как Helium и World Mobile Token, устраняют разрыв в связи на недостаточно обслуживаемых рынках. World Mobile развернула децентрализованные мобильные сети в Занзибаре, транслируя матч ФК «Фулхэм» и одновременно предоставляя интернет 500 людям в радиусе 600 метров. Это не прототипы — это рабочие сети, обслуживающие реальных пользователей в регионах, где традиционные интернет-провайдеры отказываются работать из-за невыгодной экономики.

Энергетические сети используют блокчейн для координации распределенной генерации и потребления. Владельцы солнечных панелей продают излишки электроэнергии соседям. Владельцы электромобилей обеспечивают стабилизацию сети, планируя зарядку в непиковые часы, зарабатывая токены за свою гибкость. Коммунальные службы получают видимость спроса и предложения в реальном времени без развертывания дорогостоящих интеллектуальных счетчиков и систем управления. Это координация инфраструктуры, которая не могла бы существовать без уровня бездоверительных расчетов блокчейна.

От 19,2млрддо19,2 млрд до 3,5 трлн: что нужно для достижения цели

Прогноз Всемирного экономического форума в 3,5трлнк2028году—этонепростооптимистичнаяспекуляция,этоотражениетого,насколькоогроменцелевойрынок,кактолькоDePINдокажетсвоюэффективностьвмасштабе.Ежегодныерасходынаглобальнуютелекоммуникационнуюинфраструктурупревышают3,5 трлн к 2028 году — это не просто оптимистичная спекуляция, это отражение того, насколько огромен целевой рынок, как только DePIN докажет свою эффективность в масштабе. Ежегодные расходы на глобальную телекоммуникационную инфраструктуру превышают 1,5 трлн. Рынок облачных вычислений составляет более $ 600 млрд. Энергетическая инфраструктура представляет собой триллионы капитальных вложений.

DePIN не нужно заменять эти отрасли — ему просто нужно занять 10–20 % доли рынка, предложив лучшую экономику. Математика работает, потому что DePIN переворачивает традиционную модель инфраструктуры: вместо того чтобы компании привлекали миллиарды для строительства сетей и затем окупали затраты десятилетиями, DePIN стимулирует частных лиц развертывать инфраструктуру авансом, зарабатывая токены по мере предоставления мощностей. Это краудсорсинговые капитальные вложения, и они масштабируются гораздо быстрее, чем централизованное строительство.

Но достижение $ 3,5 трлн требует решения трех задач:

Ясность регулирования. Телекоммуникации и энергетика — это строго регулируемые отрасли. Проекты DePIN должны решать вопросы лицензирования спектра (беспроводная связь), соглашений о межсетевом соединении (энергетика) и требований к резидентности данных (вычисления и хранение). Прогресс есть — правительства в Африке и Латинской Америке внедряют DePIN для устранения разрывов в связи — но зрелые рынки, такие как США и ЕС, движутся медленнее.

Доверие предприятий. Компании из списка Fortune 500 не будут переносить критически важные рабочие нагрузки в DePIN, пока надежность не сравняется с централизованными альтернативами или не превзойдет их. Это означает гарантии времени безотказной работы (uptime), соглашения об уровне обслуживания (SLA), страхование от сбоев и круглосуточную поддержку — обязательные условия в корпоративном ИТ, которых многим проектам DePIN все еще не хватает. Победителями станут проекты, которые приоритезируют операционную зрелость выше цены токена.

Токеномика. Ранние проекты DePIN страдали от неустойчивой токеномики: инфляционные вознаграждения, которые обрушивали рынок, неверные стимулы, поощрявшие атаки Сивиллы вместо полезной работы, и ценовая динамика, движимая спекуляциями и оторванная от фундаментальных показателей сети. Следующее поколение проектов DePIN учится на этих ошибках, внедряя механизмы сжигания, привязанные к выручке, графики вестинга для участников и управление, ориентированное на долгосрочную устойчивость.

Почему это важно для разработчиков BlockEden.xyz

Если вы строите на блокчейне, DePIN представляет собой один из самых явных примеров соответствия продукта рынку (product-market fit) в истории криптоиндустрии. В отличие от регуляторной неопределенности DeFi или спекулятивных циклов NFT, DePIN решает реальные проблемы с измеримым ROI. Предприятиям нужна более дешевая инфраструктура. У частных лиц есть недоиспользуемые активы. Блокчейн обеспечивает бездоверительную координацию и расчеты. Все элементы пазла сходятся.

Для разработчиков возможность заключается в создании промежуточного ПО (middleware), которое делает DePIN готовым к использованию на уровне корпораций: инструменты мониторинга и наблюдения (observability), смарт-контракты для обеспечения соблюдения SLA, системы репутации для операторов узлов, протоколы страхования для гарантий аптайма и платежные каналы, которые мгновенно проводят расчеты через географические границы.

Инфраструктура, которую вы строите сегодня, может стать основой децентрализованного интернета 2028 года — мира, где Helium обеспечивает мобильную связь, Render обрабатывает инференс ИИ, Filecoin хранит мировые архивы, а Akash управляет контейнерами, которые оркеструют всё это. Это не крипто-футуризм — это дорожная карта, которую уже пилотируют компании из списка Fortune 500.

Источники

Гамбит Ambient на 7,2 млн долларов: как Proof of Logits может заменить майнинг на основе хэшей инференсом ИИ

· 18 мин чтения
Dora Noda
Software Engineer

Что если бы та же вычислительная работа, которая обеспечивает безопасность блокчейна, также обучала следующее поколение моделей ИИ? Это не далекое видение — это основная идея проекта Ambient, форка Solana, который только что привлек $7.2 млн от a16z CSX для создания первого в мире блокчейна на базе proof-of-work с использованием ИИ.

Традиционный proof-of-work сжигает электроэнергию на решение произвольных криптографических головоломок. Майнеры биткоина соревнуются в поиске хешей с достаточным количеством ведущих нулей — это вычислительная работа, не имеющая ценности помимо безопасности сети. Ambient полностью меняет этот сценарий. Его механизм консенсуса Proof of Logits (PoL) заменяет «перебор» хешей на инференс, дообучение и обучение моделей ИИ. Майнеры не решают головоломки; они генерируют проверяемые результаты работы ИИ. Валидаторы не пересчитывают весь объем работы; они проверяют криптографические «отпечатки», называемые логитами.

Результат? Блокчейн, в котором безопасность и развитие ИИ экономически согласованы, где накладные расходы на верификацию в 0.1% делают проверку консенсуса почти бесплатной, а стоимость обучения снижается в 10 раз по сравнению с централизованными альтернативами. В случае успеха Ambient может дать ответ на одну из старейших претензий к криптоиндустрии — о том, что proof-of-work тратит ресурсы впустую — превратив майнинг в продуктивный труд ИИ.

Прорыв Proof of Logits: проверяемый ИИ без повторных вычислений

Для понимания PoL необходимо разобраться, что такое логиты (logits). Когда большие языковые модели генерируют текст, они не выдают слова напрямую. Вместо этого на каждом этапе они создают распределение вероятностей по всему словарю — числовые значения, представляющие уровень уверенности для каждого возможного следующего токена.

Эти значения называются логитами. Для модели со словарем в 50 000 токенов генерация одного слова означает вычисление 50 000 логитов. Эти числа служат уникальным вычислительным отпечатком. Только конкретная модель с конкретными весами, обрабатывающая конкретные входные данные, выдает определенное распределение логитов.

Инновация Ambient заключается в использовании логитов в качестве proof-of-work: майнеры выполняют инференс ИИ (генерируют ответы на промпты), а валидаторы проверяют эту работу, сверяя отпечатки логитов вместо повторного выполнения всех вычислений.

Вот как работает процесс верификации:

Майнер генерирует результат: Майнер получает промпт (например, «Обобщите принципы блокчейн-консенсуса») и использует модель с 600 миллиардами параметров для генерации ответа из 4 000 токенов. Это создает 4 000 × 50 000 = 200 миллионов логитов.

Валидатор проводит выборочную проверку: Вместо повторной генерации всех 4 000 токенов валидатор случайным образом выбирает одну позицию — например, токен №2 847. Валидатор запускает один шаг инференса в этой позиции и сравнивает логиты, предоставленные майнером, с ожидаемым распределением.

Криптографическое обязательство: Если логиты совпадают (в пределах допустимого порога, учитывающего точность вычислений с плавающей запятой), работа майнера считается подтвержденной. Если нет — блок отклоняется, а майнер лишается вознаграждения.

Это снижает накладные расходы на верификацию примерно до 0.1% от исходных вычислений. Валидатору, проверяющему 200 миллионов логитов, нужно верифицировать только 50 000 логитов (позицию одного токена), что сокращает затраты на 99.9%. Сравните это с традиционным PoW, где валидация означает повторный запуск всей хеш-функции, или с подходом биткоина, где проверка одного хеша SHA-256 тривиальна, так как сама головоломка произвольна.

Система Ambient экспоненциально дешевле, чем наивные схемы «доказательства полезной работы» (proof of useful work), требующие полного пересчета. Она ближе к эффективности биткоина (дешевая валидация), но приносит реальную пользу (инференс ИИ вместо бессмысленных хешей).

Снижение стоимости обучения в 10 раз: децентрализованный ИИ без монополии дата-центров

Централизованное обучение ИИ обходится дорого — для большинства организаций это неподъемные суммы. Обучение моделей масштаба GPT-4 стоит десятки миллионов долларов, требует тысяч промышленных GPU и концентрирует власть в руках нескольких технологических гигантов. Архитектура Ambient направлена на демократизацию этого процесса путем распределения обучения по сети независимых майнеров.

Снижение стоимости в 10 раз достигается благодаря двум техническим инновациям:

Шардинг в стиле PETALS: Ambient адаптирует методы PETALS, децентрализованной системы инференса, где каждый узел хранит только шард (фрагмент) большой модели. Вместо того чтобы требовать от майнеров наличия всей модели на 600 миллиардов параметров (что потребовало бы терабайты VRAM), каждый майнер владеет подмножеством слоев. Промпт проходит через сеть последовательно: каждый майнер обрабатывает свой шард и передает активации следующему.

Это означает, что майнер с одной потребительской видеокартой (24 ГБ VRAM) может участвовать в обучении моделей, для которых иначе потребовались бы сотни GPU в дата-центре. Распределяя вычислительный граф между сотнями или тысячами узлов, Ambient устраняет необходимость в дорогих высокоскоростных соединениях (таких как InfiniBand), используемых в традиционных ML-кластерах.

Разреженность, вдохновленная SLIDE: Большинство вычислений в нейронных сетях связано с умножением матриц, где большинство элементов близки к нулю. SLIDE (Sub-LInear Deep learning Engine) использует это, хешируя активации для определения того, какие нейроны действительно важны для данного входа, полностью пропуская нерелевантные вычисления.

Ambient применяется эту разреженность (sparsity) к распределенному обучению. Вместо того чтобы все майнеры обрабатывали все данные, сеть динамически направляет работу узлам, чьи шарды релевантны текущему пакету данных. Это снижает накладные расходы на передачу данных (основное узкое место в распределенном ML) и позволяет майнерам с более слабым оборудованием участвовать в процессе, обрабатывая разреженные подграфы.

Сочетание этих методов обеспечивает то, что, по заявлению Ambient, дает пропускную способность в 10 раз выше, чем существующие проекты распределенного обучения, такие как DiLoCo или Hivemind. Что еще важнее, это снижает порог входа: майнерам не нужна инфраструктура уровня дата-центра — обычного игрового ПК с хорошей видеокартой достаточно, чтобы внести свой вклад.

Архитектура форка Solana: высокий показатель TPS в сочетании с неблокирующим PoW

Ambient не строится с нуля. Это полный форк Solana, унаследовавший виртуальную машину Solana Virtual Machine (SVM), временные метки Proof of History (PoH) и механизм пересылки мемпула Gulf Stream. Это обеспечивает Ambient теоретическую пропускную способность Solana в 65 000 TPS и субсекундную финальность.

Однако Ambient вносит одну критическую модификацию: он добавляет неблокирующий слой proof-of-work поверх консенсуса Solana.

Вот как работает гибридный консенсус:

Proof of History упорядочивает транзакции: PoH в Solana предоставляет криптографические часы, упорядочивая транзакции без ожидания глобального консенсуса. Это позволяет реализовать параллельное выполнение на нескольких ядрах.

Proof of Logits защищает сеть: майнеры соревнуются в создании валидных результатов логического вывода ИИ (inference). Блокчейн принимает блоки от майнеров, которые генерируют наиболее ценную работу в области ИИ (определяемую сложностью вывода, размером модели или застейканной репутацией).

Неблокирующая интеграция: В отличие от Bitcoin, где создание блоков останавливается до нахождения валидного PoW, PoW в Ambient работает асинхронно. Валидаторы продолжают обрабатывать транзакции, пока майнеры соревнуются за отправку ИИ-задач. Это предотвращает превращение PoW в узкое место.

В результате получается блокчейн, который сохраняет скорость Solana (критически важную для приложений ИИ, требующих вывода с низкой задержкой), обеспечивая при этом экономическую конкуренцию в основных видах деятельности сети — логическом выводе, тонкой настройке и обучении моделей.

Такой дизайн также позволяет избежать ранних ошибок Ethereum в консенсусе «полезной работы». Primecoin и Gridcoin пытались использовать научные вычисления в качестве PoW, но столкнулись с фатальным недостатком: полезная работа не является равномерно сложной. Некоторые задачи легко решить, но трудно проверить; другие легко несправедливо распараллелить. Ambient обходит это, делая проверку логитов вычислительно дешевой и стандартизированной. Каждая задача вывода, независимо от сложности, может быть проверена с помощью одного и того же алгоритма выборочной проверки.

Гонка за обучение AGI ончейн: кто еще участвует в соревновании?

Ambient не одинок в стремлении создать ИИ, нативный для блокчейна. В этом секторе много проектов, заявляющих о децентрализации машинного обучения, но немногие обеспечивают проверяемое обучение в сети. Вот как Ambient сопоставляется с основными конкурентами:

Artificial Superintelligence Alliance (ASI): Образованный в результате слияния Fetch.AI, SingularityNET и Ocean Protocol, ASI фокусируется на децентрализованной инфраструктуре AGI. ASI Chain поддерживает одновременное выполнение агентов и безопасные транзакции моделей. В отличие от подхода PoW в Ambient, ASI полагается на модель маркетплейса, где разработчики платят за вычислительные кредиты. Это работает для логического вывода, но не согласует стимулы для обучения — у майнеров нет причин вкладывать дорогостоящие часы работы GPU, если они не компенсируются авансом.

AIVM (ChainGPT): Дорожная карта AIVM от ChainGPT нацелена на запуск основной сети в 2026 году, интегрируя ресурсы GPU вне сети с проверкой ончейн. Однако проверка AIVM опирается на оптимистичные роллапы (предполагается корректность, если она не оспорена), что вносит задержку из-за доказательств мошенничества (fraud-proofs). Проверка логитов в Ambient является детерминированной — валидаторы мгновенно узнают, валидна ли работа.

Internet Computer (ICP): Internet Computer от Dfinity может нативно размещать большие модели в блокчейне без внешней облачной инфраструктуры. Но канистровая архитектура ICP не оптимизирована для обучения — она разработана для логического вывода и выполнения смарт-контрактов. PoW в Ambient экономически стимулирует непрерывное улучшение моделей, в то время как ICP требует от разработчиков управления обучением извне.

Bittensor: Bittensor использует модель подсетей, где специализированные цепочки обучают различным задачам ИИ (генерация текста, классификация изображений и т. д.). Майнеры соревнуются, предоставляя веса моделей, а валидаторы ранжируют их по производительности. Bittensor преуспевает в децентрализованном выводе, но испытывает трудности с координацией обучения — здесь нет единой глобальной модели, только набор независимых подсетей. Подход Ambient объединяет обучение в рамках единого механизма PoW.

Lightchain Protocol AI: В whitepaper Lightchain предлагается Proof of Intelligence (PoI), где узлы выполняют задачи ИИ для подтверждения транзакций. Однако консенсус Lightchain остается во многом теоретическим, без объявленного запуска тестнета. Ambient, напротив, планирует тестнет во втором-третьем квартале 2025 года.

Преимущество Ambient заключается в сочетании проверяемой работы ИИ с проверенной высокопроизводительной архитектурой Solana. Большинство конкурентов либо жертвуют децентрализацией (централизованное обучение с проверкой в блокчейне), либо производительностью (медленный консенсус в ожидании доказательств мошенничества). PoW на основе логитов в Ambient предлагает и то, и другое: децентрализованное обучение с почти мгновенной проверкой.

Экономические стимулы: майнинг моделей ИИ как блоков биткоина

Экономическая модель Ambient отражает модель Bitcoin: предсказуемые вознаграждения за блок + комиссии за транзакции. Но вместо майнинга пустых блоков майнеры создают результаты работы ИИ, которые могут потреблять приложения.

Вот как работает структура стимулов:

Вознаграждения на основе инфляции: Ранние майнеры получают субсидии за блоки (вновь выпущенные токены) за выполнение логического вывода ИИ, тонкую настройку или обучение. Подобно графику халвинга биткоина, субсидии со временем уменьшаются, обеспечивая долгосрочный дефицит.

Комиссии за транзакции: Приложения платят за услуги ИИ — запросы на логический вывод, тонкую настройку моделей или доступ к обученным весам. Эти комиссии идут майнерам, выполнившим работу, создавая устойчивую модель дохода по мере снижения субсидий.

Стейкинг репутации: Чтобы предотвратить атаки Сивиллы (майнеры, отправляющие низкокачественную работу для получения вознаграждений), Ambient вводит застейканную репутацию. Майнеры блокируют токены для участия; создание невалидных логитов приводит к слэшингу. Это согласует стимулы: майнеры максимизируют прибыль, создавая точные и полезные результаты ИИ, а не пытаясь обмануть систему.

Доступность оборудования: В отличие от биткоина, где доминируют ASIC-фермы, шардинг PETALS в Ambient позволяет участвовать с потребительскими GPU. Майнер с одной картой RTX 4090 (24 ГБ VRAM, ~1600 долларов США) может внести свой вклад в обучение моделей с 600 миллиардами параметров, владея шардом. Это демократизирует доступ — нет необходимости в дата-центрах стоимостью в миллионы долларов.

Эта модель решает критическую проблему децентрализованного ИИ: проблему «бесбилетника». В традиционных сетях PoS валидаторы стейкают капитал, но не вносят вычислительный вклад. В Ambient майнеры выполняют реальную работу по ИИ, гарантируя, что полезность сети растет пропорционально ее бюджету безопасности.

Сектор ИИ-агентов объемом $ 27 миллиардов: почему 2026 год станет точкой перелома

Тайминг Ambient совпадает с более широкими рыночными тенденциями. Сектор крипто-агентов ИИ оценивается в $ 27 миллиардов, чему способствуют автономные программы, управляющие ончейн-активами, совершающие сделки и координирующие действия между протоколами.

Но сегодняшние агенты сталкиваются с проблемой доверия: большинство из них полагаются на централизованные API ИИ (OpenAI, Anthropic, Google). Если агент, управляющий позициями в DeFi на сумму $ 10 миллионов, использует GPT-4 для принятия решений, у пользователей нет гарантии, что модель не была подделана, подвергнута цензуре или предвзята. Отсутствует аудиторский след, доказывающий, что агент действовал автономно.

Ambient решает эту проблему с помощью ончейн-верификации. Каждый вывод (inference) ИИ записывается в блокчейне, а логиты подтверждают конкретную модель и использованные входные данные. Приложения могут:

Аудировать решения агентов: ДАО сможет убедиться, что ее агент по управлению казначейством использовал конкретную, одобренную сообществом модель, а не тайно модифицированную версию.

Обеспечивать соблюдение нормативных требований: Регулируемые протоколы DeFi могут потребовать от агентов использования моделей с проверенными защитными барьерами, подтверждаемыми ончейн.

Создавать маркетплейсы ИИ: Разработчики смогут продавать дообученные модели как NFT, а Ambient обеспечит криптографическое доказательство обучающих данных и весов.

Это позиционирует Ambient как инфраструктуру для следующей волны автономных агентов. Поскольку 2026 год становится переломным моментом, когда «ИИ, блокчейны и платежи сливаются в единый, самокоординирующийся интернет», верифицируемый слой ИИ Ambient становится критически важным техническим фундаментом.

Технические риски и открытые вопросы

Видение Ambient амбициозно, но несколько технических проблем остаются нерешенными:

Детерминизм и дрейф чисел с плавающей запятой: Модели ИИ используют арифметику с плавающей запятой, которая не является абсолютно детерминированной на разном оборудовании. Модель, работающая на NVIDIA A100, может выдавать немного иные логиты, чем та же модель на AMD MI250. Если валидаторы будут отклонять блоки из-за незначительного численного дрейфа, сеть станет нестабильной. Ambient потребуются жесткие границы допусков — но если они будут слишком узкими, майнеры на разном оборудовании будут наказываться несправедливо.

Обновления моделей и версионность: Если Ambient коллективно обучает глобальную модель, как она справляется с обновлениями? В Bitcoin все узлы используют идентичные правила консенсуса. В Ambient майнеры постоянно дообучают модели. Если половина сети обновится до версии 2.0, а другая останется на 1.9, верификация нарушится. В whitepaper не описано подробно, как работают версионность моделей и обратная совместимость.

Разнообразие промптов и стандартизация работы: PoW в Bitcoin единообразен — каждый майнер решает один и тот же тип головоломки. PoW в Ambient варьируется — одни майнеры отвечают на математические вопросы, другие пишут код, третьи резюмируют документы. Как валидаторы сравнивают «ценность» разных задач? Если один майнер генерирует 10 000 токенов бессмыслицы (легко), а другой дообучает модель на сложном наборе данных (дорого), кто получит большее вознаграждение? Ambient нужен алгоритм настройки сложности для работы ИИ, аналогичный сложности хеширования в Bitcoin, но измерение «сложности инференса» — задача нетривиальная.

Задержка при распределенном обучении: Шардинг в стиле PETALS хорошо работает для инференса (последовательная обработка слоев), но обучение требует обратного распространения ошибки — градиенты текут назад по сети. Если слои распределены по узлам с разной сетевой задержкой, обновления градиентов становятся узким местом. Ambient заявляет о 10-кратном улучшении пропускной способности, но реальная производительность зависит от топологии сети и распределения майнеров.

Риски централизации при хостинге моделей: Если только несколько узлов могут позволить себе хостинг наиболее ценных шардов моделей (например, финальных слоев модели с 600 млрд параметров), они получают непропорциональное влияние. Валидаторы могут предпочтительно направлять работу узлам с хорошим соединением, воссоздавая централизацию дата-центров в якобы децентрализованной сети.

Это не фатальные недостатки, а инженерные вызовы, с которыми сталкивается любой проект на стыке блокчейна и ИИ. Но запуск тестнета Ambient во втором или третьем квартале 2025 года покажет, выдержит ли теория проверку реальными условиями.

Что дальше: Тестнет, мейннет и эндшпиль в виде AGI

Дорожная карта Ambient нацелена на запуск тестнета во втором или третьем квартале 2025 года, а мейннет последует в 2026 году. Посевной раунд в размере $ 7,2 миллиона от a16z CSX, Delphi Digital и Amber Group обеспечивает ресурсы для основной разработки, но долгосрочный успех проекта зависит от принятия экосистемой.

Ключевые этапы, за которыми стоит следить:

Участие в майнинге в тестнете: Сколько майнеров присоединится к сети? Если Ambient привлечет тысячи владельцев GPU (как в раннем майнинге Ethereum), это докажет жизнеспособность экономической модели. Если майнить будут лишь несколько организаций, это просигнализирует о рисках централизации.

Бенчмарки производительности моделей: Смогут ли модели, обученные в Ambient, конкурировать с OpenAI или Anthropic? Если децентрализованная модель с 600 млрд параметров достигнет качества уровня GPT-4, это подтвердит правильность всего подхода. Если производительность будет значительно отставать, разработчики останутся на централизованных API.

Интеграция приложений: Какие DeFi-протоколы, ДАО или ИИ-агенты будут строиться на Ambient? Ценностное предложение материализуется только в том случае, если реальные приложения будут потреблять ончейн-инференс ИИ. Ранние варианты использования могут включать:

  • Автономные торговые агенты с доказуемой логикой принятия решений
  • Децентрализованная модерация контента (модели ИИ, фильтрующие посты, с возможностью аудита ончейн)
  • Верифицируемые ИИ-оракулы (ончейн-прогнозы цен или анализ настроений)

Совместимость с Ethereum и Cosmos: Ambient — это форк Solana, но экономика ИИ-агентов охватывает несколько сетей. Мосты к Ethereum (для DeFi) и Cosmos (для IBC-совместимых цепочек ИИ, таких как ASI) определят, станет ли Ambient изолированной системой или хабом.

Конечная цель амбициозна: обучение децентрализованного AGI, где ни одна организация не контролирует модель. Если тысячи независимых майнеров совместно обучат сверхинтеллектуальную систему с криптографическим доказательством каждого шага обучения, это станет первым по-настоящему открытым и проверяемым путем к AGI.

Достигнет ли Ambient этого или станет еще одним многообещающим, но нереализованным криптопроектом, зависит от исполнения. Но основная инновация — замена произвольных криптографических головоломок верифицируемой работой ИИ — является подлинным прорывом. Если доказательство работы может быть продуктивным, а не расточительным, Ambient докажет это первым.

Смена парадигмы: Proof-of-Logits

Привлечение компанией Ambient 7,2 млн долларов — это не просто очередной раунд криптофинансирования. Это ставка на то, что консенсус блокчейна и обучение ИИ могут слиться в единую, экономически согласованную систему. Последствия этого выходят далеко за пределы Ambient:

Если верификация на основе логитов (Proof-of-Logits) сработает, другие сети ее переймут. Ethereum может внедрить PoL в качестве альтернативы PoS, вознаграждая валидаторов, которые вносят вклад в работу ИИ вместо простого стейкинга ETH. Bitcoin может провести форк для использования полезных вычислений вместо хешей SHA-256 (хотя биткоин-максималисты никогда на это не согласятся).

Если децентрализованное обучение достигнет конкурентоспособной производительности, OpenAI и Google потеряют свои монопольные преимущества. Мир, где любой обладатель GPU может внести вклад в разработку сильного ИИ (AGI), зарабатывая токены за свою работу, фундаментально разрушает централизованную олигополию ИИ.

Если ончейн-верификация ИИ станет стандартом, автономные агенты обретут доверие. Вместо того чтобы полагаться на API-интерфейсы типа «черный ящик», пользователи смогут проверять конкретные модели и промпты прямо в блокчейне. Это откроет возможности для регулируемого DeFi, алгоритмического управления и юридических контрактов на базе ИИ.

Победа Ambient не гарантирована. Но это самая технически обоснованная на сегодняшний день попытка сделать Proof-of-Work продуктивным, децентрализовать обучение ИИ и привести безопасность блокчейна в соответствие с прогрессом цивилизации. Запуск тестнета покажет, совпадет ли теория с реальностью — или же Proof-of-Logits пополнит кладбище амбициозных экспериментов в области консенсуса.

В любом случае, гонка за создание ончейн-AGI теперь неоспоримо реальна. И Ambient только что выставила 7,2 млн долларов на стартовую линию.


Источники:

Gensyn's Judge: как побитово-точная воспроизводимость кладет конец эре непрозрачных API для ИИ

· 19 мин чтения
Dora Noda
Software Engineer

Каждый раз, когда вы обращаетесь к ChatGPT, Claude или Gemini, вы доверяете невидимому черному ящику. Версия модели? Неизвестна. Точные веса? Проприетарны. Был ли результат сгенерирован той моделью, о которой вы думаете, или незаметно обновленным вариантом? Проверить невозможно. Для обычных пользователей, спрашивающих о рецептах или фактах, эта непрозрачность просто досадна. Для высокорискового принятия решений с помощью ИИ — алгоритмов финансовой торговли, медицинской диагностики, анализа юридических контрактов — это фундаментальный кризис доверия.

Gensyn's Judge, запущенный в конце 2025 года и выходящий в промышленную эксплуатацию в 2026 году, предлагает радикальную альтернативу: криптографически проверяемую оценку ИИ, где каждый инференс воспроизводим с точностью до бита. Вместо того чтобы доверять OpenAI или Anthropic в предоставлении верной модели, Judge позволяет любому проверить, что конкретная, заранее согласованная модель ИИ была выполнена детерминированно на реальных входных данных — с использованием криптографических доказательств, гарантирующих, что результаты не могут быть подделаны.

Техническим прорывом стала Verde, система верификации Gensyn, которая устраняет недетерминированность вычислений с плавающей точкой — бич воспроизводимости ИИ. Обеспечивая побитово-точные вычисления на разных устройствах, Verde гарантирует, что запуск одной и той же модели на NVIDIA A100 в Лондоне и на AMD MI250 в Токио даст идентичные результаты, доказуемые ончейн. Это открывает возможности для проверяемого ИИ в децентрализованных финансах, автономных агентах и любых приложениях, где прозрачность не является опцией — это вопрос выживания.

Проблема непрозрачных API: доверие без проверки

Индустрия ИИ работает на API. Разработчики интегрируют GPT-4 от OpenAI, Claude от Anthropic или Gemini от Google через REST-эндпоинты, отправляя промпты и получая ответы. Но эти API фундаментально непрозрачны:

Неопределенность версии: когда вы вызываете gpt-4, какую именно версию вы получаете? GPT-4-0314? GPT-4-0613? Незаметно обновленный вариант? Провайдеры часто выпускают патчи без публичных анонсов, меняя поведение модели в одночасье.

Отсутствие аудиторского следа: ответы API не содержат криптографического доказательства того, какая модель их сгенерировала. Если OpenAI предоставляет цензурированный или предвзятый вариант для определенных регионов или клиентов, у пользователей нет способа это обнаружить.

Скрытая деградация: провайдеры могут «лоботомизировать» модели для снижения затрат — ухудшая качество инференса при сохранении того же контракта API. Пользователи сообщают, что GPT-4 со временем становится «глупее», но без прозрачного версионирования такие утверждения остаются лишь предположениями.

Недетерминированные выходные данные: даже два запроса к одной и той же модели с идентичными входными данными могут дать разные результаты из-за настроек температуры, батчинга или аппаратных ошибок округления чисел с плавающей точкой. Это делает аудит невозможным — как проверить корректность, если результаты невоспроизводимы?

Для повседневных приложений эти проблемы — лишь неудобства. Для принятия высокорисковых решений они являются блокирующими факторами. Рассмотрим примеры:

Алгоритмическая торговля: хедж-фонд развертывает ИИ-агента, управляющего позициями в DeFi на сумму 50 миллионов долларов. Агент полагается на GPT-4 для анализа рыночных настроений на основе постов в X. Если модель незаметно обновится в середине торговой сессии, показатели настроений изменятся непредсказуемо, что приведет к непреднамеренным ликвидациям. У фонда нет доказательств некорректного поведения модели; логи OpenAI не подлежат публичному аудиту.

Медицинская диагностика: больница использует модель ИИ для назначения лечения рака. Регламенты требуют, чтобы врачи документировали процессы принятия решений. Но если версию модели ИИ невозможно проверить, аудиторский след будет неполным. Иск о врачебной ошибке может зависеть от доказательства того, какая именно модель сгенерировала рекомендацию — что невозможно в случае с непрозрачными API.

Управление DAO: децентрализованная организация использует ИИ-агента для голосования по предложениям казначейства. Члены сообщества требуют доказательств того, что агент использовал утвержденную модель, а не модифицированный вариант, способствующий определенным результатам. Без криптографической проверки голосование не обладает легитимностью.

Это тот самый разрыв доверия, на который нацелен Gensyn: поскольку ИИ становится неотъемлемой частью процесса принятия критически важных решений, невозможность проверить подлинность и поведение модели становится «фундаментальным препятствием для развертывания агентного ИИ в средах с высокими рисками».

Judge: протокол верифицируемой оценки ИИ

Judge решает проблему непрозрачности путем выполнения заранее согласованных детерминированных моделей ИИ на реальных входных данных и фиксации результатов в блокчейне, где любой может их оспорить. Вот как работает протокол:

1. Фиксация модели: участники согласовывают модель ИИ — её архитектуру, веса и конфигурацию инференса. Эта модель хешируется и фиксируется ончейн. Хеш служит криптографическим отпечатком: любое отклонение от согласованной модели дает другой хеш.

2. Детерминированное выполнение: Judge запускает модель, используя Gensyn's Reproducible Runtime, который гарантирует побитово-точную воспроизводимость на разных устройствах. Это устраняет недетерминированность вычислений с плавающей точкой — критически важную инновацию, которую мы рассмотрим чуть позже.

3. Публичная фиксация: после инференса Judge публикует результат (или его хеш) ончейн. Это создает постоянную, подлежащую аудиту запись того, что модель выдала для конкретных входных данных.

4. Период оспаривания: любой может оспорить результат, повторно выполнив модель независимо. Если результат отличается, подается доказательство мошенничества (fraud proof). Механизм делегирования с арбитражем (refereed delegation mechanism) системы Verde точно определяет оператора в вычислительном графе, на котором разошлись результаты.

5. Слэшинг за мошенничество: если оспаривающий докажет, что Judge выдал неверные результаты, первоначальный исполнитель штрафуется (слэшинг застейканных токенов). Это выстраивает экономические стимулы: исполнители максимизируют прибыль, выполняя модели корректно.

Judge превращает оценку ИИ из принципа «доверьтесь поставщику API» в принцип «проверьте криптографическое доказательство». Поведение модели становится публичным, проверяемым и обязательным к исполнению — оно больше не скрыто за проприетарными эндпоинтами.

Verde: Устранение недетерминизма вычислений с плавающей точкой

Основная техническая проблема верифицируемого ИИ — это детерминизм. Нейронные сети выполняют миллиарды операций с плавающей точкой во время инференса. На современных GPU эти операции не являются идеально воспроизводимыми:

Неассоциативность: Сложение с плавающей точкой не является ассоциативным. (a + b) + c может дать результат, отличный от a + (b + c), из-за ошибок округления. GPU параллельно суммируют данные на тысячах ядер, и порядок накопления промежуточных сумм варьируется в зависимости от оборудования и версии драйвера.

Вариативность планирования ядер: Ядра GPU (например, для матричного умножения или механизма внимания) могут выполняться в разном порядке в зависимости от рабочей нагрузки, оптимизаций драйвера или архитектуры оборудования. Даже запуск одной и той же модели на одном и том же GPU дважды может дать разные результаты, если планирование ядер отличается.

Зависимость от размера пакета (batch size): Исследования показали, что инференс LLM является недетерминированным на системном уровне, поскольку результат зависит от размера пакета. Многие ядра (matmul, RMSNorm, attention) меняют числовой результат в зависимости от того, сколько образцов обрабатывается одновременно — инференс с размером пакета 1 дает иные значения, чем те же входные данные в пакете из 8.

Эти проблемы делают стандартные модели ИИ непригодными для проверки в блокчейне. Если два валидатора повторно запустят один и тот же инференс и получат немного разные результаты, кто из них прав? Без детерминизма консенсус невозможен.

Verde решает эту проблему с помощью RepOps (Reproducible Operators) — библиотеки, которая устраняет аппаратный недетерминизм путем контроля порядка операций с плавающей точкой на всех устройствах. Вот как это работает:

Канонический порядок редукции: RepOps обеспечивает детерминированный порядок суммирования частичных результатов в таких операциях, как матричное умножение. Вместо того чтобы позволять планировщику GPU принимать решение, RepOps явно указывает: «суммировать столбец 0, затем столбец 1, затем столбец 2...» на любом оборудовании. Это гарантирует, что (a + b) + c всегда вычисляется в одной и той же последовательности.

Кастомные ядра CUDA: Gensyn разработала оптимизированные ядра, в которых воспроизводимость приоритетнее чистой скорости. Матричные умножения RepOps требуют менее 30% накладных расходов по сравнению со стандартным cuBLAS — разумный компромисс ради детерминизма.

Фиксация версий драйверов: Verde использует GPU-драйверы с фиксированными версиями и канонические конфигурации, гарантируя, что одна и та же модель, исполняемая на разном оборудовании, выдает идентичные побитовые результаты. Модель, работающая на NVIDIA A100 в одном дата-центре, побитово совпадает с результатом AMD MI250 в другом.

Это прорыв, который делает возможной проверку в системе Judge: побитовая воспроизводимость означает, что валидаторы могут независимо подтверждать результаты, не доверяя исполнителям. Если хеш совпадает, инференс верен — это математически доказуемо.

Арбитражное делегирование: эффективная проверка без полного пересчета

Даже при детерминированном исполнении наивная проверка инференса ИИ обходится дорого. Модели с 70 миллиардами параметров, генерирующей 1 000 токенов, может потребоваться 10 GPU-часов. Если валидаторы должны заново запускать каждый инференс для проверки правильности, стоимость проверки будет равна стоимости исполнения, что лишает децентрализацию смысла.

Механизм арбитражного делегирования Verde делает проверку экспоненциально дешевле:

Несколько недоверенных исполнителей: Вместо одного исполнителя Judge назначает задачи нескольким независимым провайдерам. Каждый запускает один и тот же инференс и отправляет результаты.

Расхождения инициируют расследование: Если все исполнители согласны, результат принимается — дальнейшая проверка не требуется. Если результаты расходятся, Verde инициирует состязательную игру (challenge game).

Бинарный поиск по графу вычислений: Verde не пересчитывает весь инференс. Вместо этого выполняется бинарный поиск по вычислительному графу модели, чтобы найти первый оператор, где результаты расходятся. Это позволяет точно определить конкретный слой (например, «слой внимания 47, голова 8»), вызвавший расхождение.

Минимальные вычисления арбитра: Арбитр (которым может быть смарт-контракт или валидатор с ограниченными вычислительными ресурсами) проверяет только спорный оператор, а не весь прямой проход. Для модели с 70 млрд параметров и 80 слоями это сокращает проверку до анализа примерно 7 слоев (log₂ 80) в худшем случае.

Этот подход более чем на 1 350% эффективнее, чем наивная репликация (где каждый валидатор пересчитывает всё). Gensyn объединяет криптографические доказательства, теорию игр и оптимизированные процессы, чтобы гарантировать правильное исполнение без избыточных вычислений.

Результат: Judge может верифицировать рабочие нагрузки ИИ в масштабе, создавая децентрализованные сети инференса, где тысячи недоверенных узлов предоставляют вычислительные мощности, а нечестные исполнители выявляются и штрафуются.

Принятие решений в ИИ с высокими ставками: почему важна прозрачность

Целевой рынок Judge — это не простые чат-боты, а приложения, где верифицируемость является не просто приятным дополнением, а нормативным или экономическим требованием. Вот сценарии, в которых непрозрачные API терпят катастрофический крах:

Децентрализованные финансы (DeFi): Автономные торговые агенты управляют активами на миллиарды долларов. Если агент использует модель ИИ для принятия решения о ребалансировке портфеля, пользователям нужны доказательства того, что модель не была подделана. Judge обеспечивает ончейн-проверку: агент фиксирует хеш конкретной модели, совершает сделки на основе её результатов, и любой может оспорить логику принятия решений. Такая прозрачность предотвращает рагпуллы (rug pulls), когда злоумышленники заявляют: «ИИ приказал мне ликвидировать средства», не имея доказательств.

Соблюдение нормативных требований: Финансовые институты, использующие ИИ для кредитного скоринга, обнаружения мошенничества или борьбы с отмыванием денег (AML), проходят аудит. Регуляторы требуют объяснений: «Почему модель отметила эту транзакцию?». Непрозрачные API не оставляют аудиторского следа. Judge создает неизменяемую запись версии модели, входных и выходных данных, удовлетворяя требования комплаенса.

Алгоритмическое управление: Децентрализованные автономные организации (DAO) используют агентов ИИ для предложения или голосования по решениям управления. Члены сообщества должны убедиться, что агент использовал утвержденную модель, а не взломанный вариант. С помощью Judge DAO кодирует хеш модели в своем смарт-контракте, и каждое решение включает криптографическое доказательство правильности.

Медицинский и юридический ИИ: Системы здравоохранения и права требуют подотчетности. Врачу, диагностирующему рак с помощью ИИ, необходимо задокументировать точную версию используемой модели. Юристу, составляющему контракты с ИИ, нужно доказать, что результат получен от проверенной, непредвзятой модели. Ончейн-аудит Judge предоставляет такие доказательства.

Рынки предсказаний и оракулы: Проекты вроде Polymarket используют ИИ для разрешения исходов пари (например, «Произойдет ли это событие?»). Если решение зависит от модели ИИ, анализирующей новостные статьи, участникам нужны доказательства того, что моделью не манипулировали. Judge верифицирует инференс ИИ-оракула, предотвращая споры.

В каждом из этих случаев общая нить такова: доверия без прозрачности недостаточно. Как отмечает VeritasChain, системам ИИ нужны «криптографические бортовые самописцы» — неизменяемые логи, доказывающие произошедшее в случае возникновения споров.

Альтернатива на основе доказательств с нулевым разглашением: сравнение Verde и ZKML

Judge — не единственный подход к верифицируемому ИИ. Машинное обучение с нулевым разглашением (ZKML) достигает аналогичных целей с помощью zk-SNARKs: криптографических доказательств того, что вычисление было выполнено правильно, без раскрытия входных данных или весов модели.

Как Verde соотносится с ZKML?

Стоимость верификации: ZKML требует примерно в 1 000 раз больше вычислений, чем исходный инференс, для генерации доказательств (оценки исследователей). Модели с 70 миллиардами параметров, требующей 10 GPU-часов для инференса, может потребоваться 10 000 GPU-часов для создания доказательства. Арбитражное делегирование Verde логарифмично: проверка примерно 7 слоев вместо 80 дает 10-кратное сокращение, а не 1 000-кратное увеличение.

Сложность прувера: ZKML требует специализированного оборудования (например, кастомных ASIC для схем zk-SNARK) для эффективной генерации доказательств. Verde работает на стандартных GPU — участвовать может любой майнер с игровым ПК.

Компромиссы в конфиденциальности: Сильной стороной ZKML является приватность — доказательства ничего не раскрывают о входных данных или весах модели. Детерминированное выполнение Verde прозрачно: входные и выходные данные являются публичными (хотя веса могут быть зашифрованы). Для принятия важных решений прозрачность часто желательна. DAO, голосующее за распределение средств казначейства, хочет иметь публичные аудиторские следы, а не скрытые доказательства.

Масштаб доказательства: ZKML практически ограничен инференсом — доказательство обучения неосуществимо при текущих вычислительных затратах. Verde поддерживает верификацию как инференса, так и обучения (более широкий протокол Gensyn верифицирует распределенное обучение).

Реальное внедрение: Проекты ZKML, такие как Modulus Labs, добились прорывов (верификация моделей с 18 млн параметров ончейн), но остаются ограниченными небольшими моделями. Детерминированная среда выполнения Verde обрабатывает модели с более чем 70 млрд параметров в промышленной эксплуатации.

ZKML превосходит в тех случаях, когда конфиденциальность имеет первостепенное значение — например, при верификации биометрической аутентификации (Worldcoin) без раскрытия сканов радужной оболочки глаза. Verde лучше подходит там, где целью является прозрачность — доказательство того, что конкретная публичная модель была выполнена правильно. Оба подхода дополняют друг друга, а не конкурируют.

Экосистема Gensyn: от Judge до децентрализованного обучения

Judge является одним из компонентов более широкого видения Gensyn: децентрализованной сети для вычислений машинного обучения. Протокол включает в себя:

Уровень исполнения: Согласованное выполнение ML на гетерогенном оборудовании (потребительские GPU, корпоративные кластеры, граничные устройства). Gensyn стандартизирует рабочие нагрузки инференса и обучения, обеспечивая совместимость.

Уровень верификации (Verde): Проверка без доверия (trustless) с использованием арбитражного делегирования. Нечестные исполнители обнаруживаются и штрафуются.

Peer-to-peer коммуникация: Распределение рабочей нагрузки между устройствами без централизованной координации. Майнеры получают задачи, выполняют их и отправляют доказательства напрямую в блокчейн.

Децентрализованная координация: Смарт-контракты на роллапе Ethereum идентифицируют участников, распределяют задачи и обрабатывают платежи без необходимости получения разрешений (permissionless).

Публичный тестнет Gensyn был запущен в марте 2025 года, а запуск мейннета запланирован на 2026 год. Публичная продажа токенов $AI состоялась в декабре 2025 года, установив экономические стимулы для майнеров и валидаторов.

Judge вписывается в эту экосистему как уровень оценки: в то время как основной протокол Gensyn отвечает за обучение и инференс, Judge гарантирует верифицируемость этих результатов. Это создает «маховик»:

Разработчики обучают модели в децентрализованной сети Gensyn (что дешевле, чем AWS, благодаря использованию недоиспользуемых потребительских GPU).

Модели развертываются с использованием Judge, гарантирующим целостность оценки. Приложения потребляют инференс через API Gensyn, но, в отличие от OpenAI, каждый результат включает криптографическое доказательство.

Валидаторы зарабатывают вознаграждения, проверяя доказательства и выявляя мошенничество, что согласовывает экономические стимулы с безопасностью сети.

Доверие масштабируется по мере того, как все больше приложений внедряют верифицируемый ИИ, снижая зависимость от централизованных провайдеров.

Конечная цель: обучение и инференс ИИ, которые являются доказуемо правильными, децентрализованными и доступными для всех, а не только для крупных технологических компаний.

Проблемы и открытые вопросы

Подход Judge является революционным, но остается ряд проблем:

Накладные расходы на производительность: Замедление RepOps на 30 % приемлемо для верификации, но если каждый инференс должен выполняться детерминированно, приложения, чувствительные к задержкам (высокочастотная торговля, автономные транспортные средства), могут предпочесть более быстрые, неверифицируемые альтернативы. Дорожная карта Gensyn, вероятно, включает дальнейшую оптимизацию RepOps, но существует фундаментальный компромисс между скоростью и детерминизмом.

Фрагментация версий драйверов: Verde предполагает использование драйверов фиксированных версий, но производители GPU постоянно выпускают обновления. Если одни майнеры используют CUDA 12.4, а другие — 12.5, побитовая воспроизводимость нарушается. Gensyn должна обеспечить строгое управление версиями, что усложняет процесс подключения майнеров.

Секретность весов модели: Прозрачность Judge является преимуществом для публичных моделей, но недостатком для проприетарных. Если хедж-фонд обучает ценную торговую модель, ее развертывание на Judge раскрывает веса конкурентам (через ончейн-обязательство). Альтернативы на базе ZKML могут быть предпочтительнее для секретных моделей, что говорит о том, что Judge ориентирован на открытые или полуоткрытые приложения ИИ.

Задержка разрешения споров: Если челленджер заявляет о мошенничестве, разрешение спора с помощью бинарного поиска требует нескольких ончейн-транзакций (каждый раунд сужает область поиска). Высокочастотные приложения не могут ждать финализации часами. Gensyn может внедрить оптимистичную верификацию (предположение о правильности, если нет оспаривания в течение определенного окна), чтобы сократить задержки.

Устойчивость к атаке Сивиллы при арбитражном делегировании: Если несколько исполнителей должны прийти к согласию, что мешает одной организации контролировать всех исполнителей через подставные личности? Gensyn, вероятно, использует выбор на основе стейка (валидаторы с высокой репутацией выбираются предпочтительно) в сочетании со слэшингом для предотвращения сговора, но экономические пороги должны быть тщательно откалиброваны.

Это не непреодолимые препятствия, а инженерные задачи. Основная инновация (детерминированный ИИ + криптографическая верификация) надежна. Детали реализации будут совершенствоваться по мере перехода от тестнета к мейннету.

Путь к верифицируемому ИИ: пути внедрения и соответствие рынку

Успех Judge зависит от принятия. Какие приложения первыми внедрят верифицируемый ИИ?

DeFi-протоколы с автономными агентами: DAO Aave, Compound или Uniswap могли бы интегрировать агентов, верифицированных с помощью Judge, для управления казначейством. Сообщество голосует за утверждение хэша модели, и все решения агентов включают доказательства. Такая прозрачность укрепляет доверие, что критически важно для легитимности DeFi.

Рынки предсказаний и оракулы: Платформы вроде Polymarket или Chainlink могли бы использовать Judge для разрешения ставок или предоставления ценовых фидов. Модели ИИ, анализирующие настроения, новости или ончейн-активность, будут выдавать верифицируемые результаты, что исключит споры о манипулировании оракулами.

Децентрализованная идентификация и KYC: Проекты, требующие верификации личности на базе ИИ (оценка возраста по селфи, проверка подлинности документов), получают выгоду от аудиторского следа Judge. Регуляторы принимают криптографические доказательства соответствия, не доверяя централизованным провайдерам идентификации.

Модерация контента для социальных сетей: Децентрализованные социальные сети (Farcaster, Lens Protocol) могли бы развернуть модераторов на базе ИИ, верифицированных Judge. Члены сообщества смогут убедиться, что модель модерации не является предвзятой или подверженной цензуре, что гарантирует нейтральность платформы.

Платформы AI-as-a-Service (ИИ как услуга): Разработчики, создающие ИИ-приложения, могут предлагать «верифицируемый инференс» как премиальную функцию. Пользователи будут доплачивать за доказательства, что позволит отличать такие сервисы от непрозрачных альтернатив.

Общая черта: приложения, в которых доверие обходится дорого (из-за регулирования, децентрализации или высоких ставок), а стоимость верификации приемлема (по сравнению с ценностью определенности).

Judge не заменит OpenAI для потребительских чат-ботов — пользователям не важно, верифицируем ли GPT-4, когда они ищут идеи для рецептов. Но для финансовых алгоритмов, медицинских инструментов и систем управления верифицируемый ИИ — это будущее.

Верифицируемость как новый стандарт

Judge от Gensyn представляет собой смену парадигмы: оценка ИИ переходит от принципа «доверяй провайдеру» к принципу «проверяй доказательство». Технический фундамент — побитово точная воспроизводимость через Verde, эффективная проверка через реферируемое делегирование и ончейн-журналы аудита — делает этот переход практическим, а не просто амбициозным.

Последствия выходят далеко за пределы Gensyn. Если верифицируемый ИИ станет стандартом, централизованные провайдеры потеряют свои конкурентные преимущества. Ценностное предложение OpenAI — это не только возможности GPT-4, но и удобство отсутствия необходимости управлять инфраструктурой. Но если Gensyn докажет, что децентрализованный ИИ может сравниться с централизованным по производительности, обладая при этом дополнительной верифицируемостью, у разработчиков не будет причин привязываться к проприетарным API.

Гонка началась. ZKML-проекты (Modulus Labs, биометрическая система Worldcoin) делают ставку на доказательства с нулевым разглашением. Детерминированные среды выполнения (Verde от Gensyn, EigenAI) ставят на воспроизводимость. Оптимистичные подходы (блокчейн ИИ-оракулы) полагаются на доказательства мошенничества (fraud proofs). У каждого пути есть свои компромиссы, но цель одна: системы ИИ, в которых результаты доказуемы, а не просто правдоподобны.

Для принятия решений с высокими ставками это не опция, а необходимость. Регуляторы не примут аргумент «просто поверьте нам» от поставщиков ИИ в финансах, здравоохранении или юриспруденции. DAO не будут делегировать управление казначейством агентам, работающим по принципу «черного ящика». И по мере того как автономные системы ИИ становятся мощнее, общественность будет требовать прозрачности.

Judge — это первая готовая к эксплуатации система, выполняющая это обещание. Тестнет запущен. Криптографические основы надежны. Рынок — с 27 млрд $ в крипто-активах ИИ-агентов, миллиардами активов в DeFi под управлением алгоритмов и растущим регуляторным давлением — готов.

Эра непрозрачных ИИ-API заканчивается. Начинается эпоха верифицируемого интеллекта. И Judge от Gensyn указывает путь.


Источники:

Запуск Blacklight от Nillion: Как ERC-8004 создает уровень доверия для автономных ИИ-агентов

· 12 мин чтения
Dora Noda
Software Engineer

2 февраля 2026 года экономика ИИ-агентов сделала важный шаг вперед. Компания Nillion запустила Blacklight — уровень верификации, реализующий стандарт ERC-8004, чтобы решить один из самых насущных вопросов блокчейна: как доверять ИИ-агенту, которого вы никогда не встречали?

Ответом является не просто показатель репутации или централизованный реестр. Это пятиэтапный процесс верификации, подкрепленный криптографическими доказательствами, программируемым аудитом и сетью узлов, управляемых сообществом. Поскольку автономные агенты все чаще совершают сделки, управляют казначействами и координируют кроссчейн-активность, Blacklight представляет собой инфраструктуру, обеспечивающую координацию ИИ без доверия (trustless) в масштабе.

Проблема доверия, которую ИИ-агенты не могут решить в одиночку

Цифры говорят сами за себя. На долю ИИ-агентов сейчас приходится 30% объема торгов на Polymarket, они управляют стратегиями доходности DeFi в нескольких протоколах и автономно выполняют сложные рабочие процессы. Но существует фундаментальное препятствие: как агенты могут проверять надежность друг друга без предварительно установленных отношений?

Традиционные системы полагаются на централизованные органы, выдающие учетные данные. Обещание Web3 иное — верификация без доверия с помощью криптографии и консенсуса. Тем не менее, до появления ERC-8004 не существовало стандартизированного способа для агентов доказывать свою подлинность, отслеживать свое поведение или подтверждать логику принятия решений в блокчейне (on-chain).

Это не просто теоретическая проблема. Как объясняет Давиде Крапис, «ERC-8004 обеспечивает децентрализованное взаимодействие ИИ-агентов, устанавливает коммерцию без доверия и улучшает системы репутации на Ethereum». Без этого торговля между агентами остается ограниченной закрытыми экосистемами или требует ручного контроля, что сводит на нет саму суть автономии.

ERC-8004: Инфраструктура доверия из трех реестров

Стандарт ERC-8004, который был запущен в основной сети Ethereum 29 января 2026 года, устанавливает модульный уровень доверия через три ончейн-реестра:

Identity Registry (Реестр идентификации): Использует ERC-721 для предоставления переносимых идентификаторов агентов. Каждый агент получает невзаимозаменяемый токен (NFT), представляющий его уникальную личность в сети, что обеспечивает узнаваемость на разных платформах и предотвращает подмену личности.

Reputation Registry (Реестр репутации): Собирает стандартизированные отзывы и рейтинги. В отличие от централизованных систем отзывов, фидбек записывается в блокчейне с криптографическими подписями, создавая неизменяемый аудиторский след. Любой желающий может просмотреть эту историю и создать собственные алгоритмы репутации.

Validation Registry (Реестр валидации): Поддерживает криптографическую и экономическую проверку работы агента. Именно здесь происходит программируемый аудит — валидаторы могут повторно выполнять вычисления, проверять доказательства с нулевым разглашением или использовать доверенные среды исполнения (TEE) для подтверждения правильности действий агента.

Гениальность ERC-8004 заключается в его универсальном дизайне. Как отмечается в технической спецификации, стандарт поддерживает различные методы валидации: «повторное выполнение задач с обеспечением залогом (вдохновленное такими системами, как EigenLayer), проверка доказательств машинного обучения с нулевым разглашением (zkML) и аттестации из доверенных сред исполнения (TEE)».

Эта гибкость имеет значение. Арбитражный агент DeFi может использовать доказательства zkML для проверки своей торговой логики, не раскрывая стратегию. Агент цепочки поставок может использовать аттестации TEE, чтобы доказать, что он правильно получил доступ к реальным данным. Агент кроссчейн-моста может полагаться на криптоэкономическую валидацию со слэшингом (slashing) для обеспечения честного исполнения.

Пятиэтапный процесс верификации Blacklight

Реализация ERC-8004 от Nillion в Blacklight добавляет важный уровень: узлы верификации, управляемые сообществом. Вот как работает этот процесс:

1. Регистрация агента: Агент регистрирует свою личность в Identity Registry, получая NFT стандарта ERC-721. Это создает уникальный ончейн-идентификатор, привязанный к публичному ключу агента.

2. Инициация запроса на верификацию: Когда агент совершает действие, требующее подтверждения (например, выполнение сделки, перевод средств или обновление состояния), он отправляет запрос на верификацию в Blacklight.

3. Назначение комитета: Протокол Blacklight случайным образом назначает комитет узлов верификации для аудита запроса. Эти узлы управляются членами сообщества, которые вносят в стейкинг 70 000 токенов NIL, что согласовывает их интересы с целостностью сети.

4. Проверки узлов: Члены комитета повторно выполняют вычисления или проверяют криптографические доказательства. Если валидаторы обнаруживают некорректное поведение, они могут применить слэшинг к стейку агента (в системах с криптоэкономической валидацией) или пометить идентификатор в Reputation Registry.

5. Ончейн-отчетность: Результаты публикуются в блокчейне. Validation Registry фиксирует, была ли подтверждена работа агента, создавая постоянное доказательство исполнения. Реестр репутации обновляется соответствующим образом.

Этот процесс происходит асинхронно и без блокировок, что означает, что агенты не ждут завершения верификации для выполнения рутинных задач, но операции с высокими ставками (крупные переводы, кроссчейн-операции) могут требовать предварительной валидации.

Программируемый аудит: за пределами бинарного доверия

Самая амбициозная функция Blacklight — это «программируемая верификация», возможность проверять то, как агент принимает решения, а не только то, что он делает.

Рассмотрим DeFi-агента, управляющего казначейством. Традиционные аудиты подтверждают, что средства были перемещены корректно. Программируемые аудиты проверяют:

  • Логическую последовательность принятия решений: следовал ли агент заявленной инвестиционной стратегии или отклонился от нее?
  • Выполнение многоэтапных рабочих процессов: если агент должен был провести ребалансировку портфелей в трех сетях, завершил ли он все этапы?
  • Ограничения безопасности: соблюдал ли агент лимиты газа, допуски на проскальзывание (slippage) и ограничения по рискам (exposure caps)?

Это стало возможным благодаря тому, что реестр валидации (Validation Registry) стандарта ERC-8004 поддерживает произвольные системы доказательств. Агент может зафиксировать алгоритм принятия решений в блокчейне (например, хеш весов своей нейронной сети или схему zk-SNARK, представляющую его логику), а затем доказывать, что каждое действие соответствует этому алгоритму, не раскрывая при этом конфиденциальные детали.

Дорожная карта Nillion напрямую нацелена на эти сценарии использования: «Nillion планирует расширить возможности Blacklight до „программируемой верификации“, обеспечивая децентрализованный аудит сложных действий, таких как логическая последовательность принятия решений агентом, выполнение многоэтапных рабочих процессов и соблюдение ограничений безопасности».

Это переводит верификацию из реактивной формы (выявление ошибок постфактум) в проактивную (обеспечение правильного поведения на уровне архитектуры).

Слепые вычисления: когда приватность встречается с верификацией

Лежащая в основе Nillion технология — Nil Message Compute (NMC) — добавляет аспект приватности в процесс верификации агентов. В отличие от традиционных блокчейнов, где все данные публичны, «слепые вычисления» Nillion позволяют выполнять операции над зашифрованными данными без их расшифровки.

Вот почему это важно для агентов: ИИ-агенту может потребоваться подтвердить свою торговую стратегию, не раскрывая конкурентам свои преимущества (alpha). Или доказать, что он корректно получил доступ к конфиденциальным медицинским записям, не раскрывая данных пациентов. Или продемонстрировать соблюдение нормативных требований, не разглашая проприетарную бизнес-логику.

NMC от Nillion достигает этого с помощью многосторонних вычислений (MPC), где узлы совместно генерируют «ослепляющие факторы» (blinding factors) — коррелированную случайность, используемую для шифрования данных. Как объясняет DAIC Capital: «Узлы генерируют ключевой сетевой ресурс, необходимый для обработки данных — тип коррелированной случайности, называемый ослепляющим фактором, — при этом каждый узел надежно хранит свою долю ослепляющего фактора, распределяя доверие по сети квантово-безопасным способом».

Эта архитектура является квантово-устойчивой по умолчанию. Даже если квантовый компьютер взломает современную криптографию на эллиптических кривых, распределенные ослепляющие факторы останутся в безопасности, поскольку ни один узел не обладает достаточной информацией для расшифровки данных.

Для ИИ-агентов это означает, что верификация не требует отказа от конфиденциальности. Агент может доказать, что он правильно выполнил задачу, сохраняя при этом свои методы, источники данных и логику принятия решений в тайне.

Инфраструктурная ставка на экономику агентов стоимостью 4,3 миллиарда долларов

Запуск Blacklight происходит в тот момент, когда сектор блокчейна и ИИ вступает в фазу гиперроста. Прогнозируется, что рынок вырастет с 680 миллионов долларов (2025 г.) до 4,3 миллиарда долларов (2034 г.) со среднегодовым темпом роста 22,9 %, в то время как более широкий рынок конфиденциальных вычислений достигнет 350 миллиардов долларов к 2032 году.

Но Nillion не просто делает ставку на расширение рынка — она позиционирует себя как критически важную инфраструктуру. «Узким местом» экономики агентов являются не вычисления или хранение данных, а масштабируемое доверие. Как отмечается в прогнозе KuCoin на 2026 год, три ключевых тренда меняют идентичность ИИ и потоки создания ценности:

Системы «агент-оболочка-агента» (Agent-Wrapping-Agent): агенты, координирующиеся с другими агентами для выполнения сложных многоэтапных задач. Это требует стандартизированной идентификации и верификации — именно того, что обеспечивает ERC-8004.

KYA (Know Your Agent): финансовая инфраструктура, требующая учетных данных агентов. Регуляторы не одобрят автономных агентов, управляющих средствами, без доказательств их корректного поведения. Программируемые аудиты Blacklight напрямую решают эту задачу.

Наноплатежи: агентам необходимо эффективно проводить микроплатежи. Протокол платежей x402, который обработал более 20 миллионов транзакций в январе 2026 года, дополняет ERC-8004, беря на себя расчеты, в то время как Blacklight обеспечивает доверие.

Вместе эти стандарты достигли готовности к промышленной эксплуатации с разницей в несколько недель — прорыв в координации, сигнализирующий о зрелости инфраструктуры.

Ориентированное на агентов будущее Ethereum

Внедрение ERC-8004 выходит далеко за пределы Nillion. По состоянию на начало 2026 года стандарт интегрировали несколько проектов:

Такое быстрое внедрение отражает более широкий сдвиг в дорожной карте Ethereum. Виталик Бутерин неоднократно подчеркивал, что роль блокчейна становится «просто связующим звеном» для ИИ-агентов — не уровнем, ориентированным на пользователя, а инфраструктурой доверия, обеспечивающей автономную координацию.

Blacklight от Nillion ускоряет реализацию этого видения, делая верификацию программируемой, конфиденциальной и децентрализованной. Вместо того чтобы полагаться на централизованных оракулов или экспертов, агенты могут криптографически доказать свою корректность.

Что дальше: интеграция с мейннетом и расширение экосистемы

Дорожная карта Nillion на 2026 год отдает приоритет совместимости с Ethereum и устойчивой децентрализации. Мост к Ethereum был запущен в феврале 2026 года, за ним последовали нативные смарт-контракты для стейкинга и приватных вычислений.

Участники сообщества, застейкавшие 70 000 токенов NIL, могут управлять узлами верификации Blacklight, получая вознаграждения и поддерживая целостность сети. Эта модель отражает экономику валидаторов Ethereum, но добавляет специфическую роль верификации.

Следующие этапы включают:

  • Расширенная поддержка zkML: интеграция с такими проектами, как Modulus Labs, для верификации выводов ИИ ончейн
  • Кроссчейн-верификация: возможность Blacklight верифицировать агентов, работающих в сетях Ethereum, Cosmos и Solana
  • Институциональное партнерство: сотрудничество с Coinbase и Alibaba Cloud для развертывания корпоративных агентов
  • Инструменты для соблюдения нормативных требований: создание фреймворков KYA для внедрения в финансовые услуги

Возможно, самое важное — Nillion разрабатывает nilGPT — полностью приватный ИИ-чат-бот, демонстрирующий, как слепые вычисления (blind computation) обеспечивают конфиденциальное взаимодействие агентов. Это не просто демо-версия; это проект для агентов, работающих с конфиденциальными данными в здравоохранении, финансах и государственном секторе.

Конечная цель бездоверительной координации

Запуск Blacklight знаменует собой поворотный момент для экономики агентов. До ERC-8004 агенты работали изолированно — им доверяли внутри их собственных экосистем, но они не могли координироваться между платформами без участия посредников-людей. После появления ERC-8004 агенты могут проверять личности друг друга, проводить аудит поведения и проводить расчеты автономно.

Это открывает совершенно новые категории приложений:

  • Децентрализованные хедж-фонды: агенты, управляющие портфелями в разных сетях с верифицируемыми инвестиционными стратегиями и прозрачным аудитом эффективности
  • Автономные цепочки поставок: агенты, координирующие логистику, платежи и комплаенс без централизованного надзора
  • DAO на базе ИИ: организации, управляемые агентами, которые голосуют, вносят предложения и исполняют решения на основе криптографически подтвержденной логики принятия решений
  • Кросс-протокольное управление ликвидностью: агенты, проводящие ребалансировку активов в DeFi-протоколах с программируемыми ограничениями рисков

Что их объединяет? Всем им требуется бездоверительная координация (trustless coordination) — способность агентов работать вместе без предварительных отношений или централизованных якорей доверия.

Blacklight от Nillion обеспечивает именно это. Сочетая инфраструктуру идентификации и репутации ERC-8004 с программируемой верификацией и слепыми вычислениями, он создает слой доверия, достаточно масштабируемый для экономики из триллиона агентов, маячащей на горизонте.

По мере того как блокчейн становится «трубопроводом» для ИИ-агентов и глобальных финансов, вопрос заключается не в том, нужна ли нам инфраструктура верификации, а в том, кто ее построит и будет ли она децентрализованной или контролируемой несколькими посредниками. Узлы Blacklight, управляемые сообществом, и открытый стандарт говорят в пользу первого варианта.

Эра автономных ончейн-акторов наступила. Инфраструктура запущена. Единственный оставшийся вопрос — что будет построено на ее основе.


Источники:

Конвергенция ИИ и Web3: как блокчейн стал операционной системой для автономных агентов

· 16 мин чтения
Dora Noda
Software Engineer

29 января 2026 года Ethereum запустил ERC-8004 — стандарт, который наделяет программных ИИ-агентов постоянными ончейн-личностиями. В течение нескольких дней зарегистрировалось более 24 549 агентов, а BNB Chain объявила о поддержке протокола. Это не просто постепенный прогресс — это инфраструктура для автономных экономических акторов, которые могут совершать транзакции, координировать действия и выстраивать репутацию без посредничества человека.

ИИ-агентам не нужен блокчейн для существования. Но блокчейн необходим им для координации. Чтобы совершать транзакции без доверия (trustless) через организационные границы. Чтобы создавать проверяемую репутацию. Чтобы автономно проводить платежи. Чтобы доказывать выполнение задач без централизованных посредников.

Конвергенция ускоряется, потому что обе технологии решают критические недостатки друг друга: ИИ обеспечивает интеллект и автоматизацию, а блокчейн — доверие и экономическую инфраструктуру. Вместе они создают то, чего невозможно достичь по отдельности: автономные системы, способные участвовать в открытых рынках без необходимости в предварительных доверительных отношениях.

В этой статье рассматривается инфраструктура, делающая сближение ИИ и Web3 неизбежным — от стандартов идентификации до экономических протоколов и децентрализованного исполнения моделей. Вопрос не в том, будут ли ИИ-агенты работать на блокчейне, а в том, как быстро инфраструктура масштабируется для поддержки миллионов автономных экономических акторов.

ERC-8004: Инфраструктура идентификации для ИИ-агентов

ERC-8004 запущен в основной сети Ethereum 29 января 2026 года, устанавливая стандартизированные, не требующие разрешений механизмы для идентификации, репутации и валидации агентов.

Протокол решает фундаментальную проблему: как обнаруживать, выбирать и взаимодействовать с агентами через организационные границы без предварительного доверия. Без инфраструктуры идентификации каждое взаимодействие агентов требует централизованного посредничества — маркетплейсов, сервисов верификации, уровней разрешения споров. ERC-8004 делает эти процессы бездоверчивыми и компонуемыми.

Три основных реестра:

Реестр идентификации (Identity Registry): Минималистичный ончейн-дескриптор на базе ERC-721 с расширением URIStorage, который ссылается на регистрационный файл агента. Каждый агент получает переносимый, устойчивый к цензуре идентификатор. Никакая центральная власть не контролирует, кто может создать личность агента или какие платформы ее признают.

Реестр репутации (Reputation Registry): Стандартизированный интерфейс для публикации и получения сигналов обратной связи. Агенты выстраивают репутацию на основе истории ончейн-транзакций, выполненных задач и отзывов контрагентов. Репутация становится переносимой между платформами, а не остается заблокированной внутри отдельных маркетплейсов.

Реестр валидации (Validation Registry): Универсальные хуки для запроса и записи независимых проверок валидаторами — стейкерами, перезапускающими задачи, верификаторами zkML, подтверждающими выполнение, оракулами TEE, доказывающими вычисления, или доверенными судьями, разрешающими споры. Механизмы валидации подключаются модульно, не требуя специфических для платформ реализаций.

Такая архитектура создает условия для открытых рынков агентов. Вместо «Upwork для ИИ-агентов» вы получаете не требующие разрешений протоколы, где агенты находят друг друга, договариваются об условиях, выполняют задачи и проводят расчеты — и все это без надзора централизованных платформ.

Объявление BNB Chain о быстрой поддержке сигнализирует о стремлении стандарта к кроссчейн-адаптации. Мультичейн-идентификация позволяет агентам работать в различных блокчейн-экосистемах, сохраняя единую систему репутации и верификации.

DeMCP: Model Context Protocol встречает децентрализацию

DeMCP был запущен как первая децентрализованная сеть Model Context Protocol, решая вопросы доверия и безопасности с помощью TEE (доверенных сред исполнения) и блокчейна.

Model Context Protocol (MCP), разработанный Anthropic, стандартизирует способ предоставления контекста большими языковыми моделями приложениям. Представьте себе USB-C для ИИ-приложений — вместо кастомных интеграций для каждого источника данных, MCP предоставляет универсальные стандарты интерфейса.

DeMCP расширяет это на Web3: предлагая бесшовный доступ к ведущим LLM, таким как GPT-4 и Claude, через MCP-инстансы по запросу с оплатой по факту использования в стейблкоинах (USDT/USDC) и под управлением моделей распределения доходов.

Архитектура решает три критические проблемы:

Доступ: Традиционные API ИИ-моделей требуют централизованных учетных записей, платежной инфраструктуры и SDK конкретных платформ. DeMCP позволяет автономным агентам получать доступ к LLM через стандартизированные протоколы, оплачивая услуги в криптовалюте без необходимости использования API-ключей или кредитных карт, управляемых человеком.

Доверие: Централизованные MCP-сервисы становятся едиными точками отказа и слежки. Узлы DeMCP, защищенные TEE, обеспечивают верифицируемое исполнение — агенты могут подтвердить, что модели обработали конкретные промпты без вмешательства извне, что крайне важно для финансовых решений или соблюдения нормативных требований.

Компонуемость: Появляется новое поколение инфраструктуры ИИ-агентов на базе MCP и протоколов A2A (агент-к-агенту), разработанных специально для сценариев Web3. Это позволяет агентам получать доступ к мультичейн-данным и нативно взаимодействовать с протоколами DeFi.

Результат: MCP превращает ИИ в первоклассного гражданина Web3. Блокчейн обеспечивает доверие, координацию и экономическую основу. Вместе они формируют децентрализованную операционную систему, в которой агенты рассуждают, координируют действия и работают через совместимые протоколы.

Среди топ-криптопроектов MCP, за которыми стоит следить в 2026 году, — поставщики инфраструктуры, строящие уровни координации агентов, децентрализованные сети исполнения моделей и интеграции на уровне протоколов, позволяющие агентам работать автономно в экосистемах Web3.

170+ инструментов для агентов Polymarket: инфраструктура в действии

Экосистема Polymarket выросла до более чем 170 сторонних инструментов в 19 категориях, став важной инфраструктурой для всех, кто серьезно занимается торговлей на рынках предсказаний.

Категории инструментов охватывают весь рабочий процесс агента:

Автономная торговля: Агенты на базе ИИ, которые автоматически находят и оптимизируют стратегии, интегрируя рынки предсказаний с доходным фермерством и протоколами DeFi. Некоторые агенты достигают точности в 98 % при краткосрочном прогнозировании.

Арбитражные системы: Автоматизированные боты, выявляющие ценовые расхождения между Polymarket и другими платформами предсказаний или традиционными рынками ставок, исполняя сделки быстрее, чем операторы-люди.

Отслеживание «китов»: Инструменты мониторинга крупномасштабных движений позиций, позволяющие агентам следовать за институциональной активностью или противодействовать ей на основе исторических корреляций эффективности.

Инфраструктура копитрейдинга: Платформы, позволяющие агентам копировать стратегии лучших игроков с ончейн-верификацией результатов, что предотвращает фальшивые заявления о доходности.

Аналитика и потоки данных: Аналитика институционального уровня, предоставляющая агентам данные о глубине рынка, анализе ликвидности, историческом распределении вероятностей и корреляциях исходов событий.

Управление рисками: Автоматизированный выбор размера позиции, лимиты экспозиции и механизмы стоп-лосс, интегрированные непосредственно в торговую логику агента.

Эта экосистема подтверждает тезис о конвергенции AI × Web3. Polymarket предоставляет репозитории GitHub и SDK специально для разработки агентов, рассматривая автономных участников как первоклассных пользователей платформы, а не как пограничные случаи или нарушения условий обслуживания.

Прогноз на 2026 год включает потенциальный запуск токена $POLY, создающий новую динамику вокруг управления, структур комиссий и стимулов экосистемы. Генеральный директор Шейн Коплан предположил, что это может стать одним из крупнейших TGE (Token Generation Events) 2026 года. Кроме того, потенциальный запуск собственного блокчейна Polymarket (по модели Hyperliquid) может фундаментально изменить инфраструктуру, где миллиарды привлеченных средств сделают запуск аппчейна (appchain) естественным этапом эволюции.

Инфраструктурный стек: уровни AI × Web3

Автономные агенты, работающие на блокчейне, требуют скоординированной инфраструктуры на нескольких уровнях:

Уровень 1: Идентификация и репутация

  • Реестры ERC-8004 для идентификации агентов
  • Ончейн-системы репутации, отслеживающие эффективность
  • Криптографическое подтверждение владения и полномочий агента
  • Кроссчейн-мосты идентификации для операций в нескольких экосистемах

Уровень 2: Доступ и исполнение

  • DeMCP для децентрализованного доступа к LLM
  • Вычисления в защищенной среде TEE для приватной логики агентов
  • zkML (машинное обучение с нулевым разглашением) для проверяемого вывода (inference)
  • Децентрализованные сети инференса, распределяющие исполнение моделей

Уровень 3: Координация и коммуникация

  • Протоколы A2A (агент-агент) для прямых переговоров
  • Стандартизированные форматы сообщений для межагентского взаимодействия
  • Механизмы поиска агентов со специфическими возможностями
  • Эскроу и разрешение споров для автономных контрактов

Уровень 4: Экономическая инфраструктура

  • Платежные рельсы на стейблкоинах для трансграничных расчетов
  • Автоматизированные маркет-мейкеры (AMM) для активов, созданных агентами
  • Программируемые структуры комиссий и распределение доходов
  • Согласование стимулов на основе токенов

Уровень 5: Прикладные протоколы

  • Интеграция с DeFi для автономной оптимизации доходности
  • API рынков предсказаний для торговли информацией
  • NFT-маркетплейсы для контента, созданного агентами
  • Фреймворки участия в управлении DAO

Этот стек обеспечивает прогрессивное усложнение поведения агентов: простая автоматизация (исполнение смарт-контрактов), реактивные агенты (реагирование на ончейн-события), проактивные агенты (инициирование стратегий на основе вывода ИИ) и координирующие агенты (переговоры с другими автономными участниками).

Инфраструктура не просто позволяет ИИ-агентам использовать блокчейн — она делает блокчейн естественной операционной средой для автономной экономической деятельности.

Почему ИИ нужен блокчейн: проблема доверия

ИИ-агенты сталкиваются с фундаментальными проблемами доверия, которые централизованные архитектуры не могут решить:

Верификация: Как доказать, что ИИ-агент исполнил определенную логику без вмешательства? Традиционные API не дают никаких гарантий. Блокчейн с использованием zkML или аттестаций TEE создает проверяемые вычисления — криптографическое доказательство того, что конкретные модели обработали определенные входные данные и выдали конкретные результаты.

Репутация: Как агентам заслужить доверие за пределами одной организации? Централизованные платформы создают «закрытые сады» — репутация, заработанная на Upwork, не переносится на Fiverr. Ончейн-репутация становится переносимой, проверяемой и устойчивой к манипуляциям через атаки Сивиллы.

Расчеты: Как автономным агентам обрабатывать платежи без участия человека? Традиционный банкинг требует счетов, KYC и авторизации человеком для каждой транзакции. Стейблкоины и смарт-контракты обеспечивают программируемые мгновенные расчеты с криптографической, а не бюрократической защитой.

Координация: Как агенты из разных организаций могут вести переговоры без доверенных посредников? Традиционный бизнес требует контрактов, юристов и механизмов принуждения. Смарт-контракты позволяют исполнять соглашения без доверия — код автоматически обеспечивает соблюдение условий на основе проверяемых условий.

Атрибуция: Как доказать, какой именно агент создал определенный результат? Происхождение ИИ-контента становится критически важным для авторского права, ответственности и распределения доходов. Ончейн-аттестация обеспечивает неизменяемые записи о создании, изменении и владении.

Блокчейн не просто дает эти возможности — это единственная архитектура, которая обеспечивает их без повторного введения допущений о централизованном доверии. Конвергенция возникает из технической необходимости, а не из спекулятивного нарратива.

Почему блокчейну нужен ИИ: проблема интеллекта

Блокчейн сталкивается с фундаментальными ограничениями, которые решает ИИ:

Абстракция сложности: UX блокчейна остается крайне сложным — сид-фразы, комиссии за газ, подписание транзакций. ИИ-агенты могут абстрагировать эту сложность, выступая в роли интеллектуальных посредников, которые исполняют намерения пользователя, не раскрывая технических деталей реализации.

Обработка информации: Блокчейны предоставляют данные, но им не хватает интеллекта для их интерпретации. ИИ-агенты анализируют паттерны активности в сети (on-chain), выявляют арбитражные возможности, предсказывают рыночные движения и оптимизируют стратегии на скоростях и в масштабах, недоступных человеку.

Автоматизация: Смарт-контракты исполняют логику, но не могут адаптироваться к меняющимся условиям без явного программирования. ИИ-агенты обеспечивают динамическое принятие решений, обучаясь на результатах и корректируя стратегии без необходимости внесения предложений по управлению (governance proposals) для каждого изменения параметров.

Обнаруживаемость: Протоколы DeFi страдают от фрагментации — пользователи должны вручную искать возможности на сотнях платформ. ИИ-агенты постоянно сканируют, оценивают и направляют активность в оптимальные протоколы на основе сложной многофакторной оптимизации.

Управление рисками: Трейдеры-люди борются с дисциплиной, эмоциями и ограничениями внимания. ИИ-агенты соблюдают предопределенные параметры риска, без колебаний исполняют стоп-лоссы и круглосуточно мониторят позиции в нескольких сетях одновременно.

Отношения становятся симбиотическими: блокчейн предоставляет инфраструктуру доверия, обеспечивающую координацию ИИ, а ИИ предоставляет интеллект, делающий инфраструктуру блокчейна пригодной для сложной экономической деятельности.

Развивающаяся экономика агентов

Инфраструктурный стек открывает возможности для новых экономических моделей:

Агент как услуга (Agent-as-a-Service): Автономные агенты сдают свои возможности в аренду по требованию, формируя цены динамически в зависимости от спроса и предложения. Никаких платформ, никаких посредников — прямые рынки услуг между агентами.

Коллективный интеллект: Агенты объединяют опыт для решения сложных задач, координируясь через смарт-контракты, которые автоматически распределяют доход в зависимости от вклада. Мультиагентные системы решают проблемы, выходящие за рамки возможностей любого отдельного агента.

Улучшенное прогнозирование: Агенты постоянно отслеживают информационные потоки, обновляют оценки вероятности и совершают сделки на основе инсайтов еще до появления новостей, понятных человеку. Информационные финансы (InfoFi) становятся алгоритмическими, и агенты начинают доминировать в процессе определения цен.

Автономные организации: ДАО (DAO), полностью управляемые ИИ-агентами, действующими от имени владельцев токенов, принимая решения через верифицируемый вывод (inference), а не через человеческое голосование. Организации, работающие на машинной скорости с криптографической подотчетностью.

Экономика контента: ИИ-генерируемый контент с ончейн-происхождением (provenance), обеспечивающий автоматическое лицензирование, распределение роялти и права на создание производных работ. Агенты ведут переговоры об условиях использования и обеспечивают соблюдение авторства через смарт-контракты.

Это не гипотезы — ранние версии уже работают. Вопрос в том, как быстро инфраструктура масштабируется для поддержки миллионов автономных экономических субъектов?

Оставшиеся технические проблемы

Несмотря на быстрый прогресс, сохраняются значительные препятствия:

Масштабируемость: Текущие блокчейны с трудом справляются с пропускной способностью. Миллионы агентов, совершающих непрерывные микротранзакции, требуют решений второго уровня (Layer 2), оптимистичных роллапов (optimistic rollups) или специализированных сетей для агентов.

Конфиденциальность: Многие операции агентов требуют конфиденциальной логики или данных. TEE (доверенные среды исполнения) обеспечивают частичные решения, но полностью гомоморфное шифрование (FHE) и продвинутая криптография остаются слишком дорогими для промышленного масштаба.

Регулирование: Автономные экономические субъекты бросают вызов существующим правовым рамкам. Кто несет ответственность, когда агенты причиняют ущерб? Как применяются требования KYC / AML? Регуляторная ясность отстает от технических возможностей.

Стоимость моделей: Вывод (inference) LLM остается дорогим. Децентрализованные сети должны соответствовать ценам централизованных API, добавляя при этом накладные расходы на верификацию. Экономическая жизнеспособность требует дальнейшего повышения эффективности моделей.

Проблемы оракулов: Агентам нужны надежные данные из реального мира. Существующие решения оракулов вносят допущения о доверии и задержки. Создание более эффективных мостов между ончейн-логикой и оффчейн-информацией остается критически важным.

Эти проблемы не являются непреодолимыми — это инженерные задачи с четкими путями решения. Траектория развития инфраструктуры указывает на их разрешение в течение 12–24 месяцев.

Точка перегиба 2026 года

В 2026 году сойдутся несколько катализаторов:

Созревание стандартов: Принятие ERC-8004 в основных сетях создает инфраструктуру совместимых идентификаторов. Агенты беспрепятственно работают в Ethereum, BNB Chain и новых экосистемах.

Эффективность моделей: Меньшие специализированные модели снижают стоимость вывода в 10–100 раз, сохраняя при этом производительность для конкретных задач. Экономическая жизнеспособность значительно улучшается.

Регуляторная ясность: Первые юрисдикции устанавливают правовые рамки для автономных агентов, обеспечивая юридическую определенность для институционального внедрения.

Прорывные приложения: Рынки предсказаний, оптимизация DeFi и создание контента демонстрируют явное превосходство агентов над операторами-людьми, способствуя внедрению технологий за пределами круга крипто-энтузиастов.

Инфраструктурная конкуренция: Множество команд, создающих децентрализованный вывод, протоколы координации агентов и специализированные блокчейны, создают конкурентное давление, ускоряющее разработку.

Конвергенция переходит из стадии экспериментов в стадию формирования инфраструктуры. Ранние последователи получают преимущества, платформы интегрируют поддержку агентов по умолчанию, а экономическая активность все чаще проходит через автономных посредников.

Что это значит для Web3-разработки

Разработчикам, создающим решения для следующего этапа Web3, следует приоритизировать следующие направления:

Дизайн, ориентированный на агентов (Agent-First): Рассматривайте автономных акторов как основных пользователей, а не как исключительные случаи. Проектируйте API, структуры комиссий и механизмы управления, исходя из предположения, что агенты будут доминировать в активности.

Компонуемость (Composability): Создавайте протоколы, которые агенты могут легко интегрировать, координировать между собой и расширять. Стандартизированные интерфейсы важнее проприетарных реализаций.

Верификация: Предоставляйте криптографические доказательства исполнения, а не просто результаты выполнения. Агентам необходимы проверяемые вычисления для построения цепочек доверия.

Экономическая эффективность: Оптимизируйте системы для микротранзакций, непрерывных расчетов и динамических рынков комиссий. Традиционная пакетная обработка и ручное вмешательство не масштабируются для агентской активности.

Опции конфиденциальности: Поддерживайте как прозрачные, так и конфиденциальные операции агентов. Различные варианты использования требуют разных гарантий конфиденциальности.

Инфраструктура существует. Стандарты появляются. Экономические стимулы согласованы. Конвергенция ИИ × Web3 не просто приближается — она уже здесь. Вопрос в том, кто создаст инфраструктуру, которая станет основой для следующего десятилетия автономной экономической деятельности?

BlockEden.xyz предоставляет инфраструктуру корпоративного уровня для Web3-приложений, предлагая надежный и высокопроизводительный доступ к RPC в основных экосистемах блокчейнов. Изучите наши услуги для инфраструктуры ИИ-агентов и поддержки автономных систем.


Источники:

Взрыв InfoFi: как информация стала самым торгуемым активом Уолл-стрит

· 12 мин чтения
Dora Noda
Software Engineer

Финансовая индустрия только что перешагнула порог, который мало кто ожидал. В феврале 2026 года еженедельный объем торгов на рынках предсказаний достиг $ 6,32 миллиарда — и это не результат спекулятивного гемблинга, а следствие того, что институциональные инвесторы начали оценивать саму информацию как торгуемый товар.

Информационные финансы, или «ИнфоФи» (InfoFi), представляют собой кульминацию десятилетней трансформации: с 4,63миллиардав2025годудопрогнозируемых4,63 миллиарда в 2025 году до прогнозируемых 176,32 миллиарда к 2034 году. Инфраструктура Web3 превратила рынки предсказаний из беттинговых платформ в то, что Виталик Бутерин называет «двигателями истины» — финансовые механизмы, которые агрегируют интеллект быстрее, чем традиционные СМИ или системы опросов.

Это не просто криптоспекуляции. ICE (Intercontinental Exchange, владелец Нью-Йоркской фондовой биржи) [вложила 2миллиардавPolymarket](https://markets.financialcontent.com/stocks/article/predictstreet202626thegreatpredictionwarof2026polymarketandkalshibattlefordominanceasiceentersthefray),оценивплатформурынковпредсказанийв2 миллиарда в Polymarket](https://markets.financialcontent.com/stocks/article/predictstreet-2026-2-6-the-great-prediction-war-of-2026-polymarket-and-kalshi-battle-for-dominance-as-ice-enters-the-fray), оценив платформу рынков предсказаний в 9 миллиардов. Хедж-фонды и центральные банки теперь интегрируют данные рынков предсказаний в те же терминалы, которые используются для акций и деривативов. ИнфоФи стали полноценной финансовой инфраструктурой.

Что на самом деле означает ИнфоФи

ИнфоФи рассматривает информацию как класс активов. Вместо пассивного потребления новостей участники ставят капитал на точность утверждений — превращая каждую точку данных в рынок с прозрачной ценой.

Механика работает следующим образом:

Традиционный поток информации: Происходит событие → СМИ сообщают → Аналитики интерпретируют → Рынки реагируют (дни или недели)

Поток информации ИнфоФи: Рынки предсказывают событие → Капитал течет к точным прогнозам → Ценовые сигналы мгновенно выявляют правду (минуты или часы)

К январю 2026 года еженедельный объем рынков предсказаний достиг $ 5,9 миллиарда, при этом Kalshi заняла 66,4 % рынка, а Polymarket получила поддержку институциональной инфраструктуры ICE. ИИ-агенты теперь обеспечивают более 30 % торговой активности, непрерывно оценивая геополитические события, экономические показатели и корпоративные результаты.

Результат: информация получает цену до того, как она становится новостью. Рынки предсказаний определили серьезность COVID-19 за несколько недель до заявлений ВОЗ, предсказали исход выборов в США в 2024 году точнее, чем традиционные опросы, и спрогнозировали изменения политики центральных банков раньше официальных объявлений.

Битва Polymarket против Kalshi

На ландшафте ИнфоФи доминируют две платформы, представляющие фундаментально разные подходы к рынкам информации.

Kalshi: Регулируемый на федеральном уровне претендент. Обработал $ 43,1 миллиарда объема в 2025 году, имея надзор со стороны CFTC, что обеспечивает институциональную легитимность. Торги ведутся в долларах, платформа интегрируется с традиционными брокерскими счетами и фокусируется на рынках, соответствующих требованиям США.

Регуляторная база ограничивает охват рынка, но привлекает институциональный капитал. Традиционные финансы чувствуют себя комфортно, направляя ордера через Kalshi, так как платформа работает в рамках существующей комплаенс-инфраструктуры. К февралю 2026 года Kalshi имеет 34 % вероятности лидерства по объему торгов в 2026 году, при этом 91,1 % сделок сосредоточены в спортивных контрактах.

Polymarket: Крипто-нативный конкурент. Построенный на блокчейн-инфраструктуре, он обработал объем в $ 33 миллиарда в 2025 году с гораздо более диверсифицированными рынками — только 39,9 % пришлось на спорт, а остальное охватывает геополитику, экономику, технологии и культурные события.

Инвестиция ICE в размере $ 2 миллиарда изменила всё. Polymarket получил доступ к институциональной расчетной инфраструктуре, дистрибуции рыночных данных и регуляторным путям, ранее доступным только для традиционных бирж. Трейдеры рассматривают партнерство с ICE как подтверждение того, что данные рынков предсказаний скоро появятся в терминалах Bloomberg и лентах Reuters.

Конкуренция стимулирует инновации. Регуляторная прозрачность Kalshi способствует институциональному внедрению. Блокчейн-инфраструктура Polymarket обеспечивает глобальное участие и композируемость. Оба подхода ведут ИнфоФи к массовому признанию — разные пути, сходящиеся в одной точке.

ИИ-агенты как трейдеры информацией

ИИ-агенты не просто потребляют информацию — они ею торгуют.

Более 30% объема рынков предсказаний теперь приходится на ИИ-агентов, которые непрерывно анализируют потоки данных, совершают сделки и обновляют прогнозы вероятности. Это не просто боты, следующие заранее заданным правилам. Современные ИИ-агенты интегрируют множество источников данных, выявляют статистические аномалии и корректируют позиции в зависимости от меняющейся информационной среды.

Рост торговли с использованием ИИ создает циклы обратной связи:

  1. ИИ-агенты обрабатывают информацию быстрее, чем люди
  2. Торговая активность генерирует ценовые сигналы
  3. Ценовые сигналы становятся входными данными для других агентов
  4. Входит больше агентов, повышая ликвидность и точность

Эта динамика превратила рынки предсказаний из человеческих спекуляций в алгоритмический поиск информации. Теперь рынки обновляются в режиме реального времени, так как ИИ-агенты постоянно пересчитывают вероятности на основе новостных потоков, настроений в социальных сетях, экономических показателей и межрыночных корреляций.

Последствия выходят за рамки трейдинга. Рынки предсказаний становятся «оракулами истины» для смарт-контрактов, предоставляя проверяемые и экономически обоснованные фиды данных. Протоколы DeFi могут проводить расчеты на основе исходов рынков предсказаний. DAO могут использовать консенсус InfoFi для принятия управленческих решений. Весь стек Web3 получает доступ к высококачественной информационной инфраструктуре с выстроенной системой стимулов.

Крах платформы X: первая неудача InfoFi

Не все эксперименты в области InfoFi оказываются успешными. В январе 2026 года цены на токены InfoFi рухнули после того, как X (бывший Twitter) запретил приложения, вознаграждающие за вовлеченность.

Проекты вроде KAITO (упали на 18%) и COOKIE (упали на 20%) строили модели «информация как актив», вознаграждая пользователей за вовлеченность, предоставление данных и качество контента. Тезис заключался в том, что внимание имеет ценность, и пользователи должны получать эту ценность через токеномику.

Крах выявил фундаментальный недостаток: построение децентрализованной экономики на централизованных платформах. Когда X изменил условия обслуживания, целые экосистемы InfoFi испарились в одночасье. Пользователи потеряли стоимость токенов. Проекты потеряли каналы распространения. «Децентрализованная» информационная экономика оказалась хрупкой перед лицом рисков централизованных платформ.

Те, кто выжил, усвоили урок. Настоящая инфраструктура InfoFi требует дистрибуции внутри блокчейна (blockchain-native), а не зависимости от платформ Web2. Проекты переориентировались на децентрализованные социальные протоколы (Farcaster, Lens) и рынки данных ончейн. Крах ускорил переход от гибридных моделей Web2-Web3 к полностью децентрализованной информационной инфраструктуре.

InfoFi за пределами рынков предсказаний

Концепция «информация как актив» выходит за рамки бинарных предсказаний.

Data DAO: Организации, которые коллективно владеют наборами данных, курируют и монетизируют их. Участники вносят данные, подтверждают их качество и делят доход от коммерческого использования. Токенизация реальных активов (RWA) достигла $23 миллиардов к середине 2025 года, что демонстрирует интерес институционалов к ончейн-представлению стоимости.

Децентрализованные сети физической инфраструктуры (DePIN): Оценивались примерно в $30 миллиардов в начале 2025 года при наличии более 1500 активных проектов. Частные лица делятся свободными аппаратными мощностями (мощность GPU, пропускная способность, хранилище) и зарабатывают токены. Информация превращается в торгуемые вычислительные ресурсы.

Маркетплейсы ИИ-моделей: Блокчейн обеспечивает проверяемое владение моделями и отслеживание их использования. Создатели монетизируют ИИ-модели через ончейн-лицензирование, а смарт-контракты автоматизируют распределение доходов. Информация (веса моделей, обучающие данные) становится компонуемой и торгуемой инфраструктурой.

Рынки учетных данных: Доказательства с нулевым разглашением (ZKP) позволяют подтверждать учетные данные с сохранением конфиденциальности. Пользователи доказывают свою квалификацию, не раскрывая личных данных. Проверяемые учетные данные становятся торгуемыми активами в контексте найма, кредитования и управления.

Общая нить: информация переходит из разряда бесплатных внешних эффектов в разряд активов, имеющих цену. Рынки находят ценность для данных, которые ранее было невозможно монетизировать — поисковых запросов, показателей внимания, подтверждения квалификации, вычислительных ресурсов.

Интеграция институциональной инфраструктуры

Внедрение InfoFi на Уолл-стрит — это не теория, это уже операционная деятельность.

Инвестиции ICE в размере $2 миллиардов в Polymarket обеспечивают институциональную основу: механизмы комплаенса, расчетную инфраструктуру, дистрибуцию рыночных данных и регуляторные пути. Данные рынков предсказаний теперь интегрированы в терминалы, используемые менеджерами хедж-фондов и центральными банками.

Эта интеграция превращает рынки предсказаний из альтернативных источников данных в основную инфраструктуру бизнес-аналитики. Портфельные менеджеры ссылаются на вероятности InfoFi наряду с техническими индикаторами. Системы управления рисками учитывают сигналы рынков предсказаний. Торговые алгоритмы потребляют обновления вероятностей в режиме реального времени.

Этот переход напоминает то, как терминалы Bloomberg десятилетиями поглощали источники данных — начиная с цен на облигации, расширяясь до новостных лент и интегрируя анализ настроений в соцсетях. InfoFi представляет собой следующий слой: экономически обоснованные оценки вероятности событий, которые традиционные данные не могут оценить количественно.

Традиционные финансы признают ценностное предложение. Затраты на получение информации снижаются, когда рынки постоянно оценивают точность. Хедж-фонды платят миллионы за проприетарные исследования, которые рынки предсказаний производят органически за счет выравнивания стимулов. Центральные банки отслеживают общественные настроения через опросы, которые InfoFi фиксирует в распределениях вероятностей в реальном времени.

Поскольку отрасль прогнозирует рост с $40 миллиардов в 2025 году до более чем $100 миллиардов к 2027 году, институциональный капитал продолжит вливаться в инфраструктуру InfoFi — не как спекулятивные ставки на крипту, а как основные компоненты финансовых рынков.

Регуляторный вызов

Взрывной рост InfoFi привлекает внимание регуляторов.

Kalshi работает под надзором CFTC, рассматривая рынки прогнозов как деривативы. Эта структура обеспечивает ясность, но ограничивает охват рынка — никаких политических выборов, никаких «социально вредных» исходов, никаких событий вне юрисдикции регулятора.

Крипто-нативный подход Polymarket позволяет работать на глобальных рынках, но усложняет соблюдение нормативных требований. Регуляторы спорят о том, являются ли рынки прогнозов азартными играми, предложением ценных бумаг или информационными услугами. Классификация определяет, какие агентства осуществляют регулирование, какие виды деятельности разрешены и кто может участвовать.

Дебаты сосредоточены на фундаментальных вопросах:

  • Являются ли рынки прогнозов азартными играми или поиском информации?
  • Являются ли токены, представляющие рыночные позиции, ценными бумагами?
  • Должны ли платформы ограничивать участников по географическому признаку или аккредитации?
  • Как существующие финансовые правила применяются к децентрализованным информационным рынкам?

Результаты регулирования определят траекторию развития InfoFi. Ограничительные рамки могут вытеснить инновации в офшоры, ограничив при этом участие институциональных инвесторов. Сбалансированное регулирование могло бы ускорить массовое внедрение, защищая при этом целостность рынка.

Первые сигналы указывают на прагматичный подход. Регуляторы признают ценность рынков прогнозов для определения цен и управления рисками. Задача состоит в создании нормативной базы, которая позволит внедрять инновации, предотвращая при этом манипуляции, защищая потребителей и поддерживая финансовую стабильность.

Что будет дальше

InfoFi представляет собой нечто большее, чем просто рынки прогнозов — это инфраструктура для экономики информации.

Поскольку ИИ-агенты все чаще опосредуют взаимодействие человека и компьютера, им нужны надежные источники информации. Блокчейн обеспечивает проверяемые и согласованные с системой стимулов потоки данных. Рынки прогнозов предлагают распределение вероятностей в реальном времени. Эта комбинация создает «инфраструктуру истины» для автономных систем.

DeFi-протоколы уже интегрируют оракулы InfoFi для расчетов. DAO используют рынки прогнозов для управления. Протоколы страхования оценивают риски, используя ончейн-оценки вероятности. Следующий этап: внедрение на уровне предприятий для прогнозирования цепочек поставок, маркетинговых исследований и стратегического планирования.

Прогноз объема рынка в 176 миллиардов долларов к 2034 году предполагает постепенный рост. Прорыв может произойти быстрее. Если крупные финансовые институты полностью интегрируют инфраструктуру InfoFi, традиционные отрасли опросов, исследований и прогнозирования столкнутся с экзистенциальным давлением. Зачем платить аналитикам за догадки, когда рынки постоянно оценивают вероятности?

Переход не будет гладким. Регуляторные баталии обострятся. Конкуренция платформ заставит проводить консолидацию. Попытки манипулирования рынком проверят согласованность стимулов. Но фундаментальный тезис остается прежним: информация имеет ценность, рынки определяют цены, блокчейн обеспечивает инфраструктуру.

InfoFi не заменяет традиционные финансы — она становится традиционными финансами. Вопрос не в том, достигнут ли информационные рынки массового внедрения, а в том, как быстро институциональный капитал признает неизбежное.

BlockEden.xyz предоставляет инфраструктуру корпоративного уровня для приложений Web3, предлагая надежный и высокопроизводительный доступ к RPC в крупнейших экосистемах блокчейнов. Изучите наши услуги для масштабируемой инфраструктуры InfoFi и рынков прогнозов.


Источники:

Ландшафт рынка InfoFi: от рынков прогнозов к данным как инфраструктуре

· 11 мин чтения
Dora Noda
Software Engineer

Рынки предсказаний превысили 6,32 млрд долларов еженедельного объема в начале февраля 2026 года, при этом Kalshi удерживает 51% доли рынка, а Polymarket — 47%. Но Информационные финансы (InfoFi) выходят далеко за рамки бинарных ставок. Рынки токенизации данных, Data DAO и инфраструктура информации как актива создают развивающуюся экосистему, где информация становится программируемой, торгуемой и проверяемой.

Тезис InfoFi: информация имеет ценность, рынки определяют цены, блокчейн обеспечивает инфраструктуру. В этой статье представлен обзор ландшафта — от механизма предсказаний Polymarket до токенизации данных Ocean Protocol, от Data DAO до рынков истины, ограниченных ИИ.

Фундамент рынков предсказаний

Рынки предсказаний являются якорем экосистемы InfoFi, предоставляя ценовые сигналы для неопределенных будущих событий.

Дуополия Kalshi и Polymarket

Рынок разделился почти 51/49 между Kalshi и Polymarket, но их структура фундаментально различается.

Kalshi: Провел операции на сумму более 43,1 млрд долларов в 2025 году, с сильным уклоном в сторону ставок на спорт. Имеет лицензию CFTC, деноминирован в долларах, интегрирован с розничными брокерами США. «Центр рынков предсказаний» Robinhood направляет миллиарды в контрактах через инфраструктуру Kalshi.

Polymarket: Обработал 33,4 млрд долларов в 2025 году, сосредоточившись на событиях с «высоким уровнем сигнала» — геополитике, макроэкономике, научных прорывах. Крипто-нативный, с глобальным участием, совместим с DeFi. Завершил приобретение QCEX за 112 млн долларов в конце 2025 года для повторного выхода на рынок США через лицензирование CFTC.

Конкуренция стимулирует инновации: Kalshi привлекает розничных клиентов и институциональный комплаенс, Polymarket лидирует в крипто-нативной совместимости и международном доступе.

Больше чем ставки: информационные оракулы

Рынки предсказаний превратились из инструментов спекуляции в информационные оракулы для систем ИИ. Рыночные вероятности служат «внешними якорями», ограничивающими галлюцинации ИИ — многие системы ИИ теперь занижают вес утверждений, на которые нельзя сделать ставку на рынках предсказаний.

Это создает петли обратной связи: ИИ-агенты торгуют на рынках предсказаний, рыночные цены информируют ответы ИИ, а прогнозы, созданные ИИ, влияют на торговлю людей. Результат: рынки информации становятся инфраструктурой для алгоритмического поиска истины.

Токенизация данных: модель Ocean Protocol

В то время как рынки предсказаний оценивают будущие события, Ocean Protocol токенизирует существующие наборы данных, создавая рынки для данных обучения ИИ, исследовательских датасетов и проприетарной информации.

Архитектура дата-токенов (Datatoken)

Модель Ocean: каждый дата-токен представляет собой сублицензию от владельцев базовой интеллектуальной собственности, позволяя пользователям получать доступ и использовать связанные наборы данных. Дата-токены соответствуют стандарту ERC20, что делает их торгуемыми, совместимыми с DeFi и программируемыми через смарт-контракты.

Трехуровневый стек:

Data NFT: Представляют право собственности на базовые наборы данных. Создатели выпускают NFT, устанавливая происхождение и права контроля.

Дата-токены (Datatokens): Токены управления доступом. Владение дата-токенами дает право на временное использование без передачи права собственности. Это отделяет доступ к данным от владения ими.

Маркетплейс Ocean: Децентрализованная биржа для дата-токенов. Поставщики данных монетизируют активы, потребители покупают доступ, а спекулянты торгуют токенами.

Эта архитектура решает критические проблемы: поставщики данных монетизируют активы без потери контроля, потребители получают доступ без полных затрат на покупку, а рынки определяют справедливую цену стоимости информации.

Варианты использования за пределами трейдинга

Рынки обучения ИИ: Разработчики моделей покупают доступ к наборам данных для обучения. Экономика дата-токенов выравнивает стимулы — ценные данные стоят дороже, а создатели получают постоянный доход от деятельности по обучению моделей.

Обмен исследовательскими данными: Академические и научные наборы данных токенизируются для контролируемого распространения. Исследователи подтверждают происхождение, отслеживают использование и вознаграждают генераторов данных через автоматизированное распределение роялти.

Корпоративное сотрудничество в области данных: Компании обмениваются проприетарными наборами данных через токенизированный доступ, а не через полную передачу. Это позволяет сохранять конфиденциальность, обеспечивая совместную аналитику и разработку моделей.

Монетизация личных данных: Физические лица токенизируют свои медицинские записи, поведенческие данные или потребительские предпочтения. Продавайте доступ напрямую, вместо того чтобы позволять платформам извлекать выгоду без компенсации.

Ocean обеспечивает композируемость Ethereum для Data DAO как кооперативов данных, создавая инфраструктуру, в которой данные становятся программируемыми финансовыми активами.

Data DAO: Коллективное владение информацией

Data DAO функционируют как децентрализованные автономные организации, управляющие информационными активами, обеспечивая коллективное владение, управление и монетизацию.

Модель Data Union (союз данных)

Участники коллективно вносят данные, DAO управляет политикой доступа и ценообразованием, доход распределяется автоматически через смарт-контракты, а права управления масштабируются в зависимости от вклада данных.

Появляющиеся примеры:

Союзы данных в здравоохранении: Пациенты объединяют медицинские записи, сохраняя индивидуальную конфиденциальность с помощью криптографических доказательств. Исследователи покупают агрегированный доступ, а доход поступает участникам. Данные остаются под контролем пациентов, а не централизованных систем здравоохранения.

DAO для нейробиологических исследований: Академические институты и исследователи вносят наборы данных визуализации мозга, генетическую информацию и клинические результаты. Коллективный набор данных становится более ценным, чем индивидуальные вклады, что ускоряет исследования и обеспечивает компенсацию поставщикам данных.

Экологические и ГИС-проекты: Экологические датчики, спутниковые снимки и географические данные объединяются сообществами. DAO управляют доступом к данным для моделирования климата, городского планирования и охраны природы, гарантируя, что местные сообщества извлекают выгоду из данных, генерируемых в их регионах.

Data DAO решают проблемы координации: у отдельных лиц нет рычагов влияния, платформы извлекают монопольную ренту, а данные остаются изолированными. Коллективное владение обеспечивает справедливую компенсацию и демократическое управление.

Информация как цифровые активы

Концепция рассматривает информационные активы как цифровые активы, используя инфраструктуру блокчейна, изначально разработанную для криптовалют, для управления владением, передачей и оценкой информации.

Этот архитектурный выбор создает мощную композируемость: информационные активы интегрируются с протоколами DeFi, участвуют в работе автоматизированных маркет-мейкеров, служат залогом для кредитов и обеспечивают программируемое распределение доходов.

Инфраструктурный стек

Уровень идентификации: Криптографическое доказательство владения данными и вклада в них. Предотвращает плагиат, устанавливает происхождение, обеспечивает атрибуцию.

Контроль доступа: Смарт-контракты, регулирующие, кто и на каких условиях может получить доступ к данным. Программируемое лицензирование заменяет ручные переговоры по контрактам.

Механизмы ценообразования: Автоматизированные маркет-мейкеры, определяющие справедливую стоимость наборов данных. Динамика спроса и предложения вместо произвольного институционального ценообразования.

Распределение доходов: Смарт-контракты автоматически распределяют выручку между участниками, кураторами и операторами платформ. Устраняет платежных посредников и задержки.

Композируемость: Информационные активы интегрируются в более широкую экосистему Web3. Используйте наборы данных в качестве залога, создавайте деривативы или объединяйте их в композитные продукты.

К середине 2025 года рынки ончейн-RWA (включая данные) достигли 23 миллиардов долларов, что демонстрирует институциональный аппетит к токенизированным активам помимо спекулятивных криптовалют.

Ограничение ИИ с помощью InfoFi: цикл проверки

Системы ИИ все чаще полагаются на инфраструктуру InfoFi для проверки достоверности.

Рынки прогнозов ограничивают галлюцинации ИИ: трейдеры рискуют реальными деньгами, рыночные вероятности служат внешними якорями, а системы ИИ понижают вес утверждений, на которые нельзя сделать ставку.

Это создает фильтры качества: проверяемые утверждения торгуются на рынках прогнозов, непроверяемые утверждения получают более низкий уровень доверия со стороны ИИ, рыночные цены обеспечивают непрерывное обновление вероятностей, а результаты работы ИИ становятся более обоснованными с точки зрения экономической реальности.

Петля обратной связи работает в обоих направлениях: ИИ-агенты генерируют прогнозы, повышая эффективность рынка, рыночные цены информируют о качестве обучающих данных ИИ, высокоценные прогнозы стимулируют усилия по сбору данных, а рынки информации оптимизируются для выделения сигнала из шума.

Карта экосистемы InfoFi на 2026 год

Ландшафт включает в себя несколько взаимосвязанных уровней:

Уровень 1: Обнаружение истины

  • Рынки предсказаний (Kalshi, Polymarket)
  • Платформы для прогнозирования
  • Системы репутации
  • Протоколы верификации

Уровень 2: Монетизация данных

  • Дата-токены Ocean Protocol
  • Маркетплейсы наборов данных
  • Токены доступа к API
  • Платформы лицензирования информации

Уровень 3: Коллективное владение

  • Data DAO
  • Исследовательские коллаборации
  • Союзы данных (Data unions)
  • Сообщества информационных пулов

Уровень 4: Интеграция ИИ

  • Рынки обучения моделей
  • Верификация выводов (Inference verification)
  • Аттестация результатов
  • Ограничение галлюцинаций

Уровень 5: Финансовая инфраструктура

  • Информационные деривативы
  • Обеспечение данными (Data collateral)
  • Автоматизированные маркет-мейкеры (AMM)
  • Протоколы распределения доходов

Каждый уровень строится на базе других: рынки предсказаний формируют ценовые сигналы, рынки данных монетизируют информацию, DAO обеспечивают коллективные действия, ИИ создает спрос, а финансовая инфраструктура обеспечивает ликвидность.

Что раскрывает 2026 год

InfoFi переходит из экспериментальной стадии в инфраструктурную.

Институциональное признание: Крупные платформы интегрируют рынки предсказаний. Уолл-стрит использует сигналы InfoFi. Формируются нормативно-правовые базы для рассмотрения информации как актива.

Зрелость инфраструктуры: Стандарты токенизации данных закрепляются. Модели управления DAO доказали свою эффективность в масштабе. Интеграция ИИ и блокчейна становится бесшовной.

Рост рынка: Еженедельный объем рынка предсказаний в размере 6,32 млрд долларов США, ончейн-активы данных на сумму 23 млрд долларов США, ускоряющееся внедрение во всех секторах.

Расширение вариантов использования: От спекуляций к исследованиям, корпоративному сотрудничеству, разработке ИИ и координации общественных благ.

Вопрос не в том, станет ли информация классом активов, а в том, как быстро будет масштабироваться инфраструктура и какие модели станут доминирующими. Рынки предсказаний первыми привлекли внимание, но Data DAO и протоколы токенизации могут в конечном итоге обеспечить более масштабные потоки капитала.

Ландшафт InfoFi в 2026 году: прочный фундамент, проверенные сценарии использования, начало институционального внедрения, созревание инфраструктуры. Следующий этап: интеграция в основные информационные системы, замена устаревших рынков данных и становление в качестве стандартной инфраструктуры для обмена информацией.

BlockEden.xyz предоставляет инфраструктуру корпоративного уровня для Web3-приложений, предлагая надежный и высокопроизводительный RPC-доступ в основных экосистемах блокчейнов. Изучите наши услуги для поддержки инфраструктуры InfoFi и рынков данных.


Источники:

Рынки прогнозов достигли $5.9 млрд: когда ИИ-агенты стали инструментом прогнозирования на Уолл-стрит

· 13 мин чтения
Dora Noda
Software Engineer

Когда в начале 2026 года ежедневный объем торгов на Kalshi достиг 814миллионов,чтосоставило66,4814 миллионов, что составило 66,4 % доли рынка прогнозов, этот всплеск вызвали вовсе не розничные спекулянты. Это были ИИ-агенты. Автономные торговые алгоритмы теперь обеспечивают более 30 % объема рынка прогнозов, превращая то, что начиналось как интернет-любопытство, в новейшую институциональную инфраструктуру прогнозирования Уолл-стрит. Еженедельный объем сектора — 5,9 миллиарда и продолжает расти — соперничает со многими традиционными рынками деривативов, с одной важной разницей: эти рынки торгуют информацией, а не просто активами.

Это «Информационные финансы» (Information Finance) — монетизация коллективного разума через рынки прогнозов на базе блокчейна. Когда трейдеры ставят 42миллионанато,достигнетлиOpenAIуровняAGIдо2030года,или42 миллиона на то, достигнет ли OpenAI уровня AGI до 2030 года, или 18 миллионов на то, какая компания следующей выйдет на IPO, они не занимаются азартными играми. Они создают ликвидные, торгуемые прогнозы, которым институциональные инвесторы, политики и корпоративные стратеги доверяют все больше, чем традиционным аналитикам. Вопрос не в том, разрушат ли рынки прогнозов индустрию прогнозирования. Вопрос в том, как быстро институты внедрят рынки, которые превосходят предсказания экспертов по измеримым показателям.

Веха в $ 5,9 млрд: от периферии к финансовой инфраструктуре

Рынки прогнозов завершили 2025 год с рекордными объемами за все время, приблизившимися к 5,3миллиарда,иэтатраекторияускориласьв2026году.Еженедельныеобъемытеперьстабильнопревышают5,3 миллиарда, и эта траектория ускорилась в 2026 году. Еженедельные объемы теперь стабильно превышают 5,9 миллиарда, а ежедневные пики достигают $ 814 миллионов во время крупных событий. Для контекста: это превышает ежедневный объем торгов многими акциями компаний средней капитализации и соперничает со специализированными рынками деривативов.

Рост не линейный — он экспоненциальный. Объемы рынков прогнозов в 2024 году измерялись сотнями миллионов в год. К 2025 году ежемесячные объемы превысили 1миллиард.В2026годуеженедельныеобъемырегулярнодостигали1 миллиард. В 2026 году еженедельные объемы регулярно достигали 5,9 миллиарда, что представляет собой более чем 10-кратный годовой рост. Это ускорение отражает фундаментальные сдвиги в том, как институты воспринимают рынки прогнозов: от новинки к необходимости.

Kalshi доминирует с долей рынка 66,4 %, обрабатывая большую часть институционального объема. Polymarket, работающий в крипто-нативной среде, привлекает значительные розничные и международные потоки. Вместе эти платформы обрабатывают миллиарды еженедельного объема на тысячах рынков, охватывающих выборы, экономику, технологические разработки, спорт и развлечения.

Легитимность сектора получила подтверждение от ICE (Intercontinental Exchange), когда материнская компания NYSE инвестировала $ 2 миллиарда в инфраструктуру рынков прогнозов. Когда оператор крупнейшей в мире фондовой биржи развертывает капитал в таком масштабе, это сигнализирует о том, что рынки прогнозов больше не являются экспериментальными — это стратегическая инфраструктура.

ИИ-агенты: фактор вклада в 30 %

Самый недооцененный фактор роста рынков прогнозов — участие ИИ-агентов. Автономные торговые алгоритмы теперь вносят более 30 % от общего объема, фундаментально меняя динамику рынка.

Почему ИИ-агенты торгуют прогнозами? Три причины:

Информационный арбитраж: ИИ-агенты сканируют тысячи источников данных — новости, социальные сети, ончейн-данные, традиционные финансовые рынки — для выявления неверно оцененных прогнозов. Когда рынок оценивает вероятность события в 40 %, но анализ ИИ предполагает 55 %, агенты торгуют на спреде.

Предоставление ликвидности: Подобно тому как маркет-мейкеры обеспечивают ликвидность на фондовых биржах, ИИ-агенты предлагают двусторонние рынки на платформах прогнозирования. Это улучшает обнаружение цен и сокращает спреды, делая рынки более эффективными для всех участников.

Диверсификация портфеля: Институциональные инвесторы используют ИИ-агентов для получения доступа к нетрадиционным информационным сигналам. Хедж-фонд может использовать рынки прогнозов для хеджирования политических рисков, сроков разработки технологий или регуляторных результатов — рисков, которые трудно выразить на традиционных рынках.

Появление торговли с помощью ИИ-агентов создает петлю положительной обратной связи. Большее участие ИИ означает лучшую ликвидность, что привлекает больше институционального капитала, что оправдывает дальнейшую разработку ИИ. Рынки прогнозов становятся тренировочной площадкой для автономных агентов, которые учатся ориентироваться в сложных реальных задачах прогнозирования.

Трейдеры на Kalshi оценивают вероятность того, что OpenAI достигнет AGI до 2030 года, в 42 % — по сравнению с 32 % шестью месяцами ранее. Этот рынок с ликвидностью более $ 42 миллионов отражает «мудрость толпы», в которую входят инженеры, венчурные капиталисты, эксперты по политике и, все чаще, ИИ-агенты, обрабатывающие сигналы, которые люди не могут отслеживать в таких масштабах.

Институциональное доминирование Kalshi: преимущество регулируемой биржи

Доля рынка Kalshi в 66,4 % не случайна — она структурна. Будучи первой регулируемой CFTC биржей рынков прогнозов в США, Kalshi предлагает институциональным инвесторам то, чего не могут предложить конкуренты: регуляторную определенность.

Институциональный капитал требует соблюдения нормативных требований (комплаенса). Хедж-фонды, управляющие активами и корпоративные казначейства не могут вкладывать миллиарды в нерегулируемые платформы без возникновения юридических и комплаенс-рисков. Регистрация Kalshi в CFTC устраняет этот барьер, позволяя институтам торговать прогнозами наряду с акциями, облигациями и деривативами в своих портфелях.

Статус регулируемой площадки создает сетевые эффекты. Больший объем институциональных сделок привлекает лучших поставщиков ликвидности, что сужает спреды, что, в свою очередь, привлекает больше трейдеров. Книги ордеров Kalshi теперь достаточно глубоки, чтобы многомиллионные сделки исполнялись без значительного проскальзывания — это порог, отделяющий функциональные рынки от экспериментальных.

Широта продуктов Kalshi также имеет значение. Рынки охватывают выборы, экономические показатели, технологические вехи, сроки IPO, корпоративные доходы и макроэкономические события. Такое разнообразие позволяет институциональным инвесторам выражать нюансированные взгляды. Хедж-фонд, играющий на понижение оценки технологических компаний, может открывать короткие позиции на рынках прогнозов IPO «единорогов». Политический аналитик, ожидающий изменений в законодательстве, может торговать на рынках результатов голосования в Конгрессе.

Высокая ликвидность гарантирует, что ценами нелегко манипулировать. Когда на кону миллионы и в торгах участвуют тысячи участников, рыночные цены отражают подлинный консенсус, а не индивидуальные манипуляции. Эта «мудрость толпы» превосходит прогнозы экспертов в слепых тестах — рынки прогнозов последовательно превосходят опросы, прогнозы аналитиков и мнения экспертов.

Крипто-нативная альтернатива Polymarket: децентрализованный конкурент

Пока Kalshi доминирует на регулируемых рынках США, Polymarket привлекает крипто-нативные и международные потоки. Работая на базе блокчейна с расчетами в USDC, Polymarket предлагает беспрепятственный доступ — без KYC, географических ограничений и регуляторного контроля.

Преимущество Polymarket заключается в глобальном охвате. Трейдеры из юрисдикций, где Kalshi недоступен, могут участвовать свободно. Во время выборов в США в 2024 году объем торгов на Polymarket превысил 3 млрд долларов США, что доказало способность крипто-нативной инфраструктуры справляться с институциональными масштабами.

Интеграция платформы с криптотехнологиями открывает путь к новым механизмам. Смарт-контракты обеспечивают автоматические расчеты на основе данных оракулов. Пулы ликвидности работают непрерывно без посредников. Расчеты происходят за секунды, а не дни. Эти преимущества привлекают крипто-нативных трейдеров, привыкших к примитивам DeFi.

Однако неопределенность в регулировании остается главной проблемой Polymarket. Работа без официального одобрения регуляторов США ограничивает институциональное внедрение внутри страны. В то время как розничные и международные пользователи приветствуют открытый доступ, институты США в основном избегают платформ, лишенных регуляторной ясности.

Соперничество между Kalshi (регулируемая, институциональная) и Polymarket (крипто-нативная, открытая) отражает более широкие дискуссии в сфере цифровых финансов. Обе модели жизнеспособны. Обе обслуживают разные базы пользователей. Рост сектора указывает на то, что место найдется для нескольких победителей, каждый из которых выбирает свои компромиссы между регулированием и технологиями.

Информационные финансы: монетизация коллективного разума

Термин «информационные финансы» описывает ключевую инновацию рынков предсказаний: превращение прогнозов в ликвидные торговые инструменты. Традиционное прогнозирование опирается на экспертов, предоставляющих точечные оценки с неопределенной точностью. Рынки предсказаний объединяют распределенные знания в непрерывные рыночные вероятности.

Почему рынки побеждают экспертов:

Личная ответственность (Skin in the game): участники рынка рискуют капиталом, делая прогнозы. Плохие прогнозы приводят к потере денег. Такая структура стимулов фильтрует сигнал от шума лучше, чем опросы общественного мнения или экспертные панели, где участники не несут ответственности за ошибки.

Постоянное обновление: рыночные цены корректируются в режиме реального времени при появлении новой информации. Прогнозы экспертов статичны до выхода следующего отчета. Рынки динамичны, они мгновенно учитывают срочные новости, утечки и новые тренды.

Агрегированные знания: рынки собирают информацию от тысяч участников с разным опытом. Ни один эксперт не сравнится с коллективным разумом инженеров, инвесторов, политиков и операторов, каждый из которых привносит уникальные идеи.

Прозрачная вероятность: рынки выражают прогнозы как вероятности с четкими доверительными интервалами. Рыночная оценка события в 65% означает «вероятность примерно в две трети» — это полезнее, чем экспертное «вероятно» без количественной оценки.

Исследования последовательно показывают, что рынки предсказаний превосходят экспертные группы, опросы и прогнозы аналитиков в самых разных областях — от выборов и экономики до технологических разработок и корпоративных результатов. Результаты не идеальны, но они заметно лучше альтернатив.

Финансовые институты обратили на это внимание. Вместо найма дорогих консультантов для анализа сценариев компании могут обращаться к рынкам предсказаний. Хотите знать, примет ли Конгресс закон о регулировании криптовалют в этом году? Для этого есть соответствующий рынок. Хотите понять, выйдет ли конкурент на IPO до конца года? Торгуйте этим прогнозом. Оцениваете геополитические риски? Сделайте ставку на это.

Институциональное применение: прогнозирование как услуга

Рынки предсказаний превращаются из спекулятивного развлечения в институциональную инфраструктуру. Несколько вариантов использования способствуют их внедрению:

Управление рисками: корпорации используют рынки предсказаний для хеджирования рисков, которые сложно выразить в традиционных деривативах. Менеджер по логистике, обеспокоенный забастовками в портах, может торговать на рынках предсказаний относительно хода трудовых переговоров. Финансовый директор, обеспокоенный процентными ставками, может сопоставлять данные рынков предсказаний по ФРС с фьючерсами на облигации.

Стратегическое планирование: компании принимают многомиллиардные решения на основе прогнозов. Будет ли принято регулирование ИИ? Столкнется ли технологическая платформа с антимонопольным иском? Запустит ли конкурент новый продукт? Рынки предсказаний дают вероятностные ответы, подкрепленные реальным капиталом.

Инвестиционные исследования: хедж-фонды и управляющие активами используют рынки предсказаний как альтернативные источники данных. Рыночные цены на технологические вехи, регуляторные решения или макроэкономические события влияют на формирование портфелей. Некоторые фонды напрямую торгуют на рынках предсказаний в поисках источников альфы.

Анализ политики: правительства и аналитические центры обращаются к рынкам предсказаний, чтобы узнать общественное мнение за рамками обычных опросов. Рынки отделяют искренние убеждения от демонстрации добродетели — участники, ставящие свои деньги, раскрывают истинные ожидания, а не социально одобряемые ответы.

Инвестиция ICE в размере 2 млрд долларов США сигнализирует о том, что традиционные биржи рассматривают рынки предсказаний как новый класс активов. Подобно тому, как рынки деривативов возникли в 1970-х годах для монетизации управления рисками, рынки предсказаний появляются в 2020-х для монетизации прогнозирования.

Цикл обратной связи «ИИ-агент — рынок»

ИИ-агенты, участвующие в рынках предсказаний, создают цикл обратной связи, ускоряющий развитие обеих технологий:

Улучшение ИИ на основе рыночных данных: Модели ИИ обучаются на результатах рынков предсказаний для повышения точности прогнозирования. Модель, предсказывающая сроки IPO технологических компаний, совершенствуется путем бэктестинга на исторических данных Kalshi. Это создает стимул для лабораторий ИИ создавать модели, ориентированные на прогнозирование.

Улучшение рынков за счет участия ИИ: ИИ-агенты обеспечивают ликвидность, осуществляют арбитраж при неверном ценообразовании и улучшают процесс обнаружения цен. Трейдеры-люди получают выгоду от более узких спредов и лучшего агрегирования информации. Рынки становятся более эффективными по мере роста участия ИИ.

Институциональное внедрение ИИ: Учреждения, развертывающие ИИ-агентов на рынках предсказаний, получают опыт работы с автономными торговыми системами в условиях с низкими ставками. Извлеченные уроки переносятся на торговлю акциями, форекс и деривативами.

Вклад ИИ в объем торгов более 30 % — это не потолок, а пол. По мере улучшения возможностей ИИ и роста институционального внедрения участие агентов может достичь 50–70 % в течение нескольких лет. Это не заменяет человеческое суждение, а дополняет его. Люди задают стратегии, а ИИ-агенты исполняют их в масштабах и со скоростью, невозможными при ручном управлении.

Технологические стеки сближаются. Лаборатории ИИ сотрудничают с платформами рынков предсказаний. Биржи создают API для алгоритмической торговли. Институты разрабатывают проприетарный ИИ для стратегий на рынках предсказаний. Эта конвергенция позиционирует рынки предсказаний как полигон для испытаний автономных финансовых агентов следующего поколения.

Проблемы и скептицизм

Несмотря на рост, рынки предсказаний сталкиваются с реальными проблемами:

Риск манипуляций: Хотя высокая ликвидность снижает риск манипуляций, рынки с низким объемом остаются уязвимыми. Мотивированный участник с капиталом может временно исказить цены на нишевых рынках. Платформы борются с этим с помощью требований к ликвидности и обнаружения манипуляций, но риск сохраняется.

Зависимость от оракулов: Рынки предсказаний требуют наличия оракулов — доверенных сущностей, определяющих исходы. Ошибки оракулов или коррупция могут привести к некорректным расчетам. Рынки на базе блокчейна минимизируют это с помощью децентрализованных сетей оракулов, но традиционные рынки полагаются на централизованное разрешение споров.

Регуляторная неопределенность: Хотя Kalshi регулируется CFTC, более широкие нормативно-правовые рамки остаются неясными. Получат ли одобрение новые рынки предсказаний? Столкнутся ли международные рынки с ограничениями? Изменения в регулировании могут непредсказуемо сдерживать или ускорять рост.

Концентрация ликвидности: Большая часть объема концентрируется на резонансных рынках (выборы, крупные технологические события). Нишевым рынкам не хватает ликвидности, что ограничивает их полезность для специализированного прогнозирования. Решение этой проблемы требует либо стимулов для маркет-мейкинга, либо предоставления ликвидности ИИ-агентами.

Этические вопросы: Должны ли существовать рынки на деликатные темы — политическое насилие, смерти, катастрофы? Критики утверждают, что монетизация трагических событий неэтична. Сторонники возражают, что информация с таких рынков помогает предотвратить вред. Эта дискуссия определит, какие рынки будут разрешены платформами.

Траектория 2026–2030 годов

Если еженедельные объемы достигнут 5,9 млрд долларов в начале 2026 года, куда будет двигаться сектор?

При условии умеренного роста (50 % ежегодно — консервативно, учитывая недавнее ускорение), годовые объемы рынков предсказаний могут превысить 50 млрд долларов к 2028 году и 150 млрд долларов к 2030 году. Это поставит сектор в один ряд с рынками деривативов среднего размера.

Более агрессивные сценарии — запуск ICE рынков предсказаний на NYSE, предложение инструментов предсказания крупными банками, одобрение регуляторами большего количества типов рынков — могут подтолкнуть объемы к 500 млрд долларов и более к 2030 году. В таком масштабе рынки предсказаний становятся отдельным классом активов в институциональных портфелях.

Технологические факторы внедрения уже на месте: расчеты на блокчейне, ИИ-агенты, регуляторные рамки, институциональный интерес и проверенный опыт, превосходящий традиционное прогнозирование. Остается только динамика кривой адаптации — насколько быстро институты интегрируют рынки предсказаний в процессы принятия решений.

Переход от «маргинальных спекуляций» к «инструменту институционального прогнозирования» идет полным ходом. Когда ICE инвестирует 2 млрд долларов, когда ИИ-агенты обеспечивают 30 % объема, когда ежедневные объемы Kalshi достигают 814 млн долларов, нарратив меняется навсегда. Рынки предсказаний — это не любопытство. Это будущее того, как институты количественно оценивают неопределенность и хеджируют информационные риски.

Источники

Децентрализованные сети GPU 2026: как DePIN бросает вызов AWS на рынке ИИ-вычислений объемом 100 млрд долларов

· 11 мин чтения
Dora Noda
Software Engineer

Революция ИИ создала беспрецедентный спрос на вычислительные мощности. В то время как гиперскейлеры, такие как AWS, Azure и Google Cloud, доминировали в этом пространстве, появляется новый класс децентрализованных GPU-сетей, бросающий вызов их превосходству. Поскольку сектор DePIN (децентрализованные сети физической инфраструктуры) вырос с 5,2 млрд долларов до более чем 19 млрд долларов рыночной капитализации в течение года, а прогнозы достигают 3,5 трлн долларов к 2028 году, вопрос уже не в том, будут ли децентрализованные вычисления конкурировать с традиционными облачными провайдерами, а в том, как быстро они захватят долю рынка.

Кризис дефицита GPU: идеальные условия для децентрализации

Индустрия полупроводников сталкивается с дефицитом поставок, что подтверждает тезис о децентрализованных вычислениях.

SK Hynix и Micron, два крупнейших в мире производителя памяти с высокой пропускной способностью (HBM), объявили, что весь их объем производства на 2026 год уже распродан. Samsung предупредила о двузначном росте цен, так как спрос значительно опережает предложение.

Этот дефицит создает двухуровневый рынок: те, кто имеет прямой доступ к гипермасштабируемой инфраструктуре, и все остальные.

Для разработчиков ИИ, стартапов и исследователей без миллиардных бюджетов традиционная облачная модель создает три критических барьера:

  • Непомерно высокие затраты, которые могут поглощать 50–70 % бюджета
  • Долгосрочные контракты с минимальной гибкостью
  • Ограниченная доступность высокопроизводительных GPU, таких как NVIDIA H100 или H200

Децентрализованные GPU-сети способны решить все три проблемы.

Лидеры рынка: четыре архитектуры, одно видение

Render Network: от 3D-художников к инфраструктуре ИИ

Первоначально созданная для объединения простаивающих GPU для задач распределенного рендеринга, Render Network успешно переориентировалась на рабочие нагрузки ИИ-вычислений. Сейчас сеть обрабатывает около 1,5 млн кадров ежемесячно, а запуск Dispersed.com в декабре 2025 года ознаменовал стратегическое расширение за пределы творческих индустрий.

Ключевые вехи 2026 года включают:

  • Масштабирование подсетей ИИ-вычислений: расширение децентрализованных ресурсов GPU специально для нагрузок машинного обучения
  • Более 600 внедренных ИИ-моделей: модели с открытыми весами для инференса и симуляций робототехники
  • Оптимизация загрузки на 70 %: функция Differential Uploads для Blender значительно сокращает время передачи файлов

Переход сети с Ethereum на Solana (ребрендинг RNDR в RENDER) подготовил её к высоким требованиям пропускной способности ИИ-вычислений.

На выставке CES 2026 Render продемонстрировала партнерства, направленные на удовлетворение взрывного спроса на GPU для рабочих нагрузок edge ML. Переход от творческого рендеринга к ИИ-вычислениям общего назначения представляет собой одно из самых успешных расширений рынка в секторе DePIN.

Akash Network: конкурент, совместимый с Kubernetes

Akash использует принципиально иной подход с моделью обратного аукциона. Вместо фиксированных цен поставщики GPU конкурируют за рабочие нагрузки, снижая стоимость при сохранении качества через децентрализованный маркетплейс.

Результаты говорят сами за себя: рост использования на 428 % в годовом исчислении при загрузке более 80 % к началу 2026 года.

Инициатива Starcluster — это самый амбициозный проект сети, объединяющий централизованные дата-центры с децентрализованным маркетплейсом Akash для создания «планетарной меш-сети», оптимизированной как для обучения, так и для инференса. Планируемое приобретение примерно 7200 GPU NVIDIA GB200 через Starbonds позволит Akash поддерживать гипермасштабируемый спрос на ИИ.

Показатели за 3 квартал 2025 года свидетельствуют об ускорении динамики:

  • Выручка от комиссий выросла на 11 % по сравнению с предыдущим кварталом до 715 000 AKT
  • Количество новых аренд выросло на 42 % по сравнению с предыдущим кварталом до 27 000
  • Усовершенствование механизма сжигания (BME) в 1 квартале 2026 года связывает сжигание токенов AKT с расходами на вычисления — каждые потраченные 1 сжигают0,85сжигают 0,85 в AKT

При ежемесячном объеме вычислений в 3,36 млн долларов это означает, что ежемесячно может сжигаться около 2,1 млн AKT (примерно 985 000 долларов), что создает дефляционное давление на предложение токенов.

Эта прямая связь между использованием и токеномикой выделяет Akash среди проектов, где полезность токена кажется навязанной или оторванной от реального внедрения продукта.

Hyperbolic: разрушитель ценовых барьеров

Ценностное предложение Hyperbolic предельно просто: предоставлять те же возможности инференса ИИ, что и AWS, Azure и Google Cloud, на 75 % дешевле. Платформа, объединяющая более 100 000 разработчиков, использует Hyper-dOS — децентрализованную операционную систему, которая координирует глобально распределенные ресурсы GPU через продвинутый слой оркестрации.

Архитектура состоит из четырех основных компонентов:

  1. Hyper-dOS: координирует глобально распределенные ресурсы GPU
  2. Маркетплейс GPU: соединяет поставщиков со спросом на вычисления
  3. Сервис инференса: доступ к передовым моделям с открытым исходным кодом
  4. Фреймворк агентов: инструменты, обеспечивающие автономный интеллект

Что отличает Hyperbolic, так это предстоящий протокол Proof of Sampling (PoSP), разработанный совместно с исследователями из Калифорнийского университета в Беркли и Колумбийского университета, который обеспечит криптографическую проверку результатов ИИ.

Это решает одну из самых больших проблем децентрализованных вычислений: проверку без доверия без опоры на централизованные органы. Как только PoSP будет запущен, предприятия смогут проверять правильность вычисления результатов инференса, не полагаясь на честность поставщика GPU.

Inferix: Создатель мостов

Inferix позиционирует себя как связующее звено между разработчиками, нуждающимися в вычислительных мощностях GPU, и поставщиками с избыточными ресурсами. Его модель оплаты по факту использования (pay-as-you-go) устраняет долгосрочные обязательства, которые привязывают пользователей к традиционным облачным провайдерам.

Несмотря на относительную новизну на рынке, Inferix представляет собой растущий класс специализированных сетей GPU, ориентированных на конкретные сегменты — в данном случае на разработчиков, которым нужен гибкий и краткосрочный доступ без требований корпоративного масштаба.

Революция DePIN в цифрах

Более широкий сектор DePIN дает важный контекст для понимания того, какое место децентрализованные вычисления на базе GPU занимают в ландшафте инфраструктуры.

По состоянию на сентябрь 2025 года CoinGecko отслеживает почти 250 проектов DePIN с совокупной рыночной капитализацией более 19миллиардов—посравнениюс19 миллиардов — по сравнению с 5,2 миллиарда всего 12 месяцами ранее. Этот темп роста в 265 % значительно опережает рынок криптовалют в целом.

Внутри этой экосистемы DePIN-проекты, связанные с ИИ, доминируют по рыночной капитализации, составляя 48 % от общей тематики. Децентрализованные сети вычислений и хранения данных вместе оцениваются примерно в $ 19,3 миллиарда, что составляет более половины общей капитализации рынка DePIN.

Наиболее успешные участники демонстрируют зрелость сектора:

  • Aethir: обеспечил более 1,4 миллиарда часов вычислений и сообщил о квартальной выручке почти в $ 40 миллионов в 2025 году
  • io.net и Nosana: капитализация каждого из них превысила $ 400 миллионов в ходе циклов роста
  • Render Network: превысила рыночную капитализацию в $ 2 миллиарда по мере расширения от рендеринга к рабочим нагрузкам ИИ

Аргументы гиперскейлеров: где централизация все еще побеждает

Несмотря на убедительную экономику и впечатляющие показатели роста, децентрализованные сети GPU сталкиваются с серьезными техническими проблемами, на решение которых рассчитаны гиперскейлеры.

Долгосрочные рабочие нагрузки: обучение больших языковых моделей может занимать недели или месяцы непрерывных вычислений. Децентрализованным сетям сложно гарантировать, что конкретные GPU будут оставаться доступными в течение длительного времени, в то время как AWS может резервировать мощности на любой необходимый срок.

Тесная синхронизация: распределенное обучение на нескольких GPU требует координации на микросекундном уровне. Когда эти GPU разбросаны по разным континентам с разной задержкой сети, поддерживать синхронизацию, необходимую для эффективного обучения, становится экспоненциально сложнее.

Предсказуемость: для предприятий, выполняющих критически важные рабочие нагрузки, точное знание ожидаемой производительности не подлежит обсуждению. Гиперскейлеры могут предоставлять подробные SLA; децентрализованные сети все еще создают инфраструктуру проверки, чтобы давать аналогичные гарантии.

Консенсус среди экспертов по инфраструктуре заключается в том, что децентрализованные сети GPU отлично подходят для пакетных нагрузок, задач инференса и краткосрочных циклов обучения.

Для этих сценариев использования экономия средств в 50–75 % по сравнению с гиперскейлерами меняет правила игры. Но для самых требовательных, длительных и критически важных рабочих нагрузок централизованная инфраструктура по-прежнему сохраняет преимущество — по крайней мере, на данный момент.

Катализатор 2026 года: взрыв инференса ИИ

Начиная с 2026 года, прогнозируется резкое ускорение спроса на инференс ИИ и вычислительные мощности для обучения, вызванное тремя сходящимися трендами:

  1. Распространение агентного ИИ: автономным агентам требуются постоянные вычисления для принятия решений
  2. Принятие моделей с открытым исходным кодом: по мере того как компании уходят от проприетарных API, им требуется инфраструктура для хостинга моделей
  3. Развертывание корпоративного ИИ: бизнес переходит от экспериментов к промышленной эксплуатации

Этот всплеск спроса напрямую соответствует сильным сторонам децентрализованных сетей.

Рабочие нагрузки инференса обычно кратковременны и массово распараллеливаемы — это именно тот профиль, в котором децентрализованные сети GPU превосходят гиперскейлеров по стоимости, обеспечивая при этом сопоставимую производительность. Стартап, запускающий инференс для чат-бота или сервиса генерации изображений, может сократить свои расходы на инфраструктуру на 75 %, не жертвуя при этом пользовательским опытом.

Токеномика: уровень стимулирования

Криптовалютный компонент этих сетей — это не просто спекуляция, а механизм, который делает глобальную агрегацию GPU экономически жизнеспособной.

Render (RENDER): Первоначально выпущенный как RNDR на Ethereum, сеть мигрировала на Solana в период 2023–2024 годов, при этом владельцы токенов производили обмен в соотношении 1:1. Токены, связанные с совместным использованием GPU, включая RENDER, выросли более чем на 20 % в начале 2026 года, что отражает растущую уверенность в секторе.

Akash (AKT): Механизм сжигания BME создает прямую связь между использованием сети и стоимостью токена. В отличие от многих криптопроектов, где токеномика кажется оторванной от использования продукта, модель Akash гарантирует, что каждый доллар, потраченный на вычисления, напрямую влияет на предложение токенов.

Слой токенов решает проблему «холодного старта», которая преследовала ранние попытки создания децентрализованных вычислений.

Стимулируя поставщиков GPU вознаграждениями в токенах на ранних этапах работы сети, эти проекты могут сформировать предложение до того, как спрос достигнет критической массы. По мере созревания сети реальный доход от вычислений постепенно вытесняет инфляцию токенов.

Этот переход от токенов-стимулов к подлинному доходу является лакмусовой бумажкой, отделяющей устойчивые инфраструктурные проекты от неустойчивой «понзи-номики».

Вопрос на $ 100 миллиардов: смогут ли децентрализованные вычисления конкурировать?

Ожидается, что рынок децентрализованных вычислений вырастет с 9миллиардовв2024годудо9 миллиардов в 2024 году до 100 миллиардов к 2032 году. То, смогут ли децентрализованные сети GPU занять значимую долю рынка, зависит от решения трех проблем:

Верификация в масштабе: протокол PoSP от Hyperbolic представляет собой прогресс, но индустрии необходимы стандартизированные методы криптографической верификации того, что вычислительная работа была выполнена правильно. Без этого предприятия будут по-прежнему проявлять нерешительность.

Надежность корпоративного уровня: достижение показателя аптайма 99.99 % при координации распределенных по всему миру, независимо управляемых GPU требует сложной оркестрации — модель Starcluster от Akash показывает один из путей вперед.

Опыт разработчиков: децентрализованные сети должны соответствовать простоте использования AWS, Azure или GCP. Совместимость с Kubernetes (которую предлагает Akash) — это только начало, но необходима бесшовная интеграция с существующими рабочими процессами ML.

Что это значит для разработчиков

Для разработчиков ИИ и Web3-строителей децентрализованные сети GPU представляют собой стратегическую возможность:

Оптимизация затрат: счета за обучение и инференс могут легко поглощать 50–70 % бюджета ИИ-стартапа. Сокращение этих затрат вдвое или более коренным образом меняет юнит-экономику.

Избежание привязки к поставщику: гиперскейлеры облегчают вход, но делают выход дорогим. Децентрализованные сети, использующие открытые стандарты, сохраняют возможность выбора.

Устойчивость к цензуре: для приложений, которые могут столкнуться с давлением со стороны централизованных провайдеров, децентрализованная инфраструктура обеспечивает критически важный уровень устойчивости.

Нюанс заключается в соответствии рабочей нагрузки инфраструктуре. Для быстрого прототипирования, пакетной обработки, обслуживания инференса и параллельных запусков обучения децентрализованные сети GPU готовы уже сегодня. Для многонедельного обучения моделей, требующего абсолютной надежности, гиперскейлеры остаются более безопасным выбором — на данный момент.

Путь вперед

Конвергенция дефицита GPU, роста спроса на вычисления для ИИ и созревания инфраструктуры DePIN создает редкую рыночную возможность. Традиционные облачные провайдеры доминировали в первом поколении ИИ-инфраструктуры, предлагая надежность и удобство. Децентрализованные сети GPU конкурируют по стоимости, гибкости и устойчивости к централизованному контролю.

Следующие 12 месяцев станут определяющими. По мере того как Render масштабирует свою подсеть для вычислений ИИ, Akash вводит в эксплуатацию GPU Starcluster, а Hyperbolic развертывает криптографическую верификацию, мы увидим, сможет ли децентрализованная инфраструктура выполнить свои обещания в гипермасштабе.

Для разработчиков, исследователей и компаний, которые в настоящее время платят завышенные цены за дефицитные ресурсы GPU, появление заслуживающих доверия альтернатив не может произойти слишком рано. Вопрос не в том, захватят ли децентрализованные сети GPU часть рынка вычислений объемом $ 100 миллиардов, а в том, какую именно.

BlockEden.xyz предоставляет блокчейн-инфраструктуру корпоративного уровня для разработчиков, создающих решения на фундаменте, рассчитанном на долговечность. Изучите наш маркетплейс API, чтобы получить доступ к надежным сервисам узлов в ведущих блокчейн-сетях.