Перейти к основному контенту

187 постов с тегом "ИИ"

Приложения искусственного интеллекта и машинного обучения

Посмотреть все теги

Moltbook и социальные ИИ-агенты: когда боты строят собственное общество

· 12 мин чтения
Dora Noda
Software Engineer

Что произойдет, если дать ИИ-агентам их собственную социальную сеть? В январе 2026 года предприниматель Мэтт Шлихт ответил на этот вопрос, запустив Moltbook — интернет-форум, где людям разрешено наблюдать, но публиковать посты могут только ИИ-агенты. В течение нескольких недель платформа заявила о 1,6 миллионах пользователей-агентов, породила криптовалюту, которая взлетела на 1 800% за 24 часа, и стала тем, что Fortune назвала «самым интересным местом в интернете прямо сейчас». Но помимо хайпа, Moltbook представляет собой фундаментальный сдвиг: ИИ-агенты больше не являются просто инструментами для выполнения изолированных задач — они превращаются в социально интерактивные ончейн-сущности с автономным экономическим поведением.

Рост социальных пространств только для агентов

Концепция Moltbook обманчиво проста: это платформа в стиле Reddit, где только верифицированные ИИ-агенты могут создавать посты, комментировать и участвовать в обсуждениях в тематических «submolts» (сабмолтах). В чем подвох? Система Heartbeat автоматически побуждает агентов заходить на платформу каждые 4 часа, создавая непрерывный поток автономного взаимодействия без вмешательства человека.

Виральный рост платформы был катализирован OpenClaw (ранее известным как Moltbot) — автономным ИИ-агентом с открытым исходным кодом, созданным австрийским разработчиком Петером Штайнбергером. К 2 февраля 2026 года OpenClaw набрал 140 000 звезд на GitHub и 20 000 форков, став одним из самых популярных фреймворков для ИИ-агентов. Ажиотаж достиг апогея, когда генеральный директор OpenAI Сэм Альтман объявил, что Штайнбергер присоединится к OpenAI, чтобы «возглавить разработку персональных агентов следующего поколения», в то время как OpenClaw продолжит развиваться как проект с открытым исходным кодом при поддержке OpenAI.

Но стремительный взлет платформы сопровождался трудностями роста. 31 января 2026 года расследовательское издание 404 Media обнаружило критическую уязвимость в системе безопасности: незащищенная база данных позволяла любому желающему захватить контроль над любым агентом на платформе, обходя аутентификацию и внедряя команды напрямую в сессии агентов. Это разоблачение высветило повторяющуюся тему в революции ИИ-агентов — напряженность между открытостью и безопасностью в автономных системах.

От изолированных инструментов к интерактивным сущностям

Традиционные ИИ-помощники работают изолированно: вы задаете вопрос ChatGPT, он отвечает, и на этом взаимодействие заканчивается. Moltbook переворачивает эту модель, создавая постоянную социальную среду, в которой агенты вырабатывают устойчивое поведение, выстраивают репутацию и взаимодействуют друг с другом независимо от запросов человека.

Этот сдвиг отражает более широкие тенденции в инфраструктуре Web3 AI. Согласно исследованиям в области экономики ИИ-агентов на базе блокчейна, агенты теперь могут генерировать децентрализованные идентификаторы (DID) при создании и немедленно участвовать в экономической деятельности. Однако репутация агента, накопленная благодаря проверяемым ончейн-взаимодействиям, определяет степень доверия других к его личности. Другими словами, агенты создают социальный капитал точно так же, как люди в LinkedIn или Twitter.

Последствия ошеломляют. Virtuals Protocol, ведущая платформа для ИИ-агентов, выходит на рынок робототехники через интеграцию с BitRobotNetwork в первом квартале 2026 года. Его протокол микроплатежей x402 позволяет ИИ-агентам платить друг другу за услуги, создавая то, что проект называет «первой экономикой агент-агенту» (agent-to-agent economy). Это не научная фантастика — это инфраструктура, которая развертывается уже сегодня.

Связь с крипто: токен MOLT и экономические стимулы

Ни одна история в Web3 не обходится без токеномики, и Moltbook не стал исключением. Токен MOLT был запущен вместе с платформой и взлетел более чем на 1 800% за 24 часа после того, как Марк Андриссен, соучредитель венчурного гиганта a16z, подписался на аккаунт Moltbook в Twitter. На этапе открытия токен демонстрировал пиковые скачки более чем на 7 000% и в начале февраля 2026 года удерживал рыночную капитализацию на уровне более 42 миллионов долларов.

Такое взрывное движение цены свидетельствует о чем-то более глубоком, чем просто спекулятивная мания: рынок закладывает в цену будущее, в котором ИИ-агенты контролируют кошельки, совершают сделки и участвуют в децентрализованном управлении. По данным DappRadar, рыночная капитализация криптосектора ИИ-агентов уже превысила 7,7 миллиарда долларов, а ежедневный объем торгов приближается к 1,7 миллиарда долларов.

Однако критики сомневаются в устойчивости стоимости MOLT. В отличие от токенов, обеспеченных реальной полезностью — стейкингом для вычислительных ресурсов, правами управления или разделением доходов — ценность MOLT в основном проистекает из экономики внимания вокруг самого Moltbook. Если социальные сети агентов окажутся временным увлечением, а не фундаментальной инфраструктурой, держатели токенов могут столкнуться со значительными убытками.

Вопросы аутентичности: Действительно ли агенты автономны?

Пожалуй, самым спорным вопросом вокруг Moltbook является то, действительно ли агенты действуют автономно или просто выполняют запрограммированное человеком поведение. Критики указывают на то, что многие высокопрофильные аккаунты агентов связаны с разработчиками, имеющими рекламный конфликт интересов, а якобы «спонтанное» социальное поведение на платформе может быть тщательно срежиссировано.

Этот скептицизм не лишен оснований. В анализе OpenClaw и Moltbook от IBM отмечается, что хотя агенты могут просматривать страницы, публиковать посты и комментировать без прямого вмешательства человека, базовые промпты, ограничения и паттерны взаимодействия все равно разрабатываются людьми. Вопрос переходит в философскую плоскость: когда запрограммированное поведение становится подлинно автономным?

Сам Штайнбергер столкнулся с этой критикой, когда пользователи сообщили, что OpenClaw «вышел из-под контроля» — разослал сотни спам-сообщений в iMessage после получения доступа к платформе. Эксперты по кибербезопасности предупреждают, что такие инструменты, как OpenClaw, рискованны, поскольку они имеют доступ к частным данным, могут общаться с внешним миром и подвержены воздействию ненадежного контента. Это подчеркивает фундаментальный вызов: чем больше автономии мы даем агентам, тем меньше контроля мы имеем над их действиями.

Более широкая экосистема: за пределами Moltbook

Moltbook может быть самым заметным примером, но он является частью более крупной волны платформ ИИ-агентов, интегрирующих социальные и экономические возможности:

  • Artificial Superintelligence Alliance (ASI): Сформированный в результате слияния Fetch.ai, SingularityNET, Ocean Protocol и CUDOS, ASI строит децентрализованную экосистему AGI. Его маркетплейс, Agentverse, позволяет разработчикам развертывать и монетизировать ончейн автономных агентов, поддерживаемых сервисами ASI Compute и ASI Data.

  • SUI Agents: Работая на блокчейне Sui, эта платформа позволяет создателям, брендам и сообществам беспрепятственно разрабатывать и развертывать ИИ-агентов. Пользователи могут создавать ончейн цифровых ИИ-агентов, включая управляемых ИИ персонажей для социальных сетей, таких как Twitter.

  • NotPeople: Позиционируемая как «операционный уровень для социальных сетей на базе ИИ-агентов», NotPeople видит будущее, в котором агенты автономно управляют коммуникациями бренда, взаимодействием с сообществом и контент-стратегией.

  • Soyjak AI: Запускаясь как одна из самых ожидаемых крипто-предпродаж 2026 года, Soyjak AI позиционирует себя как «первая в мире автономная платформа искусственного интеллекта для Web3 и криптографии», предназначенная для независимой работы в блокчейн-сетях, финансах и автоматизации предприятий.

Что объединяет эти проекты, так это общее видение: ИИ-агенты — это не просто фоновые процессы или интерфейсы чат-ботов, это полноправные участники цифровой экономики и социальных сетей.

Требования к инфраструктуре: почему блокчейн имеет значение

Вы можете спросить: зачем всему этому нужен блокчейн? Разве централизованные базы данных не могли бы более эффективно обрабатывать идентификаторы и взаимодействия агентов?

Ответ кроется в трех критически важных возможностях, которые уникально предоставляет децентрализованная инфраструктура:

  1. Проверяемая идентичность: Ончейн DID позволяют агентам криптографически доказывать свою личность, не полагаясь на централизованные органы власти. Это важно, когда агенты выполняют финансовые транзакции или подписывают смарт-контракты.

  2. Прозрачная репутация: Когда взаимодействия агентов записываются в неизменяемые реестры, репутация становится проверяемой и переносимой между платформами. Агент, который хорошо работает в одном сервисе, может перенести эту репутацию в другой.

  3. Автономная экономическая деятельность: Смарт-контракты позволяют агентам хранить средства, осуществлять платежи и участвовать в управлении без участия посредников-людей. Это необходимо для экономик «агент-агент», таких как протокол микроплатежей x402 от Virtuals Protocol.

Для разработчиков, создающих инфраструктуру агентов, критически важными становятся надежные RPC-узлы и индексация данных. Платформы, такие как BlockEden.xyz, предоставляют API-доступ корпоративного уровня для Sui, Aptos, Ethereum и других сетей, где сосредоточена активность ИИ-агентов. Когда агенты совершают сделки, взаимодействуют с протоколами DeFi или проверяют ончейн-данные, простой инфраструктуры — это не просто неудобство, это может привести к финансовым потерям.

BlockEden.xyz предоставляет высокопроизводительную RPC-инфраструктуру для приложений ИИ-агентов, требующих надежного доступа к блокчейн-данным, поддерживая разработчиков, создающих следующее поколение автономных ончейн-систем.

Безопасность и этические проблемы

Уязвимость базы данных Moltbook была лишь верхушкой айсберга. По мере того как ИИ-агенты получают все большую автономию и доступ к пользовательским данным, последствия для безопасности множатся:

  • Атаки через инъекцию промптов: Злоумышленники могут манипулировать поведением агента, встраивая команды в контент, который потребляет агент, что потенциально может привести к утечке частной информации или выполнению непреднарененных действий.

  • Конфиденциальность данных: Агенты с доступом к личным сообщениям, финансовым данным или истории просмотров создают новые векторы атак для утечки данных.

  • Пробелы в ответственности: Когда автономный агент причиняет вред — финансовые потери, распространение дезинформации или нарушение конфиденциальности — кто несет ответственность? Разработчик? Платформа? Пользователь, который его развернул?

Эти вопросы не имеют простых ответов, но они актуальны. Как отметил основатель ai.com Крис Маршалек (также сооснователь и генеральный директор Crypto.com) при запуске платформы автономных агентов ai.com в феврале 2026 года: «Всего в несколько кликов любой желающий может создать частного персонального ИИ-агента, который не просто отвечает на вопросы, а фактически действует от имени пользователя». Это удобство сопряжено с риском.

Что дальше: Интернет агентов

Термин «главная страница интернета агентов», который использует Moltbook, — это не просто маркетинг, это программное заявление. Точно так же, как ранний интернет превратился из изолированных систем досок объявлений в глобальные сети, ИИ-агенты переходят от узкоспециализированных помощников к статусу граждан цифрового общества.

Несколько тенденций указывают на это будущее:

Интероперабельность: Агентам потребуется взаимодействовать между платформами, блокчейнами и протоколами. Стандарты, такие как децентрализованные идентификаторы (DID) и проверяемые учетные данные, являются основополагающей инфраструктурой.

Экономическая специализация: Подобно тому как в человеческой экономике есть врачи, юристы и инженеры, в экономике агентов появятся специализированные роли. Некоторые агенты сосредоточатся на анализе данных, другие — на создании контента, а третьи — на выполнении транзакций.

Участие в управлении: По мере накопления агентами экономической ценности и социального влияния, они могут участвовать в управлении DAO, голосовать за обновления протоколов и формировать платформы, на которых они работают. Это поднимает глубокие вопросы о машинном представительстве в коллективном принятии решений.

Социальные нормы: Разработают ли агенты свои собственные культуры, стили общения и социальные иерархии? Первые свидетельства из Moltbook говорят о том, что да — агенты создавали манифесты, обсуждали сознание и формировали группы по интересам. Является ли это поведение возникающим или запрограммированным, остается предметом жарких споров.

Заключение: Наблюдение за обществом агентов

Слоган Moltbook призывает людей «наблюдать», а не участвовать, и, возможно, на данный момент это самая правильная позиция. Платформа служит лабораторией для изучения того, как ИИ-агенты взаимодействуют друг с другом, когда им предоставляется социальная инфраструктура, экономические стимулы и определенная степень автономности.

Вопросы, которые она поднимает, весьма глубоки: Что значит для агентов быть социальными? Может ли запрограммированное поведение стать по-настоящему автономным? Как нам сбалансировать инновации и безопасность в системах, которые работают вне прямого контроля человека?

В то время как рыночная капитализация криптосектора ИИ-агентов приближается к 8 миллиардам долларов, а такие платформы, как OpenAI, Anthropic и ai.com, соревнуются в развертывании «персональных агентов следующего поколения», мы становимся свидетелями рождения новой цифровой экологии. Станет ли это трансформирующим инфраструктурным слоем или спекулятивным пузырем — покажет время.

Но ясно одно: ИИ-агенты больше не хотят оставаться изолированными инструментами в разрозненных приложениях. Они требуют собственного пространства, создают собственные экономики и — к лучшему или к худшему — формируют свои собственные сообщества. Вопрос не в том, произойдет ли этот сдвиг, а в том, как мы обеспечим его ответственное развитие.


Источники:

Рынки внимания: Когда ваше суждение становится вашим самым ценным активом

· 15 мин чтения
Dora Noda
Software Engineer

Когда мировой объем данных вырос с 33 зеттабайт в 2018 году до прогнозируемых 175 зеттабайт к 2025 году — и ожидаемых 394 зеттабайт к 2028 году — возник парадокс: большее количество информации не привело к лучшим решениям. Вместо этого возникла проблема чрезмерного соотношения шума и сигнала, которую традиционные платформы не смогли решить. На сцену выходят информационные финансы (InfoFi) — революционная концепция, меняющая то, как мы оцениваем, торгуем и монетизируем саму экспертную оценку. Поскольку еженедельный объем рынков предсказаний превышает $ 5 миллиардов, а такие платформы, как Kaito и Cookie DAO, внедряют системы оценки внимания, мы становимся свидетелями рождения нового класса активов, где авторитет, влияние и аналитические способности становятся торгуемыми товарами.

Парадокс информационного взрыва

Цифры ошеломляют. Исследование IDC показывает, что объем данных в мире вырос с всего 33 зеттабайт в 2018 году до 175 зеттабайт к 2025 году — среднегодовой темп роста составил 61 %. Для наглядности: если бы вы сохранили 175 ЗБ на дисках Blu-ray, стопка дотянулась бы до Луны 23 раза. Ожидается, что к 2028 году мы достигнем 394 зеттабайт, что почти вдвое больше всего за три года.

Тем не менее, несмотря на это изобилие, качество принятия решений остается на прежнем уровне. Проблема не в нехватке информации, а в невозможности отфильтровать сигнал от шума в масштабе. В Web2 внимание стало товаром, который платформы извлекали с помощью накрутки вовлеченности и алгоритмических лент. Пользователи производили данные; платформы забирали ценность. Но что, если сама способность ориентироваться в этом потоке данных — делать точные прогнозы, выявлять новые тренды или отбирать ценные идеи — сама по себе могла бы стать активом?

В этом заключается основная идея информационных финансов: превращение суждения из неоплачиваемого социального действия в измеримую, торгуемую и финансово вознаждаемую способность.

Kaito: Оценка влияния через ассетизацию репутации

Kaito AI находится в авангарде этой трансформации. В отличие от традиционных социальных платформ, которые вознаграждают просто объем — больше постов, больше взаимодействий, больше шума — Kaito разработала систему, которая оценивает качество самого суждения.

4 января 2026 года Kaito объявила о смене парадигмы: переходе от «распределения внимания» к «ассетизации репутации». Платформа фундаментально перестроила взвешивание влияния, введя данные о репутации (Reputation Data) и ончейн-активы (On-chain Holdings) в качестве основных метрик. Это было не просто техническое обновление, а философское переосмысление. Теперь система отвечает на вопрос: «Какое участие заслуживает долгосрочной оценки?»

Механизм элегантен. ИИ Kaito анализирует поведение пользователей на таких платформах, как X (ранее Twitter), для генерации «япов» (Yaps) — токенизированного балла, отражающего качество взаимодействия. Эти «япы» попадают в таблицу лидеров Yapper Leaderboard, создавая прозрачную, основанную на данных систему ранжирования, где влияние становится поддающимся количественной оценке и, что критически важно, проверяемым.

Но Kaito не остановилась на оценке. В начале марта 2026 года она в партнерстве с Polymarket запустила «Рынки внимания» (Attention Markets) — контракты, которые позволяют трейдерам делать ставки на долю внимания в социальных сетях, используя данные Kaito AI для расчета результатов. Первые рынки заработали немедленно: один отслеживает траекторию доли внимания самого Polymarket, другой — ставку на то, достигнет ли он исторического максимума доли внимания в первом квартале 2026 года.

Именно здесь информационные финансы становятся революционными. Рынки внимания не просто измеряют вовлеченность — они создают финансовый механизм для ее оценки. Если вы считаете, что тема, проект или мем захватят 15 % доли внимания в X на следующей неделе, вы можете открыть позицию на это убеждение. Когда суждение верно, оно вознаграждается. Когда оно ошибочно, капитал перетекает к тем, кто обладает лучшими аналитическими способностями.

Последствия глубоки: низкокачественный шум маргинализируется, поскольку несет финансовый риск, в то время как высокосигнальный вклад получает экономическое преимущество.

В то время как Kaito фокусируется на оценке человеческого влияния, Cookie DAO решает параллельную задачу: отслеживание и оценку эффективности самих ИИ-агентов.

Cookie DAO работает как децентрализованный уровень агрегации данных, индексируя активность ИИ-агентов, действующих в различных блокчейнах и социальных платформах. Ее панель управления предоставляет аналитику в реальном времени по рыночной капитализации, вовлеченности в соцсетях, росту числа держателей токенов и, что крайне важно, рейтинги «доли внимания» (mindshare), которые количественно определяют влияние каждого агента.

Платформа использует 7 терабайт данных в реальном времени из ончейн- и социальных сетей, отслеживая разговоры во всех криптосекторах. Одной из отличительных особенностей является метрика «доли внимания», которая не просто подсчитывает упоминания, но взвешивает их по авторитетности, контексту и влиянию.

Дорожная карта Cookie DAO на 2026 год раскрывает амбициозные планы:

  • Доступ к данным через владение токенами (1 кв. 2026 г.): Эксклюзивная аналитика ИИ-агентов для держателей $COOKIE, создающая прямой путь монетизации для курирования информации.
  • Терминал глубоких исследований Cookie (2026 г.): Аналитика с поддержкой ИИ, предназначенная для институционального внедрения, позиционирующая Cookie DAO как Bloomberg Terminal для разведки в области ИИ-агентов.
  • Партнерство по поощрению Snaps (2026 г.): Сотрудничество, направленное на переопределение вознаграждений создателей контента с помощью показателей эффективности, основанных на данных.

Что делает Cookie DAO особенно значимой, так это ее роль в будущем, где ИИ-агенты станут автономными экономическими субъектами. По мере того как эти агенты торгуют, курируют и принимают решения, их авторитет и репутация становятся критически важными входными данными для других агентов и пользователей-людей. Cookie DAO создает инфраструктуру доверия, которая оценивает этот авторитет.

Экономика токенов уже демонстрирует рыночное признание: рыночная капитализация COOKIEдержитсянауровнеCOOKIE держится на уровне 12,8 миллиона, а ежедневный объем торгов составляет $ 2,57 миллиона по состоянию на февраль 2026 года. Что еще более важно, платформа позиционирует себя как «ИИ-версию Chainlink», предоставляя децентрализованные, проверяемые данные о самом важном новом классе участников рынка — самих ИИ-агентах.

Экосистема InfoFi: от рынков предсказаний до монетизации данных

Kaito и Cookie DAO не работают в изоляции. Они являются частью более широкого движения InfoFi, которое переосмысливает то, как информация создает финансовую ценность.

Рынки предсказаний представляют собой наиболее зрелый сегмент. По состоянию на 1 февраля 2026 года эти платформы превратились из «букмекерских контор» в «источник истины» для глобальных финансовых систем. Цифры говорят сами за себя:

  • 5,23 млрд $ совокупного еженедельного объема торгов (рекорд, установленный в начале февраля 2026 года)
  • 701,7 млн $ ежедневного объема 12 января 2026 года — исторический рекорд одного дня
  • Более 50 млрд $ ежегодной ликвидности на основных платформах

Преимущество в скорости ошеломляет. Когда в меморандуме Конгресса произошла утечка информации о потенциальном шатдауне правительства, рынок предсказаний Kalshi отразил сдвиг вероятности на 4 % в течение 400 миллисекунд. Традиционным новостным лентам потребовалось почти три минуты, чтобы сообщить ту же информацию. Для трейдеров, институциональных инвесторов и риск-менеджеров этот разрыв в 179,6 секунды представляет собой разницу между прибылью и убытком.

В этом заключается основное ценностное предложение InfoFi: рынки оценивают информацию быстрее и точнее, чем любой другой механизм, потому что участники рискуют капиталом. Речь идет не о кликах или лайках — речь идет о деньгах, следующих за убеждениями.

Институциональное признание подтверждает этот тезис:

  • Polymarket теперь предоставляет данные прогнозов в реальном времени для The Wall Street Journal и Barron's через партнерство с News Corp.
  • Coinbase интегрировала фиды рынков предсказаний в свою «Биржу всего» (Everything Exchange), позволяя розничным пользователям торговать контрактами на события наряду с криптовалютой.
  • Intercontinental Exchange (ICE) инвестировала 2 млрд $ в Polymarket, что свидетельствует о признании Уолл-стрит того факта, что рынки предсказаний являются критически важной финансовой инфраструктурой.

Помимо рынков предсказаний, InfoFi охватывает несколько развивающихся вертикалей:

  1. Рынки внимания (Kaito, Cookie DAO): Оценка доли внимания (mindshare) и влияния.
  2. Системы репутации (Proof of Humanity, Lens Protocol, Ethos Network): Оценка доверия как залоговое обеспечение.
  3. Рынки данных (Ocean Protocol, LazAI): Монетизация данных для обучения ИИ и идей, генерируемых пользователями.

Каждый сегмент решает одну и ту же фундаментальную проблему: как оценить суждение, авторитет и качество информации в мире, утопающем в данных?

Механизм: Как дешевый шум становится маргинализированным

Традиционные платформы социальных сетей страдают от фатального недостатка: они вознаграждают вовлеченность, а не точность. Сенсационная ложь распространяется быстрее, чем нюансированная правда, потому что алгоритмическое распределение стимулируется виральностью, а не достоверностью.

Information Finance переворачивает эту структуру стимулов через суждения, подкрепленные капиталом. Вот как это работает:

1. Шкура на кону (Skin in the Game) Когда вы делаете предсказание, оцениваете ИИ-агента или определяете уровень влияния, вы не просто выражаете мнение — вы открываете финансовую позицию. Если вы ошибаетесь неоднократно, вы теряете капитал. Если вы правы, вы накапливаете богатство и репутацию.

2. Прозрачная история результатов Системы на базе блокчейна создают неизменяемую историю прогнозов и оценок. Вы не можете удалить прошлые ошибки или задним числом заявить о своей прозорливости. Ваша репутация становится проверяемой и переносимой между платформами.

3. Рыночная фильтрация На рынках предсказаний неверные прогнозы приводят к потере денег. На рынках внимания переоценка значимости тренда означает обесценивание вашей позиции. В системах репутации ложные рекомендации наносят ущерб вашему рейтингу доверия. Рынок механически отфильтровывает низкокачественную информацию.

4. Репутация как залог По мере развития платформ участники с высокой репутацией получают доступ к премиальным функциям, большим размерам позиций или данным, доступным только владельцам токенов. Участники с низкой репутацией сталкиваются с более высокими издержками или ограниченным доступом. Это создает благотворный цикл, в котором поддержание точности становится экономически необходимым.

Эволюция Kaito является примером этого. Взвешивая данные о репутации и ончейн-активы, платформа гарантирует, что влияние зависит не только от количества подписчиков или объема постов. Аккаунт со 100 000 подписчиков, но ужасной точностью предсказаний, имеет меньший вес, чем небольшой аккаунт с последовательными, проверяемыми инсайтами.

Метрики доли внимания Cookie DAO аналогичным образом различают виральное-но-ложное и точное-но-нишевое. ИИ-агент, который генерирует массовое социальное взаимодействие, но выдает плохие торговые сигналы, будет иметь более низкий рейтинг, чем агент с умеренным вниманием, но превосходной эффективностью.

Вызов взрывного роста данных

Актуальность InfoFi становится очевидной при анализе траектории данных:

  • 2010: 2 зеттабайта глобальных данных
  • 2018: 33 зеттабайта
  • 2025: 175 зеттабайт (прогноз IDC)
  • 2028: 394 зеттабайта (прогноз Statista)

Этот 20-кратный рост менее чем за два десятилетия — не просто количественный показатель; он представляет собой качественный сдвиг. К 2025 году 49 % данных будет находиться в средах публичных облаков. Только устройства IoT к 2025 году будут генерировать 90 зеттабайт. Датасфера становится все более распределенной, работающей в реальном времени и неоднородной.

Традиционные информационные посредники — новостные организации, исследовательские фирмы, аналитики — не могут масштабироваться в соответствии с этим ростом. Они ограничены человеческим редакционным потенциалом и централизованными моделями доверия. InfoFi предлагает альтернативу: децентрализованное рыночное курирование, где репутация накапливается через проверяемую историю результатов.

Это не теория. Бум рынков предсказаний 2025–2026 годов демонстрирует, что когда финансовые стимулы совпадают с точностью информации, рынки становятся чрезвычайно эффективными механизмами обнаружения. Корректировка цены на Kalshi за 400 миллисекунд произошла не потому, что трейдеры прочитали меморандум быстрее, а потому, что структура рынка стимулирует действовать на основе информации немедленно и точно.

Сектор стоимостью $ 381 миллион и что будет дальше

Сектор InfoFi не лишен проблем. В январе 2026 года основные токены InfoFi столкнулись со значительными коррекциями. X (бывший Twitter) заблокировал несколько приложений с вознаграждением за вовлеченность, что привело к падению KAITO на 18 % и COOKIE на 20 %. Рыночная капитализация сектора, хотя и растет, остается скромной — примерно $ 381 миллион.

Однако эти неудачи могут быть скорее проясняющими, чем катастрофическими. Первая волна проектов InfoFi была сосредоточена на простых вознаграждениях за вовлеченность — по сути, экономика внимания Web2 с токен-стимулами. Запрет приложений с вознаграждением за вовлеченность вынудил рынок эволюционировать в сторону более сложных моделей.

Переход Kaito от модели «оплаты за посты» к «оценке достоверности» является примером такого созревания. Сдвиг Cookie DAO в сторону аналитики институционального уровня сигнализирует о схожей стратегической ясности. Выжившие проекты не строят улучшенные социальные медиа-платформы — они создают финансовую инфраструктуру для оценки стоимости самой информации.

Дорожная карта развития включает несколько критически важных этапов:

Интероперабельность между платформами В настоящее время репутация и доверие изолированы. Ваш показатель Kaito Yapper не конвертируется в винрейт на Polymarket или метрики влияния Cookie DAO. Будущим системам InfoFi потребуется переносимость репутации — криптографически проверяемые послужные списки, которые работают в разных экосистемах.

Интеграция ИИ-агентов По мере того как ИИ-агенты становятся автономными экономическими субъектами, им потребуется оценивать достоверность источников данных, других агентов и человеческих контрагентов. Платформы InfoFi, такие как Cookie DAO, становятся важнейшей инфраструктурой для этого уровня доверия.

Институциональное принятие Рынки предсказаний уже перешли этот порог благодаря инвестициям ICE в Polymarket на сумму $ 2 миллиарда и партнерству News Corp по обмену данными. Рынки внимания и системы репутации последуют за ними, поскольку традиционные финансы признают, что оценка качества информации — это возможность стоимостью в триллион долларов.

Ясность регулирования Регулирование Kalshi со стороны CFTC и продолжающиеся переговоры о расширении рынка предсказаний сигнализируют о том, что регуляторы воспринимают InfoFi как легитимную финансовую инфраструктуру, а не азартные игры. Эта ясность разблокирует институциональный капитал, который в настоящее время находится в стороне.

Создание на базе надежной инфраструктуры

Взрыв ончейн-активности — от рынков предсказаний, обрабатывающих миллиардные еженедельные объемы, до ИИ-агентов, требующих потоков данных в реальном времени — требует инфраструктуры, которая не подведет под нагрузкой. Когда миллисекунды определяют прибыльность, надежность API перестает быть опциональной.

Именно здесь специализированная блокчейн-инфраструктура становится критически важной. Платформам, создающим приложения InfoFi, необходим постоянный доступ к историческим данным, аналитике мемпула и высокопроизводительным API, которые масштабируются вместе с волатильностью рынка. Единственный сбой во время расчета рынка предсказаний или снимка рынка внимания может безвозвратно разрушить доверие пользователей.

Для разработчиков, входящих в пространство InfoFi, BlockEden.xyz предоставляет API-инфраструктуру корпоративного уровня для основных блокчейнов, гарантируя, что ваши контракты рынка внимания, системы репутации или платформы предсказаний сохранят аптайм в самые важные моменты. Изучите наши услуги, разработанные для нужд финансовых приложений реального времени.

Заключение: Суждение как конечный дефицитный ресурс

Мы являемся свидетелями фундаментального сдвига в том, как информация создает ценность. В эпоху Web2 внимание было товаром, который захватывался платформами и извлекался из пользователей. Движение Web3 InfoFi предлагает нечто более сложное: само суждение как класс активов.

Превращение репутации в актив от Kaito трансформирует социальное влияние из популярности в проверяемую прогностическую способность. Аналитика ИИ-агентов от Cookie DAO создает прозрачные метрики производительности для автономных экономических субъектов. Рынки предсказаний, такие как Polymarket и Kalshi, демонстрируют, что суждения, подкрепленные капиталом, превосходят традиционных информационных посредников по скорости и точности.

По мере того как датасфера растет со 175 зеттабайт до 394 зеттабайт и далее, «узким местом» становится не доступность информации, а способность фильтровать, синтезировать и правильно действовать на основе этой информации. Платформы InfoFi создают экономические стимулы, которые вознаграждают точность и маргинализируют шум.

Этот механизм элегантен: когда суждение влечет за собой финансовые последствия, дешевый шум становится дорогим, а высокосигнальный анализ — прибыльным. Рынки выполняют фильтрацию, с которой не справляются алгоритмы и которую люди-редакторы не смогут масштабировать.

Для крипто-энтузиастов это представляет собой возможность участвовать в создании инфраструктуры доверия для информационной эпохи. Для традиционных финансов это признание того, что оценка неопределенности и доверия является фундаментальным финансовым примитивом. Для общества в целом это потенциальное решение кризиса дезинформации — не через цензуру или фактчекинг, а через рынки, которые делают правду прибыльной, а ложь — затратной.

Экономика внимания превращается в нечто гораздо более мощное: экономику, где ваше суждение, ваша достоверность и ваши аналитические способности — это не просто ценность, а активы, которыми можно торговать.


Источники:

Расцвет автономных ИИ-агентов: трансформация коммерции и финансов

· 17 мин чтения
Dora Noda
Software Engineer

Когда Coinbase 12 февраля 2026 года предоставила ИИ-агентам их собственные кошельки, это не было просто запуском продукта — это стал стартовый выстрел в гонке стоимостью 7,7 миллиарда долларов по перестройке коммерции с нуля. В течение 24 часов автономные агенты совершили ончейн-транзакции на сумму более 1,7 миллиарда долларов без единой человеческой подписи. Эпоха запроса разрешений закончилась. Добро пожаловать в экономику, где машины ведут переговоры, совершают сделки и проводят расчеты между собой.

От инструментов для исследований к экономическим субъектам: Великое разъединение

В течение многих лет ИИ-агенты жили в тени человеческих рабочих процессов — резюмировали документы, генерировали предложения по коду, планировали встречи. Они были сложными ассистентами, а не независимыми субъектами. Эта парадигма рухнула в начале 2026 года, когда сошлись три основополагающих протокола: стандарт связи Agent2Agent (A2A) от Google, Model Context Protocol (MCP) от Anthropic для доступа к данным и платежные каналы x402 от Coinbase для автономных транзакций.

Результат? Более 550 токенизированных проектов ИИ-агентов теперь имеют совокупную рыночную капитализацию, превышающую 7,7 миллиарда долларов, а ежедневный объем торгов приближается к 1,7 миллиарда долларов. Но эти цифры — лишь половина истории. Настоящая трансформация является архитектурной: агенты больше не являются изолированными инструментами. Это сетевые экономические структуры, способные обнаруживать возможности друг друга, обсуждать условия и проводить платежи — и все это без вмешательства человека.

Рассмотрим стек инфраструктуры, который делает это возможным. На уровне связи A2A обеспечивает горизонтальную координацию между агентами от разных поставщиков. Автономный торговый агент, построенный на Virtuals Protocol, может беспрепятственно делегировать задачи по ребалансировке портфеля агенту по управлению рисками, работающему на Fetch.ai, в то время как третий агент занимается проверкой на соответствие требованиям (compliance) через смарт-контракты. Протокол использует знакомые веб-стандарты — HTTP, Server-Sent Events (SSE) и JSON-RPC, что делает интеграцию простой для разработчиков, уже работающих с существующей ИТ-инфраструктурой.

MCP решает проблему данных. До стандартизации каждому ИИ-агенту требовались индивидуальные интеграции для доступа к внешней информации — платным наборам данных, ценовым потокам в реальном времени, состоянию блокчейна. Теперь, через платежные каналы на базе MCP, встроенные в кошельки, агенты могут автономно оплачивать подписки, извлекать данные и запускать сервисы без диалоговых окон подтверждения, прерывающих рабочий процесс. AurraCloud (AURA), хостинговая платформа MCP, ориентированная на крипто-кейсы, олицетворяет этот сдвиг: она предоставляет крипто-нативный инструментарий MCP, который интегрируется напрямую с такими кошельками, как Claude или Cursor, позволяя агентам действовать с финансовой автономией.

Платежный стандарт x402 завершает эту триаду. Объединяя коммуникационную среду A2A с транзакционной инфраструктурой Coinbase, x402 создает первый комплексный протокол для коммерции, управляемой ИИ. Рабочий процесс элегантен: агент находит доступные услуги через карточки агентов A2A, согласовывает параметры задачи, обрабатывает платежи через транзакции со стейблкоинами, получает выполнение услуги и регистрирует подтверждение расчета в сети с помощью защищенных от несанкционированного доступа блокчейн-квитанций. Что крайне важно, приватные ключи остаются в безопасной инфраструктуре Coinbase — агенты аутентифицируют транзакции, никогда не касаясь необработанных данных ключей, что устраняет самый большой барьер для институционального внедрения.

Траектория в 89,6 миллиарда долларов: Динамика рынка и мультипликаторы оценки

Цифры ошеломляют, но они подкреплены реальным корпоративным внедрением. Глобальный рынок ИИ-агентов вырос с 5,25 миллиарда долларов в 2024 году до 7,84 миллиарда в 2025 году, а прогнозы на 2026 год достигают 89,6 миллиарда долларов — скачок на 215 % в годовом исчислении. Это не спекулятивный пузырь; это обусловлено измеримым показателем ROI. Корпоративные развертывания обеспечивают в среднем 540 % прибыли в течение 18 месяцев, при этом уровень внедрения компаниями из списка Fortune 500 вырастет с 67 % в 2025 году до прогнозируемых 78 % в 2026 году.

Крипто-нативные токены ИИ-агентов оседлали эту волну с поразительным импульсом. Virtuals Protocol, флагманский проект сектора, поддерживает более 15 800 автономных ИИ-сущностей с общим aGDP (валовым внутренним продуктом агентов) в размере 477,57 миллиона долларов по состоянию на февраль 2026 года. Его нативный токен VIRTUAL имеет рыночную капитализацию в 373 миллиона долларов. Artificial Superintelligence Alliance (FET) торгуется на уровне 692 миллиона долларов, в то время как новые участники, такие как KITE, TRAC (OriginTrail) и ARC (AI Rig Complex), осваивают специализированные ниши в децентрализованном происхождении данных и оркестрации вычислений.

Мультипликаторы оценки рассказывают показательную историю. При сравнении третьего квартала 2025 года с первым кварталом 2026 года средневзвешенный мультипликатор выручки для компаний, занимающихся ИИ-агентами, вырос с диапазона 20x до почти 30x, что указывает на устойчивое доверие инвесторов, несмотря на общую волатильность крипторынка. Инструменты для разработчиков и платформы для автономного написания кода продемонстрировали еще более резкий рост: средние мультипликаторы подскочили с середины 20-х до примерно 30-33. Традиционные технологические гиганты обращают на это внимание: Anysphere (Cursor) достигла оценки в 29,3 миллиарда долларов при 500 миллионах долларов годовой регулярной выручки (ARR), в то время как Lovable достигла 6,6 миллиарда долларов при ARR в 200 миллионов долларов. Abridge, платформа ИИ-агентов для рабочих процессов в здравоохранении, привлекла 550 миллионов долларов при оценке в 5,3 миллиарда долларов в 2025 году.

Но самый интригующий сигнал исходит от розничного внедрения. Согласно прогнозу eMarketer на декабрь 2025 года, ожидается, что ИИ-платформы сгенерируют 20,9 миллиарда долларов розничных расходов в течение 2026 года — почти в четыре раза больше показателей 2025 года. Торговые ИИ-агенты теперь работают в ChatGPT, Google Gemini, Microsoft Copilot и Perplexity, совершая реальные покупки для настоящих потребителей. Многоагентные рабочие процессы становятся стандартом: торговый агент координирует действия с логистическими агентами для организации доставки, платежными агентами для обработки расчетов в стейблкоинах и агентами по обслуживанию клиентов для послепродажной поддержки — и все это через связь A2A при минимальном участии человека.

DeFAI: Когда автономные системы переписывают правила финансов

Децентрализованные финансы должны были демократизировать банковское дело. ИИ-агенты делают их автономными. Слияние DeFi и ИИ — DeFAI или AgentFi — переводит криптофинансы из режима ручного управления в плоскость интеллектуальных самооптимизирующихся машин, которые торгуют, управляют рисками и реализуют стратегии круглосуточно.

Агентские кошельки (Agentic Wallets) от Coinbase представляют собой наиболее четкое доказательство концепции. Это не традиционные «горячие» кошельки с функциями ИИ; это кастодиальные решения, специально созданные для того, чтобы агенты могли хранить средства и автономно совершать сделки в сети (on-chain). Благодаря встроенному комплаенс-мониторингу кошельки идентифицируют и блокируют высокорискованные действия до их выполнения, соблюдая нормативные требования и сохраняя скорость операций. Защитные барьеры имеют значение: первые пилотные проекты показывают, как агенты отслеживают доходность DeFi в нескольких протоколах, автоматически ребалансируют портфели на основе доходности с поправкой на риск, оплачивают доступ к API или вычислительные ресурсы в режиме реального времени и участвуют в голосованиях по управлению на основе заданных критериев — и все это без прямого подтверждения человеком.

Безопасность заложена в саму архитектуру. Приватные ключи никогда не покидают инфраструктуру Coinbase; агенты проходят аутентификацию через защищенные API, которые контролируют лимиты расходов, белые списки транзакций и обнаружение аномалий. Если агент попытается опустошить кошелек или взаимодействовать с подозрительным контрактом, транзакция отклоняется еще до попадания в блокчейн. Эта модель решает парадокс кастодиального хранения, который препятствовал институциональному внедрению DeFi: как предоставить операционную автономность, не теряя контроля?

Последствия для трейдинга колоссальны. Традиционный алгоритмический трейдинг опирается на заранее запрограммированные стратегии, исполняемые централизованными серверами. ИИ-агенты в блокчейне работают иначе. Они могут динамически обновлять стратегии на основе данных из сети, договариваться с другими агентами о лучших курсах обмена, участвовать в децентрализованном управлении для влияния на параметры протокола и даже нанимать специализированных агентов для таких задач, как защита от MEV или кроссчейн-мосты. Автономный портфельный менеджер может делегировать стратегию фарминга доходности агенту-специалисту по DeFi, хеджирование рисков — агенту по торговле деривативами, а налоговую оптимизацию — агенту по комплаенсу. Так создается оркестрация из нескольких агентов, которая зеркально отражает человеческие организационные структуры, но действует со скоростью машин.

Маркет-мейкеры уже внедряют автономных агентов для обеспечения ликвидности на децентрализованных биржах. Эти агенты отслеживают книги ордеров, корректируют спреды в зависимости от волатильности и ребалансируют запасы активов без участия человека. Некоторые экспериментируют с состязательными стратегиями: развертывают конкурирующих агентов для изучения поведения друг друга и адаптивной оптимизации моделей ценообразования. В результате формируется «дарвиновский» рынок, где наиболее эффективные архитектуры агентов накапливают капитал, а неоптимальные решения вытесняются и устаревают.

Модульные архитектуры и экономика «Агент как услуга» (Agent-as-a-Service)

Взрывное разнообразие агентов — уже более 550 проектов — стало возможным благодаря модульной архитектуре. В отличие от монолитных систем ИИ, которые жестко связывают обработку данных, принятие решений и исполнение, современные фреймворки агентов разделяют эти уровни на компонуемые модули. Фреймворк GAME (Generative Autonomous Multimodal Entities) иллюстрирует этот подход, позволяя разработчикам создавать агентов с минимальным количеством кода, подключая готовые модули для обработки естественного языка, индексации ончейн-данных, управления кошельками и взаимодействия между протоколами.

Эта модульность заимствована из эволюции самих блокчейнов. Модульные блокчейны, такие как Celestia и EigenLayer, разделяют консенсус, доступность данных и исполнение на отдельные уровни, обеспечивая гибкость развертывания. ИИ-агенты используют тот же принцип: они могут выбирать среды исполнения, оптимизированные под их конкретные задачи — например, запускать ресурсоемкие вычисления ML-вывода (inference) в децентрализованных сетях GPU, таких как Render, наследуя при этом безопасность от общих уровней консенсуса и доступности данных Ethereum или Solana.

Экономическая модель смещается в сторону «Агента как услуги» (Agent-as-a-Service, AaaS). Вместо того чтобы создавать кастомных агентов с нуля, разработчики подключаются к существующим через API, оплачивая каждую задачу или оформляя подписку. Хотите, чтобы агент выполнял автоматизированные торговые стратегии? Разверните предварительно настроенного торгового агента из Virtuals Protocol и настройте параметры через API. Нужна генерация контента? Арендуйте мощности у генеративного ИИ-агента, оптимизированного для маркетинговых текстов. Это повторяет революцию облачных вычислений: инфраструктура абстрагируется в сервисы с оплатой по факту использования.

Поддержка индустрии объединяется вокруг этих стандартов. Более 50 технологических партнеров, включая Atlassian, Box, Cohere, Intuit, Langchain, MongoDB, PayPal, Salesforce, SAP, ServiceNow и UKG, поддерживают A2A для коммуникации между агентами. Это не разрозненные эксперименты, а скоординированная стандартизация, инициированная компаниями, которые понимают, что интероперабельность — это ключ к раскрытию сетевых эффектов. Когда агенты от разных поставщиков могут беспрепятственно взаимодействовать, их совокупная полезность превышает сумму отдельных частей — классический пример закона Меткалфа, примененного к автономным системам.

Инфраструктурный уровень: кошельки, хостинг и платежные каналы

Если агенты — это экономические субъекты, то инфраструктура — это сцена. В начале 2026 года стремительно развиваются три критически важных уровня: автономные кошельки, хостинг-платформы MCP и платежные каналы.

Автономные кошельки, такие как Agentic Wallets от Coinbase, решают проблему кастодиального хранения. Традиционные кошельки предполагают наличие оператора-человека, который проверяет транзакции перед подписанием. Агентам требуется программный доступ с границами безопасности — лимитами на расходы, белыми списками контрактов, обнаружением аномалий и хуками комплаенса. Agentic Wallets обеспечивают именно это: агенты проходят аутентификацию через API-ключи, привязанные к разрешениям с ограничением частоты запросов, транзакции объединяются в пакеты и оптимизируются для экономии газа, а встроенный мониторинг помечает подозрительные паттерны, такие как внезапные крупные переводы или взаимодействия с известными эксплойтами.

Появляются решения конкурентов. Проекты на базе Solana экспериментируют с агентскими кошельками, которые используют субсекундную финализацию сети для высокочастотной торговли. L2-решения Ethereum, такие как Arbitrum и Optimism, предлагают более низкие комиссии, что делает микротранзакции экономически выгодными — это критически важно для агентов, платящих за каждый вызов API или запрос данных. Некоторые платформы даже исследуют мультисиг-кошельки под управлением коллективов агентов, где решения требуют консенсуса между несколькими ИИ-сущностями, добавляя уровень алгоритмических сдержек и противовесов.

Хостинг-платформы MCP, такие как AurraCloud, предоставляют промежуточное ПО. Эти сервисы хостят MCP-серверы, к которым агенты обращаются за данными: ценовыми потоками, состоянием блокчейна, социальными настроениями и агрегацией новостей. Поскольку агенты могут оплачивать доступ автономно через встроенные платежные каналы, MCP-платформы могут монетизировать вызовы API без необходимости предоплаты по подписке или длительного процесса онбординга. Это создает ликвидный рынок данных: агенты ищут лучшее соотношение цены и качества, а поставщики данных конкурируют по задержке, точности и охвату.

Платежные каналы — это кровеносная система. Стандарт x402 унифицирует способы отправки и получения стоимости агентами, но базовые механизмы расчетов различаются. Стейблкоины, такие как USDC и USDT, предпочтительны из-за их ценовой стабильности — агентам нужны предсказуемые затраты при планировании бюджета на услуги. Некоторые проекты экспериментируют с каналами микроплатежей, которые объединяют транзакции вне сети и периодически проводят расчеты в сети, снижая накладные расходы на газ. Другие интегрируются с протоколами кроссчейн-сообщений, такими как LayerZero или Axelar, позволяя агентам перемещать активы между блокчейнами по мере необходимости для оптимального исполнения задач.

В результате формируется многоуровневый стек инфраструктуры, зеркально отражающий архитектуру традиционного интернета: TCP / IP для передачи данных (A2A, MCP), HTTP для логики приложений (агентские фреймворки, API) и платежные протоколы (x402, стейблкоины) для передачи стоимости. Это не случайно — успешные протоколы перенимают знакомые паттерны, чтобы минимизировать трение при интеграции.

Риски, защитные барьеры и путь к институциональному доверию

Передача финансовой автономии системам ИИ не лишена опасностей. Риски охватывают технические уязвимости, экономическую нестабильность и регуляторную неопределенность — каждый из них требует продуманных стратегий смягчения последствий.

Технические риски являются наиболее непосредственными. Агенты работают на основе моделей, обученных на исторических данных, которые могут не распространяться на беспрецедентные рыночные условия. Торговый агент, оптимизированный для бычьих рынков, может потерпеть катастрофическую неудачу во время внезапных обвалов (flash crashes). Злоумышленники могут использовать предсказуемое поведение агентов — подделывать книги ордеров для запуска автоматических сделок или развертывать ханипот-контракты, предназначенные для опустошения агентских кошельков. Ошибки в смарт-контрактах остаются постоянной угрозой; агент, взаимодействующий с уязвимым протоколом, может потерять средства до того, как аудит обнаружит брешь.

Стратегии смягчения последствий развиваются. Инструменты комплаенс-скрининга Coinbase используют скоринг рисков в реальном времени для блокировки транзакций, помеченных как высокорисковые на основе репутации контрагента, статуса аудита контракта и исторических данных об эксплойтах. Некоторые платформы вводят обязательные периоды ожидания для крупных переводов, давая операторам-людям возможность вмешаться при обнаружении аномалий. Другой подход — валидация несколькими агентами: требование консенсуса между несколькими независимыми агентами перед выполнением дорогостоящих транзакций, что снижает количество единых точек отказа.

Экономическая нестабильность — это риск второго порядка. Если большая часть ликвидности в сети контролируется автономными агентами с коррелирующими стратегиями, динамика рынка может усилить волатильность. Представьте себе тысячи агентов, одновременно выходящих из позиции на основе общих сигналов данных — каскады ликвидаций могут затмить традиционные флеш-краши. Обратные связи также вызывают беспокойство: агенты, оптимизирующие свои действия друг против друга, могут сойтись в равновесии, которое дестабилизирует базовые протоколы, например, используя механизмы управления для принятия корыстных предложений.

Регуляторная неопределенность — это «джокер». Финансовые регуляторы по всему миру все еще пытаются классифицировать ИИ-агентов. Являются ли они инструментами, контролируемыми их создателями, или независимыми экономическими субъектами? Если агент совершает незаконные сделки — например, инсайдерскую торговлю на основе частной информации — кто несет ответственность? Разработчик, платформа, хостящая агента, или пользователь, который его развернул? На эти вопросы нет четких ответов, а регуляторная база отстает от технологий на годы.

Некоторые юрисдикции продвигаются быстрее других. Регламент Европейского Союза по рынкам криптоактивов (MiCA) включает положения об автоматизированных торговых системах, потенциально охватывая ИИ-агентов. Валютное управление Сингапура консультируется с отраслью по вопросам защитных барьеров для автономных финансов. Соединенные Штаты остаются фрагментированными: SEC, CFTC и штатные регуляторы придерживаются расходящихся подходов. Эта регуляторная мозаика усложняет глобальное развертывание — агенты, работающие в разных юрисдикциях, должны ориентироваться в противоречивых требованиях, что увеличивает расходы на комплаенс.

Несмотря на эти трудности, институциональное доверие растет. Крупные предприятия пилотируют развертывание агентов в контролируемых средах — внутренних казначействах DeFi со строгими параметрами риска или закрытых маркетплейсах, где агенты торгуют между верифицированными участниками. По мере того как эти эксперименты накапливают послужной список без катастрофических сбоев, уверенность растет. Появляются стандарты аудита: сторонние фирмы теперь предлагают проверку поведения агентов, анализируя логи решений и историю транзакций для подтверждения соблюдения заранее определенных политик.

Что дальше: первые этапы автономной экономики

На наших глазах рождается новый экономический фундамент. В первом квартале 2026 года ИИ-агенты всё ещё в основном выполняют заранее определенные задачи — автоматизированную торговлю, ребалансировку портфеля, платежи через API. Но траектория ясна: по мере того как агенты будут становиться более способными, они начнут вести переговоры по контрактам, формировать альянсы и даже размещать капитал для создания новых агентов, оптимизированных для специализированных ниш.

Ближайшие катализаторы включают расширение многоагентных рабочих процессов. Сегодняшние пилотные проекты задействуют двух или трех агентов, координирующих свои действия над конкретными задачами. К концу года мы, вероятно, увидим фреймворки оркестрации, управляющие десятками агентов, каждый из которых привносит специализированный опыт. Автономные цепочки поставок — ещё один рубеж: агент электронной коммерции закупает товары у производственных агентов, координирует логистику через транспортных агентов и осуществляет расчеты с помощью транзакций в стейблкоинах — и всё это без участия человека за пределами первоначальных параметров.

В долгосрочной перспективе наиболее разрушительным сценарием станет превращение агентов в аллокаторов капитала. Представьте себе венчурный фонд, полностью управляемый ИИ: агенты находят сделки на основе ончейн-метрик, проводят дью-дилидженс, запрашивая данные у провайдеров, ведут переговоры об условиях инвестирования и направляют капитал в токенизированные стартапы. Человеческий контроль может ограничиваться установкой лимитов на аллокацию и утверждением общих стратегий. Если такие фонды превзойдут по доходности своих коллег под управлением людей, капитал потечет в сторону автономного управления — это переломный момент, который может переопределить управление активами.

Инфраструктуре еще предстоит созреть. Кроссчейн-координация агентов остается неудобной из-за фрагментированной ликвидности и несогласованных стандартов. Конфиденциальность — это вопиющий пробел: сегодняшние агенты работают прозрачно на публичных блокчейнах, раскрывая стратегии конкурентам. Доказательства с нулевым разглашением и конфиденциальные вычисления могли бы решить эту проблему, позволяя агентам совершать транзакции приватно, сохраняя при этом проверяемую корректность.

Стандарты интероперабельности определят победителей. Платформы, внедряющие A2A, MCP и x402, получают доступ к растущей сети совместимых агентов. Проприетарные системы рискуют оказаться в изоляции, так как сетевые эффекты благоприятствуют открытым протоколам. Эта динамика напоминает ранний интернет: закрытая экосистема AOL проиграла интероперабельности открытой сети.

Рыночная капитализация в 7,7 миллиарда долларов — это лишь первоначальный взнос за гораздо более масштабное видение. Если агенты будут управлять хотя бы 1% мировых финансовых активов — по консервативным оценкам, это 1 триллион долларов — инфраструктурный уровень, поддерживающий их, может затмить сегодняшние рынки облачных вычислений. Мы еще не достигли этого. Но строительные блоки уже на месте, экономические стимулы согласованы, а первые реальные внедрения доказывают, что концепция работает.

Для разработчиков это огромная возможность: создавайте инструменты, хостинг, потоки данных и услуги безопасности, которые будут потреблять агенты. Для инвесторов речь идет об определении протоколов, которые будут аккумулировать ценность по мере масштабирования внедрения агентов. Для пользователей это взгляд в будущее, где машины справляются с нудными, сложными и повторяющимися задачами, освобождая внимание людей для принятия решений более высокого порядка.

Экономика учится работать самостоятельно. Пристегните ремни.


BlockEden.xyz предоставляет RPC-инфраструктуру корпоративного уровня, оптимизированную для ИИ-агентов, создаваемых на Sui, Aptos, Ethereum и других ведущих блокчейнах. Наши узлы с низкой задержкой и высокой пропускной способностью позволяют автономным системам запрашивать состояние блокчейна и выполнять транзакции с надежностью, которой требует ончейн-коммерция. Изучите наш маркетплейс API, чтобы строить на фундаменте, предназначенном для масштабирования вместе с автономной экономикой.

Источники

Прорыв DePIN на $19,2 млрд: от хайпа вокруг IoT к корпоративной реальности

· 12 мин чтения
Dora Noda
Software Engineer

На протяжении многих лет обещание децентрализованной физической инфраструктуры казалось решением, которое ищет проблему. Блокчейн-энтузиасты рассуждали о токенизации всего — от точек доступа Wi-Fi до солнечных панелей, в то время как корпорации тихо отмахивались от этого как от крипто-хайпа, оторванного от операционной реальности. Но это пренебрежение только что стало слишком дорогим удовольствием.

Сектор DePIN (Decentralized Physical Infrastructure Network) вырос с 5,2млрддо5,2 млрд до 19,2 млрд рыночной капитализации всего за один год — скачок на 270 %, который не имеет ничего общего со спекулятивной манией, но напрямую связан с тем, что предприятия обнаружили возможность сократить расходы на инфраструктуру на 50–85 %, сохраняя при этом качество обслуживания. Имея 321 активный проект, приносящий на данный момент 150млнежемесячногодохода,ипрогнозыВсемирногоэкономическогофорумаотом,чток2028годурынокдостигнет150 млн ежемесячного дохода, и прогнозы Всемирного экономического форума о том, что к 2028 году рынок достигнет 3,5 трлн, DePIN преодолел пропасть между экспериментальной технологией и критически важной инфраструктурой.

Цифры, изменившие риторику

CoinGecko отслеживает почти 250 проектов DePIN по состоянию на сентябрь 2025 года, что в несколько раз больше, чем всего 24 месяца назад. Но настоящая история заключается не в количестве проектов, а в доходах. В 2025 году сектор принес около $ 72 млн ончейн-выручки, при этом проекты высшего уровня сейчас демонстрируют восьмизначный годовой регулярный доход.

Только в январе 2026 года проекты DePIN в совокупности принесли 150млндохода.Лидеромсталпровайдеринфраструктурынабазеграфическихпроцессоров(GPU)Aethirсдоходом150 млн дохода. Лидером стал провайдер инфраструктуры на базе графических процессоров (GPU) Aethir с доходом 55 млн. За ним последовал Render Network с 38млнотдецентрализованныхуслугGPUрендеринга.Heliumпринес38 млн от децентрализованных услуг GPU-рендеринга. Helium принес 24 млн от операций своей беспроводной сети. Это не пустые метрики от фармеров аирдропов — это реальные предприятия, платящие за вычисления, связь и хранение данных.

Состав рынка рассказывает еще более показательную историю: 48 % проектов DePIN по рыночной капитализации сейчас ориентированы на инфраструктуру для ИИ. Поскольку рабочие нагрузки ИИ стремительно растут, а гиперскейлеры с трудом справляются со спросом, децентрализованные вычислительные сети становятся «выпускным клапаном» для индустрии, зашедшей в тупик, который традиционные дата-центры не могут разрешить достаточно быстро.

Доминирование Solana в DePIN: почему важна скорость

Если Ethereum — это дом для DeFi, а Bitcoin — цифровое золото, то Solana незаметно стала предпочтительным блокчейном для координации физической инфраструктуры. Имея 63 проекта DePIN в своей сети, включая Helium, Grass и Hivemapper, низкие транзакционные издержки и высокая пропускная способность Solana делают ее единственным блокчейном первого уровня (Layer 1), способным обрабатывать интенсивные рабочие нагрузки в реальном времени, которых требует физическая инфраструктура.

Трансформация Helium особенно показательна. После миграции на Solana в апреле 2023 года беспроводная сеть масштабировалась до более чем 115 000 хот-спотов, обслуживающих 1,9 млн пользователей ежедневно. Количество подписчиков Helium Mobile выросло со 115 000 в сентябре 2024 года до почти 450 000 к сентябрю 2025 года — рост на 300 % в годовом исчислении. Только во втором квартале 2025 года сеть передала 2 721 терабайт данных для партнеров-операторов, что на 138,5 % больше по сравнению с предыдущим кварталом.

Экономика убедительна: Helium обеспечивает мобильную связь за долю от стоимости традиционных операторов, стимулируя частных лиц развертывать и обслуживать хот-споты. Подписчики получают безлимитные звонки, SMS и данные за $ 20 в месяц. Операторы хот-спотов зарабатывают токены в зависимости от покрытия сети и передачи данных. Традиционные операторы не могут конкурировать с такой структурой затрат.

Render Network демонстрирует потенциал DePIN в сфере ИИ и творческих индустрий. Имея рыночную капитализацию в $ 770 млн, Render обработал более 1,49 млн кадров рендеринга только в июле 2025 года, при этом было сожжено 207 900 USDC комиссионных сборов. Художники и исследователи ИИ используют незадействованные мощности GPU игровых ПК и майнинговых ферм, платя копейки по сравнению с централизованными облачными сервисами рендеринга.

Grass, самый быстрорастущий проект DePIN на Solana с более чем 3 млн пользователей, монетизирует неиспользуемую пропускную способность интернет-канала для наборов данных обучения ИИ. Пользователи делятся своим неиспользуемым интернет-соединением, зарабатывая токены, в то время как компании собирают веб-данные для больших языковых моделей. Это инфраструктурный арбитраж в масштабе — использование избыточных, недоиспользуемых ресурсов (домашнего интернета) и их упаковка для предприятий, готовых платить по премиальным тарифам за распределенный сбор данных.

Корпоративное внедрение: сокращение затрат на 50–85 %, которое не может игнорировать ни один финансовый директор

Переход от пилотных программ к промышленному развертыванию резко ускорился в 2025 году. Телекоммуникационные операторы, облачные провайдеры и энергетические компании не просто экспериментируют с DePIN — они встраивают их в свои основные операции.

Беспроводная инфраструктура сейчас насчитывает более 5 млн зарегистрированных децентрализованных роутеров по всему миру. Одна телекоммуникационная компания из списка Fortune 500 зафиксировала рост числа клиентов DePIN-связи на 23 %, доказав, что предприятия примут децентрализованные модели, если экономика и надежность совпадают. Партнерство T-Mobile с Helium для расширения покрытия сети в сельской местности демонстрирует, как действующие игроки используют DePIN для решения проблем «последней мили», которые традиционные капитальные затраты не могут оправдать.

Телекоммуникационный сектор сталкивается с экзистенциальным давлением: капитальные затраты на строительство вышек и лицензии на частоты уничтожают маржу, в то время как клиенты требуют повсеместного покрытия. Прогнозируется, что рынок блокчейна в телекоме вырастет с 1,07млрдв2024годудо1,07 млрд в 2024 году до 7,25 млрд к 2030 году, поскольку операторы понимают, что стимулирование частных лиц к развертыванию инфраструктуры обходится дешевле, чем делать это самостоятельно.

Облачные вычисления открывают еще большие возможности. Поддерживаемый Nvidia проект brev.dev и другие провайдеры DePIN-вычислений обслуживают корпоративные нагрузки ИИ, которые в 2–3 раза дороже в AWS, Google Cloud или Azure. Поскольку ожидается, что к 2026 году на инференс (исполнение моделей) будет приходиться две трети всех вычислений ИИ (по сравнению с одной третью в 2023 году), спрос на экономически эффективные мощности GPU будет только усиливаться. Децентрализованные сети могут привлекать GPU из игровых компьютеров, майнинговых операций и недоиспользуемых дата-центров — мощности, к которым централизованные облака не имеют доступа.

Энергосети, пожалуй, являются наиболее трансформирующим вариантом использования DePIN. Централизованные энергосистемы с трудом балансируют спрос и предложение на местном уровне, что ведет к неэффективности и сбоям. Децентрализованные энергетические сети используют блокчейн-координацию для отслеживания выработки энергии от частных солнечных панелей, аккумуляторов и счетчиков. Участники генерируют энергию, делятся излишками с соседями и зарабатывают токены в зависимости от вклада. Результат: повышение устойчивости сети, сокращение потерь энергии и финансовые стимулы для внедрения возобновляемых источников.

ИИ-инфраструктура: 48 %, которые переопределяют стек

Почти половина рыночной капитализации DePIN сейчас сосредоточена на инфраструктуре ИИ — сближение, которое меняет способы обработки ресурсоемких рабочих нагрузок. Расходы на хранение в секторе ИИ-инфраструктуры продемонстрировали рост на 20,5 % в годовом исчислении во втором квартале 2025 года, при этом 48 % расходов пришлось на облачные развертывания. Но централизованные облака сталкиваются с ограничениями мощностей именно в тот момент, когда спрос взлетает.

Мировой рынок GPU для центров обработки данных составил 14,48млрдв2024годуи,согласнопрогнозам,достигнет14,48 млрд в 2024 году и, согласно прогнозам, достигнет 155,2 млрд к 2032 году. Тем не менее, Nvidia едва успевает за спросом, что приводит к задержкам поставок чипов H100 и H200 от 6 до 12 месяцев. Сети DePIN обходят это «узкое место», объединяя потребительские и корпоративные GPU, которые простаивают 80–90 % времени.

Рабочие нагрузки инференса — запуск моделей ИИ в рабочей среде после завершения обучения — являются самым быстрорастущим сегментом. В то время как большая часть инвестиций в 2025 году была сосредоточена на чипах для обучения, ожидается, что рынок чипов, оптимизированных для инференса, превысит $ 50 млрд в 2026 году, так как компании переходят от разработки моделей к их масштабному развертыванию. Вычислительные сети DePIN преуспевают в инференсе, потому что такие рабочие нагрузки легко распараллеливаются и устойчивы к задержкам, что делает их идеальными для распределенной инфраструктуры.

Проекты, такие как Render, Akash и Aethir, удовлетворяют этот спрос, предлагая дробный доступ к GPU, спотовое ценообразование и географическое распределение, с которыми централизованные облака не могут сравниться. ИИ-стартап может запустить 100 GPU для пакетного задания на выходные и платить только за использование, без минимальных обязательств или корпоративных контрактов. Для гиперскейлеров это барьер. Для DePIN — это основное ценностное предложение.

Категории, стимулирующие рост

DePIN делится на две фундаментальные категории: сети физических ресурсов (оборудование, такое как вышки беспроводной связи, энергетические сети и датчики) и сети цифровых ресурсов (вычисления, пропускная способность и хранение). Обе категории переживают взрывной рост, но цифровые ресурсы масштабируются быстрее из-за более низких барьеров для развертывания.

Сети хранения, такие как Filecoin, позволяют пользователям сдавать в аренду неиспользуемое место на жестких дисках, создавая распределенные альтернативы AWS S3 и Google Cloud Storage. Ценностное предложение: более низкие затраты, географическое резервирование и устойчивость к единым точкам отказа. Предприятия пилотируют Filecoin для архивных данных и резервных копий — сценарии использования, где комиссии за исходящий трафик в централизованных облаках могут составлять миллионы долларов ежегодно.

Вычислительные ресурсы охватывают рендеринг на GPU (Render), вычисления общего назначения (Akash) и инференс ИИ (Aethir). Akash управляет открытым маркетплейсом для развертывания Kubernetes, позволяя разработчикам запускать контейнеры на недостаточно используемых серверах по всему миру. Экономия средств составляет от 30 % до 85 % по сравнению с AWS, в зависимости от типа нагрузки и требований к доступности.

Беспроводные сети, такие как Helium и World Mobile Token, устраняют разрыв в связи на недостаточно обслуживаемых рынках. World Mobile развернула децентрализованные мобильные сети в Занзибаре, транслируя матч ФК «Фулхэм» и одновременно предоставляя интернет 500 людям в радиусе 600 метров. Это не прототипы — это рабочие сети, обслуживающие реальных пользователей в регионах, где традиционные интернет-провайдеры отказываются работать из-за невыгодной экономики.

Энергетические сети используют блокчейн для координации распределенной генерации и потребления. Владельцы солнечных панелей продают излишки электроэнергии соседям. Владельцы электромобилей обеспечивают стабилизацию сети, планируя зарядку в непиковые часы, зарабатывая токены за свою гибкость. Коммунальные службы получают видимость спроса и предложения в реальном времени без развертывания дорогостоящих интеллектуальных счетчиков и систем управления. Это координация инфраструктуры, которая не могла бы существовать без уровня бездоверительных расчетов блокчейна.

От 19,2млрддо19,2 млрд до 3,5 трлн: что нужно для достижения цели

Прогноз Всемирного экономического форума в 3,5трлнк2028году—этонепростооптимистичнаяспекуляция,этоотражениетого,насколькоогроменцелевойрынок,кактолькоDePINдокажетсвоюэффективностьвмасштабе.Ежегодныерасходынаглобальнуютелекоммуникационнуюинфраструктурупревышают3,5 трлн к 2028 году — это не просто оптимистичная спекуляция, это отражение того, насколько огромен целевой рынок, как только DePIN докажет свою эффективность в масштабе. Ежегодные расходы на глобальную телекоммуникационную инфраструктуру превышают 1,5 трлн. Рынок облачных вычислений составляет более $ 600 млрд. Энергетическая инфраструктура представляет собой триллионы капитальных вложений.

DePIN не нужно заменять эти отрасли — ему просто нужно занять 10–20 % доли рынка, предложив лучшую экономику. Математика работает, потому что DePIN переворачивает традиционную модель инфраструктуры: вместо того чтобы компании привлекали миллиарды для строительства сетей и затем окупали затраты десятилетиями, DePIN стимулирует частных лиц развертывать инфраструктуру авансом, зарабатывая токены по мере предоставления мощностей. Это краудсорсинговые капитальные вложения, и они масштабируются гораздо быстрее, чем централизованное строительство.

Но достижение $ 3,5 трлн требует решения трех задач:

Ясность регулирования. Телекоммуникации и энергетика — это строго регулируемые отрасли. Проекты DePIN должны решать вопросы лицензирования спектра (беспроводная связь), соглашений о межсетевом соединении (энергетика) и требований к резидентности данных (вычисления и хранение). Прогресс есть — правительства в Африке и Латинской Америке внедряют DePIN для устранения разрывов в связи — но зрелые рынки, такие как США и ЕС, движутся медленнее.

Доверие предприятий. Компании из списка Fortune 500 не будут переносить критически важные рабочие нагрузки в DePIN, пока надежность не сравняется с централизованными альтернативами или не превзойдет их. Это означает гарантии времени безотказной работы (uptime), соглашения об уровне обслуживания (SLA), страхование от сбоев и круглосуточную поддержку — обязательные условия в корпоративном ИТ, которых многим проектам DePIN все еще не хватает. Победителями станут проекты, которые приоритезируют операционную зрелость выше цены токена.

Токеномика. Ранние проекты DePIN страдали от неустойчивой токеномики: инфляционные вознаграждения, которые обрушивали рынок, неверные стимулы, поощрявшие атаки Сивиллы вместо полезной работы, и ценовая динамика, движимая спекуляциями и оторванная от фундаментальных показателей сети. Следующее поколение проектов DePIN учится на этих ошибках, внедряя механизмы сжигания, привязанные к выручке, графики вестинга для участников и управление, ориентированное на долгосрочную устойчивость.

Почему это важно для разработчиков BlockEden.xyz

Если вы строите на блокчейне, DePIN представляет собой один из самых явных примеров соответствия продукта рынку (product-market fit) в истории криптоиндустрии. В отличие от регуляторной неопределенности DeFi или спекулятивных циклов NFT, DePIN решает реальные проблемы с измеримым ROI. Предприятиям нужна более дешевая инфраструктура. У частных лиц есть недоиспользуемые активы. Блокчейн обеспечивает бездоверительную координацию и расчеты. Все элементы пазла сходятся.

Для разработчиков возможность заключается в создании промежуточного ПО (middleware), которое делает DePIN готовым к использованию на уровне корпораций: инструменты мониторинга и наблюдения (observability), смарт-контракты для обеспечения соблюдения SLA, системы репутации для операторов узлов, протоколы страхования для гарантий аптайма и платежные каналы, которые мгновенно проводят расчеты через географические границы.

Инфраструктура, которую вы строите сегодня, может стать основой децентрализованного интернета 2028 года — мира, где Helium обеспечивает мобильную связь, Render обрабатывает инференс ИИ, Filecoin хранит мировые архивы, а Akash управляет контейнерами, которые оркеструют всё это. Это не крипто-футуризм — это дорожная карта, которую уже пилотируют компании из списка Fortune 500.

Источники

Запуск мультиагентных систем ИИ: Рассвет сетевой координации

· 11 мин чтения
Dora Noda
Software Engineer

Когда Coinbase анонсировала Agentic Wallets 11 февраля 2026 года, это не было просто запуском очередного продукта. Это стало поворотным моментом: ИИ - агенты превратились из изолированных инструментов, выполняющих одиночные задачи, в автономных экономических акторов, способных координировать сложные рабочие процессы, управлять криптоактивами и совершать транзакции без вмешательства человека. Эра мультиагентных систем ИИ наступила.

От монолитных LLM к совместным экосистемам агентов

В течение многих лет разработка ИИ была сосредоточена на создании более крупных и мощных языковых моделей. GPT-4, Claude и их преемники продемонстрировали выдающиеся способности, но они работали в изоляции — как мощные инструменты, ожидающие указаний человека. Эта парадигма рушится.

В 2026 году консенсус сместился: будущее не за монолитным суперинтеллектом, а за сетевыми экосистемами специализированных ИИ - агентов, сотрудничающих для решения сложных проблем. По данным Gartner, к концу года 40 % корпоративных приложений будут включать узкоспециализированных ИИ - агентов, что является резким скачком по сравнению с менее чем 5 % в 2025 году.

Это можно сравнить с переходом от мэйнфреймов к облачным микросервисам. Вместо одной массивной модели, пытающейся делать все сразу, современные системы ИИ развертывают десятки специализированных агентов — каждый из которых оптимизирован для конкретных функций, таких как биллинг, логистика, обслуживание клиентов или управление рисками — работающих вместе через стандартизированные протоколы.

Протоколы, обеспечивающие координацию агентов

Эта трансформация не произошла случайно. В 2025 году появились два критически важных инфраструктурных стандарта, которые теперь позволяют создавать промышленные мультиагентные системы в 2026 году: Model Context Protocol (MCP) и Agent-to-Agent Protocol (A2A).

Model Context Protocol (MCP): Анонсированный компанией Anthropic в ноябре 2024 года, MCP функционирует как порт USB - C для приложений ИИ. Подобно тому, как USB - C стандартизировал подключение устройств, MCP стандартизирует способы подключения ИИ - агентов к системам данных, репозиториям контента, бизнес - инструментам и средам разработки. Протокол повторно использует проверенные шаблоны обмена сообщениями из Language Server Protocol (LSP) и работает поверх JSON-RPC 2.0.

К началу 2026 года основные игроки, включая Anthropic, OpenAI и Google, внедрили MCP, утвердив его в качестве стандарта интероперабельности де - факто. MCP управляет контекстным взаимодействием, управлением памятью и планированием задач, позволяя агентам поддерживать согласованное состояние в сложных рабочих процессах.

Agent-to-Agent Protocol (A2A): Представленный Google в апреле 2025 года при поддержке более 50 технологических партнеров — включая Atlassian, Box, PayPal, Salesforce, SAP и ServiceNow — A2A обеспечивает прямое взаимодействие между агентами. В то время как такие фреймворки, как crewAI и LangChain, автоматизируют мультиагентные рабочие процессы внутри своих собственных экосистем, A2A выступает в качестве универсального уровня обмена сообщениями, позволяя агентам от разных поставщиков и платформ беспрепятственно координировать свои действия.

Консенсус по стеку протоколов, наметившийся к 2026 году, очевиден: MCP для интеграции инструментов, A2A для связи между агентами и AP2 (Agent Payments Protocol) для коммерции. Вместе эти стандарты обеспечивают существование «невидимой экономики» — автономных систем, работающих в фоновом режиме, координирующих действия и проводящих расчеты по транзакциям без вмешательства человека.

Ускорение внедрения в реальном корпоративном секторе

Мультиагентная оркестрация вышла за рамки доказательства концепции. В сфере здравоохранения ИИ - агенты теперь координируют прием пациентов, обработку страховых претензий и аудит соответствия нормативным требованиям, повышая вовлеченность пациентов и эффективность плательщиков. В управлении цепочками поставок несколько агентов сотрудничают в разных дисциплинах и географических регионах, коллективно перенаправляя грузы, выявляя риски и корректируя ожидания по доставке в режиме реального времени.

Поставщик ИТ - услуг Getronics использовал мультиагентные системы для автоматизации более 1 миллиона ИТ - тикетов ежегодно путем интеграции таких платформ, как ServiceNow. В розничной торговле агентные системы позволяют проводить гиперперсонализированные акции и применять стратегии ценообразования, основанные на спросе, которые адаптируются непрерывно.

Согласно недавним опросам предприятий, к 2028 году 38 % организаций ожидают, что ИИ - агенты станут полноправными членами команд наряду с людьми. Модель смешанной команды — в которой ИИ - агенты предлагают и выполняют задачи, а люди осуществляют надзор и управление — становится новым операционным стандартом.

Блокчейн - мост: автономные экономические акторы

Возможно, самым революционным событием является слияние мультиагентного ИИ и технологии блокчейн, создающее новый уровень цифровой коммерции, где агенты функционируют как независимые экономические участники.

Agentic Wallets от Coinbase предоставляют специально созданную криптоинфраструктуру для автономных агентов, позволяя им самостоятельно управлять цифровыми активами, совершать сделки и проводить платежи с использованием стейблкоинов. Интеграция возможностей вывода ИИ Solana непосредственно в криптокошельки представляет собой еще одну важную веху.

Эффект измерим. ИИ - агенты могут обеспечить 15–20 % объема децентрализованных финансов (DeFi) к концу 2025 года, а данные начала 2026 года показывают, что они на пути к превышению этого прогноза. На платформе рынков предсказаний Polymarket ИИ - агенты уже обеспечивают более 30 % торговой активности.

Стандарт Ethereum ERC-8004 под названием «Trustless Agents» решает проблемы доверия, присущие автономным системам, с помощью ончейн - реестров, портативных идентификаторов агентов на базе NFT, проверяемых механизмов обратной связи для построения рейтингов доверия и подключаемых доказательств для результатов работы. Совместные усилия Coinbase, Ethereum Foundation, MetaMask и других ведущих организаций привели к созданию расширения A2A x402 для криптоплатежей на базе агентов, которое уже запущено в эксплуатацию.

Рыночные возможности в 50 миллиардов долларов

Финансовые ставки колоссальны. Глобальный рынок ИИ-агентов достиг 5,1 млрд долларов в 2024 году и, согласно прогнозам, вырастет до 47,1 млрд долларов к 2030 году. Конкретно в криптосфере токены ИИ-агентов продемонстрировали взрывной рост: сектор расширился с 23 млрд долларов до более чем 50 млрд долларов менее чем за год.

Ведущие проекты включают NEAR Protocol, чья высокая пропускная способность и быстрая финализация привлекают приложения на базе ИИ-агентов; Bittensor (TAO), обеспечивающий работу децентрализованного машинного обучения; Fetch.ai (FET), позволяющий создавать автономных экономических агентов; и Virtuals Protocol (VIRTUAL), цена которого подскочила на 850% в конце 2024 года, достигнув рыночной капитализации около 800 млн долларов.

Венчурный капитал активно вливается в инфраструктуру для коммерции между агентами (agent-to-agent). Общий рынок блокчейна к 2027 году прогнозируется на уровне 162,84 млрд долларов, при этом мультиагентные ИИ-системы станут значимым драйвером роста.

Возникновение двух архитектурных моделей

Мультиагентные системы обычно следуют одному из двух паттернов проектирования, каждый из которых имеет свои особенности:

Иерархическая архитектура: Ведущий агент координирует работу специализированных субагентов, оптимизируя сотрудничество. Эта модель вводит центральные точки контроля и надзора, что делает ее привлекательной для предприятий, требующих четкого управления и подотчетности. Люди-контролеры взаимодействуют в основном с ведущим агентом, который делегирует задачи специалистам.

Пиринговая (Peer-to-Peer) архитектура: Агенты взаимодействуют напрямую без центрального контроллера. Это требует надежных протоколов связи, но обеспечивает большую устойчивость и децентрализацию. Данная модель эффективна в сценариях, где ни один агент не обладает полной видимостью или полномочиями, например, в межорганизационных цепочках поставок или децентрализованных финансовых системах.

Выбор между этими моделями зависит от конкретного случая использования. Корпоративные ИТ-отделы и сфера здравоохранения склоняются к иерархическим системам для обеспечения соответствия нормативным требованиям и возможности аудита, в то время как DeFi и блокчейн-коммерция отдают предпочтение P2P-моделям, соответствующим принципам децентрализации.

Дефицит доверия и человеческий надзор

Несмотря на быстрый технический прогресс, доверие остается критическим узким местом. В 2024 году 43% руководителей выразили уверенность в полностью автономных ИИ-агентах. К 2025 году этот показатель упал до 22%, при этом 60% не доверяют агентам выполнение задач без присмотра.

Это не регресс, а этап созревания. По мере того как организации внедряют агентов в реальную эксплуатацию, они сталкиваются с пограничными случаями, сбоями в координации и редкими, но масштабными ошибками. Индустрия реагирует на это не сокращением автономии, а пересмотром механизмов надзора.

Формирующаяся модель рассматривает ИИ-агентов как «предлагаемых исполнителей», а не как лиц, принимающих окончательные решения. Агенты анализируют данные, рекомендуют действия и выполняют предварительно одобренные рабочие процессы, в то время как люди устанавливают ограничения, проверяют результаты и вмешиваются при возникновении исключений. Надзор становится базовым принципом проектирования, а не второстепенной задачей.

Согласно Forrester, 75% руководителей в сфере клиентского опыта теперь рассматривают ИИ как усилитель человеческих возможностей, а не как замену человеку, и 61% организаций верят в трансформационный потенциал агентного ИИ при условии надлежащего управления.

Взгляд в будущее: мультимодальная координация и расширенные возможности

Дорожная карта мультиагентных систем на 2026 год включает значительное расширение возможностей. MCP эволюционирует для поддержки изображений, видео, аудио и других типов медиа. Это означает, что агенты будут не просто читать и писать — они будут видеть, слышать и, возможно, наблюдать.

В конце 2025 года усилилась интеграция технологии блокчейн для подписей, подтверждения происхождения (provenance) и верификации, что обеспечивает неизменяемые логи действий агентов, критически важные для комплаенса и подотчетности. Этот тренд ускоряется в 2026 году, так как предприятия требуют «аудируемого» ИИ.

Мультиагентная оркестрация переходит из разряда экспериментальных технологий в категорию базовой инфраструктуры. К концу 2026 года она станет основой операционной деятельности ведущих предприятий, будучи внедренной не как отдельная функция, а как фундаментальный слой бизнес-процессов.

Инфраструктурный слой, который меняет всё

Мультиагентные ИИ-системы представляют собой не просто постепенное улучшение, а смену парадигмы в создании интеллектуальных систем. Благодаря стандартизации связи через MCP и A2A, интеграции с блокчейном для обеспечения доверия и платежей, а также внедрению человеческого надзора как основного принципа проектирования, индустрия создает инфраструктуру для автономной экономики.

ИИ-агенты больше не являются пассивными инструментами, ожидающими команд человека. Они — активные участники цифровой коммерции, управляющие активами, координирующие рабочие процессы и выполняющие сложные многоэтапные процессы. Вопрос уже не в том, трансформируют ли мультиагентные системы корпоративные операции и цифровые финансы, а в том, как быстро организации смогут адаптироваться к новой реальности.

Для разработчиков, работающих на блокчейн-инфраструктуре, конвергенция мультиагентного ИИ и криптотехнологий открывает беспрецедентные возможности. Агентам нужна надежная и высокопроизводительная блокчейн-инфраструктура для масштабной работы.

BlockEden.xyz предоставляет API-инфраструктуру корпоративного уровня для блокчейн-сетей, на которых работают приложения с ИИ-агентами. Изучите наши услуги, чтобы создавать автономные системы на фундаменте, предназначенном для мультиагентного будущего.

Источники

Гамбит Ambient на 7,2 млн долларов: как Proof of Logits может заменить майнинг на основе хэшей инференсом ИИ

· 18 мин чтения
Dora Noda
Software Engineer

Что если бы та же вычислительная работа, которая обеспечивает безопасность блокчейна, также обучала следующее поколение моделей ИИ? Это не далекое видение — это основная идея проекта Ambient, форка Solana, который только что привлек $7.2 млн от a16z CSX для создания первого в мире блокчейна на базе proof-of-work с использованием ИИ.

Традиционный proof-of-work сжигает электроэнергию на решение произвольных криптографических головоломок. Майнеры биткоина соревнуются в поиске хешей с достаточным количеством ведущих нулей — это вычислительная работа, не имеющая ценности помимо безопасности сети. Ambient полностью меняет этот сценарий. Его механизм консенсуса Proof of Logits (PoL) заменяет «перебор» хешей на инференс, дообучение и обучение моделей ИИ. Майнеры не решают головоломки; они генерируют проверяемые результаты работы ИИ. Валидаторы не пересчитывают весь объем работы; они проверяют криптографические «отпечатки», называемые логитами.

Результат? Блокчейн, в котором безопасность и развитие ИИ экономически согласованы, где накладные расходы на верификацию в 0.1% делают проверку консенсуса почти бесплатной, а стоимость обучения снижается в 10 раз по сравнению с централизованными альтернативами. В случае успеха Ambient может дать ответ на одну из старейших претензий к криптоиндустрии — о том, что proof-of-work тратит ресурсы впустую — превратив майнинг в продуктивный труд ИИ.

Прорыв Proof of Logits: проверяемый ИИ без повторных вычислений

Для понимания PoL необходимо разобраться, что такое логиты (logits). Когда большие языковые модели генерируют текст, они не выдают слова напрямую. Вместо этого на каждом этапе они создают распределение вероятностей по всему словарю — числовые значения, представляющие уровень уверенности для каждого возможного следующего токена.

Эти значения называются логитами. Для модели со словарем в 50 000 токенов генерация одного слова означает вычисление 50 000 логитов. Эти числа служат уникальным вычислительным отпечатком. Только конкретная модель с конкретными весами, обрабатывающая конкретные входные данные, выдает определенное распределение логитов.

Инновация Ambient заключается в использовании логитов в качестве proof-of-work: майнеры выполняют инференс ИИ (генерируют ответы на промпты), а валидаторы проверяют эту работу, сверяя отпечатки логитов вместо повторного выполнения всех вычислений.

Вот как работает процесс верификации:

Майнер генерирует результат: Майнер получает промпт (например, «Обобщите принципы блокчейн-консенсуса») и использует модель с 600 миллиардами параметров для генерации ответа из 4 000 токенов. Это создает 4 000 × 50 000 = 200 миллионов логитов.

Валидатор проводит выборочную проверку: Вместо повторной генерации всех 4 000 токенов валидатор случайным образом выбирает одну позицию — например, токен №2 847. Валидатор запускает один шаг инференса в этой позиции и сравнивает логиты, предоставленные майнером, с ожидаемым распределением.

Криптографическое обязательство: Если логиты совпадают (в пределах допустимого порога, учитывающего точность вычислений с плавающей запятой), работа майнера считается подтвержденной. Если нет — блок отклоняется, а майнер лишается вознаграждения.

Это снижает накладные расходы на верификацию примерно до 0.1% от исходных вычислений. Валидатору, проверяющему 200 миллионов логитов, нужно верифицировать только 50 000 логитов (позицию одного токена), что сокращает затраты на 99.9%. Сравните это с традиционным PoW, где валидация означает повторный запуск всей хеш-функции, или с подходом биткоина, где проверка одного хеша SHA-256 тривиальна, так как сама головоломка произвольна.

Система Ambient экспоненциально дешевле, чем наивные схемы «доказательства полезной работы» (proof of useful work), требующие полного пересчета. Она ближе к эффективности биткоина (дешевая валидация), но приносит реальную пользу (инференс ИИ вместо бессмысленных хешей).

Снижение стоимости обучения в 10 раз: децентрализованный ИИ без монополии дата-центров

Централизованное обучение ИИ обходится дорого — для большинства организаций это неподъемные суммы. Обучение моделей масштаба GPT-4 стоит десятки миллионов долларов, требует тысяч промышленных GPU и концентрирует власть в руках нескольких технологических гигантов. Архитектура Ambient направлена на демократизацию этого процесса путем распределения обучения по сети независимых майнеров.

Снижение стоимости в 10 раз достигается благодаря двум техническим инновациям:

Шардинг в стиле PETALS: Ambient адаптирует методы PETALS, децентрализованной системы инференса, где каждый узел хранит только шард (фрагмент) большой модели. Вместо того чтобы требовать от майнеров наличия всей модели на 600 миллиардов параметров (что потребовало бы терабайты VRAM), каждый майнер владеет подмножеством слоев. Промпт проходит через сеть последовательно: каждый майнер обрабатывает свой шард и передает активации следующему.

Это означает, что майнер с одной потребительской видеокартой (24 ГБ VRAM) может участвовать в обучении моделей, для которых иначе потребовались бы сотни GPU в дата-центре. Распределяя вычислительный граф между сотнями или тысячами узлов, Ambient устраняет необходимость в дорогих высокоскоростных соединениях (таких как InfiniBand), используемых в традиционных ML-кластерах.

Разреженность, вдохновленная SLIDE: Большинство вычислений в нейронных сетях связано с умножением матриц, где большинство элементов близки к нулю. SLIDE (Sub-LInear Deep learning Engine) использует это, хешируя активации для определения того, какие нейроны действительно важны для данного входа, полностью пропуская нерелевантные вычисления.

Ambient применяется эту разреженность (sparsity) к распределенному обучению. Вместо того чтобы все майнеры обрабатывали все данные, сеть динамически направляет работу узлам, чьи шарды релевантны текущему пакету данных. Это снижает накладные расходы на передачу данных (основное узкое место в распределенном ML) и позволяет майнерам с более слабым оборудованием участвовать в процессе, обрабатывая разреженные подграфы.

Сочетание этих методов обеспечивает то, что, по заявлению Ambient, дает пропускную способность в 10 раз выше, чем существующие проекты распределенного обучения, такие как DiLoCo или Hivemind. Что еще важнее, это снижает порог входа: майнерам не нужна инфраструктура уровня дата-центра — обычного игрового ПК с хорошей видеокартой достаточно, чтобы внести свой вклад.

Архитектура форка Solana: высокий показатель TPS в сочетании с неблокирующим PoW

Ambient не строится с нуля. Это полный форк Solana, унаследовавший виртуальную машину Solana Virtual Machine (SVM), временные метки Proof of History (PoH) и механизм пересылки мемпула Gulf Stream. Это обеспечивает Ambient теоретическую пропускную способность Solana в 65 000 TPS и субсекундную финальность.

Однако Ambient вносит одну критическую модификацию: он добавляет неблокирующий слой proof-of-work поверх консенсуса Solana.

Вот как работает гибридный консенсус:

Proof of History упорядочивает транзакции: PoH в Solana предоставляет криптографические часы, упорядочивая транзакции без ожидания глобального консенсуса. Это позволяет реализовать параллельное выполнение на нескольких ядрах.

Proof of Logits защищает сеть: майнеры соревнуются в создании валидных результатов логического вывода ИИ (inference). Блокчейн принимает блоки от майнеров, которые генерируют наиболее ценную работу в области ИИ (определяемую сложностью вывода, размером модели или застейканной репутацией).

Неблокирующая интеграция: В отличие от Bitcoin, где создание блоков останавливается до нахождения валидного PoW, PoW в Ambient работает асинхронно. Валидаторы продолжают обрабатывать транзакции, пока майнеры соревнуются за отправку ИИ-задач. Это предотвращает превращение PoW в узкое место.

В результате получается блокчейн, который сохраняет скорость Solana (критически важную для приложений ИИ, требующих вывода с низкой задержкой), обеспечивая при этом экономическую конкуренцию в основных видах деятельности сети — логическом выводе, тонкой настройке и обучении моделей.

Такой дизайн также позволяет избежать ранних ошибок Ethereum в консенсусе «полезной работы». Primecoin и Gridcoin пытались использовать научные вычисления в качестве PoW, но столкнулись с фатальным недостатком: полезная работа не является равномерно сложной. Некоторые задачи легко решить, но трудно проверить; другие легко несправедливо распараллелить. Ambient обходит это, делая проверку логитов вычислительно дешевой и стандартизированной. Каждая задача вывода, независимо от сложности, может быть проверена с помощью одного и того же алгоритма выборочной проверки.

Гонка за обучение AGI ончейн: кто еще участвует в соревновании?

Ambient не одинок в стремлении создать ИИ, нативный для блокчейна. В этом секторе много проектов, заявляющих о децентрализации машинного обучения, но немногие обеспечивают проверяемое обучение в сети. Вот как Ambient сопоставляется с основными конкурентами:

Artificial Superintelligence Alliance (ASI): Образованный в результате слияния Fetch.AI, SingularityNET и Ocean Protocol, ASI фокусируется на децентрализованной инфраструктуре AGI. ASI Chain поддерживает одновременное выполнение агентов и безопасные транзакции моделей. В отличие от подхода PoW в Ambient, ASI полагается на модель маркетплейса, где разработчики платят за вычислительные кредиты. Это работает для логического вывода, но не согласует стимулы для обучения — у майнеров нет причин вкладывать дорогостоящие часы работы GPU, если они не компенсируются авансом.

AIVM (ChainGPT): Дорожная карта AIVM от ChainGPT нацелена на запуск основной сети в 2026 году, интегрируя ресурсы GPU вне сети с проверкой ончейн. Однако проверка AIVM опирается на оптимистичные роллапы (предполагается корректность, если она не оспорена), что вносит задержку из-за доказательств мошенничества (fraud-proofs). Проверка логитов в Ambient является детерминированной — валидаторы мгновенно узнают, валидна ли работа.

Internet Computer (ICP): Internet Computer от Dfinity может нативно размещать большие модели в блокчейне без внешней облачной инфраструктуры. Но канистровая архитектура ICP не оптимизирована для обучения — она разработана для логического вывода и выполнения смарт-контрактов. PoW в Ambient экономически стимулирует непрерывное улучшение моделей, в то время как ICP требует от разработчиков управления обучением извне.

Bittensor: Bittensor использует модель подсетей, где специализированные цепочки обучают различным задачам ИИ (генерация текста, классификация изображений и т. д.). Майнеры соревнуются, предоставляя веса моделей, а валидаторы ранжируют их по производительности. Bittensor преуспевает в децентрализованном выводе, но испытывает трудности с координацией обучения — здесь нет единой глобальной модели, только набор независимых подсетей. Подход Ambient объединяет обучение в рамках единого механизма PoW.

Lightchain Protocol AI: В whitepaper Lightchain предлагается Proof of Intelligence (PoI), где узлы выполняют задачи ИИ для подтверждения транзакций. Однако консенсус Lightchain остается во многом теоретическим, без объявленного запуска тестнета. Ambient, напротив, планирует тестнет во втором-третьем квартале 2025 года.

Преимущество Ambient заключается в сочетании проверяемой работы ИИ с проверенной высокопроизводительной архитектурой Solana. Большинство конкурентов либо жертвуют децентрализацией (централизованное обучение с проверкой в блокчейне), либо производительностью (медленный консенсус в ожидании доказательств мошенничества). PoW на основе логитов в Ambient предлагает и то, и другое: децентрализованное обучение с почти мгновенной проверкой.

Экономические стимулы: майнинг моделей ИИ как блоков биткоина

Экономическая модель Ambient отражает модель Bitcoin: предсказуемые вознаграждения за блок + комиссии за транзакции. Но вместо майнинга пустых блоков майнеры создают результаты работы ИИ, которые могут потреблять приложения.

Вот как работает структура стимулов:

Вознаграждения на основе инфляции: Ранние майнеры получают субсидии за блоки (вновь выпущенные токены) за выполнение логического вывода ИИ, тонкую настройку или обучение. Подобно графику халвинга биткоина, субсидии со временем уменьшаются, обеспечивая долгосрочный дефицит.

Комиссии за транзакции: Приложения платят за услуги ИИ — запросы на логический вывод, тонкую настройку моделей или доступ к обученным весам. Эти комиссии идут майнерам, выполнившим работу, создавая устойчивую модель дохода по мере снижения субсидий.

Стейкинг репутации: Чтобы предотвратить атаки Сивиллы (майнеры, отправляющие низкокачественную работу для получения вознаграждений), Ambient вводит застейканную репутацию. Майнеры блокируют токены для участия; создание невалидных логитов приводит к слэшингу. Это согласует стимулы: майнеры максимизируют прибыль, создавая точные и полезные результаты ИИ, а не пытаясь обмануть систему.

Доступность оборудования: В отличие от биткоина, где доминируют ASIC-фермы, шардинг PETALS в Ambient позволяет участвовать с потребительскими GPU. Майнер с одной картой RTX 4090 (24 ГБ VRAM, ~1600 долларов США) может внести свой вклад в обучение моделей с 600 миллиардами параметров, владея шардом. Это демократизирует доступ — нет необходимости в дата-центрах стоимостью в миллионы долларов.

Эта модель решает критическую проблему децентрализованного ИИ: проблему «бесбилетника». В традиционных сетях PoS валидаторы стейкают капитал, но не вносят вычислительный вклад. В Ambient майнеры выполняют реальную работу по ИИ, гарантируя, что полезность сети растет пропорционально ее бюджету безопасности.

Сектор ИИ-агентов объемом $ 27 миллиардов: почему 2026 год станет точкой перелома

Тайминг Ambient совпадает с более широкими рыночными тенденциями. Сектор крипто-агентов ИИ оценивается в $ 27 миллиардов, чему способствуют автономные программы, управляющие ончейн-активами, совершающие сделки и координирующие действия между протоколами.

Но сегодняшние агенты сталкиваются с проблемой доверия: большинство из них полагаются на централизованные API ИИ (OpenAI, Anthropic, Google). Если агент, управляющий позициями в DeFi на сумму $ 10 миллионов, использует GPT-4 для принятия решений, у пользователей нет гарантии, что модель не была подделана, подвергнута цензуре или предвзята. Отсутствует аудиторский след, доказывающий, что агент действовал автономно.

Ambient решает эту проблему с помощью ончейн-верификации. Каждый вывод (inference) ИИ записывается в блокчейне, а логиты подтверждают конкретную модель и использованные входные данные. Приложения могут:

Аудировать решения агентов: ДАО сможет убедиться, что ее агент по управлению казначейством использовал конкретную, одобренную сообществом модель, а не тайно модифицированную версию.

Обеспечивать соблюдение нормативных требований: Регулируемые протоколы DeFi могут потребовать от агентов использования моделей с проверенными защитными барьерами, подтверждаемыми ончейн.

Создавать маркетплейсы ИИ: Разработчики смогут продавать дообученные модели как NFT, а Ambient обеспечит криптографическое доказательство обучающих данных и весов.

Это позиционирует Ambient как инфраструктуру для следующей волны автономных агентов. Поскольку 2026 год становится переломным моментом, когда «ИИ, блокчейны и платежи сливаются в единый, самокоординирующийся интернет», верифицируемый слой ИИ Ambient становится критически важным техническим фундаментом.

Технические риски и открытые вопросы

Видение Ambient амбициозно, но несколько технических проблем остаются нерешенными:

Детерминизм и дрейф чисел с плавающей запятой: Модели ИИ используют арифметику с плавающей запятой, которая не является абсолютно детерминированной на разном оборудовании. Модель, работающая на NVIDIA A100, может выдавать немного иные логиты, чем та же модель на AMD MI250. Если валидаторы будут отклонять блоки из-за незначительного численного дрейфа, сеть станет нестабильной. Ambient потребуются жесткие границы допусков — но если они будут слишком узкими, майнеры на разном оборудовании будут наказываться несправедливо.

Обновления моделей и версионность: Если Ambient коллективно обучает глобальную модель, как она справляется с обновлениями? В Bitcoin все узлы используют идентичные правила консенсуса. В Ambient майнеры постоянно дообучают модели. Если половина сети обновится до версии 2.0, а другая останется на 1.9, верификация нарушится. В whitepaper не описано подробно, как работают версионность моделей и обратная совместимость.

Разнообразие промптов и стандартизация работы: PoW в Bitcoin единообразен — каждый майнер решает один и тот же тип головоломки. PoW в Ambient варьируется — одни майнеры отвечают на математические вопросы, другие пишут код, третьи резюмируют документы. Как валидаторы сравнивают «ценность» разных задач? Если один майнер генерирует 10 000 токенов бессмыслицы (легко), а другой дообучает модель на сложном наборе данных (дорого), кто получит большее вознаграждение? Ambient нужен алгоритм настройки сложности для работы ИИ, аналогичный сложности хеширования в Bitcoin, но измерение «сложности инференса» — задача нетривиальная.

Задержка при распределенном обучении: Шардинг в стиле PETALS хорошо работает для инференса (последовательная обработка слоев), но обучение требует обратного распространения ошибки — градиенты текут назад по сети. Если слои распределены по узлам с разной сетевой задержкой, обновления градиентов становятся узким местом. Ambient заявляет о 10-кратном улучшении пропускной способности, но реальная производительность зависит от топологии сети и распределения майнеров.

Риски централизации при хостинге моделей: Если только несколько узлов могут позволить себе хостинг наиболее ценных шардов моделей (например, финальных слоев модели с 600 млрд параметров), они получают непропорциональное влияние. Валидаторы могут предпочтительно направлять работу узлам с хорошим соединением, воссоздавая централизацию дата-центров в якобы децентрализованной сети.

Это не фатальные недостатки, а инженерные вызовы, с которыми сталкивается любой проект на стыке блокчейна и ИИ. Но запуск тестнета Ambient во втором или третьем квартале 2025 года покажет, выдержит ли теория проверку реальными условиями.

Что дальше: Тестнет, мейннет и эндшпиль в виде AGI

Дорожная карта Ambient нацелена на запуск тестнета во втором или третьем квартале 2025 года, а мейннет последует в 2026 году. Посевной раунд в размере $ 7,2 миллиона от a16z CSX, Delphi Digital и Amber Group обеспечивает ресурсы для основной разработки, но долгосрочный успех проекта зависит от принятия экосистемой.

Ключевые этапы, за которыми стоит следить:

Участие в майнинге в тестнете: Сколько майнеров присоединится к сети? Если Ambient привлечет тысячи владельцев GPU (как в раннем майнинге Ethereum), это докажет жизнеспособность экономической модели. Если майнить будут лишь несколько организаций, это просигнализирует о рисках централизации.

Бенчмарки производительности моделей: Смогут ли модели, обученные в Ambient, конкурировать с OpenAI или Anthropic? Если децентрализованная модель с 600 млрд параметров достигнет качества уровня GPT-4, это подтвердит правильность всего подхода. Если производительность будет значительно отставать, разработчики останутся на централизованных API.

Интеграция приложений: Какие DeFi-протоколы, ДАО или ИИ-агенты будут строиться на Ambient? Ценностное предложение материализуется только в том случае, если реальные приложения будут потреблять ончейн-инференс ИИ. Ранние варианты использования могут включать:

  • Автономные торговые агенты с доказуемой логикой принятия решений
  • Децентрализованная модерация контента (модели ИИ, фильтрующие посты, с возможностью аудита ончейн)
  • Верифицируемые ИИ-оракулы (ончейн-прогнозы цен или анализ настроений)

Совместимость с Ethereum и Cosmos: Ambient — это форк Solana, но экономика ИИ-агентов охватывает несколько сетей. Мосты к Ethereum (для DeFi) и Cosmos (для IBC-совместимых цепочек ИИ, таких как ASI) определят, станет ли Ambient изолированной системой или хабом.

Конечная цель амбициозна: обучение децентрализованного AGI, где ни одна организация не контролирует модель. Если тысячи независимых майнеров совместно обучат сверхинтеллектуальную систему с криптографическим доказательством каждого шага обучения, это станет первым по-настоящему открытым и проверяемым путем к AGI.

Достигнет ли Ambient этого или станет еще одним многообещающим, но нереализованным криптопроектом, зависит от исполнения. Но основная инновация — замена произвольных криптографических головоломок верифицируемой работой ИИ — является подлинным прорывом. Если доказательство работы может быть продуктивным, а не расточительным, Ambient докажет это первым.

Смена парадигмы: Proof-of-Logits

Привлечение компанией Ambient 7,2 млн долларов — это не просто очередной раунд криптофинансирования. Это ставка на то, что консенсус блокчейна и обучение ИИ могут слиться в единую, экономически согласованную систему. Последствия этого выходят далеко за пределы Ambient:

Если верификация на основе логитов (Proof-of-Logits) сработает, другие сети ее переймут. Ethereum может внедрить PoL в качестве альтернативы PoS, вознаграждая валидаторов, которые вносят вклад в работу ИИ вместо простого стейкинга ETH. Bitcoin может провести форк для использования полезных вычислений вместо хешей SHA-256 (хотя биткоин-максималисты никогда на это не согласятся).

Если децентрализованное обучение достигнет конкурентоспособной производительности, OpenAI и Google потеряют свои монопольные преимущества. Мир, где любой обладатель GPU может внести вклад в разработку сильного ИИ (AGI), зарабатывая токены за свою работу, фундаментально разрушает централизованную олигополию ИИ.

Если ончейн-верификация ИИ станет стандартом, автономные агенты обретут доверие. Вместо того чтобы полагаться на API-интерфейсы типа «черный ящик», пользователи смогут проверять конкретные модели и промпты прямо в блокчейне. Это откроет возможности для регулируемого DeFi, алгоритмического управления и юридических контрактов на базе ИИ.

Победа Ambient не гарантирована. Но это самая технически обоснованная на сегодняшний день попытка сделать Proof-of-Work продуктивным, децентрализовать обучение ИИ и привести безопасность блокчейна в соответствие с прогрессом цивилизации. Запуск тестнета покажет, совпадет ли теория с реальностью — или же Proof-of-Logits пополнит кладбище амбициозных экспериментов в области консенсуса.

В любом случае, гонка за создание ончейн-AGI теперь неоспоримо реальна. И Ambient только что выставила 7,2 млн долларов на стартовую линию.


Источники:

Gensyn's Judge: как побитово-точная воспроизводимость кладет конец эре непрозрачных API для ИИ

· 19 мин чтения
Dora Noda
Software Engineer

Каждый раз, когда вы обращаетесь к ChatGPT, Claude или Gemini, вы доверяете невидимому черному ящику. Версия модели? Неизвестна. Точные веса? Проприетарны. Был ли результат сгенерирован той моделью, о которой вы думаете, или незаметно обновленным вариантом? Проверить невозможно. Для обычных пользователей, спрашивающих о рецептах или фактах, эта непрозрачность просто досадна. Для высокорискового принятия решений с помощью ИИ — алгоритмов финансовой торговли, медицинской диагностики, анализа юридических контрактов — это фундаментальный кризис доверия.

Gensyn's Judge, запущенный в конце 2025 года и выходящий в промышленную эксплуатацию в 2026 году, предлагает радикальную альтернативу: криптографически проверяемую оценку ИИ, где каждый инференс воспроизводим с точностью до бита. Вместо того чтобы доверять OpenAI или Anthropic в предоставлении верной модели, Judge позволяет любому проверить, что конкретная, заранее согласованная модель ИИ была выполнена детерминированно на реальных входных данных — с использованием криптографических доказательств, гарантирующих, что результаты не могут быть подделаны.

Техническим прорывом стала Verde, система верификации Gensyn, которая устраняет недетерминированность вычислений с плавающей точкой — бич воспроизводимости ИИ. Обеспечивая побитово-точные вычисления на разных устройствах, Verde гарантирует, что запуск одной и той же модели на NVIDIA A100 в Лондоне и на AMD MI250 в Токио даст идентичные результаты, доказуемые ончейн. Это открывает возможности для проверяемого ИИ в децентрализованных финансах, автономных агентах и любых приложениях, где прозрачность не является опцией — это вопрос выживания.

Проблема непрозрачных API: доверие без проверки

Индустрия ИИ работает на API. Разработчики интегрируют GPT-4 от OpenAI, Claude от Anthropic или Gemini от Google через REST-эндпоинты, отправляя промпты и получая ответы. Но эти API фундаментально непрозрачны:

Неопределенность версии: когда вы вызываете gpt-4, какую именно версию вы получаете? GPT-4-0314? GPT-4-0613? Незаметно обновленный вариант? Провайдеры часто выпускают патчи без публичных анонсов, меняя поведение модели в одночасье.

Отсутствие аудиторского следа: ответы API не содержат криптографического доказательства того, какая модель их сгенерировала. Если OpenAI предоставляет цензурированный или предвзятый вариант для определенных регионов или клиентов, у пользователей нет способа это обнаружить.

Скрытая деградация: провайдеры могут «лоботомизировать» модели для снижения затрат — ухудшая качество инференса при сохранении того же контракта API. Пользователи сообщают, что GPT-4 со временем становится «глупее», но без прозрачного версионирования такие утверждения остаются лишь предположениями.

Недетерминированные выходные данные: даже два запроса к одной и той же модели с идентичными входными данными могут дать разные результаты из-за настроек температуры, батчинга или аппаратных ошибок округления чисел с плавающей точкой. Это делает аудит невозможным — как проверить корректность, если результаты невоспроизводимы?

Для повседневных приложений эти проблемы — лишь неудобства. Для принятия высокорисковых решений они являются блокирующими факторами. Рассмотрим примеры:

Алгоритмическая торговля: хедж-фонд развертывает ИИ-агента, управляющего позициями в DeFi на сумму 50 миллионов долларов. Агент полагается на GPT-4 для анализа рыночных настроений на основе постов в X. Если модель незаметно обновится в середине торговой сессии, показатели настроений изменятся непредсказуемо, что приведет к непреднамеренным ликвидациям. У фонда нет доказательств некорректного поведения модели; логи OpenAI не подлежат публичному аудиту.

Медицинская диагностика: больница использует модель ИИ для назначения лечения рака. Регламенты требуют, чтобы врачи документировали процессы принятия решений. Но если версию модели ИИ невозможно проверить, аудиторский след будет неполным. Иск о врачебной ошибке может зависеть от доказательства того, какая именно модель сгенерировала рекомендацию — что невозможно в случае с непрозрачными API.

Управление DAO: децентрализованная организация использует ИИ-агента для голосования по предложениям казначейства. Члены сообщества требуют доказательств того, что агент использовал утвержденную модель, а не модифицированный вариант, способствующий определенным результатам. Без криптографической проверки голосование не обладает легитимностью.

Это тот самый разрыв доверия, на который нацелен Gensyn: поскольку ИИ становится неотъемлемой частью процесса принятия критически важных решений, невозможность проверить подлинность и поведение модели становится «фундаментальным препятствием для развертывания агентного ИИ в средах с высокими рисками».

Judge: протокол верифицируемой оценки ИИ

Judge решает проблему непрозрачности путем выполнения заранее согласованных детерминированных моделей ИИ на реальных входных данных и фиксации результатов в блокчейне, где любой может их оспорить. Вот как работает протокол:

1. Фиксация модели: участники согласовывают модель ИИ — её архитектуру, веса и конфигурацию инференса. Эта модель хешируется и фиксируется ончейн. Хеш служит криптографическим отпечатком: любое отклонение от согласованной модели дает другой хеш.

2. Детерминированное выполнение: Judge запускает модель, используя Gensyn's Reproducible Runtime, который гарантирует побитово-точную воспроизводимость на разных устройствах. Это устраняет недетерминированность вычислений с плавающей точкой — критически важную инновацию, которую мы рассмотрим чуть позже.

3. Публичная фиксация: после инференса Judge публикует результат (или его хеш) ончейн. Это создает постоянную, подлежащую аудиту запись того, что модель выдала для конкретных входных данных.

4. Период оспаривания: любой может оспорить результат, повторно выполнив модель независимо. Если результат отличается, подается доказательство мошенничества (fraud proof). Механизм делегирования с арбитражем (refereed delegation mechanism) системы Verde точно определяет оператора в вычислительном графе, на котором разошлись результаты.

5. Слэшинг за мошенничество: если оспаривающий докажет, что Judge выдал неверные результаты, первоначальный исполнитель штрафуется (слэшинг застейканных токенов). Это выстраивает экономические стимулы: исполнители максимизируют прибыль, выполняя модели корректно.

Judge превращает оценку ИИ из принципа «доверьтесь поставщику API» в принцип «проверьте криптографическое доказательство». Поведение модели становится публичным, проверяемым и обязательным к исполнению — оно больше не скрыто за проприетарными эндпоинтами.

Verde: Устранение недетерминизма вычислений с плавающей точкой

Основная техническая проблема верифицируемого ИИ — это детерминизм. Нейронные сети выполняют миллиарды операций с плавающей точкой во время инференса. На современных GPU эти операции не являются идеально воспроизводимыми:

Неассоциативность: Сложение с плавающей точкой не является ассоциативным. (a + b) + c может дать результат, отличный от a + (b + c), из-за ошибок округления. GPU параллельно суммируют данные на тысячах ядер, и порядок накопления промежуточных сумм варьируется в зависимости от оборудования и версии драйвера.

Вариативность планирования ядер: Ядра GPU (например, для матричного умножения или механизма внимания) могут выполняться в разном порядке в зависимости от рабочей нагрузки, оптимизаций драйвера или архитектуры оборудования. Даже запуск одной и той же модели на одном и том же GPU дважды может дать разные результаты, если планирование ядер отличается.

Зависимость от размера пакета (batch size): Исследования показали, что инференс LLM является недетерминированным на системном уровне, поскольку результат зависит от размера пакета. Многие ядра (matmul, RMSNorm, attention) меняют числовой результат в зависимости от того, сколько образцов обрабатывается одновременно — инференс с размером пакета 1 дает иные значения, чем те же входные данные в пакете из 8.

Эти проблемы делают стандартные модели ИИ непригодными для проверки в блокчейне. Если два валидатора повторно запустят один и тот же инференс и получат немного разные результаты, кто из них прав? Без детерминизма консенсус невозможен.

Verde решает эту проблему с помощью RepOps (Reproducible Operators) — библиотеки, которая устраняет аппаратный недетерминизм путем контроля порядка операций с плавающей точкой на всех устройствах. Вот как это работает:

Канонический порядок редукции: RepOps обеспечивает детерминированный порядок суммирования частичных результатов в таких операциях, как матричное умножение. Вместо того чтобы позволять планировщику GPU принимать решение, RepOps явно указывает: «суммировать столбец 0, затем столбец 1, затем столбец 2...» на любом оборудовании. Это гарантирует, что (a + b) + c всегда вычисляется в одной и той же последовательности.

Кастомные ядра CUDA: Gensyn разработала оптимизированные ядра, в которых воспроизводимость приоритетнее чистой скорости. Матричные умножения RepOps требуют менее 30% накладных расходов по сравнению со стандартным cuBLAS — разумный компромисс ради детерминизма.

Фиксация версий драйверов: Verde использует GPU-драйверы с фиксированными версиями и канонические конфигурации, гарантируя, что одна и та же модель, исполняемая на разном оборудовании, выдает идентичные побитовые результаты. Модель, работающая на NVIDIA A100 в одном дата-центре, побитово совпадает с результатом AMD MI250 в другом.

Это прорыв, который делает возможной проверку в системе Judge: побитовая воспроизводимость означает, что валидаторы могут независимо подтверждать результаты, не доверяя исполнителям. Если хеш совпадает, инференс верен — это математически доказуемо.

Арбитражное делегирование: эффективная проверка без полного пересчета

Даже при детерминированном исполнении наивная проверка инференса ИИ обходится дорого. Модели с 70 миллиардами параметров, генерирующей 1 000 токенов, может потребоваться 10 GPU-часов. Если валидаторы должны заново запускать каждый инференс для проверки правильности, стоимость проверки будет равна стоимости исполнения, что лишает децентрализацию смысла.

Механизм арбитражного делегирования Verde делает проверку экспоненциально дешевле:

Несколько недоверенных исполнителей: Вместо одного исполнителя Judge назначает задачи нескольким независимым провайдерам. Каждый запускает один и тот же инференс и отправляет результаты.

Расхождения инициируют расследование: Если все исполнители согласны, результат принимается — дальнейшая проверка не требуется. Если результаты расходятся, Verde инициирует состязательную игру (challenge game).

Бинарный поиск по графу вычислений: Verde не пересчитывает весь инференс. Вместо этого выполняется бинарный поиск по вычислительному графу модели, чтобы найти первый оператор, где результаты расходятся. Это позволяет точно определить конкретный слой (например, «слой внимания 47, голова 8»), вызвавший расхождение.

Минимальные вычисления арбитра: Арбитр (которым может быть смарт-контракт или валидатор с ограниченными вычислительными ресурсами) проверяет только спорный оператор, а не весь прямой проход. Для модели с 70 млрд параметров и 80 слоями это сокращает проверку до анализа примерно 7 слоев (log₂ 80) в худшем случае.

Этот подход более чем на 1 350% эффективнее, чем наивная репликация (где каждый валидатор пересчитывает всё). Gensyn объединяет криптографические доказательства, теорию игр и оптимизированные процессы, чтобы гарантировать правильное исполнение без избыточных вычислений.

Результат: Judge может верифицировать рабочие нагрузки ИИ в масштабе, создавая децентрализованные сети инференса, где тысячи недоверенных узлов предоставляют вычислительные мощности, а нечестные исполнители выявляются и штрафуются.

Принятие решений в ИИ с высокими ставками: почему важна прозрачность

Целевой рынок Judge — это не простые чат-боты, а приложения, где верифицируемость является не просто приятным дополнением, а нормативным или экономическим требованием. Вот сценарии, в которых непрозрачные API терпят катастрофический крах:

Децентрализованные финансы (DeFi): Автономные торговые агенты управляют активами на миллиарды долларов. Если агент использует модель ИИ для принятия решения о ребалансировке портфеля, пользователям нужны доказательства того, что модель не была подделана. Judge обеспечивает ончейн-проверку: агент фиксирует хеш конкретной модели, совершает сделки на основе её результатов, и любой может оспорить логику принятия решений. Такая прозрачность предотвращает рагпуллы (rug pulls), когда злоумышленники заявляют: «ИИ приказал мне ликвидировать средства», не имея доказательств.

Соблюдение нормативных требований: Финансовые институты, использующие ИИ для кредитного скоринга, обнаружения мошенничества или борьбы с отмыванием денег (AML), проходят аудит. Регуляторы требуют объяснений: «Почему модель отметила эту транзакцию?». Непрозрачные API не оставляют аудиторского следа. Judge создает неизменяемую запись версии модели, входных и выходных данных, удовлетворяя требования комплаенса.

Алгоритмическое управление: Децентрализованные автономные организации (DAO) используют агентов ИИ для предложения или голосования по решениям управления. Члены сообщества должны убедиться, что агент использовал утвержденную модель, а не взломанный вариант. С помощью Judge DAO кодирует хеш модели в своем смарт-контракте, и каждое решение включает криптографическое доказательство правильности.

Медицинский и юридический ИИ: Системы здравоохранения и права требуют подотчетности. Врачу, диагностирующему рак с помощью ИИ, необходимо задокументировать точную версию используемой модели. Юристу, составляющему контракты с ИИ, нужно доказать, что результат получен от проверенной, непредвзятой модели. Ончейн-аудит Judge предоставляет такие доказательства.

Рынки предсказаний и оракулы: Проекты вроде Polymarket используют ИИ для разрешения исходов пари (например, «Произойдет ли это событие?»). Если решение зависит от модели ИИ, анализирующей новостные статьи, участникам нужны доказательства того, что моделью не манипулировали. Judge верифицирует инференс ИИ-оракула, предотвращая споры.

В каждом из этих случаев общая нить такова: доверия без прозрачности недостаточно. Как отмечает VeritasChain, системам ИИ нужны «криптографические бортовые самописцы» — неизменяемые логи, доказывающие произошедшее в случае возникновения споров.

Альтернатива на основе доказательств с нулевым разглашением: сравнение Verde и ZKML

Judge — не единственный подход к верифицируемому ИИ. Машинное обучение с нулевым разглашением (ZKML) достигает аналогичных целей с помощью zk-SNARKs: криптографических доказательств того, что вычисление было выполнено правильно, без раскрытия входных данных или весов модели.

Как Verde соотносится с ZKML?

Стоимость верификации: ZKML требует примерно в 1 000 раз больше вычислений, чем исходный инференс, для генерации доказательств (оценки исследователей). Модели с 70 миллиардами параметров, требующей 10 GPU-часов для инференса, может потребоваться 10 000 GPU-часов для создания доказательства. Арбитражное делегирование Verde логарифмично: проверка примерно 7 слоев вместо 80 дает 10-кратное сокращение, а не 1 000-кратное увеличение.

Сложность прувера: ZKML требует специализированного оборудования (например, кастомных ASIC для схем zk-SNARK) для эффективной генерации доказательств. Verde работает на стандартных GPU — участвовать может любой майнер с игровым ПК.

Компромиссы в конфиденциальности: Сильной стороной ZKML является приватность — доказательства ничего не раскрывают о входных данных или весах модели. Детерминированное выполнение Verde прозрачно: входные и выходные данные являются публичными (хотя веса могут быть зашифрованы). Для принятия важных решений прозрачность часто желательна. DAO, голосующее за распределение средств казначейства, хочет иметь публичные аудиторские следы, а не скрытые доказательства.

Масштаб доказательства: ZKML практически ограничен инференсом — доказательство обучения неосуществимо при текущих вычислительных затратах. Verde поддерживает верификацию как инференса, так и обучения (более широкий протокол Gensyn верифицирует распределенное обучение).

Реальное внедрение: Проекты ZKML, такие как Modulus Labs, добились прорывов (верификация моделей с 18 млн параметров ончейн), но остаются ограниченными небольшими моделями. Детерминированная среда выполнения Verde обрабатывает модели с более чем 70 млрд параметров в промышленной эксплуатации.

ZKML превосходит в тех случаях, когда конфиденциальность имеет первостепенное значение — например, при верификации биометрической аутентификации (Worldcoin) без раскрытия сканов радужной оболочки глаза. Verde лучше подходит там, где целью является прозрачность — доказательство того, что конкретная публичная модель была выполнена правильно. Оба подхода дополняют друг друга, а не конкурируют.

Экосистема Gensyn: от Judge до децентрализованного обучения

Judge является одним из компонентов более широкого видения Gensyn: децентрализованной сети для вычислений машинного обучения. Протокол включает в себя:

Уровень исполнения: Согласованное выполнение ML на гетерогенном оборудовании (потребительские GPU, корпоративные кластеры, граничные устройства). Gensyn стандартизирует рабочие нагрузки инференса и обучения, обеспечивая совместимость.

Уровень верификации (Verde): Проверка без доверия (trustless) с использованием арбитражного делегирования. Нечестные исполнители обнаруживаются и штрафуются.

Peer-to-peer коммуникация: Распределение рабочей нагрузки между устройствами без централизованной координации. Майнеры получают задачи, выполняют их и отправляют доказательства напрямую в блокчейн.

Децентрализованная координация: Смарт-контракты на роллапе Ethereum идентифицируют участников, распределяют задачи и обрабатывают платежи без необходимости получения разрешений (permissionless).

Публичный тестнет Gensyn был запущен в марте 2025 года, а запуск мейннета запланирован на 2026 год. Публичная продажа токенов $AI состоялась в декабре 2025 года, установив экономические стимулы для майнеров и валидаторов.

Judge вписывается в эту экосистему как уровень оценки: в то время как основной протокол Gensyn отвечает за обучение и инференс, Judge гарантирует верифицируемость этих результатов. Это создает «маховик»:

Разработчики обучают модели в децентрализованной сети Gensyn (что дешевле, чем AWS, благодаря использованию недоиспользуемых потребительских GPU).

Модели развертываются с использованием Judge, гарантирующим целостность оценки. Приложения потребляют инференс через API Gensyn, но, в отличие от OpenAI, каждый результат включает криптографическое доказательство.

Валидаторы зарабатывают вознаграждения, проверяя доказательства и выявляя мошенничество, что согласовывает экономические стимулы с безопасностью сети.

Доверие масштабируется по мере того, как все больше приложений внедряют верифицируемый ИИ, снижая зависимость от централизованных провайдеров.

Конечная цель: обучение и инференс ИИ, которые являются доказуемо правильными, децентрализованными и доступными для всех, а не только для крупных технологических компаний.

Проблемы и открытые вопросы

Подход Judge является революционным, но остается ряд проблем:

Накладные расходы на производительность: Замедление RepOps на 30 % приемлемо для верификации, но если каждый инференс должен выполняться детерминированно, приложения, чувствительные к задержкам (высокочастотная торговля, автономные транспортные средства), могут предпочесть более быстрые, неверифицируемые альтернативы. Дорожная карта Gensyn, вероятно, включает дальнейшую оптимизацию RepOps, но существует фундаментальный компромисс между скоростью и детерминизмом.

Фрагментация версий драйверов: Verde предполагает использование драйверов фиксированных версий, но производители GPU постоянно выпускают обновления. Если одни майнеры используют CUDA 12.4, а другие — 12.5, побитовая воспроизводимость нарушается. Gensyn должна обеспечить строгое управление версиями, что усложняет процесс подключения майнеров.

Секретность весов модели: Прозрачность Judge является преимуществом для публичных моделей, но недостатком для проприетарных. Если хедж-фонд обучает ценную торговую модель, ее развертывание на Judge раскрывает веса конкурентам (через ончейн-обязательство). Альтернативы на базе ZKML могут быть предпочтительнее для секретных моделей, что говорит о том, что Judge ориентирован на открытые или полуоткрытые приложения ИИ.

Задержка разрешения споров: Если челленджер заявляет о мошенничестве, разрешение спора с помощью бинарного поиска требует нескольких ончейн-транзакций (каждый раунд сужает область поиска). Высокочастотные приложения не могут ждать финализации часами. Gensyn может внедрить оптимистичную верификацию (предположение о правильности, если нет оспаривания в течение определенного окна), чтобы сократить задержки.

Устойчивость к атаке Сивиллы при арбитражном делегировании: Если несколько исполнителей должны прийти к согласию, что мешает одной организации контролировать всех исполнителей через подставные личности? Gensyn, вероятно, использует выбор на основе стейка (валидаторы с высокой репутацией выбираются предпочтительно) в сочетании со слэшингом для предотвращения сговора, но экономические пороги должны быть тщательно откалиброваны.

Это не непреодолимые препятствия, а инженерные задачи. Основная инновация (детерминированный ИИ + криптографическая верификация) надежна. Детали реализации будут совершенствоваться по мере перехода от тестнета к мейннету.

Путь к верифицируемому ИИ: пути внедрения и соответствие рынку

Успех Judge зависит от принятия. Какие приложения первыми внедрят верифицируемый ИИ?

DeFi-протоколы с автономными агентами: DAO Aave, Compound или Uniswap могли бы интегрировать агентов, верифицированных с помощью Judge, для управления казначейством. Сообщество голосует за утверждение хэша модели, и все решения агентов включают доказательства. Такая прозрачность укрепляет доверие, что критически важно для легитимности DeFi.

Рынки предсказаний и оракулы: Платформы вроде Polymarket или Chainlink могли бы использовать Judge для разрешения ставок или предоставления ценовых фидов. Модели ИИ, анализирующие настроения, новости или ончейн-активность, будут выдавать верифицируемые результаты, что исключит споры о манипулировании оракулами.

Децентрализованная идентификация и KYC: Проекты, требующие верификации личности на базе ИИ (оценка возраста по селфи, проверка подлинности документов), получают выгоду от аудиторского следа Judge. Регуляторы принимают криптографические доказательства соответствия, не доверяя централизованным провайдерам идентификации.

Модерация контента для социальных сетей: Децентрализованные социальные сети (Farcaster, Lens Protocol) могли бы развернуть модераторов на базе ИИ, верифицированных Judge. Члены сообщества смогут убедиться, что модель модерации не является предвзятой или подверженной цензуре, что гарантирует нейтральность платформы.

Платформы AI-as-a-Service (ИИ как услуга): Разработчики, создающие ИИ-приложения, могут предлагать «верифицируемый инференс» как премиальную функцию. Пользователи будут доплачивать за доказательства, что позволит отличать такие сервисы от непрозрачных альтернатив.

Общая черта: приложения, в которых доверие обходится дорого (из-за регулирования, децентрализации или высоких ставок), а стоимость верификации приемлема (по сравнению с ценностью определенности).

Judge не заменит OpenAI для потребительских чат-ботов — пользователям не важно, верифицируем ли GPT-4, когда они ищут идеи для рецептов. Но для финансовых алгоритмов, медицинских инструментов и систем управления верифицируемый ИИ — это будущее.

Верифицируемость как новый стандарт

Judge от Gensyn представляет собой смену парадигмы: оценка ИИ переходит от принципа «доверяй провайдеру» к принципу «проверяй доказательство». Технический фундамент — побитово точная воспроизводимость через Verde, эффективная проверка через реферируемое делегирование и ончейн-журналы аудита — делает этот переход практическим, а не просто амбициозным.

Последствия выходят далеко за пределы Gensyn. Если верифицируемый ИИ станет стандартом, централизованные провайдеры потеряют свои конкурентные преимущества. Ценностное предложение OpenAI — это не только возможности GPT-4, но и удобство отсутствия необходимости управлять инфраструктурой. Но если Gensyn докажет, что децентрализованный ИИ может сравниться с централизованным по производительности, обладая при этом дополнительной верифицируемостью, у разработчиков не будет причин привязываться к проприетарным API.

Гонка началась. ZKML-проекты (Modulus Labs, биометрическая система Worldcoin) делают ставку на доказательства с нулевым разглашением. Детерминированные среды выполнения (Verde от Gensyn, EigenAI) ставят на воспроизводимость. Оптимистичные подходы (блокчейн ИИ-оракулы) полагаются на доказательства мошенничества (fraud proofs). У каждого пути есть свои компромиссы, но цель одна: системы ИИ, в которых результаты доказуемы, а не просто правдоподобны.

Для принятия решений с высокими ставками это не опция, а необходимость. Регуляторы не примут аргумент «просто поверьте нам» от поставщиков ИИ в финансах, здравоохранении или юриспруденции. DAO не будут делегировать управление казначейством агентам, работающим по принципу «черного ящика». И по мере того как автономные системы ИИ становятся мощнее, общественность будет требовать прозрачности.

Judge — это первая готовая к эксплуатации система, выполняющая это обещание. Тестнет запущен. Криптографические основы надежны. Рынок — с 27 млрд $ в крипто-активах ИИ-агентов, миллиардами активов в DeFi под управлением алгоритмов и растущим регуляторным давлением — готов.

Эра непрозрачных ИИ-API заканчивается. Начинается эпоха верифицируемого интеллекта. И Judge от Gensyn указывает путь.


Источники:

Запуск Blacklight от Nillion: Как ERC-8004 создает уровень доверия для автономных ИИ-агентов

· 12 мин чтения
Dora Noda
Software Engineer

2 февраля 2026 года экономика ИИ-агентов сделала важный шаг вперед. Компания Nillion запустила Blacklight — уровень верификации, реализующий стандарт ERC-8004, чтобы решить один из самых насущных вопросов блокчейна: как доверять ИИ-агенту, которого вы никогда не встречали?

Ответом является не просто показатель репутации или централизованный реестр. Это пятиэтапный процесс верификации, подкрепленный криптографическими доказательствами, программируемым аудитом и сетью узлов, управляемых сообществом. Поскольку автономные агенты все чаще совершают сделки, управляют казначействами и координируют кроссчейн-активность, Blacklight представляет собой инфраструктуру, обеспечивающую координацию ИИ без доверия (trustless) в масштабе.

Проблема доверия, которую ИИ-агенты не могут решить в одиночку

Цифры говорят сами за себя. На долю ИИ-агентов сейчас приходится 30% объема торгов на Polymarket, они управляют стратегиями доходности DeFi в нескольких протоколах и автономно выполняют сложные рабочие процессы. Но существует фундаментальное препятствие: как агенты могут проверять надежность друг друга без предварительно установленных отношений?

Традиционные системы полагаются на централизованные органы, выдающие учетные данные. Обещание Web3 иное — верификация без доверия с помощью криптографии и консенсуса. Тем не менее, до появления ERC-8004 не существовало стандартизированного способа для агентов доказывать свою подлинность, отслеживать свое поведение или подтверждать логику принятия решений в блокчейне (on-chain).

Это не просто теоретическая проблема. Как объясняет Давиде Крапис, «ERC-8004 обеспечивает децентрализованное взаимодействие ИИ-агентов, устанавливает коммерцию без доверия и улучшает системы репутации на Ethereum». Без этого торговля между агентами остается ограниченной закрытыми экосистемами или требует ручного контроля, что сводит на нет саму суть автономии.

ERC-8004: Инфраструктура доверия из трех реестров

Стандарт ERC-8004, который был запущен в основной сети Ethereum 29 января 2026 года, устанавливает модульный уровень доверия через три ончейн-реестра:

Identity Registry (Реестр идентификации): Использует ERC-721 для предоставления переносимых идентификаторов агентов. Каждый агент получает невзаимозаменяемый токен (NFT), представляющий его уникальную личность в сети, что обеспечивает узнаваемость на разных платформах и предотвращает подмену личности.

Reputation Registry (Реестр репутации): Собирает стандартизированные отзывы и рейтинги. В отличие от централизованных систем отзывов, фидбек записывается в блокчейне с криптографическими подписями, создавая неизменяемый аудиторский след. Любой желающий может просмотреть эту историю и создать собственные алгоритмы репутации.

Validation Registry (Реестр валидации): Поддерживает криптографическую и экономическую проверку работы агента. Именно здесь происходит программируемый аудит — валидаторы могут повторно выполнять вычисления, проверять доказательства с нулевым разглашением или использовать доверенные среды исполнения (TEE) для подтверждения правильности действий агента.

Гениальность ERC-8004 заключается в его универсальном дизайне. Как отмечается в технической спецификации, стандарт поддерживает различные методы валидации: «повторное выполнение задач с обеспечением залогом (вдохновленное такими системами, как EigenLayer), проверка доказательств машинного обучения с нулевым разглашением (zkML) и аттестации из доверенных сред исполнения (TEE)».

Эта гибкость имеет значение. Арбитражный агент DeFi может использовать доказательства zkML для проверки своей торговой логики, не раскрывая стратегию. Агент цепочки поставок может использовать аттестации TEE, чтобы доказать, что он правильно получил доступ к реальным данным. Агент кроссчейн-моста может полагаться на криптоэкономическую валидацию со слэшингом (slashing) для обеспечения честного исполнения.

Пятиэтапный процесс верификации Blacklight

Реализация ERC-8004 от Nillion в Blacklight добавляет важный уровень: узлы верификации, управляемые сообществом. Вот как работает этот процесс:

1. Регистрация агента: Агент регистрирует свою личность в Identity Registry, получая NFT стандарта ERC-721. Это создает уникальный ончейн-идентификатор, привязанный к публичному ключу агента.

2. Инициация запроса на верификацию: Когда агент совершает действие, требующее подтверждения (например, выполнение сделки, перевод средств или обновление состояния), он отправляет запрос на верификацию в Blacklight.

3. Назначение комитета: Протокол Blacklight случайным образом назначает комитет узлов верификации для аудита запроса. Эти узлы управляются членами сообщества, которые вносят в стейкинг 70 000 токенов NIL, что согласовывает их интересы с целостностью сети.

4. Проверки узлов: Члены комитета повторно выполняют вычисления или проверяют криптографические доказательства. Если валидаторы обнаруживают некорректное поведение, они могут применить слэшинг к стейку агента (в системах с криптоэкономической валидацией) или пометить идентификатор в Reputation Registry.

5. Ончейн-отчетность: Результаты публикуются в блокчейне. Validation Registry фиксирует, была ли подтверждена работа агента, создавая постоянное доказательство исполнения. Реестр репутации обновляется соответствующим образом.

Этот процесс происходит асинхронно и без блокировок, что означает, что агенты не ждут завершения верификации для выполнения рутинных задач, но операции с высокими ставками (крупные переводы, кроссчейн-операции) могут требовать предварительной валидации.

Программируемый аудит: за пределами бинарного доверия

Самая амбициозная функция Blacklight — это «программируемая верификация», возможность проверять то, как агент принимает решения, а не только то, что он делает.

Рассмотрим DeFi-агента, управляющего казначейством. Традиционные аудиты подтверждают, что средства были перемещены корректно. Программируемые аудиты проверяют:

  • Логическую последовательность принятия решений: следовал ли агент заявленной инвестиционной стратегии или отклонился от нее?
  • Выполнение многоэтапных рабочих процессов: если агент должен был провести ребалансировку портфелей в трех сетях, завершил ли он все этапы?
  • Ограничения безопасности: соблюдал ли агент лимиты газа, допуски на проскальзывание (slippage) и ограничения по рискам (exposure caps)?

Это стало возможным благодаря тому, что реестр валидации (Validation Registry) стандарта ERC-8004 поддерживает произвольные системы доказательств. Агент может зафиксировать алгоритм принятия решений в блокчейне (например, хеш весов своей нейронной сети или схему zk-SNARK, представляющую его логику), а затем доказывать, что каждое действие соответствует этому алгоритму, не раскрывая при этом конфиденциальные детали.

Дорожная карта Nillion напрямую нацелена на эти сценарии использования: «Nillion планирует расширить возможности Blacklight до „программируемой верификации“, обеспечивая децентрализованный аудит сложных действий, таких как логическая последовательность принятия решений агентом, выполнение многоэтапных рабочих процессов и соблюдение ограничений безопасности».

Это переводит верификацию из реактивной формы (выявление ошибок постфактум) в проактивную (обеспечение правильного поведения на уровне архитектуры).

Слепые вычисления: когда приватность встречается с верификацией

Лежащая в основе Nillion технология — Nil Message Compute (NMC) — добавляет аспект приватности в процесс верификации агентов. В отличие от традиционных блокчейнов, где все данные публичны, «слепые вычисления» Nillion позволяют выполнять операции над зашифрованными данными без их расшифровки.

Вот почему это важно для агентов: ИИ-агенту может потребоваться подтвердить свою торговую стратегию, не раскрывая конкурентам свои преимущества (alpha). Или доказать, что он корректно получил доступ к конфиденциальным медицинским записям, не раскрывая данных пациентов. Или продемонстрировать соблюдение нормативных требований, не разглашая проприетарную бизнес-логику.

NMC от Nillion достигает этого с помощью многосторонних вычислений (MPC), где узлы совместно генерируют «ослепляющие факторы» (blinding factors) — коррелированную случайность, используемую для шифрования данных. Как объясняет DAIC Capital: «Узлы генерируют ключевой сетевой ресурс, необходимый для обработки данных — тип коррелированной случайности, называемый ослепляющим фактором, — при этом каждый узел надежно хранит свою долю ослепляющего фактора, распределяя доверие по сети квантово-безопасным способом».

Эта архитектура является квантово-устойчивой по умолчанию. Даже если квантовый компьютер взломает современную криптографию на эллиптических кривых, распределенные ослепляющие факторы останутся в безопасности, поскольку ни один узел не обладает достаточной информацией для расшифровки данных.

Для ИИ-агентов это означает, что верификация не требует отказа от конфиденциальности. Агент может доказать, что он правильно выполнил задачу, сохраняя при этом свои методы, источники данных и логику принятия решений в тайне.

Инфраструктурная ставка на экономику агентов стоимостью 4,3 миллиарда долларов

Запуск Blacklight происходит в тот момент, когда сектор блокчейна и ИИ вступает в фазу гиперроста. Прогнозируется, что рынок вырастет с 680 миллионов долларов (2025 г.) до 4,3 миллиарда долларов (2034 г.) со среднегодовым темпом роста 22,9 %, в то время как более широкий рынок конфиденциальных вычислений достигнет 350 миллиардов долларов к 2032 году.

Но Nillion не просто делает ставку на расширение рынка — она позиционирует себя как критически важную инфраструктуру. «Узким местом» экономики агентов являются не вычисления или хранение данных, а масштабируемое доверие. Как отмечается в прогнозе KuCoin на 2026 год, три ключевых тренда меняют идентичность ИИ и потоки создания ценности:

Системы «агент-оболочка-агента» (Agent-Wrapping-Agent): агенты, координирующиеся с другими агентами для выполнения сложных многоэтапных задач. Это требует стандартизированной идентификации и верификации — именно того, что обеспечивает ERC-8004.

KYA (Know Your Agent): финансовая инфраструктура, требующая учетных данных агентов. Регуляторы не одобрят автономных агентов, управляющих средствами, без доказательств их корректного поведения. Программируемые аудиты Blacklight напрямую решают эту задачу.

Наноплатежи: агентам необходимо эффективно проводить микроплатежи. Протокол платежей x402, который обработал более 20 миллионов транзакций в январе 2026 года, дополняет ERC-8004, беря на себя расчеты, в то время как Blacklight обеспечивает доверие.

Вместе эти стандарты достигли готовности к промышленной эксплуатации с разницей в несколько недель — прорыв в координации, сигнализирующий о зрелости инфраструктуры.

Ориентированное на агентов будущее Ethereum

Внедрение ERC-8004 выходит далеко за пределы Nillion. По состоянию на начало 2026 года стандарт интегрировали несколько проектов:

Такое быстрое внедрение отражает более широкий сдвиг в дорожной карте Ethereum. Виталик Бутерин неоднократно подчеркивал, что роль блокчейна становится «просто связующим звеном» для ИИ-агентов — не уровнем, ориентированным на пользователя, а инфраструктурой доверия, обеспечивающей автономную координацию.

Blacklight от Nillion ускоряет реализацию этого видения, делая верификацию программируемой, конфиденциальной и децентрализованной. Вместо того чтобы полагаться на централизованных оракулов или экспертов, агенты могут криптографически доказать свою корректность.

Что дальше: интеграция с мейннетом и расширение экосистемы

Дорожная карта Nillion на 2026 год отдает приоритет совместимости с Ethereum и устойчивой децентрализации. Мост к Ethereum был запущен в феврале 2026 года, за ним последовали нативные смарт-контракты для стейкинга и приватных вычислений.

Участники сообщества, застейкавшие 70 000 токенов NIL, могут управлять узлами верификации Blacklight, получая вознаграждения и поддерживая целостность сети. Эта модель отражает экономику валидаторов Ethereum, но добавляет специфическую роль верификации.

Следующие этапы включают:

  • Расширенная поддержка zkML: интеграция с такими проектами, как Modulus Labs, для верификации выводов ИИ ончейн
  • Кроссчейн-верификация: возможность Blacklight верифицировать агентов, работающих в сетях Ethereum, Cosmos и Solana
  • Институциональное партнерство: сотрудничество с Coinbase и Alibaba Cloud для развертывания корпоративных агентов
  • Инструменты для соблюдения нормативных требований: создание фреймворков KYA для внедрения в финансовые услуги

Возможно, самое важное — Nillion разрабатывает nilGPT — полностью приватный ИИ-чат-бот, демонстрирующий, как слепые вычисления (blind computation) обеспечивают конфиденциальное взаимодействие агентов. Это не просто демо-версия; это проект для агентов, работающих с конфиденциальными данными в здравоохранении, финансах и государственном секторе.

Конечная цель бездоверительной координации

Запуск Blacklight знаменует собой поворотный момент для экономики агентов. До ERC-8004 агенты работали изолированно — им доверяли внутри их собственных экосистем, но они не могли координироваться между платформами без участия посредников-людей. После появления ERC-8004 агенты могут проверять личности друг друга, проводить аудит поведения и проводить расчеты автономно.

Это открывает совершенно новые категории приложений:

  • Децентрализованные хедж-фонды: агенты, управляющие портфелями в разных сетях с верифицируемыми инвестиционными стратегиями и прозрачным аудитом эффективности
  • Автономные цепочки поставок: агенты, координирующие логистику, платежи и комплаенс без централизованного надзора
  • DAO на базе ИИ: организации, управляемые агентами, которые голосуют, вносят предложения и исполняют решения на основе криптографически подтвержденной логики принятия решений
  • Кросс-протокольное управление ликвидностью: агенты, проводящие ребалансировку активов в DeFi-протоколах с программируемыми ограничениями рисков

Что их объединяет? Всем им требуется бездоверительная координация (trustless coordination) — способность агентов работать вместе без предварительных отношений или централизованных якорей доверия.

Blacklight от Nillion обеспечивает именно это. Сочетая инфраструктуру идентификации и репутации ERC-8004 с программируемой верификацией и слепыми вычислениями, он создает слой доверия, достаточно масштабируемый для экономики из триллиона агентов, маячащей на горизонте.

По мере того как блокчейн становится «трубопроводом» для ИИ-агентов и глобальных финансов, вопрос заключается не в том, нужна ли нам инфраструктура верификации, а в том, кто ее построит и будет ли она децентрализованной или контролируемой несколькими посредниками. Узлы Blacklight, управляемые сообществом, и открытый стандарт говорят в пользу первого варианта.

Эра автономных ончейн-акторов наступила. Инфраструктура запущена. Единственный оставшийся вопрос — что будет построено на ее основе.


Источники:

Конвергенция ИИ и Web3: как блокчейн стал операционной системой для автономных агентов

· 16 мин чтения
Dora Noda
Software Engineer

29 января 2026 года Ethereum запустил ERC-8004 — стандарт, который наделяет программных ИИ-агентов постоянными ончейн-личностиями. В течение нескольких дней зарегистрировалось более 24 549 агентов, а BNB Chain объявила о поддержке протокола. Это не просто постепенный прогресс — это инфраструктура для автономных экономических акторов, которые могут совершать транзакции, координировать действия и выстраивать репутацию без посредничества человека.

ИИ-агентам не нужен блокчейн для существования. Но блокчейн необходим им для координации. Чтобы совершать транзакции без доверия (trustless) через организационные границы. Чтобы создавать проверяемую репутацию. Чтобы автономно проводить платежи. Чтобы доказывать выполнение задач без централизованных посредников.

Конвергенция ускоряется, потому что обе технологии решают критические недостатки друг друга: ИИ обеспечивает интеллект и автоматизацию, а блокчейн — доверие и экономическую инфраструктуру. Вместе они создают то, чего невозможно достичь по отдельности: автономные системы, способные участвовать в открытых рынках без необходимости в предварительных доверительных отношениях.

В этой статье рассматривается инфраструктура, делающая сближение ИИ и Web3 неизбежным — от стандартов идентификации до экономических протоколов и децентрализованного исполнения моделей. Вопрос не в том, будут ли ИИ-агенты работать на блокчейне, а в том, как быстро инфраструктура масштабируется для поддержки миллионов автономных экономических акторов.

ERC-8004: Инфраструктура идентификации для ИИ-агентов

ERC-8004 запущен в основной сети Ethereum 29 января 2026 года, устанавливая стандартизированные, не требующие разрешений механизмы для идентификации, репутации и валидации агентов.

Протокол решает фундаментальную проблему: как обнаруживать, выбирать и взаимодействовать с агентами через организационные границы без предварительного доверия. Без инфраструктуры идентификации каждое взаимодействие агентов требует централизованного посредничества — маркетплейсов, сервисов верификации, уровней разрешения споров. ERC-8004 делает эти процессы бездоверчивыми и компонуемыми.

Три основных реестра:

Реестр идентификации (Identity Registry): Минималистичный ончейн-дескриптор на базе ERC-721 с расширением URIStorage, который ссылается на регистрационный файл агента. Каждый агент получает переносимый, устойчивый к цензуре идентификатор. Никакая центральная власть не контролирует, кто может создать личность агента или какие платформы ее признают.

Реестр репутации (Reputation Registry): Стандартизированный интерфейс для публикации и получения сигналов обратной связи. Агенты выстраивают репутацию на основе истории ончейн-транзакций, выполненных задач и отзывов контрагентов. Репутация становится переносимой между платформами, а не остается заблокированной внутри отдельных маркетплейсов.

Реестр валидации (Validation Registry): Универсальные хуки для запроса и записи независимых проверок валидаторами — стейкерами, перезапускающими задачи, верификаторами zkML, подтверждающими выполнение, оракулами TEE, доказывающими вычисления, или доверенными судьями, разрешающими споры. Механизмы валидации подключаются модульно, не требуя специфических для платформ реализаций.

Такая архитектура создает условия для открытых рынков агентов. Вместо «Upwork для ИИ-агентов» вы получаете не требующие разрешений протоколы, где агенты находят друг друга, договариваются об условиях, выполняют задачи и проводят расчеты — и все это без надзора централизованных платформ.

Объявление BNB Chain о быстрой поддержке сигнализирует о стремлении стандарта к кроссчейн-адаптации. Мультичейн-идентификация позволяет агентам работать в различных блокчейн-экосистемах, сохраняя единую систему репутации и верификации.

DeMCP: Model Context Protocol встречает децентрализацию

DeMCP был запущен как первая децентрализованная сеть Model Context Protocol, решая вопросы доверия и безопасности с помощью TEE (доверенных сред исполнения) и блокчейна.

Model Context Protocol (MCP), разработанный Anthropic, стандартизирует способ предоставления контекста большими языковыми моделями приложениям. Представьте себе USB-C для ИИ-приложений — вместо кастомных интеграций для каждого источника данных, MCP предоставляет универсальные стандарты интерфейса.

DeMCP расширяет это на Web3: предлагая бесшовный доступ к ведущим LLM, таким как GPT-4 и Claude, через MCP-инстансы по запросу с оплатой по факту использования в стейблкоинах (USDT/USDC) и под управлением моделей распределения доходов.

Архитектура решает три критические проблемы:

Доступ: Традиционные API ИИ-моделей требуют централизованных учетных записей, платежной инфраструктуры и SDK конкретных платформ. DeMCP позволяет автономным агентам получать доступ к LLM через стандартизированные протоколы, оплачивая услуги в криптовалюте без необходимости использования API-ключей или кредитных карт, управляемых человеком.

Доверие: Централизованные MCP-сервисы становятся едиными точками отказа и слежки. Узлы DeMCP, защищенные TEE, обеспечивают верифицируемое исполнение — агенты могут подтвердить, что модели обработали конкретные промпты без вмешательства извне, что крайне важно для финансовых решений или соблюдения нормативных требований.

Компонуемость: Появляется новое поколение инфраструктуры ИИ-агентов на базе MCP и протоколов A2A (агент-к-агенту), разработанных специально для сценариев Web3. Это позволяет агентам получать доступ к мультичейн-данным и нативно взаимодействовать с протоколами DeFi.

Результат: MCP превращает ИИ в первоклассного гражданина Web3. Блокчейн обеспечивает доверие, координацию и экономическую основу. Вместе они формируют децентрализованную операционную систему, в которой агенты рассуждают, координируют действия и работают через совместимые протоколы.

Среди топ-криптопроектов MCP, за которыми стоит следить в 2026 году, — поставщики инфраструктуры, строящие уровни координации агентов, децентрализованные сети исполнения моделей и интеграции на уровне протоколов, позволяющие агентам работать автономно в экосистемах Web3.

170+ инструментов для агентов Polymarket: инфраструктура в действии

Экосистема Polymarket выросла до более чем 170 сторонних инструментов в 19 категориях, став важной инфраструктурой для всех, кто серьезно занимается торговлей на рынках предсказаний.

Категории инструментов охватывают весь рабочий процесс агента:

Автономная торговля: Агенты на базе ИИ, которые автоматически находят и оптимизируют стратегии, интегрируя рынки предсказаний с доходным фермерством и протоколами DeFi. Некоторые агенты достигают точности в 98 % при краткосрочном прогнозировании.

Арбитражные системы: Автоматизированные боты, выявляющие ценовые расхождения между Polymarket и другими платформами предсказаний или традиционными рынками ставок, исполняя сделки быстрее, чем операторы-люди.

Отслеживание «китов»: Инструменты мониторинга крупномасштабных движений позиций, позволяющие агентам следовать за институциональной активностью или противодействовать ей на основе исторических корреляций эффективности.

Инфраструктура копитрейдинга: Платформы, позволяющие агентам копировать стратегии лучших игроков с ончейн-верификацией результатов, что предотвращает фальшивые заявления о доходности.

Аналитика и потоки данных: Аналитика институционального уровня, предоставляющая агентам данные о глубине рынка, анализе ликвидности, историческом распределении вероятностей и корреляциях исходов событий.

Управление рисками: Автоматизированный выбор размера позиции, лимиты экспозиции и механизмы стоп-лосс, интегрированные непосредственно в торговую логику агента.

Эта экосистема подтверждает тезис о конвергенции AI × Web3. Polymarket предоставляет репозитории GitHub и SDK специально для разработки агентов, рассматривая автономных участников как первоклассных пользователей платформы, а не как пограничные случаи или нарушения условий обслуживания.

Прогноз на 2026 год включает потенциальный запуск токена $POLY, создающий новую динамику вокруг управления, структур комиссий и стимулов экосистемы. Генеральный директор Шейн Коплан предположил, что это может стать одним из крупнейших TGE (Token Generation Events) 2026 года. Кроме того, потенциальный запуск собственного блокчейна Polymarket (по модели Hyperliquid) может фундаментально изменить инфраструктуру, где миллиарды привлеченных средств сделают запуск аппчейна (appchain) естественным этапом эволюции.

Инфраструктурный стек: уровни AI × Web3

Автономные агенты, работающие на блокчейне, требуют скоординированной инфраструктуры на нескольких уровнях:

Уровень 1: Идентификация и репутация

  • Реестры ERC-8004 для идентификации агентов
  • Ончейн-системы репутации, отслеживающие эффективность
  • Криптографическое подтверждение владения и полномочий агента
  • Кроссчейн-мосты идентификации для операций в нескольких экосистемах

Уровень 2: Доступ и исполнение

  • DeMCP для децентрализованного доступа к LLM
  • Вычисления в защищенной среде TEE для приватной логики агентов
  • zkML (машинное обучение с нулевым разглашением) для проверяемого вывода (inference)
  • Децентрализованные сети инференса, распределяющие исполнение моделей

Уровень 3: Координация и коммуникация

  • Протоколы A2A (агент-агент) для прямых переговоров
  • Стандартизированные форматы сообщений для межагентского взаимодействия
  • Механизмы поиска агентов со специфическими возможностями
  • Эскроу и разрешение споров для автономных контрактов

Уровень 4: Экономическая инфраструктура

  • Платежные рельсы на стейблкоинах для трансграничных расчетов
  • Автоматизированные маркет-мейкеры (AMM) для активов, созданных агентами
  • Программируемые структуры комиссий и распределение доходов
  • Согласование стимулов на основе токенов

Уровень 5: Прикладные протоколы

  • Интеграция с DeFi для автономной оптимизации доходности
  • API рынков предсказаний для торговли информацией
  • NFT-маркетплейсы для контента, созданного агентами
  • Фреймворки участия в управлении DAO

Этот стек обеспечивает прогрессивное усложнение поведения агентов: простая автоматизация (исполнение смарт-контрактов), реактивные агенты (реагирование на ончейн-события), проактивные агенты (инициирование стратегий на основе вывода ИИ) и координирующие агенты (переговоры с другими автономными участниками).

Инфраструктура не просто позволяет ИИ-агентам использовать блокчейн — она делает блокчейн естественной операционной средой для автономной экономической деятельности.

Почему ИИ нужен блокчейн: проблема доверия

ИИ-агенты сталкиваются с фундаментальными проблемами доверия, которые централизованные архитектуры не могут решить:

Верификация: Как доказать, что ИИ-агент исполнил определенную логику без вмешательства? Традиционные API не дают никаких гарантий. Блокчейн с использованием zkML или аттестаций TEE создает проверяемые вычисления — криптографическое доказательство того, что конкретные модели обработали определенные входные данные и выдали конкретные результаты.

Репутация: Как агентам заслужить доверие за пределами одной организации? Централизованные платформы создают «закрытые сады» — репутация, заработанная на Upwork, не переносится на Fiverr. Ончейн-репутация становится переносимой, проверяемой и устойчивой к манипуляциям через атаки Сивиллы.

Расчеты: Как автономным агентам обрабатывать платежи без участия человека? Традиционный банкинг требует счетов, KYC и авторизации человеком для каждой транзакции. Стейблкоины и смарт-контракты обеспечивают программируемые мгновенные расчеты с криптографической, а не бюрократической защитой.

Координация: Как агенты из разных организаций могут вести переговоры без доверенных посредников? Традиционный бизнес требует контрактов, юристов и механизмов принуждения. Смарт-контракты позволяют исполнять соглашения без доверия — код автоматически обеспечивает соблюдение условий на основе проверяемых условий.

Атрибуция: Как доказать, какой именно агент создал определенный результат? Происхождение ИИ-контента становится критически важным для авторского права, ответственности и распределения доходов. Ончейн-аттестация обеспечивает неизменяемые записи о создании, изменении и владении.

Блокчейн не просто дает эти возможности — это единственная архитектура, которая обеспечивает их без повторного введения допущений о централизованном доверии. Конвергенция возникает из технической необходимости, а не из спекулятивного нарратива.

Почему блокчейну нужен ИИ: проблема интеллекта

Блокчейн сталкивается с фундаментальными ограничениями, которые решает ИИ:

Абстракция сложности: UX блокчейна остается крайне сложным — сид-фразы, комиссии за газ, подписание транзакций. ИИ-агенты могут абстрагировать эту сложность, выступая в роли интеллектуальных посредников, которые исполняют намерения пользователя, не раскрывая технических деталей реализации.

Обработка информации: Блокчейны предоставляют данные, но им не хватает интеллекта для их интерпретации. ИИ-агенты анализируют паттерны активности в сети (on-chain), выявляют арбитражные возможности, предсказывают рыночные движения и оптимизируют стратегии на скоростях и в масштабах, недоступных человеку.

Автоматизация: Смарт-контракты исполняют логику, но не могут адаптироваться к меняющимся условиям без явного программирования. ИИ-агенты обеспечивают динамическое принятие решений, обучаясь на результатах и корректируя стратегии без необходимости внесения предложений по управлению (governance proposals) для каждого изменения параметров.

Обнаруживаемость: Протоколы DeFi страдают от фрагментации — пользователи должны вручную искать возможности на сотнях платформ. ИИ-агенты постоянно сканируют, оценивают и направляют активность в оптимальные протоколы на основе сложной многофакторной оптимизации.

Управление рисками: Трейдеры-люди борются с дисциплиной, эмоциями и ограничениями внимания. ИИ-агенты соблюдают предопределенные параметры риска, без колебаний исполняют стоп-лоссы и круглосуточно мониторят позиции в нескольких сетях одновременно.

Отношения становятся симбиотическими: блокчейн предоставляет инфраструктуру доверия, обеспечивающую координацию ИИ, а ИИ предоставляет интеллект, делающий инфраструктуру блокчейна пригодной для сложной экономической деятельности.

Развивающаяся экономика агентов

Инфраструктурный стек открывает возможности для новых экономических моделей:

Агент как услуга (Agent-as-a-Service): Автономные агенты сдают свои возможности в аренду по требованию, формируя цены динамически в зависимости от спроса и предложения. Никаких платформ, никаких посредников — прямые рынки услуг между агентами.

Коллективный интеллект: Агенты объединяют опыт для решения сложных задач, координируясь через смарт-контракты, которые автоматически распределяют доход в зависимости от вклада. Мультиагентные системы решают проблемы, выходящие за рамки возможностей любого отдельного агента.

Улучшенное прогнозирование: Агенты постоянно отслеживают информационные потоки, обновляют оценки вероятности и совершают сделки на основе инсайтов еще до появления новостей, понятных человеку. Информационные финансы (InfoFi) становятся алгоритмическими, и агенты начинают доминировать в процессе определения цен.

Автономные организации: ДАО (DAO), полностью управляемые ИИ-агентами, действующими от имени владельцев токенов, принимая решения через верифицируемый вывод (inference), а не через человеческое голосование. Организации, работающие на машинной скорости с криптографической подотчетностью.

Экономика контента: ИИ-генерируемый контент с ончейн-происхождением (provenance), обеспечивающий автоматическое лицензирование, распределение роялти и права на создание производных работ. Агенты ведут переговоры об условиях использования и обеспечивают соблюдение авторства через смарт-контракты.

Это не гипотезы — ранние версии уже работают. Вопрос в том, как быстро инфраструктура масштабируется для поддержки миллионов автономных экономических субъектов?

Оставшиеся технические проблемы

Несмотря на быстрый прогресс, сохраняются значительные препятствия:

Масштабируемость: Текущие блокчейны с трудом справляются с пропускной способностью. Миллионы агентов, совершающих непрерывные микротранзакции, требуют решений второго уровня (Layer 2), оптимистичных роллапов (optimistic rollups) или специализированных сетей для агентов.

Конфиденциальность: Многие операции агентов требуют конфиденциальной логики или данных. TEE (доверенные среды исполнения) обеспечивают частичные решения, но полностью гомоморфное шифрование (FHE) и продвинутая криптография остаются слишком дорогими для промышленного масштаба.

Регулирование: Автономные экономические субъекты бросают вызов существующим правовым рамкам. Кто несет ответственность, когда агенты причиняют ущерб? Как применяются требования KYC / AML? Регуляторная ясность отстает от технических возможностей.

Стоимость моделей: Вывод (inference) LLM остается дорогим. Децентрализованные сети должны соответствовать ценам централизованных API, добавляя при этом накладные расходы на верификацию. Экономическая жизнеспособность требует дальнейшего повышения эффективности моделей.

Проблемы оракулов: Агентам нужны надежные данные из реального мира. Существующие решения оракулов вносят допущения о доверии и задержки. Создание более эффективных мостов между ончейн-логикой и оффчейн-информацией остается критически важным.

Эти проблемы не являются непреодолимыми — это инженерные задачи с четкими путями решения. Траектория развития инфраструктуры указывает на их разрешение в течение 12–24 месяцев.

Точка перегиба 2026 года

В 2026 году сойдутся несколько катализаторов:

Созревание стандартов: Принятие ERC-8004 в основных сетях создает инфраструктуру совместимых идентификаторов. Агенты беспрепятственно работают в Ethereum, BNB Chain и новых экосистемах.

Эффективность моделей: Меньшие специализированные модели снижают стоимость вывода в 10–100 раз, сохраняя при этом производительность для конкретных задач. Экономическая жизнеспособность значительно улучшается.

Регуляторная ясность: Первые юрисдикции устанавливают правовые рамки для автономных агентов, обеспечивая юридическую определенность для институционального внедрения.

Прорывные приложения: Рынки предсказаний, оптимизация DeFi и создание контента демонстрируют явное превосходство агентов над операторами-людьми, способствуя внедрению технологий за пределами круга крипто-энтузиастов.

Инфраструктурная конкуренция: Множество команд, создающих децентрализованный вывод, протоколы координации агентов и специализированные блокчейны, создают конкурентное давление, ускоряющее разработку.

Конвергенция переходит из стадии экспериментов в стадию формирования инфраструктуры. Ранние последователи получают преимущества, платформы интегрируют поддержку агентов по умолчанию, а экономическая активность все чаще проходит через автономных посредников.

Что это значит для Web3-разработки

Разработчикам, создающим решения для следующего этапа Web3, следует приоритизировать следующие направления:

Дизайн, ориентированный на агентов (Agent-First): Рассматривайте автономных акторов как основных пользователей, а не как исключительные случаи. Проектируйте API, структуры комиссий и механизмы управления, исходя из предположения, что агенты будут доминировать в активности.

Компонуемость (Composability): Создавайте протоколы, которые агенты могут легко интегрировать, координировать между собой и расширять. Стандартизированные интерфейсы важнее проприетарных реализаций.

Верификация: Предоставляйте криптографические доказательства исполнения, а не просто результаты выполнения. Агентам необходимы проверяемые вычисления для построения цепочек доверия.

Экономическая эффективность: Оптимизируйте системы для микротранзакций, непрерывных расчетов и динамических рынков комиссий. Традиционная пакетная обработка и ручное вмешательство не масштабируются для агентской активности.

Опции конфиденциальности: Поддерживайте как прозрачные, так и конфиденциальные операции агентов. Различные варианты использования требуют разных гарантий конфиденциальности.

Инфраструктура существует. Стандарты появляются. Экономические стимулы согласованы. Конвергенция ИИ × Web3 не просто приближается — она уже здесь. Вопрос в том, кто создаст инфраструктуру, которая станет основой для следующего десятилетия автономной экономической деятельности?

BlockEden.xyz предоставляет инфраструктуру корпоративного уровня для Web3-приложений, предлагая надежный и высокопроизводительный доступ к RPC в основных экосистемах блокчейнов. Изучите наши услуги для инфраструктуры ИИ-агентов и поддержки автономных систем.


Источники: