Перейти к основному содержимому

44 записи с тегом "web3"

Посмотреть все теги

Видение Баладжи о криптоидентичности: от ключей к сетевым государствам

· 10 мин. чтения
Dora Noda
Software Engineer

1) Что Баладжи подразумевает под «криптоидентичностью»

В словаре Баладжи криптоидентичность — это идентичность, основанная на криптографии — в частности, на парах открытых и закрытых ключей — и затем расширенная ончейн-именами, проверяемыми учетными данными/аттестациями и интерфейсами к устаревшей («фиатной») идентичности. В его словах и работах:

  • Ключи как идентичность. Основой является идея, что в Bitcoin и web3 ваша пара ключей — это ваша идентичность; аутентификация и авторизация исходят из контроля над закрытыми ключами, а не из учетных записей в корпоративной базе данных. (balajis.com)
  • Имена и репутация ончейн. Системы именования, такие как ENS/SNS, привязывают удобочитаемые идентификаторы к адресам; учетные данные (NFT, «связанные с душой» токены, ончейн «криптоучетные данные») и аттестации накладывают репутацию и историю на эти идентификаторы.
  • Ончейн, проверяемая «перепись». Для обществ и сетевых государств идентичность участвует в криптографически проверяемой переписи (доказательство человечности/уникальной личности, доказательство дохода, доказательство владения недвижимостью) для демонстрации реального населения и экономической активности.
  • Соединение устаревшего ID ↔ крипто ID. Он прямо утверждает, что нам нужен «обмен фиатной идентичности ↔ криптоидентичности» — сродни фиат↔крипто биржам — чтобы «цифровые паспорта следовали за цифровой валютой». Он выделяет «криптопаспорта» как следующий интерфейс после стейблкоинов. (Circle)
  • Идентичность для «web3 доверия» в эпоху ИИ. Чтобы противостоять дипфейкам и ботам, он продвигает контент, подписанный ончейн-идентификаторами (например, ENS), чтобы происхождение и авторство были криптографически проверяемы по всей открытой сети. (Chainlink Today)
  • Гражданская защита. В его кратком изложении: «Криптовалюта частично защищает вас от дебанкинга. Криптоидентичность частично защищает вас от денатурализации». (X (ранее Twitter))

2) Как развивалось его видение (краткая хронология)

  • 2019–2020 – криптографическая идентичность и псевдонимность. В работах Баладжи подчеркивается криптография с открытым ключом как идентичность (ключи как ID) и прогнозируется рост децентрализованной идентичности + репутации на протяжении 2020-х годов. В то же время его доклад «псевдонимная экономика» выступает за постоянные, несущие репутацию псевдонимы для защиты свободы слова и экспериментов с новыми видами работы и организации. (balajis.com)
  • 2022 – Сетевое государство. Он формализует роль идентичности в сетевом государстве: ончейн-перепись; идентичность в стиле ENS; криптографические доказательства (личности/дохода/недвижимости); и криптоучетные данные/soulbounds. Идентичность является инфраструктурной — это то, что общество считает и что мир может проверить.
  • 2022–2024 – мосты к устаревшим системам. В публичных интервью и своем подкасте он призывает к мостам фиатной↔криптоидентичности (например, цифровая резиденция RNS.ID Палау) и подчеркивает необходимость перевода «бумажных» записей в код. (Circle)
  • 2023–настоящее время – идентичность как защита от подделок ИИ. Он рассматривает криптоидентичность как основу «web3 доверия»: подписанный контент, ончейн-происхождение и экономическое трение (стейкинг, платежи) для отделения людей от ботов. (Chainlink Today)

3) Технический стек, на который указывает Баладжи

Корневой примитив: ключи и кошельки

  • Контроль над закрытым ключом = контроль над идентичностью; ротация/разделение ключей для разных персон и профилей риска. (balajis.com)

Разрешение и вход

  • ENS/SNS сопоставляют удобочитаемые имена с адресами; Sign‑In with Ethereum (EIP‑4361) превращает эти адреса в стандартный способ аутентификации для оффчейн-приложений.

Учетные данные и аттестации (уровень репутации)

  • W3C Verifiable Credentials (VC 2.0) определяют интероперабельный способ выдачи/хранения/проверки утверждений (например, проверки KYC, дипломы).
  • Ethereum Attestation Service (EAS) предоставляет общедоступный уровень для ончейн- или оффчейн-аттестаций для создания идентичности, репутации и реестров, которые приложения могут проверять. (W3C)

Доказательство личности и уникальности

  • В Сетевом государстве Баладжи описывает методы «доказательства человечности» для ончейн-переписи; вне его работы подходы, такие как World ID, пытаются проверить человечность/уникальность, что также вызвало опасения по поводу защиты данных — иллюстрируя компромиссы биометрического PoP.

Мосты к устаревшей идентичности

  • Palau RNS.ID — яркий пример суверенного государства, выдающего юридический идентификатор с ончейн-компонентами; принятие неравномерно на разных платформах, что подчеркивает проблему «моста», которую выделяет Баладжи. (Biometric Update)

Происхождение и защита от дипфейков

  • Он выступает за подписание контента с адресов, связанных с ENS, чтобы каждое изображение/пост/видео можно было отследить до криптографической идентичности в «web3 доверия». (Chainlink Today)

4) Почему это важно (стратегические утверждения Баладжи)

  1. Устойчивость к цензуре и деплатформингу: Ключи и децентрализованное именование снижают зависимость от централизованных поставщиков ID. (Ключи — это идентификаторы на предъявителя.) (balajis.com)
  2. Проверяемость для обществ: Сетевые государства требуют проверяемого населения/дохода/следа; проверяемость невозможна без идентичности, которая может быть доказана ончейн.
  3. Устойчивость к ИИ: Криптографический уровень идентичности (плюс подписи/аттестации) лежит в основе подлинности в интернете, противодействуя подделкам, созданным ИИ. (Chainlink Today)
  4. Интероперабельность и компонуемость: Стандарты (ENS, SIWE, VC/EAS) делают идентичность переносимой между приложениями и юрисдикциями.

5) Как это связано с Сетевым государством

Книга Баладжи неоднократно связывает идентичность с ончейн-переписью в реальном времени — включая доказательство человечности, доказательство дохода и доказательство владения недвижимостью — и выделяет именование (ENS) и криптоучетные данные как основные примитивы. Он также описывает паттерны «ENS-вход в физический мир» (цифровые ключи к дверям/услугам), встроенные в социальный смарт-контракт, указывая на криптоидентичность как на уровень доступа как для цифрового, так и (в конечном итоге) для физического управления.


6) План реализации (практический путь, который вы можете осуществить сегодня)

A. Установите базовые идентификаторы

  1. Сгенерируйте отдельные пары ключей для: (i) юридического/«реального имени», (ii) рабочего/профессионального псевдонима, (iii) псевдонима для публичных выступлений. Храните каждый в отдельной конфигурации кошелька (аппаратный, MPC или смарт-аккаунты с хранителями). (balajis.com)
  2. Зарегистрируйте имена ENS для каждой персоны; опубликуйте минимальные метаданные публичного профиля.

B. Добавьте аутентификацию и происхождение контента 3. Включите SIWE (EIP‑4361) для входа в приложения; постепенно отказывайтесь от паролей/социальных входов. (Ethereum Improvement Proposals) 4. Подписывайте публичные артефакты (посты, изображения, выпуски кода) с вашего адреса, связанного с ENS; опубликуйте простую ленту «подписанного контента», которую другие могут проверить. (Chainlink Today)

C. Наложите учетные данные и аттестации 5. Выдавайте/собирайте VC для юридических фактов (роль в компании, лицензии) и аттестации EAS для мягких сигналов (репутация, проверенные вклады, посещаемость). Храните конфиденциальные утверждения оффчейн, оставляя только хеши/квитанции ончейн. (W3C)

D. Подключайтесь к устаревшей идентичности при необходимости 6. Там, где это законно и полезно, свяжите суверенный/корпоративный ID (например, Palau RNS.ID) с вашей криптоидентичностью для мест, требующих KYC. Ожидайте неоднородного принятия и поддерживайте альтернативы. (Biometric Update)

E. Развертывание для групп/обществ 7. Для стартап-общества или DAO: - Ограничьте членство с помощью ENS + метода доказательства человечности, который вы считаете приемлемым. - Поддерживайте публичную, проверяемую перепись (количество членов/доходов/активов), используя оракулы плюс подписанные аттестации, а не необработанные PII.


7) Риски, критика и открытые вопросы

  • Эрозия конфиденциальности/псевдонимности. Анализ блокчейна может группировать кошельки; собственная концепция псевдонимности Баладжи предупреждает, как несколько «битов» данных могут повторно идентифицировать вас. Используйте миксеры/технологии конфиденциальности осторожно и законно — но признавайте ограничения. (blog.blockstack.org)
  • Компромиссы доказательства личности. Биометрический PoP (например, радужная оболочка глаза) вызывает значительное внимание к защите данных; альтернативные методы PoP снижают риск, но могут увеличить уязвимость к атакам Сивиллы. (law.kuleuven.be)
  • Хрупкость моста. ID в стиле Палау не являются универсальным пропуском KYC; принятие варьируется в зависимости от платформы и юрисдикции и может меняться. Разрабатывайте с учетом постепенной деградации. (Malakouti Law)
  • Потеря ключей и принуждение. Ключи могут быть украдены/принудительно получены; используйте мультиподпись/хранителей и политики реагирования на инциденты. (Модель Баладжи предполагает криптографию + согласие, что должно быть социально спроектировано.) (balajis.com)
  • Централизация имен/реестров. ENS или любой орган именования становится узким местом политики; смягчайте это с помощью многоперсонального дизайна и экспортируемых доказательств.

8) Как криптоидентичность Баладжи соотносится со стандартами (и в чем ее отличия)

  • Соответствие:

    • DIDs + VCs (W3C) = переносимые, интероперабельные идентификаторы/утверждения; SIWE = аутентификация, встроенная в кошелек; EAS = аттестации для репутации/реестров. Это компоненты, на которые он указывает — даже если он использует простой язык (ENS, учетные данные), а не аббревиатуры стандартов. (W3C)
  • Различия/акцент:

    • Он возвышает общественную проверяемость (ончейн-перепись) и происхождение в эпоху ИИ (подписанный контент) больше, чем многие обсуждения DID/VC, и он явно продвигает мосты фиатной↔криптоидентичности и криптопаспорта как ближайший приоритет.

9) Если вы создаете: минимально жизнеспособное внедрение «криптоидентичности» (90 дней)

  1. Неделя 1–2: Ключи, ENS, SIWE включены; опубликуйте свою политику подписи и начните подписывать публичные посты/релизы. (Ethereum Improvement Proposals)
  2. Неделя 3–6: Интегрируйте VC/EAS для роли/членства/участия; создайте публичную «страницу доверия», которая программно проверяет эти данные. (W3C)
  3. Неделя 7–10: Создайте базовую панель мониторинга переписи (общее количество членов, ончейн-доказательства казначейства/дохода) с четкой позицией по конфиденциальности.
  4. Неделя 11–13: Протестируйте устаревший мост (например, RNS.ID, где это уместно) для одного потока, требующего соблюдения нормативных требований; опубликуйте результаты (что сработало/не сработало). (Biometric Update)

Избранные источники (основные и опорные)

  • Сетевое государство (ончейн-перепись; ENS/идентичность; криптоучетные данные) и примеры «ENS-входа в физический мир».
  • Криптография с открытым ключом (ключи как идентичность). (balajis.com)
  • Circle – Движение денег (Эп. 74) (мост фиатной↔криптоидентичности; «криптопаспорта»). (Circle)
  • Подкаст The Network State, Эп. 10 (обмен фиатной идентичности→криптоидентичности; Palau RNS.ID). (thenetworkstate.com)
  • Chainlink Today (подписанный контент/ENS для борьбы с дипфейками; «web3 доверия»). (Chainlink Today)
  • Баладжи в X («Криптоидентичность… денатурализация»). (X (ранее Twitter))
  • Стандарты: W3C DID Core, VC 2.0; EIP‑4361 (SIWE); документация EAS. (W3C)
  • RNS.ID / Палау (реальный мост; смешанное принятие). (Biometric Update)
  • Псевдонимная экономика (идентичность и интуиция повторной идентификации по 33 битам). (blog.blockstack.org)

Итог

Для Баладжи криптоидентичность — это не просто «технология DID». Это цивилизационный примитив: ключи и подписи в основе; имена и учетные данные сверху; мосты к устаревшей идентичности; и проверяемая публичная запись, которая масштабируется от отдельных лиц до сетевых обществ. Это способ получить подлинных людей и подлинные записи в интернете, наводненном ИИ, — и способ для стартап-общества доказать свою реальность, не требуя от мира верить ему на слово. (Chainlink Today)

Если хотите, я могу адаптировать план реализации под ваш конкретный случай использования (потребительское приложение, DAO, предприятие или пилотный проект стартап-общества) и предоставить конкретные схемы/потоки для SIWE, EAS и VC 2.0, соответствующие вашим нормативным требованиям и ограничениям UX.

MCP в экосистеме Web3: Всесторонний обзор

· 46 мин. чтения
Dora Noda
Software Engineer

1. Определение и происхождение MCP в контексте Web3

Протокол контекста модели (MCP) — это открытый стандарт, который соединяет ИИ-помощников (таких как большие языковые модели) с внешними источниками данных, инструментами и средами. Часто описываемый как «порт USB-C для ИИ» из-за его универсальной природы «подключи и работай», MCP был разработан Anthropic и впервые представлен в конце ноября 2024 года. Он возник как решение для вывода ИИ-моделей из изоляции путем их безопасного соединения с «системами, где живут данные» — от баз данных и API до сред разработки и блокчейнов.

Изначально экспериментальный побочный проект в Anthropic, MCP быстро набрал обороты. К середине 2024 года появились эталонные реализации с открытым исходным кодом, а к началу 2025 года он стал стандартом де-факто для интеграции агентного ИИ, с ведущими ИИ-лабораториями (OpenAI, Google DeepMind, Meta AI), принявшими его нативно. Это быстрое внедрение было особенно заметно в сообществе Web3. Блокчейн-разработчики увидели в MCP способ внедрения ИИ-возможностей в децентрализованные приложения, что привело к распространению созданных сообществом MCP-коннекторов для ончейн-данных и сервисов. Фактически, некоторые аналитики утверждают, что MCP может реализовать первоначальное видение Web3 о децентрализованном, ориентированном на пользователя интернете более практичным способом, чем один только блокчейн, используя интерфейсы на естественном языке для расширения возможностей пользователей.

В итоге, MCP не является блокчейном или токеном, а представляет собой открытый протокол, родившийся в мире ИИ, который быстро был принят в экосистеме Web3 как мост между ИИ-агентами и децентрализованными источниками данных. Anthropic открыл исходный код стандарта (с первоначальной спецификацией GitHub и SDK) и сформировал вокруг него открытое сообщество. Этот подход, управляемый сообществом, подготовил почву для интеграции MCP в Web3, где он теперь рассматривается как фундаментальная инфраструктура для децентрализованных приложений с поддержкой ИИ.

2. Техническая архитектура и основные протоколы

MCP работает на легковесной клиент-серверной архитектуре с тремя основными ролями:

  • Хост MCP: Само ИИ-приложение или агент, которое оркестрирует запросы. Это может быть чат-бот (Claude, ChatGPT) или ИИ-приложение, которому нужны внешние данные. Хост инициирует взаимодействия, запрашивая инструменты или информацию через MCP.
  • Клиент MCP: Компонент-коннектор, который хост использует для связи с серверами. Клиент поддерживает соединение, управляет обменом запросами/ответами и может обрабатывать несколько серверов параллельно. Например, инструмент разработчика, такой как Cursor или агентный режим VS Code, может выступать в качестве клиента MCP, соединяющего локальную ИИ-среду с различными серверами MCP.
  • Сервер MCP: Сервис, который предоставляет ИИ некоторые контекстные данные или функциональность. Серверы предоставляют инструменты, ресурсы или подсказки, которые ИИ может использовать. На практике, сервер MCP может взаимодействовать с базой данных, облачным приложением или блокчейн-нодой и представлять стандартизированный набор операций для ИИ. Каждая пара клиент-сервер общается по своему собственному каналу, поэтому ИИ-агент может одновременно подключаться к нескольким серверам для различных нужд.

Основные примитивы: MCP определяет набор стандартных типов сообщений и примитивов, которые структурируют взаимодействие ИИ-инструмента. Три фундаментальных примитива:

  • Инструменты: Дискретные операции или функции, которые ИИ может вызывать на сервере. Например, инструмент «searchDocuments» или инструмент «eth_call». Инструменты инкапсулируют действия, такие как запрос API, выполнение вычисления или вызов функции смарт-контракта. Клиент MCP может запросить список доступных инструментов у сервера и вызывать их по мере необходимости.
  • Ресурсы: Конечные точки данных, которые ИИ может считывать (или иногда записывать) через сервер. Это могут быть файлы, записи базы данных, состояние блокчейна (блоки, транзакции) или любые контекстные данные. ИИ может перечислять ресурсы и получать их содержимое через стандартные сообщения MCP (например, запросы ListResources и ReadResource).
  • Подсказки: Структурированные шаблоны подсказок или инструкции, которые серверы могут предоставлять для направления рассуждений ИИ. Например, сервер может предоставить шаблон форматирования или предопределенный запрос. ИИ может запросить список шаблонов подсказок и использовать их для поддержания согласованности в своем взаимодействии с этим сервером.

Под капотом, коммуникации MCP обычно основаны на JSON и следуют шаблону запрос-ответ, похожему на RPC (удаленный вызов процедур). Спецификация протокола определяет сообщения, такие как InitializeRequest, ListTools, CallTool, ListResources и т. д., которые гарантируют, что любой MCP-совместимый клиент может взаимодействовать с любым MCP-сервером унифицированным образом. Эта стандартизация позволяет ИИ-агенту обнаруживать, что он может делать: при подключении к новому серверу он может спросить: «Какие инструменты и данные вы предлагаете?» и затем динамически решить, как их использовать.

Модель безопасности и выполнения: MCP был разработан с учетом безопасных, контролируемых взаимодействий. Сама ИИ-модель не выполняет произвольный код; она отправляет высокоуровневые намерения (через клиент) на сервер, который затем выполняет фактическую операцию (например, извлечение данных или вызов API) и возвращает результаты. Это разделение означает, что конфиденциальные действия (такие как блокчейн-транзакции или записи в базу данных) могут быть изолированы или требовать явного одобрения пользователя. Например, существуют сообщения, такие как Ping (для поддержания соединений в активном состоянии) и даже CreateMessageRequest, которое позволяет серверу MCP попросить ИИ клиента сгенерировать под-ответ, обычно ограниченный подтверждением пользователя. Функции, такие как аутентификация, контроль доступа и аудит, активно разрабатываются для обеспечения безопасного использования MCP в корпоративных и децентрализованных средах (подробнее об этом в разделе «Дорожная карта»).

Таким образом, архитектура MCP основана на стандартизированном протоколе сообщений (с вызовами в стиле JSON-RPC), который соединяет ИИ-агентов (хостов) с гибким набором серверов, предоставляющих инструменты, данные и действия. Эта открытая архитектура независима от модели и независима от платформы — любой ИИ-агент может использовать MCP для взаимодействия с любым ресурсом, и любой разработчик может создать новый сервер MCP для источника данных без необходимости изменять основной код ИИ. Эта расширяемость по принципу «подключи и работай» делает MCP мощным в Web3: можно создавать серверы для блокчейн-нод, смарт-контрактов, кошельков или оракулов и бесшовно интегрировать эти возможности ИИ-агентами наряду с Web2 API.

3. Варианты использования и приложения MCP в Web3

MCP открывает широкий спектр вариантов использования, позволяя приложениям, управляемым ИИ, получать доступ к данным блокчейна и выполнять ончейн- или офчейн-действия безопасным, высокоуровневым способом. Вот некоторые ключевые приложения и проблемы, которые он помогает решить в домене Web3:

  • Анализ и запросы данных в блокчейне: ИИ-агенты могут запрашивать текущее состояние блокчейна в реальном времени для предоставления аналитики или запуска действий. Например, MCP-сервер, подключенный к ноде Ethereum, позволяет ИИ получать балансы счетов, считывать хранилище смарт-контрактов, отслеживать транзакции или получать журналы событий по запросу. Это превращает чат-бота или помощника по кодированию в блокчейн-обозреватель. Разработчики могут задавать ИИ-помощнику вопросы, такие как «Какова текущая ликвидность в пуле Uniswap X?» или «Смоделируйте стоимость газа этой транзакции Ethereum», и ИИ будет использовать инструменты MCP для вызова RPC-ноды и получения ответа из живой цепочки. Это гораздо мощнее, чем полагаться на обучающие данные ИИ или статические снимки.
  • Автоматизированное управление портфелем DeFi: Объединяя доступ к данным и инструменты для действий, ИИ-агенты могут управлять криптопортфелями или позициями DeFi. Например, «Оптимизатор хранилища ИИ» может отслеживать позиции пользователя в фарминговых пулах и автоматически предлагать или выполнять стратегии ребалансировки на основе рыночных условий в реальном времени. Аналогично, ИИ может выступать в качестве менеджера портфеля DeFi, корректируя распределение между протоколами при изменении риска или ставок. MCP предоставляет стандартный интерфейс для ИИ для чтения ончейн-метрик (цены, ликвидность, коэффициенты обеспечения) и затем вызова инструментов для выполнения транзакций (таких как перемещение средств или обмен активов), если это разрешено. Это может помочь пользователям максимизировать доходность или управлять риском 24/7 таким образом, что было бы трудно сделать вручную.
  • Пользовательские агенты на базе ИИ для транзакций: Представьте себе персонального ИИ-помощника, который может обрабатывать блокчейн-взаимодействия для пользователя. С помощью MCP такой агент может интегрироваться с кошельками и DApps для выполнения задач с помощью команд на естественном языке. Например, пользователь может сказать: «ИИ, отправь 0,5 ETH с моего кошелька Алисе» или «Застейкай мои токены в пуле с самой высокой APY». ИИ, через MCP, будет использовать безопасный сервер кошелька (хранящий приватный ключ пользователя) для создания и подписи транзакции, а также блокчейн-сервер MCP для ее трансляции. Этот сценарий превращает сложные взаимодействия через командную строку или Metamask в разговорный опыт. Крайне важно, чтобы здесь использовались безопасные MCP-серверы кошельков, обеспечивающие разрешения и подтверждения, но конечным результатом является упрощение ончейн-транзакций с помощью ИИ.
  • Помощники разработчиков и отладка смарт-контрактов: Разработчики Web3 могут использовать ИИ-помощников на базе MCP, которые осведомлены об инфраструктуре блокчейна. Например, MCP-серверы Chainstack для EVM и Solana предоставляют ИИ-помощникам для кодирования глубокую видимость в блокчейн-среду разработчика. Инженер по смарт-контрактам, использующий ИИ-помощника (в VS Code или IDE), может попросить ИИ получить текущее состояние контракта в тестовой сети, запустить симуляцию транзакции или проверить журналы — все это через вызовы MCP к локальным блокчейн-нодам. Это помогает в отладке и тестировании контрактов. ИИ больше не кодирует «вслепую»; он может фактически проверять, как код ведет себя в блокчейне в реальном времени. Этот вариант использования решает серьезную проблему, позволяя ИИ постоянно получать актуальную документацию (через MCP-сервер документации) и напрямую запрашивать блокчейн, уменьшая галлюцинации и делая предложения гораздо более точными.
  • Межпротокольная координация: Поскольку MCP является унифицированным интерфейсом, один ИИ-агент может координировать работу нескольких протоколов и сервисов одновременно — что чрезвычайно мощно в взаимосвязанном ландшафте Web3. Представьте себе автономного торгового агента, который отслеживает различные DeFi-платформы на предмет арбитража. Через MCP один агент может одновременно взаимодействовать с рынками кредитования Aave, кроссчейн-мостом LayerZero и аналитическим сервисом MEV (Miner Extractable Value), все через согласованный интерфейс. ИИ мог бы в одном «мыслительном процессе» собирать данные о ликвидности из Ethereum (через MCP-сервер на ноде Ethereum), получать информацию о ценах или данные оракулов (через другой сервер) и даже вызывать операции моста или обмена. Ранее такая многоплатформенная координация требовала бы сложных пользовательских ботов, но MCP предоставляет обобщенный способ для ИИ навигировать по всей экосистеме Web3, как если бы это был один большой пул данных/ресурсов. Это может позволить использовать передовые варианты использования, такие как кроссчейн-оптимизация доходности или автоматизированная защита от ликвидации, где ИИ проактивно перемещает активы или обеспечение между цепочками.
  • ИИ-боты для консультаций и поддержки: Еще одна категория — это пользовательские консультанты в криптоприложениях. Например, чат-бот помощи DeFi, интегрированный в платформу, такую как Uniswap или Compound, мог бы использовать MCP для получения информации в реальном времени для пользователя. Если пользователь спрашивает: «Как лучше всего хеджировать мою позицию?», ИИ может получить текущие ставки, данные о волатильности и детали портфеля пользователя через MCP, а затем дать контекстно-ориентированный ответ. Платформы изучают ИИ-помощников, встроенных в кошельки или dApps, которые могут направлять пользователей через сложные транзакции, объяснять риски и даже выполнять последовательности шагов с одобрения. Эти ИИ-агенты эффективно располагаются поверх нескольких сервисов Web3 (DEX, пулы кредитования, страховые протоколы), используя MCP для запроса и управления ими по мере необходимости, тем самым упрощая пользовательский опыт.
  • За пределами Web3 – Многодоменные рабочие процессы: Хотя наше внимание сосредоточено на Web3, стоит отметить, что варианты использования MCP распространяются на любую область, где ИИ нужны внешние данные. Он уже используется для подключения ИИ к таким вещам, как Google Drive, Slack, GitHub, Figma и многим другим. На практике один ИИ-агент может охватывать Web3 и Web2: например, анализировать финансовую модель Excel из Google Drive, затем предлагать ончейн-транзакции на основе этого анализа, все в одном рабочем процессе. Гибкость MCP позволяет автоматизировать кросс-доменные задачи (например, «запланировать мою встречу, если мое голосование DAO пройдет, и отправить результаты по электронной почте»), которые сочетают блокчейн-действия с повседневными инструментами.

Решенные проблемы: Главная проблема, которую решает MCP, — это отсутствие унифицированного интерфейса для взаимодействия ИИ с актуальными данными и сервисами. До MCP, если вы хотели, чтобы ИИ использовал новый сервис, вам приходилось вручную кодировать плагин или интеграцию для API этого конкретного сервиса, часто специальным образом. В Web3 это было особенно громоздко — каждый блокчейн или протокол имеет свои собственные интерфейсы, и ни один ИИ не мог надеяться поддерживать их все. MCP решает эту проблему, стандартизируя то, как ИИ описывает, что он хочет (естественный язык, сопоставленный с вызовами инструментов), и как сервисы описывают, что они предлагают. Это значительно сокращает объем интеграционной работы. Например, вместо написания пользовательского плагина для каждого протокола DeFi, разработчик может написать один MCP-сервер для этого протокола (по сути, аннотируя его функции на естественном языке). Любой ИИ с поддержкой MCP (будь то Claude, ChatGPT или модели с открытым исходным кодом) может немедленно использовать его. Это делает ИИ расширяемым по принципу «подключи и работай», подобно тому, как добавление нового устройства через универсальный порт проще, чем установка новой интерфейсной карты.

В итоге, MCP в Web3 позволяет ИИ-агентам стать полноправными гражданами мира блокчейна — запрашивать, анализировать и даже совершать транзакции в децентрализованных системах, все через безопасные, стандартизированные каналы. Это открывает двери для более автономных dApps, более умных пользовательских агентов и бесшовной интеграции ончейн- и офчейн-интеллекта.

4. Токеномика и модель управления

В отличие от типичных протоколов Web3, MCP не имеет собственного токена или криптовалюты. Он не является блокчейном или децентрализованной сетью сам по себе, а скорее открытой спецификацией протокола (по духу ближе к HTTP или JSON-RPC). Таким образом, нет встроенной токеномики — нет выпуска токенов, стейкинга или модели комиссий, присущих использованию MCP. ИИ-приложения и серверы общаются через MCP без участия какой-либо криптовалюты; например, ИИ, вызывающий блокчейн через MCP, может платить комиссии за газ для блокчейн-транзакции, но сам MCP не добавляет никаких дополнительных комиссий за токены. Этот дизайн отражает происхождение MCP в сообществе ИИ: он был представлен как технический стандарт для улучшения взаимодействия ИИ-инструментов, а не как токенизированный проект.

Управление MCP осуществляется открытым, управляемым сообществом способом. После выпуска MCP в качестве открытого стандарта Anthropic заявил о приверженности совместной разработке. Был сформирован широкий руководящий комитет и рабочие группы для управления развитием протокола. Примечательно, что к середине 2025 года крупные заинтересованные стороны, такие как Microsoft и GitHub, присоединились к руководящему комитету MCP наряду с Anthropic. Об этом было объявлено на Microsoft Build 2025, что указывает на коалицию игроков отрасли, направляющих дорожную карту и решения по стандартам MCP. Комитет и сопровождающие работают через открытый процесс управления: предложения по изменению или расширению MCP обычно обсуждаются публично (например, через проблемы GitHub и руководства по «SEP» — Предложениям по улучшению стандарта). Существует также рабочая группа по Реестру MCP (с сопровождающими из таких компаний, как Block, PulseMCP, GitHub и Anthropic), которая демонстрирует многостороннее управление. В начале 2025 года участники из по крайней мере 9 различных организаций сотрудничали для создания унифицированного реестра серверов MCP для обнаружения, демонстрируя, как разработка децентрализована среди членов сообщества, а не контролируется одной сущностью.

Поскольку токена нет, стимулы управления основаны на общих интересах заинтересованных сторон (ИИ-компаний, облачных провайдеров, блокчейн-разработчиков и т. д.) по улучшению протокола для всех. Это в некоторой степени аналогично тому, как управляются стандарты W3C или IETF, но с более быстрым процессом, ориентированным на GitHub. Например, Microsoft и Anthropic работали вместе над разработкой улучшенной спецификации авторизации для MCP (интегрируя такие вещи, как OAuth и единый вход), а GitHub сотрудничал над официальным сервисом Реестра MCP для перечисления доступных серверов. Эти улучшения были внесены обратно в спецификацию MCP на всеобщее благо.

Стоит отметить, что хотя сам MCP не токенизирован, существуют перспективные идеи о наложении экономических стимулов и децентрализации поверх MCP. Некоторые исследователи и лидеры мнений в Web3 предвидят появление «сетей MCP» — по сути, децентрализованных сетей серверов и агентов MCP, которые используют блокчейн-подобные механизмы для обнаружения, доверия и вознаграждений. В таком сценарии можно представить, что токен будет использоваться для вознаграждения тех, кто управляет высококачественными серверами MCP (подобно тому, как стимулируются майнеры или операторы нод). Такие возможности, как рейтинги репутации, проверяемые вычисления и обнаружение нод, могут быть облегчены смарт-контрактами или блокчейном, при этом токен будет стимулировать честное поведение. Это все еще концептуально, но такие проекты, как Namda от MIT (обсуждаемый позже), экспериментируют с механизмами стимулирования на основе токенов для сетей ИИ-агентов, использующих MCP. Если эти идеи созреют, MCP может более прямо пересекаться с ончейн-токеномикой, но по состоянию на 2025 год основной стандарт MCP остается без токенов.

Таким образом, «модель управления» MCP — это модель открытого технологического стандарта: совместно поддерживаемого сообществом и руководящим комитетом экспертов, без ончейн-токена управления. Решения принимаются на основе технических достоинств и широкого консенсуса, а не голосования, взвешенного по количеству монет. Это отличает MCP от многих протоколов Web3 — он стремится реализовать идеалы Web3 (децентрализация, интероперабельность, расширение прав и возможностей пользователей) через открытое программное обеспечение и стандарты, а не через проприетарный блокчейн или токен. По словам одного из аналитиков, «обещание Web3... наконец-то может быть реализовано не через блокчейн и криптовалюту, а через естественный язык и ИИ-агентов», позиционируя MCP как ключевой фактор этого видения. Тем не менее, по мере роста сетей MCP мы можем увидеть гибридные модели, где блокчейн-управление или механизмы стимулирования дополняют экосистему — за этим стоит внимательно следить.

5. Сообщество и экосистема

Экосистема MCP стремительно выросла за короткое время, охватывая ИИ-разработчиков, участников открытого исходного кода, Web3-инженеров и крупные технологические компании. Это активное усилие сообщества, с ключевыми участниками и партнерствами, включая:

  • Anthropic: Как создатель, Anthropic заложил основу экосистемы, открыв исходный код спецификации MCP и нескольких эталонных серверов (для Google Drive, Slack, GitHub и т. д.). Anthropic продолжает лидировать в разработке (например, сотрудники, такие как Теодора Чу, выступают в качестве менеджеров по продуктам MCP, а команда Anthropic активно участвует в обновлениях спецификаций и поддержке сообщества). Открытость Anthropic привлекла других к созданию на базе MCP, а не к рассмотрению его как инструмента одной компании.

  • Ранние пользователи (Block, Apollo, Zed, Replit, Codeium, Sourcegraph): В первые месяцы после выпуска волна ранних пользователей внедрила MCP в свои продукты. Block (ранее Square) интегрировал MCP для изучения агентных ИИ-систем в финтехе — технический директор Block высоко оценил MCP как открытый мост, соединяющий ИИ с реальными приложениями. Apollo (вероятно, Apollo GraphQL) также интегрировал MCP, чтобы позволить ИИ доступ к внутренним данным. Компании-разработчики инструментов, такие как Zed (редактор кода), Replit (облачная IDE), Codeium (ИИ-помощник для кодирования) и Sourcegraph (поиск кода), каждая работали над добавлением поддержки MCP. Например, Sourcegraph использует MCP, чтобы ИИ-помощник для кодирования мог извлекать соответствующий код из репозитория в ответ на вопрос, а агенты IDE Replit могут получать контекст, специфичный для проекта. Эти ранние пользователи придали MCP авторитет и видимость.

  • Поддержка крупных технологических компаний – OpenAI, Microsoft, Google: Примечательно, что компании, которые в противном случае являются конкурентами, объединились вокруг MCP. Генеральный директор OpenAI Сэм Альтман публично объявил в марте 2025 года, что OpenAI добавит поддержку MCP во все свои продукты (включая десктопное приложение ChatGPT), заявив: «Люди любят MCP, и мы рады добавить поддержку во все наши продукты». Это означало, что Agent API OpenAI и плагины ChatGPT будут использовать MCP, обеспечивая интероперабельность. Всего через несколько недель генеральный директор Google DeepMind Демис Хассабис сообщил, что предстоящие модели и инструменты Gemini от Google будут поддерживать MCP, назвав его хорошим протоколом и открытым стандартом для «эры ИИ-агентов». Microsoft не только присоединилась к руководящему комитету, но и сотрудничала с Anthropic для создания официального C# SDK для MCP, чтобы обслуживать сообщество корпоративных разработчиков. Подразделение GitHub от Microsoft интегрировало MCP в GitHub Copilot (режим «Copilot Labs/Agents» в VS Code), позволяя Copilot использовать серверы MCP для таких вещей, как поиск по репозиториям и запуск тестовых случаев. Кроме того, Microsoft объявила, что Windows 11 будет предоставлять определенные функции ОС (например, доступ к файловой системе) в качестве серверов MCP, чтобы ИИ-агенты могли безопасно взаимодействовать с операционной системой. Сотрудничество между OpenAI, Microsoft, Google и Anthropic — все они объединились вокруг MCP — является экстраординарным и подчеркивает этику сообщества, а не конкуренции, этого стандарта.

  • Сообщество Web3-разработчиков: Ряд блокчейн-разработчиков и стартапов приняли MCP. Было создано несколько управляемых сообществом MCP-серверов для обслуживания вариантов использования блокчейна:

    • Команда Alchemy (ведущего поставщика блокчейн-инфраструктуры) создала MCP-сервер Alchemy, который предлагает инструменты блокчейн-аналитики по запросу через MCP. Это, вероятно, позволяет ИИ получать статистику блокчейна (например, исторические транзакции, активность адресов) через API Alchemy, используя естественный язык.
    • Участники разработали MCP-сервер Bitcoin и Lightning Network для взаимодействия с нодами Bitcoin и платежной сетью Lightning, позволяя ИИ-агентам читать данные блоков Bitcoin или даже создавать счета Lightning через стандартные инструменты.
    • Криптомедиа и образовательная группа Bankless создала Onchain MCP-сервер, ориентированный на финансовые взаимодействия Web3, возможно, предоставляя интерфейс для протоколов DeFi (отправка транзакций, запрос позиций DeFi и т. д.) для ИИ-помощников.
    • Проекты, такие как Rollup.codes (база знаний для Ethereum Layer 2), создали MCP-сервер для информации об экосистеме роллапов, чтобы ИИ мог отвечать на технические вопросы о роллапах, запрашивая этот сервер.
    • Chainstack, поставщик блокчейн-нод, запустил набор MCP-серверов (упомянутых ранее) для документации, данных цепочки EVM и Solana, явно позиционируя его как «установку вашего ИИ на блокчейн-стероиды» для Web3-разработчиков.

    Кроме того, вокруг MCP возникли сообщества, ориентированные на Web3. Например, PulseMCP и Goose упоминаются как инициативы сообщества, помогающие создавать реестр MCP. Мы также наблюдаем перекрестное опыление с фреймворками ИИ-агентов: сообщество LangChain интегрировало адаптеры, так что все серверы MCP могут использоваться в качестве инструментов в агентах на базе LangChain, а платформы ИИ с открытым исходным кодом, такие как Hugging Face TGI (вывод текста), изучают совместимость с MCP. Результатом является богатая экосистема, где новые серверы MCP объявляются почти ежедневно, обслуживая все — от баз данных до устройств IoT.

  • Масштаб внедрения: Тягу можно в некоторой степени количественно оценить. К февралю 2025 года — всего через три месяца после запуска — сообществом было создано более 1000 серверов/коннекторов MCP. Это число только выросло, что указывает на тысячи интеграций в различных отраслях. Майк Кригер (директор по продуктам Anthropic) отметил к весне 2025 года, что MCP стал «процветающим открытым стандартом с тысячами интеграций и растущим числом». Официальный Реестр MCP (запущенный в предварительной версии в сентябре 2025 года) каталогизирует общедоступные серверы, облегчая обнаружение инструментов; открытый API реестра позволяет любому искать, например, «Ethereum» или «Notion» и находить соответствующие MCP-коннекторы. Это снижает барьер для новых участников и еще больше стимулирует рост.

  • Партнерства: Мы уже упоминали многие неявные партнерства (Anthropic с Microsoft и т. д.). Чтобы выделить еще несколько:

    • Anthropic и Slack: Anthropic сотрудничал со Slack для интеграции Claude с данными Slack через MCP (Slack имеет официальный сервер MCP, позволяющий ИИ получать сообщения Slack или публиковать оповещения).
    • Облачные провайдеры: Amazon (AWS) и Google Cloud работали с Anthropic над размещением Claude, и, вероятно, они поддерживают MCP в этих средах (например, AWS Bedrock может разрешать MCP-коннекторы для корпоративных данных). Хотя это явно не указано в цитатах, эти облачные партнерства важны для корпоративного внедрения.
    • Академическое сотрудничество: Исследовательский проект MIT и IBM Namda (обсуждаемый далее) представляет собой партнерство между академией и промышленностью для расширения границ MCP в децентрализованных условиях.
    • GitHub и VS Code: Партнерство для улучшения опыта разработчиков — например, команда VS Code активно участвовала в разработке MCP (один из сопровождающих реестра — из команды VS Code).
    • Многочисленные стартапы: Многие ИИ-стартапы (стартапы по агентам, стартапы по автоматизации рабочих процессов) строят свои решения на базе MCP вместо того, чтобы изобретать велосипед. Это включает новые Web3 ИИ-стартапы, стремящиеся предлагать «ИИ как DAO» или автономных экономических агентов.

В целом, сообщество MCP разнообразно и быстро расширяется. Оно включает основные технологические компании (для стандартов и базовых инструментов), Web3-специалистов (привносящих знания о блокчейне и варианты использования) и независимых разработчиков (которые часто вносят коннекторы для своих любимых приложений или протоколов). Этика — это сотрудничество. Например, проблемы безопасности сторонних серверов MCP вызвали обсуждения в сообществе и вклад в лучшие практики (например, участники Stacklok работают над инструментами безопасности для серверов MCP). Способность сообщества быстро итерировать (MCP претерпел несколько обновлений спецификаций в течение нескольких месяцев, добавив такие функции, как потоковая передача ответов и улучшенная аутентификация) является свидетельством широкого участия.

В экосистеме Web3, в частности, MCP способствовал формированию мини-экосистемы проектов «ИИ + Web3». Это не просто протокол для использования; он катализирует новые идеи, такие как DAO, управляемые ИИ, ончейн-управление, поддерживаемое ИИ-анализом, и кросс-доменная автоматизация (например, связывание ончейн-событий с офчейн-действиями через ИИ). Присутствие ключевых фигур Web3 — например, Живко Тодорова из LimeChain, заявившего: «MCP представляет собой неизбежную интеграцию ИИ и блокчейна» — показывает, что ветераны блокчейна активно его поддерживают. Партнерства между ИИ- и блокчейн-компаниями (такие как между Anthropic и Block, или облако Microsoft Azure, упрощающее развертывание MCP наряду с его блокчейн-сервисами) намекают на будущее, где ИИ-агенты и смарт-контракты будут работать рука об руку.

Можно сказать, что MCP зажег первое подлинное сближение сообщества ИИ-разработчиков с сообществом Web3-разработчиков. Хакатоны и митапы теперь включают треки MCP. В качестве конкретной меры внедрения экосистемы: к середине 2025 года OpenAI, Google и Anthropic — совместно представляющие большинство передовых моделей ИИ — все поддерживают MCP, а с другой стороны, ведущие поставщики блокчейн-инфраструктуры (Alchemy, Chainstack), криптокомпании (Block и т. д.) и децентрализованные проекты создают MCP-хуки. Этот двусторонний сетевой эффект предвещает, что MCP станет долгосрочным стандартом.

6. Дорожная карта и этапы развития

Развитие MCP было стремительным. Здесь мы описываем основные вехи на данный момент и дорожную карту на будущее, полученные из официальных источников и обновлений сообщества:

  • Конец 2024 года – Первоначальный выпуск: 25 ноября 2024 года Anthropic официально объявил о MCP и открыл исходный код спецификации и первоначальных SDK. Наряду со спецификацией они выпустили несколько реализаций MCP-серверов для общих инструментов (Google Drive, Slack, GitHub и т. д.) и добавили поддержку в ИИ-помощнике Claude (приложение Claude Desktop) для подключения к локальным MCP-серверам. Это ознаменовало запуск MCP 1.0. Ранние пилотные интеграции в Anthropic показали, как Claude может использовать MCP для чтения файлов или запроса базы данных SQL на естественном языке, подтверждая концепцию.
  • 1 квартал 2025 года – Быстрое внедрение и итерации: В первые несколько месяцев 2025 года MCP получил широкое распространение в отрасли. К марту 2025 года OpenAI и другие поставщики ИИ объявили о поддержке (как описано выше). В этот период также произошла эволюция спецификации: Anthropic обновил MCP, включив возможности потоковой передачи (позволяя отправлять большие результаты или непрерывные потоки данных инкрементально). Это обновление было отмечено в апреле 2025 года новостями о C# SDK, что указывает на то, что MCP теперь поддерживает такие функции, как фрагментированные ответы или интеграция с потоками в реальном времени. Сообщество также создало эталонные реализации на различных языках (Python, JavaScript и т. д.) помимо SDK Anthropic, обеспечивая многоязычную поддержку.
  • 2 квартал 2025 года – Инструменты экосистемы и управление: В мае 2025 года, когда Microsoft и GitHub присоединились к усилиям, был сделан акцент на формализации управления и повышении безопасности. На Build 2025 Microsoft представила планы по интеграции MCP в Windows 11 и подробно описала сотрудничество по улучшению потоков авторизации в MCP. Примерно в то же время была представлена идея Реестра MCP для индексации доступных серверов (первоначальный мозговой штурм начался в марте 2025 года, согласно блогу реестра). Процесс «стандартизации» (SEP — Предложения по улучшению стандарта) был установлен на GitHub, аналогично EIP Ethereum или PEP Python, для упорядоченного управления вкладами. Начали собираться звонки сообщества и рабочие группы (по безопасности, реестру, SDK).
  • Середина 2025 года – Расширение функционала: К середине 2025 года дорожная карта приоритезировала несколько ключевых улучшений:
    • Поддержка асинхронных и длительных задач: Планы по обеспечению обработки MCP длительных операций без блокировки соединения. Например, если ИИ запускает облачное задание, которое занимает минуты, протокол MCP будет поддерживать асинхронные ответы или переподключение для получения результатов.
    • Аутентификация и детальная безопасность: Разработка механизмов детальной авторизации для конфиденциальных действий. Это включает возможное интегрирование потоков OAuth, ключей API и корпоративного SSO в серверы MCP, чтобы доступ ИИ мог безопасно управляться. К середине 2025 года были в процессе разработки руководства и лучшие практики по безопасности MCP, учитывая риски безопасности, связанные с разрешением ИИ вызывать мощные инструменты. Цель состоит в том, чтобы, например, если ИИ должен получить доступ к частной базе данных пользователя через MCP, он следовал безопасному потоку авторизации (с согласия пользователя), а не просто открытой конечной точке.
    • Валидация и тестирование на соответствие: Признавая необходимость в надежности, сообщество приоритезировало создание наборов тестов на соответствие и эталонных реализаций. Обеспечивая соблюдение спецификации всеми клиентами/серверами MCP (через автоматизированное тестирование), они стремились предотвратить фрагментацию. Эталонный сервер (вероятно, пример с лучшими практиками для удаленного развертывания и аутентификации) был в дорожной карте, как и эталонное клиентское приложение, демонстрирующее полное использование MCP с ИИ.
    • Поддержка мультимодальности: Расширение MCP за пределы текста для поддержки модальностей, таких как изображения, аудио, видео данные в контексте. Например, ИИ может запросить изображение у сервера MCP (скажем, дизайнерский актив или диаграмму) или вывести изображение. Обсуждение спецификации включало добавление поддержки потоковой передачи и фрагментированных сообщений для интерактивной обработки большого мультимедийного контента. Ранняя работа над «MCP Streaming» уже велась (для поддержки таких вещей, как потоки живого аудио или непрерывные данные датчиков для ИИ).
    • Центральный реестр и обнаружение: План по реализации центрального сервиса Реестра MCP для обнаружения серверов был выполнен в середине 2025 года. К сентябрю 2025 года был запущен официальный Реестр MCP (предварительная версия). Этот реестр предоставляет единый источник истины для общедоступных серверов MCP, позволяя клиентам находить серверы по имени, категории или возможностям. По сути, это как магазин приложений (но открытый) для ИИ-инструментов. Дизайн позволяет использовать публичные реестры (глобальный индекс) и частные (специфичные для предприятий), все они интероперабельны через общий API. Реестр также представил механизм модерации для пометки или удаления вредоносных серверов, с моделью модерации сообщества для поддержания качества.
  • Конец 2025 года и далее – К децентрализованным сетям MCP: Хотя это еще не «официальные» пункты дорожной карты, траектория указывает на большую децентрализацию и синергию с Web3:
    • Исследователи активно изучают, как добавить децентрализованные слои обнаружения, репутации и стимулирования к MCP. Концепция Сети MCP (или «рынка конечных точек MCP») находится в стадии инкубации. Это может включать реестры на основе смарт-контрактов (чтобы не было единой точки отказа для списков серверов), системы репутации, где серверы/клиенты имеют ончейн-идентификаторы и стейк для добросовестного поведения, и, возможно, токен-вознаграждения за запуск надежных нод MCP.
    • Проект Namda в MIT, начатый в 2024 году, является конкретным шагом в этом направлении. К 2025 году Namda построила прототип распределенной агентной среды на основе MCP, включая такие функции, как динамическое обнаружение нод, балансировка нагрузки между кластерами агентов и децентрализованный реестр с использованием блокчейн-технологий. Они даже имеют экспериментальные стимулы на основе токенов и отслеживание происхождения для многоагентного сотрудничества. Вехи Namda показывают, что возможно создать сеть агентов MCP, работающих на многих машинах с бездоверительной координацией. Если концепции Namda будут приняты, мы можем увидеть, как MCP эволюционирует, чтобы включить некоторые из этих идей (возможно, через необязательные расширения или отдельные протоколы, наложенные сверху).
    • Укрепление для предприятий: Что касается корпоративного сектора, к концу 2025 года мы ожидаем, что MCP будет интегрирован в основные корпоративные программные предложения (включение Microsoft в Windows и Azure является одним из примеров). Дорожная карта включает функции, удобные для предприятий, такие как интеграция SSO для серверов MCP и надежные средства контроля доступа. Общая доступность Реестра MCP и наборов инструментов для развертывания MCP в масштабе (например, внутри корпоративной сети) ожидается к концу 2025 года.

Чтобы подытожить некоторые ключевые этапы развития на данный момент (формат временной шкалы для ясности):

  • Ноябрь 2024: Выпущен MCP 1.0 (Anthropic).
  • Декабрь 2024 – Январь 2025: Сообщество создает первую волну MCP-серверов; Anthropic выпускает Claude Desktop с поддержкой MCP; пилотные проекты малого масштаба от Block, Apollo и т. д.
  • Февраль 2025: Достигнуто более 1000 MCP-коннекторов сообщества; Anthropic проводит семинары (например, на саммите ИИ, способствуя образованию).
  • Март 2025: OpenAI объявляет о поддержке (ChatGPT Agents SDK).
  • Апрель 2025: Google DeepMind объявляет о поддержке (Gemini будет поддерживать MCP); Microsoft выпускает предварительную версию C# SDK.
  • Май 2025: Расширен Руководящий комитет (Microsoft/GitHub); демонстрации на Build 2025 (интеграция MCP в Windows).
  • Июнь 2025: Chainstack запускает Web3 MCP-серверы (EVM/Solana) для публичного использования.
  • Июль 2025: Обновления версии спецификации MCP (потоковая передача, улучшения аутентификации); официальная Дорожная карта опубликована на сайте MCP.
  • Сентябрь 2025: Запущен Реестр MCP (предварительная версия); вероятно, MCP достигнет общей доступности в большем количестве продуктов (Claude для работы и т. д.).
  • Конец 2025 года (прогноз): Реестр v1.0 запущен; выпущены руководства по лучшим практикам безопасности; возможно, первые эксперименты с децентрализованным обнаружением (результаты Namda).

Дальнейшее видение состоит в том, что MCP станет таким же повсеместным и невидимым, как HTTP или JSON — общим уровнем, который многие приложения используют под капотом. Для Web3 дорожная карта предполагает более глубокое слияние: где ИИ-агенты не только будут использовать Web3 (блокчейны) в качестве источников или приемников информации, но и сама инфраструктура Web3 может начать включать ИИ-агентов (через MCP) как часть своей работы (например, DAO может запускать MCP-совместимый ИИ для управления определенными задачами, или оракулы могут публиковать данные через конечные точки MCP). Акцент дорожной карты на таких вещах, как проверяемость и аутентификация, намекает на то, что в будущем взаимодействия MCP с минимизацией доверия могут стать реальностью — представьте себе выводы ИИ, которые сопровождаются криптографическими доказательствами, или ончейн-журнал того, какие инструменты ИИ вызывал для целей аудита. Эти возможности стирают грань между ИИ и блокчейн-сетями, и MCP находится в центре этого сближения.

В заключение, развитие MCP очень динамично. Он достиг важных ранних вех (широкое внедрение и стандартизация в течение года после запуска) и продолжает быстро развиваться с четкой дорожной картой, подчеркивающей безопасность, масштабируемость и обнаружение. Достигнутые и запланированные вехи гарантируют, что MCP останется надежным по мере масштабирования: решение таких проблем, как длительные задачи, безопасные разрешения и простота обнаружения тысяч инструментов. Этот импульс вперед указывает на то, что MCP — это не статическая спецификация, а растущий стандарт, который, вероятно, будет включать больше функций в стиле Web3 (децентрализованное управление серверами, согласование стимулов) по мере возникновения таких потребностей. Сообщество готово адаптировать MCP к новым вариантам использования (мультимодальный ИИ, IoT и т. д.), при этом сохраняя основное обещание: сделать ИИ более связанным, контекстно-ориентированным и расширяющим возможности пользователей в эпоху Web3.

7. Сравнение с аналогичными проектами или протоколами Web3

Уникальное сочетание ИИ и связности MCP означает, что прямых аналогов не так много, но полезно сравнить его с другими проектами на пересечении Web3 и ИИ или с аналогичными целями:

  • SingularityNET (AGI/X)Децентрализованный рынок ИИ: SingularityNET, запущенный в 2017 году доктором Беном Гертцелем и другими, представляет собой блокчейн-рынок для ИИ-сервисов. Он позволяет разработчикам монетизировать ИИ-алгоритмы как сервисы, а пользователям — потреблять эти сервисы, все это облегчается токеном (AGIX), который используется для платежей и управления. По сути, SingularityNET пытается децентрализовать предложение ИИ-моделей, размещая их в сети, где любой может вызвать ИИ-сервис в обмен на токены. Это принципиально отличается от MCP. MCP не размещает и не монетизирует ИИ-модели; вместо этого он предоставляет стандартный интерфейс для ИИ (где бы он ни работал) для доступа к данным/инструментам. Можно представить использование MCP для подключения ИИ к сервисам, перечисленным на SingularityNET, но сам SingularityNET фокусируется на экономическом уровне (кто предоставляет ИИ-сервис и как он получает оплату). Еще одно ключевое отличие: Управление — SingularityNET имеет ончейн-управление (через Предложения по улучшению SingularityNET (SNEP) и голосование токенами AGIX) для развития своей платформы. Управление MCP, напротив, является офчейн и совместным, без токена. В итоге, SingularityNET и MCP оба стремятся к более открытой экосистеме ИИ, но SingularityNET — это токенизированная сеть ИИ-алгоритмов, тогда как MCP — это стандарт протокола для интероперабельности ИИ-инструментов. Они могут дополнять друг друга: например, ИИ на SingularityNET может использовать MCP для получения необходимых внешних данных. Но SingularityNET не пытается стандартизировать использование инструментов; он использует блокчейн для координации ИИ-сервисов, в то время как MCP использует программные стандарты, чтобы позволить ИИ работать с любым сервисом.
  • Fetch.ai (FET)Децентрализованная платформа на основе агентов: Fetch.ai — еще один проект, сочетающий ИИ и блокчейн. Он запустил свой собственный блокчейн с доказательством доли и фреймворк для создания автономных агентов, которые выполняют задачи и взаимодействуют в децентрализованной сети. В видении Fetch миллионы «программных агентов» (представляющих людей, устройства или организации) могут договариваться и обмениваться ценностями, используя токены FET для транзакций. Fetch.ai предоставляет агентную среду (uAgents) и инфраструктуру для обнаружения и связи между агентами в своем реестре. Например, агент Fetch может помочь оптимизировать трафик в городе, взаимодействуя с другими агентами по вопросам парковки и транспорта, или автономно управлять рабочим процессом цепочки поставок. Как это сравнивается с MCP? Оба проекта имеют дело с концепцией агентов, но агенты Fetch.ai тесно связаны с его блокчейном и токен-экономикой — они живут в сети Fetch и используют ончейн-логику. Агенты MCP (хосты ИИ) управляются моделями (как LLM) и не привязаны к какой-либо одной сети; MCP довольствуется работой через интернет или в облачной среде, не требуя блокчейна. Fetch.ai пытается построить новую децентрализованную экономику ИИ с нуля (со своим собственным реестром для доверия и транзакций), тогда как MCP независим от уровня — он использует существующие сети (может использоваться через HTTPS или даже поверх блокчейна, если необходимо) для обеспечения ИИ-взаимодействий. Можно сказать, что Fetch больше о автономных экономических агентах, а MCP — о умных агентах, использующих инструменты. Интересно, что они могут пересекаться: автономный агент на Fetch.ai может использовать MCP для взаимодействия с офчейн-ресурсами или другими блокчейнами. И наоборот, можно использовать MCP для создания многоагентных систем, которые используют различные блокчейны (а не только один). На практике MCP получил более быстрое распространение, потому что ему не требовалась собственная сеть — он работает с Ethereum, Solana, Web2 API и т. д. из коробки. Подход Fetch.ai более тяжеловесен, создавая целую экосистему, к которой участники должны присоединиться (и приобрести токены) для использования. В итоге, Fetch.ai против MCP: Fetch — это платформа со своим токеном/блокчейном для ИИ-агентов, фокусирующаяся на интероперабельности и экономическом обмене между агентами, в то время как MCP — это протокол, который ИИ-агенты (в любой среде) могут использовать для подключения к инструментам и данным. Их цели пересекаются в обеспечении автоматизации, управляемой ИИ, но они решают разные уровни стека и имеют очень разные архитектурные философии (закрытая экосистема против открытого стандарта).
  • Chainlink и децентрализованные оракулыПодключение блокчейнов к офчейн-данным: Chainlink не является ИИ-проектом, но он очень актуален как протокол Web3, решающий дополнительную проблему: как соединить блокчейны с внешними данными и вычислениями. Chainlink — это децентрализованная сеть нод (оракулов), которые получают, проверяют и доставляют офчейн-данные смарт-контрактам способом с минимизацией доверия. Например, оракулы Chainlink предоставляют ценовые потоки для протоколов DeFi или вызывают внешние API от имени смарт-контрактов через Chainlink Functions. Сравнительно, MCP соединяет ИИ-модели с внешними данными/инструментами (некоторые из которых могут быть блокчейнами). Можно сказать, что Chainlink доставляет данные в блокчейны, а MCP доставляет данные в ИИ. Существует концептуальная параллель: оба устанавливают мост между иначе изолированными системами. Chainlink фокусируется на надежности, децентрализации и безопасности данных, подаваемых в блокчейн (решая «проблему оракула» единой точки отказа). MCP фокусируется на гибкости и стандартизации того, как ИИ может получать доступ к данным (решая «проблему интеграции» для ИИ-агентов). Они работают в разных областях (смарт-контракты против ИИ-помощников), но можно сравнить серверы MCP с оракулами: MCP-сервер для ценовых данных может вызывать те же API, что и нода Chainlink. Разница в потребителе — в случае MCP потребителем является ИИ или пользовательский помощник, а не детерминированный смарт-контракт. Кроме того, MCP по своей сути не предоставляет гарантий доверия, которые предоставляет Chainlink (серверы MCP могут быть централизованными или управляемыми сообществом, при этом доверие управляется на уровне приложения). Однако, как упоминалось ранее, идеи децентрализации сетей MCP могут заимствовать из сетей оракулов — например, можно запрашивать несколько серверов MCP и перепроверять результаты, чтобы убедиться, что ИИ не получает плохие данные, подобно тому, как несколько нод Chainlink агрегируют цену. Короче говоря, Chainlink против MCP: Chainlink — это Web3-промежуточное ПО для блокчейнов для потребления внешних данных, MCP — это ИИ-промежуточное ПО для моделей для потребления внешних данных (которые могут включать данные блокчейна). Они решают аналогичные потребности в разных областях и даже могут дополнять друг друга: ИИ, использующий MCP, может получать данные, предоставляемые Chainlink, в качестве надежного ресурса, и наоборот, ИИ может служить источником анализа, который оракул Chainlink доставляет в блокчейн (хотя последний сценарий поднимет вопросы проверяемости).
  • Плагины ChatGPT / Функции OpenAI против MCPПодходы к интеграции ИИ-инструментов: Хотя это не Web3-проекты, быстрое сравнение оправдано, потому что плагины ChatGPT и функция вызова функций OpenAI также соединяют ИИ с внешними инструментами. Плагины ChatGPT используют спецификацию OpenAPI, предоставляемую сервисом, и модель затем может вызывать эти API в соответствии со спецификацией. Ограничения заключаются в том, что это закрытая экосистема (плагины, одобренные OpenAI, работающие на серверах OpenAI) и каждый плагин представляет собой изолированную интеграцию. Новый SDK «Agents» от OpenAI ближе к MCP по концепции, позволяя разработчикам определять инструменты/функции, которые ИИ может использовать, но изначально он был специфичен для экосистемы OpenAI. LangChain аналогичным образом предоставил фреймворк для предоставления LLM инструментов в коде. MCP отличается тем, что предлагает открытый, независимый от модели стандарт для этого. Как выразился один аналитик, LangChain создал стандарт, ориентированный на разработчиков (интерфейс Python) для инструментов, тогда как MCP создает стандарт, ориентированный на модели — ИИ-агент может обнаруживать и использовать любой инструмент, определенный MCP, во время выполнения без пользовательского кода. На практике экосистема серверов MCP выросла больше и разнообразнее, чем магазин плагинов ChatGPT, в течение нескольких месяцев. И вместо того, чтобы каждая модель имела свой собственный формат плагинов (у OpenAI был свой, у других были другие), многие объединяются вокруг MCP. Сама OpenAI заявила о поддержке MCP, по сути, согласовав свой подход к функциям с более широким стандартом. Итак, сравнивая плагины OpenAI с MCP: плагины — это курируемый, централизованный подход, в то время как MCP — это децентрализованный, управляемый сообществом подход. В менталитете Web3 MCP более «открытый исходный код и без разрешений», тогда как проприетарные экосистемы плагинов более закрыты. Это делает MCP аналогичным этосу Web3, хотя это не блокчейн — он обеспечивает интероперабельность и пользовательский контроль (вы можете запустить свой собственный сервер MCP для своих данных, вместо того чтобы отдавать все одному поставщику ИИ). Это сравнение показывает, почему многие считают, что MCP имеет больший долгосрочный потенциал: он не привязан к одному поставщику или одной модели.
  • Проект Namda и децентрализованные агентные фреймворки: Namda заслуживает отдельного упоминания, потому что он явно сочетает MCP с концепциями Web3. Как описано ранее, Namda (Сетевая модульная распределенная архитектура агентов) — это инициатива MIT/IBM, начатая в 2024 году для создания масштабируемой, распределенной сети ИИ-агентов с использованием MCP в качестве уровня связи. Она рассматривает MCP как основу для обмена сообщениями (поскольку MCP использует стандартные сообщения, похожие на JSON-RPC, он хорошо подходит для меж-агентных коммуникаций), а затем добавляет слои для динамического обнаружения, отказоустойчивости и проверяемых идентификаторов с использованием методик, вдохновленных блокчейном. Агенты Namda могут находиться где угодно (облако, периферийные устройства и т. д.), но децентрализованный реестр (нечто вроде DHT или блокчейна) отслеживает их и их возможности способом, защищенным от подделки. Они даже исследуют предоставление агентам токенов для стимулирования сотрудничества или совместного использования ресурсов. По сути, Namda — это эксперимент по созданию «Web3-версии MCP». Это еще не широко развернутый проект, но он является одним из самых близких «аналогичных протоколов» по духу. Если мы рассмотрим Namda против MCP: Namda использует MCP (поэтому это не конкурирующие стандарты), но расширяет его протоколом для сетевого взаимодействия и координации нескольких агентов способом с минимизацией доверия. Можно сравнить Namda с фреймворками, такими как Autonolas или многоагентные системы (MAS), которые криптосообщество видело, но им часто не хватало мощного ИИ-компонента или общего протокола. Namda + MCP вместе демонстрируют, как может функционировать децентрализованная агентная сеть, при этом блокчейн обеспечивает идентификацию, репутацию и, возможно, токен-стимулы, а MCP — связь агентов и использование инструментов.

В итоге, MCP выделяется среди большинства предыдущих Web3-проектов: он вообще не начинался как криптопроект, но быстро пересекается с Web3, потому что решает дополнительные проблемы. Такие проекты, как SingularityNET и Fetch.ai, стремились децентрализовать ИИ-вычисления или сервисы с использованием блокчейна; MCP вместо этого стандартизирует интеграцию ИИ с сервисами, что может усилить децентрализацию, избегая привязки к платформе. Сети оракулов, такие как Chainlink, решали проблему доставки данных в блокчейн; MCP решает проблему доставки данных в ИИ (включая данные блокчейна). Если основные идеалы Web3 — это децентрализация, интероперабельность и расширение прав и возможностей пользователей, то MCP атакует часть интероперабельности в области ИИ. Он даже влияет на эти старые проекты — например, ничто не мешает SingularityNET сделать свои ИИ-сервисы доступными через серверы MCP, или агентам Fetch использовать MCP для взаимодействия с внешними системами. Мы вполне можем увидеть сближение, когда ИИ-сети, управляемые токенами, будут использовать MCP в качестве своего лингва франка, сочетая структуру стимулов Web3 с гибкостью MCP.

Наконец, если мы рассмотрим восприятие рынка: MCP часто рекламируется как то, что он делает для ИИ то, что Web3 надеялся сделать для интернета — разрушить барьеры и расширить возможности пользователей. Это привело к тому, что MCP неофициально называют «Web3 для ИИ» (даже когда блокчейн не задействован). Однако важно признать, что MCP — это стандарт протокола, тогда как большинство проектов Web3 — это полнофункциональные платформы с экономическими уровнями. В сравнениях MCP обычно оказывается более легким, универсальным решением, в то время как блокчейн-проекты — более тяжелые, специализированные решения. В зависимости от варианта использования они могут дополнять, а не строго конкурировать. По мере созревания экосистемы мы можем увидеть, что MCP будет интегрирован во многие Web3-проекты как модуль (подобно тому, как HTTP или JSON повсеместны), а не как конкурирующий проект.

8. Общественное восприятие, рыночная динамика и освещение в СМИ

Общественное мнение о MCP было подавляюще позитивным как в сообществах ИИ, так и в Web3, часто граничащим с энтузиазмом. Многие видят в нем переломный момент, который появился тихо, но затем штурмом взял индустрию. Давайте разберем восприятие, динамику и заметные медиа-нарративы:

Рыночная динамика и метрики внедрения: К середине 2025 года MCP достиг уровня внедрения, редкого для нового протокола. Его поддерживают практически все основные поставщики ИИ-моделей (Anthropic, OpenAI, Google, Meta) и инфраструктура крупных технологических компаний (Microsoft, GitHub, AWS и т. д.), как подробно описано ранее. Одно это сигнализирует рынку, что MCP, вероятно, останется (подобно тому, как широкая поддержка способствовала развитию TCP/IP или HTTP в первые дни интернета). Со стороны Web3 динамика очевидна в поведении разработчиков: на хакатонах стали появляться проекты MCP, и многие инструменты для блокчейн-разработки теперь упоминают интеграцию MCP как преимущество. Статистика «более 1000 коннекторов за несколько месяцев» и цитата Майка Кригера о «тысячах интеграций» часто приводятся для иллюстрации того, как быстро MCP набрал популярность. Это предполагает сильные сетевые эффекты — чем больше инструментов доступно через MCP, тем он полезнее, что стимулирует дальнейшее внедрение (положительная обратная связь). Венчурные капиталисты и аналитики отмечают, что MCP достиг за менее чем год того, чего более ранние попытки «интероперабельности ИИ» не смогли сделать за несколько лет, в основном благодаря своевременности (оседлав волну интереса к ИИ-агентам) и открытому исходному коду. В Web3-медиа динамика иногда измеряется с точки зрения внимания разработчиков и интеграции в проекты, и MCP сейчас высоко оценивается по обоим показателям.

Общественное восприятие в сообществах ИИ и Web3: Изначально MCP оставался незамеченным, когда был впервые анонсирован (конец 2024 года). Но к началу 2025 года, по мере появления историй успеха, восприятие изменилось на восторженное. Практики ИИ увидели в MCP «недостающий элемент головоломки» для того, чтобы сделать ИИ-агентов по-настоящему полезными за пределами игрушечных примеров. Разработчики Web3, с другой стороны, увидели в нем мост для окончательного включения ИИ в dApps без отказа от децентрализации — ИИ может использовать ончейн-данные, например, без необходимости в централизованном оракуле. Лидеры мнений поют дифирамбы: например, Хесус Родригес (известный автор по Web3 AI) написал в CoinDesk, что MCP может быть «одним из самых трансформационных протоколов для эры ИИ и отлично подходящим для архитектур Web3». Рарес Крисан в блоге Notable Capital утверждал, что MCP может выполнить обещание Web3, где блокчейн сам по себе испытывал трудности, сделав интернет более ориентированным на пользователя и естественным для взаимодействия. Эти нарративы представляют MCP как революционный, но практичный — не просто хайп.

Справедливости ради, не все комментарии некритичны. Некоторые ИИ-разработчики на форумах, таких как Reddit, указывали, что MCP «не делает всего» — это протокол связи, а не готовый агент или механизм рассуждений. Например, одно обсуждение на Reddit под названием «MCP — это тупик» утверждало, что сам по себе MCP не управляет когнитивными способностями агента и не гарантирует качество; он по-прежнему требует хорошего дизайна агента и средств контроля безопасности. Эта точка зрения предполагает, что MCP может быть переоценен как серебряная пуля. Однако эти критические замечания скорее направлены на смягчение ожиданий, чем на отказ от полезности MCP. Они подчеркивают, что MCP решает проблему подключения инструментов, но все еще необходимо создавать надежную логику агента (т. е. MCP не создает магическим образом интеллектуального агента, он оснащает его инструментами). Консенсус, однако, заключается в том, что MCP — это большой шаг вперед, даже среди осторожных голосов. В блоге сообщества Hugging Face отмечалось, что, хотя MCP не является панацеей, он является важным фактором для интегрированного, контекстно-ориентированного ИИ, и разработчики объединяются вокруг него по этой причине.

Освещение в СМИ: MCP получил значительное освещение как в основных технологических СМИ, так и в нишевых блокчейн-изданиях:

  • TechCrunch опубликовал несколько статей. Они освещали первоначальную концепцию («Anthropic предлагает новый способ подключения данных к ИИ-чат-ботам») примерно во время запуска в 2024 году. В 2025 году TechCrunch освещал каждый крупный момент внедрения: поддержку OpenAI, принятие Google, участие Microsoft/GitHub. Эти статьи часто подчеркивают единство отрасли вокруг MCP. Например, TechCrunch цитировал одобрение Сэма Альтмана и отмечал быстрый переход от конкурирующих стандартов к MCP. При этом они изображали MCP как развивающийся стандарт, подобно тому, как никто не хотел остаться в стороне от интернет-протоколов в 90-х. Такое освещение в известном издании сигнализировало более широкому технологическому миру, что MCP важен и реален, а не просто маргинальный проект с открытым исходным кодом.
  • CoinDesk и другие криптоиздания ухватились за Web3-аспект. Колонка Родригеса в CoinDesk (июль 2025 года) часто цитируется; она рисовала футуристическую картину, где каждый блокчейн мог бы быть MCP-сервером, а новые сети MCP могли бы работать на блокчейнах. Она связывала MCP с такими концепциями, как децентрализованная идентификация, аутентификация и проверяемость — говоря на языке блокчейн-аудитории и предполагая, что MCP может быть протоколом, который по-настоящему объединит ИИ с децентрализованными фреймворками. Cointelegraph, Bankless и другие также обсуждали MCP в контексте «ИИ-агентов и DeFi» и подобных тем, обычно оптимистично оценивая возможности (например, у Bankless была статья об использовании MCP, чтобы позволить ИИ управлять ончейн-транзакциями, и она включала инструкцию по созданию собственного MCP-сервера).
  • Известные блоги венчурных капиталистов / Аналитические отчеты: Блог Notable Capital (июль 2025 года) является примером венчурного анализа, проводящего параллели между MCP и эволюцией веб-протоколов. По сути, он утверждает, что MCP может сделать для Web3 то, что HTTP сделал для Web1 — предоставить новый интерфейсный уровень (интерфейс на естественном языке), который не заменяет базовую инфраструктуру, но делает ее пригодной для использования. Такой нарратив убедителен и повторялся в панельных дискуссиях и подкастах. Он позиционирует MCP не как конкурирующий с блокчейном, а как следующий уровень абстракции, который наконец-то позволяет обычным пользователям (через ИИ) легко использовать блокчейн и веб-сервисы.
  • Ажиотаж в сообществе разработчиков: Помимо официальных статей, рост MCP можно оценить по его присутствию в дискуссиях разработчиков — на конференциях, YouTube-каналах, в рассылках. Например, были популярные посты в блогах, такие как «MCP: Недостающее звено для агентного ИИ?» на таких сайтах, как Runtime.news, и рассылки (например, от ИИ-исследователя Натана Ламберта), обсуждающие практические эксперименты с MCP и то, как он сравнивается с другими фреймворками для использования инструментов. Общий тон — любопытство и энтузиазм: разработчики делятся демонстрациями подключения ИИ к своей домашней автоматизации или криптокошельку всего несколькими строками кода с использованием серверов MCP, что еще недавно казалось научной фантастикой. Этот низовой энтузиазм важен, потому что он показывает, что MCP имеет влияние не только благодаря корпоративным одобрениям.
  • Корпоративная перспектива: СМИ и аналитики, специализирующиеся на корпоративном ИИ, также отмечают MCP как ключевое событие. Например, The New Stack освещал, как Anthropic добавил поддержку удаленных серверов MCP в Claude для корпоративного использования. Здесь акцент делается на том, что предприятия могут использовать MCP для безопасного подключения своих внутренних баз знаний и систем к ИИ. Это важно и для Web3, поскольку многие блокчейн-компании сами являются предприятиями и могут использовать MCP внутри компании (например, криптобиржа может использовать MCP, чтобы позволить ИИ анализировать внутренние журналы транзакций для обнаружения мошенничества).

Известные цитаты и реакции: Стоит выделить несколько, которые инкапсулируют общественное восприятие:

  • «Подобно тому, как HTTP произвел революцию в веб-коммуникациях, MCP предоставляет универсальную основу... заменяя фрагментированные интеграции единым протоколом». — CoinDesk. Это сравнение с HTTP мощно; оно представляет MCP как инновацию на уровне инфраструктуры.
  • «MCP [стал] процветающим открытым стандартом с тысячами интеграций и растущим числом. LLM наиболее полезны при подключении к уже имеющимся у вас данным...» — Майк Кригер (директор по продуктам Anthropic). Это официальное подтверждение как динамики, так и основного ценностного предложения, которое широко распространилось в социальных сетях.
  • «Обещание Web3... наконец-то может быть реализовано... через естественный язык и ИИ-агентов. ...MCP — это самое близкое, что мы видели к настоящему Web3 для масс». — Notable Capital. Это смелое заявление находит отклик у тех, кто разочарован медленными улучшениями UX в криптоиндустрии; оно предполагает, что ИИ может взломать код массового внедрения, абстрагируя сложность.

Вызовы и скептицизм: Хотя энтузиазм высок, СМИ также обсуждали вызовы:

  • Проблемы безопасности: Такие издания, как The New Stack или блоги по безопасности, поднимали вопрос о том, что разрешение ИИ выполнять инструменты может быть опасным, если не изолировано. Что, если вредоносный MCP-сервер попытается заставить ИИ выполнить вредоносное действие? Блог LimeChain прямо предупреждает о «значительных рисках безопасности» с MCP-серверами, разработанными сообществом (например, сервер, который обрабатывает приватные ключи, должен быть чрезвычайно безопасным). Эти опасения повторялись в дискуссиях: по сути, MCP расширяет возможности ИИ, но с властью приходит риск. Ответ сообщества (руководства, механизмы аутентификации) также освещался, в целом успокаивая, что меры по смягчению рисков разрабатываются. Тем не менее, любое громкое неправомерное использование MCP (скажем, ИИ спровоцировал непреднамеренный криптоперевод) повлияет на восприятие, поэтому СМИ внимательно следят за этим.
  • Производительность и стоимость: Некоторые аналитики отмечают, что использование ИИ-агентов с инструментами может быть медленнее или дороже, чем прямой вызов API (поскольку ИИ может потребоваться несколько шагов туда-обратно, чтобы получить то, что ему нужно). В контекстах высокочастотной торговли или ончейн-исполнения такая задержка может быть проблематичной. На данный момент это рассматривается как технические препятствия, которые нужно оптимизировать (через лучший дизайн агента или потоковую передачу), а не как непреодолимые проблемы.
  • Управление хайпом: Как и в случае с любой модной технологией, есть доля хайпа. Несколько голосов предостерегают от объявления MCP решением всех проблем. Например, статья Hugging Face спрашивает: «Является ли MCP серебряной пулей?» и отвечает отрицательно — разработчикам по-прежнему необходимо управлять контекстом, и MCP лучше всего работает в сочетании с хорошими стратегиями подсказок и памяти. Такие сбалансированные мнения полезны в дискурсе.

Общее настроение СМИ: Нарратив, который формируется, в значительной степени обнадеживающий и дальновидный:

  • MCP рассматривается как практический инструмент, обеспечивающий реальные улучшения уже сейчас (поэтому это не вейпвар), что СМИ подчеркивают, приводя работающие примеры: Claude читает файлы, Copilot использует MCP в VSCode, ИИ завершает транзакцию Solana в демо и т. д.
  • Он также изображается как стратегический стержень для будущего как ИИ, так и Web3. СМИ часто заключают, что MCP или подобные ему вещи будут необходимы для «децентрализованного ИИ» или «Web4» или любого другого термина, используемого для веб-технологий следующего поколения. Есть ощущение, что MCP открыл дверь, и теперь инновации текут — будь то децентрализованные агенты Namda или предприятия, подключающие устаревшие системы к ИИ, многие будущие сюжетные линии восходят к появлению MCP.

На рынке можно оценить динамику по формированию стартапов и финансированию вокруг экосистемы MCP. Действительно, ходят слухи/сообщения о стартапах, ориентированных на «рынки MCP» или управляемые MCP-платформы, получающих финансирование (Notable Capital, пишущий об этом, предполагает интерес венчурных капиталистов). Мы можем ожидать, что СМИ начнут освещать это косвенно — например, «Стартап X использует MCP, чтобы ваш ИИ управлял вашим криптопортфелем — привлек $Y миллионов».

Вывод о восприятии: К концу 2025 года MCP пользуется репутацией прорывной технологии. У него сильная поддержка со стороны влиятельных фигур как в ИИ, так и в криптоиндустрии. Общественный нарратив эволюционировал от «вот классный инструмент» до «это может стать основой для следующего веба». Тем временем практическое освещение подтверждает, что он работает и внедряется, что придает ему доверия. При условии, что сообщество продолжит решать проблемы (безопасность, управление в масштабе) и не произойдет крупных катастроф, общественный имидж MCP, вероятно, останется позитивным или даже станет культовым как «протокол, который заставил ИИ и Web3 хорошо работать вместе».

СМИ, вероятно, будут внимательно следить за:

  • Историями успеха (например, если крупная DAO реализует ИИ-казначея через MCP, или правительство использует MCP для ИИ-систем с открытыми данными).
  • Любыми инцидентами безопасности (для оценки риска).
  • Эволюцией сетей MCP и тем, появится ли официально какой-либо токен или блокчейн-компонент (что стало бы большой новостью, еще теснее связывающей ИИ и криптоиндустрию).

Однако на данный момент освещение можно подытожить строкой из CoinDesk: «Сочетание Web3 и MCP может стать новой основой для децентрализованного ИИ» — это утверждение, которое отражает как обещание, так и ажиотаж вокруг MCP в глазах общественности.

Ссылки:

  • Новости Anthropic: "Представляем Протокол контекста модели," Ноябрь 2024
  • Блог LimeChain: "Что такое MCP и как он применяется к блокчейнам?" Май 2025
  • Блог Chainstack: "MCP для разработчиков Web3: Solana, EVM и документация," Июнь 2025
  • Колонка CoinDesk: "Протокол агентов: потенциал MCP в Web3," Июль 2025
  • Notable Capital: "Почему MCP представляет собой реальную возможность Web3," Июль 2025
  • TechCrunch: "OpenAI принимает стандарт Anthropic…", 26 марта 2025
  • TechCrunch: "Google примет стандарт Anthropic…", 9 апреля 2025
  • TechCrunch: "GitHub, Microsoft принимают… (руководящий комитет MCP)", 19 мая 2025
  • Блог разработчиков Microsoft: "Официальный C# SDK для MCP," Апрель 2025
  • Блог Hugging Face: "#14: Что такое MCP, и почему все о нем говорят?" Март 2025
  • Messari Research: "Профиль Fetch.ai," 2023
  • Medium (Nu FinTimes): "Представляем SingularityNET," Март 2024

Протокол агентских платежей Google (AP2)

· 32 мин. чтения
Dora Noda
Software Engineer

Протокол агентских платежей Google (AP2) — это недавно анонсированный открытый стандарт, разработанный для обеспечения безопасных и надежных транзакций, инициируемых ИИ-агентами от имени пользователей. Разработанный в сотрудничестве с более чем 60 платежными и технологическими организациями (включая крупные платежные сети, банки, финтех-компании и Web3-компании), AP2 устанавливает общий язык для «агентских» платежей — то есть покупок и финансовых транзакций, которые автономный агент (например, ИИ-помощник или агент на основе LLM) может осуществлять для пользователя. Создание AP2 обусловлено фундаментальным сдвигом: традиционно онлайн-платежные системы предполагали, что человек напрямую нажимает «купить», но рост числа ИИ-агентов, действующих по инструкциям пользователя, нарушает это предположение. AP2 решает возникающие проблемы авторизации, аутентичности и подотчетности в коммерции, управляемой ИИ, оставаясь при этом совместимым с существующей платежной инфраструктурой. В этом отчете рассматриваются техническая архитектура AP2, его назначение и варианты использования, интеграция с ИИ-агентами и поставщиками платежей, вопросы безопасности и соответствия требованиям, сравнения с существующими протоколами, последствия для Web3/децентрализованных систем, а также внедрение в отрасли и дорожная карта.

Техническая архитектура: как работает AP2

По своей сути AP2 представляет собой криптографически безопасную структуру транзакций, построенную на проверяемых цифровых учетных данных (VDC) — по сути, защищенных от несанкционированного доступа, подписанных объектах данных, которые служат цифровыми «контрактами» того, что пользователь авторизовал. В терминологии AP2 эти контракты называются Мандатами, и они образуют проверяемую цепочку доказательств для каждой транзакции. В архитектуре AP2 существует три основных типа мандатов:

  • Мандат намерения: Фиксирует первоначальные инструкции или условия пользователя для покупки, особенно для сценариев «без присутствия человека» (когда агент будет действовать позже без участия пользователя онлайн). Он определяет объем полномочий, которые пользователь предоставляет агенту — например, «Купить билеты на концерт, если их цена упадет ниже $200, до 2 билетов». Этот мандат криптографически подписывается пользователем заранее и служит проверяемым доказательством согласия в определенных пределах.
  • Мандат корзины: Представляет окончательные детали транзакции, одобренные пользователем, используемые в сценариях «с присутствием человека» или в момент оформления заказа. Он включает точные товары или услуги, их цену и другие детали покупки. Когда агент готов завершить транзакцию (например, после заполнения корзины), продавец сначала криптографически подписывает содержимое корзины (гарантируя детали заказа и цену), а затем пользователь (через свое устройство или интерфейс агента) подписывает его для создания Мандата корзины. Это гарантирует принцип «что видишь, то и платишь», фиксируя окончательный заказ точно так, как он был представлен пользователю.
  • Платежный мандат: Отдельные учетные данные, которые отправляются в платежную сеть (например, карточную сеть или банк), чтобы сигнализировать о том, что в транзакции участвует ИИ-агент. Платежный мандат включает метаданные, такие как присутствие или отсутствие пользователя во время авторизации, и служит флагом для систем управления рисками. Предоставляя банкам-эквайерам и банкам-ээмитентам криптографически проверяемые доказательства намерения пользователя, этот мандат помогает им оценить контекст (например, отличить покупку, инициированную агентом, от типичного мошенничества) и соответствующим образом управлять соблюдением требований или ответственностью.

Все мандаты реализуются как проверяемые учетные данные, подписанные ключами соответствующей стороны (пользователя, продавца и т. д.), что обеспечивает неотказуемый аудиторский след для каждой транзакции, управляемой агентом. На практике AP2 использует ролевую архитектуру для защиты конфиденциальной информации — например, агент может обрабатывать Мандат намерения, никогда не видя необработанных платежных данных, которые раскрываются контролируемым образом только при необходимости, сохраняя конфиденциальность. Криптографическая цепочка намерение пользователя → обязательство продавца → авторизация платежа устанавливает доверие между всеми сторонами, что транзакция отражает истинные инструкции пользователя и что как агент, так и продавец придерживались этих инструкций.

Поток транзакций: Чтобы проиллюстрировать, как AP2 работает от начала до конца, рассмотрим простой сценарий покупки с участием человека:

  1. Запрос пользователя: Пользователь просит своего ИИ-агента приобрести определенный товар или услугу (например, «Закажи эту пару обуви моего размера»).
  2. Формирование корзины: Агент связывается с системами продавца (используя стандартные API или через взаимодействие агент-агент) для формирования корзины для указанного товара по заданной цене.
  3. Гарантия продавца: Перед представлением корзины пользователю, сторона продавца криптографически подписывает детали корзины (товар, количество, цена и т. д.). Этот шаг создает предложение, подписанное продавцом, которое гарантирует точные условия (предотвращая любые скрытые изменения или манипуляции с ценой).
  4. Одобрение пользователя: Агент показывает пользователю окончательную корзину. Пользователь подтверждает покупку, и это одобрение вызывает две криптографические подписи со стороны пользователя: одну на Мандате корзины (для принятия корзины продавца как есть) и одну на Платежном мандате (для авторизации платежа через выбранного поставщика платежей). Эти подписанные мандаты затем передаются продавцу и платежной сети соответственно.
  5. Исполнение: Вооружившись Мандатом корзины и Платежным мандатом, продавец и поставщик платежей приступают к безопасному выполнению транзакции. Например, продавец отправляет запрос на оплату вместе с доказательством одобрения пользователя в платежную сеть (карточную сеть, банк и т. д.), которая может проверить Платежный мандат. Результатом является завершенная транзакция покупки с криптографическим аудиторским следом, связывающим намерение пользователя с окончательным платежом.

Этот поток демонстрирует, как AP2 встраивает доверие в каждый шаг покупки, управляемой ИИ. У продавца есть криптографическое доказательство того, что именно пользователь согласился купить и по какой цене, а у эмитента/банка есть доказательство того, что пользователь авторизовал этот платеж, даже если ИИ-агент способствовал этому процессу. В случае споров или ошибок подписанные мандаты служат четким доказательством, помогая определить ответственность (например, если агент отклонился от инструкций или если списание не было тем, что одобрил пользователь). По сути, архитектура AP2 гарантирует, что проверяемое намерение пользователя — а не доверие к поведению агента — является основой транзакции, значительно уменьшая двусмысленность.

Назначение и варианты использования AP2

Почему нужен AP2: Основная цель AP2 — решить возникающие проблемы доверия и безопасности, которые появляются, когда ИИ-агенты могут тратить деньги от имени пользователей. Google и его партнеры выявили несколько ключевых вопросов, на которые современная платежная инфраструктура не может адекватно ответить, когда в процесс вовлечен автономный агент:

  • Авторизация: Как доказать, что пользователь действительно дал агенту разрешение на совершение конкретной покупки? (Другими словами, как убедиться, что агент не покупает вещи без информированного согласия пользователя.)
  • Аутентичность: Как продавец может узнать, что запрос на покупку агента является подлинным и отражает истинное намерение пользователя, а не ошибку или галлюцинацию ИИ?
  • Подотчетность: Если мошенническая или некорректная транзакция происходит через агента, кто несет ответственность — пользователь, продавец, поставщик платежей или создатель ИИ-агента?

Без решения эти неопределенности создают «кризис доверия» вокруг коммерции, управляемой агентами. Миссия AP2 состоит в том, чтобы предоставить это решение путем создания единого протокола для безопасных агентских транзакций. Вводя стандартизированные мандаты и доказательства намерения, AP2 предотвращает фрагментацию экосистемы, когда каждая компания изобретает свои собственные специальные методы агентских платежей. Вместо этого любой соответствующий требованиям ИИ-агент может взаимодействовать с любым соответствующим требованиям продавцом/поставщиком платежей в соответствии с общим набором правил и проверок. Эта согласованность не только предотвращает путаницу у пользователей и продавцов, но и дает финансовым учреждениям четкий способ управлять рисками для платежей, инициированных агентами, вместо того чтобы иметь дело с лоскутным одеялом проприетарных подходов. Короче говоря, цель AP2 — быть фундаментальным уровнем доверия, который позволяет «экономике агентов» расти, не разрушая платежную экосистему.

Предполагаемые варианты использования: Решая вышеуказанные проблемы, AP2 открывает двери для новых коммерческих возможностей и вариантов использования, которые выходят за рамки того, что возможно при ручном нажатии человеком на кнопки покупки. Некоторые примеры коммерции, поддерживаемой агентами, которые поддерживает AP2, включают:

  • Умный шопинг: Клиент может проинструктировать своего агента: «Я хочу эту зимнюю куртку зеленого цвета, и я готов заплатить за нее до 20% выше текущей цены». Вооружившись Мандатом намерения, кодирующим эти условия, агент будет постоянно отслеживать веб-сайты или базы данных розничных продавцов. В тот момент, когда куртка станет доступна в зеленом цвете (и в пределах ценового порога), агент автоматически выполнит покупку с помощью безопасной, подписанной транзакции — совершая продажу, которая иначе была бы упущена. Все взаимодействие, от первоначального запроса пользователя до автоматического оформления заказа, регулируется мандатами AP2, гарантирующими, что агент покупает только то, что было авторизовано.
  • Персонализированные предложения: Пользователь сообщает своему агенту, что ищет конкретный продукт (например, новый велосипед) у определенного продавца для предстоящей поездки. Агент может поделиться этим интересом (в рамках Мандата намерения) с собственным ИИ-агентом продавца, включая соответствующий контекст, такой как дата поездки. Агент продавца, зная намерение и контекст пользователя, может ответить индивидуальным пакетом или скидкой — например, «велосипед + шлем + багажник со скидкой 15%, доступно в течение следующих 48 часов». Используя AP2, агент пользователя может безопасно принять и завершить это индивидуальное предложение, превращая простой запрос в более ценную продажу для продавца.
  • Координированные задачи: Пользователь, планирующий сложную задачу (например, поездку на выходные), полностью делегирует ее: «Забронируй мне рейс и отель на эти даты с общим бюджетом $700». Агент может взаимодействовать с агентами нескольких поставщиков услуг — авиакомпаний, отелей, туристических платформ — чтобы найти комбинацию, соответствующую бюджету. Как только подходящий пакет «рейс-отель» будет найден, агент использует AP2 для выполнения нескольких бронирований за один раз, каждое из которых криптографически подписано (например, выдавая отдельные Мандаты корзины для авиакомпании и отеля, оба авторизованы в соответствии с Мандатом намерения пользователя). AP2 гарантирует, что все части этой скоординированной транзакции происходят в соответствии с одобрением, и даже позволяет одновременное выполнение, чтобы билеты и бронирования были забронированы вместе без риска сбоя одной части на полпути.

Эти сценарии иллюстрируют лишь некоторые из предполагаемых вариантов использования AP2. В более широком смысле, гибкий дизайн AP2 поддерживает как обычные потоки электронной коммерции, так и совершенно новые модели коммерции. Например, AP2 может облегчить услуги по подписке (агент пополняет запасы предметов первой необходимости, совершая покупки при выполнении условий), покупки, управляемые событиями (покупка билетов или товаров в момент возникновения триггерного события), групповые агентские переговоры (агенты нескольких пользователей объединяют мандаты для заключения групповой сделки) и многие другие новые модели. В каждом случае общая нить состоит в том, что AP2 предоставляет основу доверия — четкую авторизацию пользователя и криптографическую аудируемость — которая позволяет безопасно осуществлять эти транзакции, управляемые агентами. Обрабатывая уровень доверия и проверки, AP2 позволяет разработчикам и предприятиям сосредоточиться на инновациях в новых коммерческих возможностях ИИ, не изобретая безопасность платежей с нуля.

Интеграция с агентами, LLM и поставщиками платежей

AP2 специально разработан для бесшовной интеграции с фреймворками ИИ-агентов и существующими платежными системами, выступая в качестве моста между ними. Google позиционирует AP2 как расширение своих стандартов протокола Agent2Agent (A2A) и протокола контекста модели (MCP). Другими словами, если A2A предоставляет общий язык для агентов для обмена задачами, а MCP стандартизирует, как модели ИИ включают контекст/инструменты, то AP2 добавляет уровень транзакций сверху для коммерции. Протоколы дополняют друг друга: A2A обрабатывает связь между агентами (позволяя, скажем, торговому агенту общаться с агентом продавца), в то время как AP2 обрабатывает авторизацию платежей между агентом и продавцом в рамках этих взаимодействий. Поскольку AP2 является открытым и не проприетарным, он предназначен для работы с любыми фреймворками: разработчики могут использовать его с собственным Agent Development Kit (ADK) Google или любой библиотекой ИИ-агентов, а также он может работать с различными моделями ИИ, включая LLM. Агент на основе LLM, например, мог бы использовать AP2, генерируя и обмениваясь необходимыми полезными нагрузками мандатов (руководствуясь спецификацией AP2) вместо простого свободного текста. Обеспечивая структурированный протокол, AP2 помогает преобразовать высокоуровневое намерение ИИ-агента (которое может исходить из рассуждений LLM) в конкретные, безопасные транзакции.

Что касается платежей, AP2 был создан совместно с традиционными поставщиками платежей и стандартами, а не как система «вырви и замени». Протокол независим от метода оплаты, что означает, что он может поддерживать различные платежные каналы — от сетей кредитных/дебетовых карт до банковских переводов и цифровых кошельков — в качестве базового метода перемещения средств. В своей первоначальной версии AP2 акцентирует внимание на совместимости с карточными платежами, поскольку они наиболее распространены в онлайн-коммерции. Платежный мандат AP2 разработан для интеграции в существующий процесс обработки карт: он предоставляет дополнительные данные платежной сети (например, Visa, Mastercard, Amex) и банку-эмитенту о том, что в транзакции участвует ИИ-агент и присутствовал ли пользователь, тем самым дополняя существующие проверки на предмет мошенничества и авторизации. По сути, AP2 не обрабатывает сам платеж; он дополняет платежный запрос криптографическим доказательством намерения пользователя. Это позволяет поставщикам платежей обрабатывать транзакции, инициированные агентами, с соответствующей осторожностью или скоростью (например, эмитент может одобрить необычно выглядящую покупку, если видит действительный мандат AP2, доказывающий, что пользователь предварительно одобрил ее). Примечательно, что Google и партнеры планируют развивать AP2 для поддержки также методов «push»-платежей — таких как банковские переводы в реальном времени (например, системы UPI в Индии или PIX в Бразилии) — и других новых типов цифровых платежей. Это указывает на то, что интеграция AP2 выйдет за рамки карт, соответствуя современным платежным тенденциям по всему миру.

Для продавцов и платежных процессоров интеграция AP2 будет означать поддержку дополнительных сообщений протокола (мандатов) и проверку подписей. Многие крупные платежные платформы уже участвуют в формировании AP2, поэтому можно ожидать, что они будут развивать его поддержку. Например, такие компании, как Adyen, Worldpay, Paypal, Stripe (не упомянутые явно в блоге, но, вероятно, заинтересованные) и другие, могут включить AP2 в свои API или SDK для оформления заказа, позволяя агенту инициировать платеж стандартизированным способом. Поскольку AP2 является открытой спецификацией на GitHub с эталонными реализациями, поставщики платежей и технологические платформы могут немедленно начать экспериментировать с ним. Google также упомянул маркетплейс ИИ-агентов, где могут быть размещены сторонние агенты — ожидается, что эти агенты будут поддерживать AP2 для любых транзакционных возможностей. На практике предприятие, которое создает ИИ-помощника по продажам или агента по закупкам, может разместить его на этом маркетплейсе, и благодаря AP2 этот агент сможет надежно осуществлять покупки или заказы.

Наконец, история интеграции AP2 выигрывает от его широкой отраслевой поддержки. Совместно разрабатывая протокол с крупными финансовыми учреждениями и технологическими фирмами, Google обеспечил соответствие AP2 существующим отраслевым правилам и требованиям соответствия. Сотрудничество с платежными сетями (например, Mastercard, UnionPay), эмитентами (например, American Express), финтех-компаниями (например, Revolut, Paypal), игроками электронной коммерции (например, Etsy) и даже поставщиками услуг идентификации/безопасности (например, Okta, Cloudflare) предполагает, что AP2 разрабатывается для бесшовной интеграции в реальные системы. Эти заинтересованные стороны привносят опыт в таких областях, как KYC (правила «Знай своего клиента»), предотвращение мошенничества и конфиденциальность данных, помогая AP2 решать эти потребности «из коробки». Таким образом, AP2 создан как удобный для агентов и удобный для поставщиков платежей: он расширяет существующие протоколы ИИ-агентов для обработки транзакций и накладывается на существующие платежные сети для использования их инфраструктуры, добавляя необходимые гарантии доверия.

Вопросы безопасности, соответствия требованиям и интероперабельности

Безопасность и доверие лежат в основе дизайна AP2. Использование протоколом криптографии (цифровых подписей на мандатах) гарантирует, что каждое критическое действие в агентской транзакции поддается проверке и отслеживанию. Эта неотказуемость имеет решающее значение: ни пользователь, ни продавец не могут впоследствии отрицать то, что было авторизовано и согласовано, поскольку мандаты служат безопасными записями. Прямая выгода заключается в предотвращении мошенничества и разрешении споров — с AP2, если вредоносный или ошибочный агент пытается совершить несанкционированную покупку, отсутствие действительного подписанного пользователем мандата будет очевидным, и транзакция может быть отклонена или отменена. И наоборот, если пользователь заявляет: «Я никогда не одобрял эту покупку», но существует Мандат корзины с его криптографической подписью, у продавца и эмитента есть веские доказательства в поддержку списания. Эта ясность подотчетности отвечает на серьезную проблему соответствия требованиям для платежной индустрии.

Авторизация и конфиденциальность: AP2 обеспечивает явный шаг (или шаги) авторизации от пользователя для транзакций, управляемых агентами, что соответствует регуляторным тенденциям, таким как сильная аутентификация клиента. Принцип контроля пользователя, заложенный в AP2, означает, что агент не может тратить средства, если пользователь (или кто-либо, делегированный пользователем) не предоставил проверяемую инструкцию для этого. Даже в полностью автономных сценариях пользователь заранее определяет правила через Мандат намерения. Этот подход можно рассматривать как аналог предоставления доверенности агенту для конкретных транзакций, но в цифровом подписанном, детализированном виде. С точки зрения конфиденциальности, AP2 внимательно относится к обмену данными: протокол использует ролевую архитектуру данных для обеспечения того, чтобы конфиденциальная информация (например, платежные данные или личные данные) передавалась только тем сторонам, которым она абсолютно необходима. Например, агент может отправить Мандат корзины продавцу, содержащий информацию о товаре и цене, но фактический номер карты пользователя может быть передан через Платежный мандат только платежному процессору, а не агенту или продавцу. Это минимизирует ненужное раскрытие данных, помогая соблюдать законы о конфиденциальности и правила PCI-DSS для обработки платежных данных.

Соответствие требованиям и стандарты: Поскольку AP2 был разработан с учетом мнения авторитетных финансовых организаций, он был спроектирован таким образом, чтобы соответствовать или дополнять существующие стандарты соответствия в платежах. Протокол не обходит обычные потоки авторизации платежей — вместо этого он дополняет их дополнительными доказательствами и флагами. Это означает, что транзакции AP2 по-прежнему могут использовать системы обнаружения мошенничества, проверки 3-D Secure или любые требуемые регуляторные проверки, при этом мандаты AP2 действуют как дополнительные факторы аутентификации или контекстные подсказки. Например, банк может рассматривать Платежный мандат как цифровую подпись клиента на транзакции, потенциально упрощая соблюдение требований к согласию пользователя. Кроме того, разработчики AP2 явно упоминают работу «в соответствии с отраслевыми правилами и стандартами». Мы можем предположить, что по мере развития AP2 он может быть передан в официальные органы по стандартизации (такие как W3C, EMVCo или ISO) для обеспечения его соответствия мировым финансовым стандартам. Google заявил о приверженности открытому, совместному развитию AP2, возможно, через организации по стандартизации. Этот открытый процесс поможет устранить любые регуляторные проблемы и добиться широкого признания, подобно тому, как предыдущие платежные стандарты (чиповые карты EMV, 3-D Secure и т. д.) проходили общеотраслевое сотрудничество.

Интероперабельность: Избежание фрагментации является ключевой целью AP2. С этой целью протокол открыто опубликован и доступен для реализации или интеграции любому желающему. Он не привязан к сервисам Google Cloud — фактически, AP2 является открытым исходным кодом (лицензия Apache-2), а спецификация и эталонный код находятся в общедоступном репозитории GitHub. Это способствует интероперабельности, поскольку несколько поставщиков могут принять AP2, и их системы по-прежнему будут работать вместе. Уже подчеркивается принцип интероперабельности: AP2 является расширением существующих открытых протоколов (A2A, MCP) и не является проприетарным, что означает, что он способствует конкурентной экосистеме реализаций, а не решению от одного поставщика. На практике ИИ-агент, созданный Компанией А, может инициировать транзакцию с системой продавца Компании Б, если обе следуют AP2 — ни одна из сторон не привязана к одной платформе.

Одна из возможных проблем — обеспечение последовательного внедрения: если некоторые крупные игроки выберут другой протокол или закрытый подход, фрагментация все равно может произойти. Однако, учитывая широкую коалицию, стоящую за AP2, он, похоже, готов стать стандартом де-факто. Включение многих фирм, ориентированных на идентификацию и безопасность (например, Okta, Cloudflare, Ping Identity), в экосистему AP2 (Рисунок: Более 60 компаний из сферы финансов, технологий и криптоиндустрии сотрудничают в рамках AP2 (частичный список партнеров).) предполагает, что интероперабельность и безопасность решаются совместно. Эти партнеры могут помочь интегрировать AP2 в рабочие процессы проверки личности и инструменты предотвращения мошенничества, гарантируя, что транзакции AP2 можно доверять во всех системах.

С технологической точки зрения, использование AP2 широко принятых криптографических методов (вероятно, проверяемых учетных данных на основе JSON-LD или JWT, подписей с открытым ключом и т. д.) делает его совместимым с существующей инфраструктурой безопасности. Организации могут использовать свою существующую PKI (инфраструктуру открытых ключей) для управления ключами для подписания мандатов. AP2 также, похоже, предвидит интеграцию с системами децентрализованной идентификации: Google упоминает, что AP2 создает возможности для инноваций в таких областях, как децентрализованная идентификация для авторизации агентов. Это означает, что в будущем AP2 может использовать стандарты DID (децентрализованных идентификаторов) или децентрализованную проверку идентификаторов для надежной идентификации агентов и пользователей. Такой подход еще больше повысит интероперабельность, не полагаясь на какого-либо одного поставщика идентификации. В итоге, AP2 подчеркивает безопасность через криптографию и четкую подотчетность, стремится быть готовым к соблюдению требований по умолчанию и способствует интероперабельности благодаря своей открытой стандартной природе и широкой отраслевой поддержке.

Сравнение с существующими протоколами

AP2 — это новый протокол, устраняющий пробел, который не был охвачен существующими платежными и агентскими фреймворками: он позволяет автономным агентам осуществлять платежи безопасным, стандартизированным способом. С точки зрения протоколов связи агентов, AP2 основывается на предыдущих работах, таких как протокол Agent2Agent (A2A). A2A (с открытым исходным кодом, выпущенный ранее в 2025 году) позволяет различным ИИ-агентам общаться друг с другом независимо от их базовых фреймворков. Однако сам по себе A2A не определяет, как агенты должны проводить транзакции или платежи — он больше касается согласования задач и обмена данными. AP2 расширяет этот ландшафт, добавляя уровень транзакций, который любой агент может использовать, когда разговор приводит к покупке. По сути, AP2 можно рассматривать как дополнение к A2A и MCP, а не как их дублирование: A2A охватывает аспекты коммуникации и сотрудничества, MCP охватывает использование внешних инструментов/API, а AP2 охватывает платежи и коммерцию. Вместе они образуют стек стандартов для будущей «экономики агентов». Этот модульный подход в некоторой степени аналогичен интернет-протоколам: например, HTTP для передачи данных и SSL/TLS для безопасности — здесь A2A может быть как HTTP для агентов, а AP2 — безопасным транзакционным уровнем сверху для коммерции.

При сравнении AP2 с традиционными платежными протоколами и стандартами есть как параллели, так и различия. Традиционные онлайн-платежи (оформление кредитных карт, транзакции PayPal и т. д.) обычно включают протоколы, такие как HTTPS для безопасной передачи, и стандарты, такие как PCI DSS для обработки данных карт, а также, возможно, 3-D Secure для дополнительной аутентификации пользователя. Они предполагают поток, управляемый пользователем (пользователь нажимает и, возможно, вводит одноразовый код). AP2, напротив, вводит способ участия третьей стороны (агента) в потоке без подрыва безопасности. Можно сравнить концепцию мандата AP2 с расширением делегированных полномочий в стиле OAuth, но примененным к платежам. В OAuth пользователь может предоставить приложению ограниченный доступ к учетной записи через токены; аналогично в AP2 пользователь предоставляет агенту полномочия тратить средства при определенных условиях через мандаты. Ключевое отличие состоит в том, что «токены» AP2 (мандаты) являются конкретными, подписанными инструкциями для финансовых транзакций, что более детализировано, чем существующие платежные авторизации.

Еще один момент для сравнения — как AP2 соотносится с существующими потоками оформления заказа в электронной коммерции. Например, многие сайты электронной коммерции используют протоколы, такие как W3C Payment Request API или платформенно-специфичные SDK, для упрощения платежей. Они в основном стандартизируют, как браузеры или приложения собирают платежную информацию от пользователя, тогда как AP2 стандартизирует, как агент будет доказывать намерение пользователя продавцу и платежному процессору. Фокус AP2 на проверяемом намерении и неотказуемости отличает его от более простых платежных API. Он добавляет дополнительный уровень доверия поверх платежных сетей. Можно сказать, что AP2 не заменяет платежные сети (Visa, ACH, блокчейн и т. д.), а скорее дополняет их. Протокол явно поддерживает все типы платежных методов (даже криптовалюту), поэтому он больше о стандартизации взаимодействия агента с этими системами, а не о создании нового платежного канала с нуля.

В области протоколов безопасности и аутентификации AP2 имеет некоторое сходство с такими вещами, как цифровые подписи в чиповых картах EMV или нотариальное заверение в цифровых контрактах. Например, транзакции с чиповыми картами EMV генерируют криптограммы для подтверждения присутствия карты; AP2 генерирует криптографическое доказательство того, что агент пользователя был авторизован. Оба направлены на предотвращение мошенничества, но область действия AP2 — это отношения агент-пользователь и обмен сообщениями агент-продавец, что не охватывается ни одним существующим платежным стандартом. Еще одно возникающее сравнение — с абстракцией учетной записи в криптоиндустрии (например, ERC-4337), где пользователи могут авторизовать заранее запрограммированные действия кошелька. Криптокошельки могут быть настроены на разрешение определенных автоматизированных транзакций (например, автоматическую оплату подписки через смарт-контракт), но они обычно ограничены одной блокчейн-средой. AP2, с другой стороны, стремится быть кросс-платформенным — он может использовать блокчейн для некоторых платежей (через свои расширения), но также работает с традиционными банками.

Прямого протокола-«конкурента» AP2 в основной платежной индустрии пока нет — это, похоже, первая согласованная попытка создать открытый стандарт для платежей ИИ-агентов. Могут появиться проприетарные попытки (или они уже могут быть в процессе разработки внутри отдельных компаний), но широкая поддержка AP2 дает ему преимущество в становлении стандартом. Стоит отметить, что у IBM и других есть Протокол связи агентов (ACP) и аналогичные инициативы по интероперабельности агентов, но они не охватывают платежный аспект так всеобъемлюще, как AP2. В любом случае, AP2 может интегрироваться или использовать эти усилия (например, фреймворки агентов IBM могли бы реализовать AP2 для любых коммерческих задач).

Таким образом, AP2 выделяется тем, что нацелен на уникальное пересечение ИИ и платежей: там, где старые платежные протоколы предполагали пользователя-человека, AP2 предполагает посредника-ИИ и заполняет возникающий пробел в доверии. Он расширяет, а не конфликтует с существующими платежными процессами, и дополняет существующие протоколы агентов, такие как A2A. В дальнейшем можно будет увидеть, как AP2 используется наряду с установленными стандартами — например, Мандат корзины AP2 может работать в тандеме с вызовом традиционного API платежного шлюза, или Платежный мандат AP2 может быть прикреплен к сообщению ISO 8583 в банковской сфере. Открытый характер AP2 также означает, что если появятся какие-либо альтернативные подходы, AP2 потенциально может поглотить или согласовать их через сотрудничество сообщества. На данном этапе AP2 устанавливает базовый уровень, которого раньше не существовало, фактически пионеря новый уровень протокола в стеке ИИ и платежей.

Последствия для Web3 и децентрализованных систем

С самого начала AP2 был разработан с учетом Web3 и платежей на основе криптовалют. Протокол признает, что будущая коммерция будет охватывать как традиционные фиатные каналы, так и децентрализованные блокчейн-сети. Как отмечалось ранее, AP2 поддерживает типы платежей, начиная от кредитных карт и банковских переводов до стейблкоинов и криптовалют. Фактически, наряду с запуском AP2, Google анонсировал специальное расширение для криптоплатежей под названием A2A x402. Это расширение, разработанное в сотрудничестве с игроками криптоиндустрии, такими как Coinbase, Ethereum Foundation и MetaMask, представляет собой «готовое к производству решение для криптоплатежей на основе агентов». Название «x402» является отсылкой к коду состояния HTTP 402 «Payment Required» (Требуется оплата), который никогда не использовался широко в Интернете — крипторасширение AP2 фактически возрождает дух HTTP 402 для децентрализованных агентов, которые хотят взимать плату или платить друг другу в сети. На практике расширение x402 адаптирует концепцию мандата AP2 к блокчейн-транзакциям. Например, агент может хранить подписанный Мандат намерения от пользователя, а затем выполнить ончейн-платеж (скажем, отправить стейблкоин), как только условия будут выполнены, прикрепив доказательство мандата к этой ончейн-транзакции. Это объединяет офчейн-основу доверия AP2 с бездоверительной природой блокчейна, давая лучшее из обоих миров: ончейн-платеж, которому офчейн-стороны (пользователи, продавцы) могут доверять, что он был авторизован пользователем.

Синергия между AP2 и Web3 очевидна в списке сотрудников. Криптобиржи (Coinbase), блокчейн-фонды (Ethereum Foundation), криптокошельки (MetaMask) и стартапы Web3 (например, Mysten Labs из Sui, Lightspark для Lightning Network) участвуют в разработке AP2. Их участие предполагает, что AP2 рассматривается как дополнение к децентрализованным финансам, а не как конкурент. Создавая стандартный способ взаимодействия ИИ-агентов с криптоплатежами, AP2 может стимулировать более широкое использование криптовалют в приложениях, управляемых ИИ. Например, ИИ-агент может использовать AP2 для беспрепятственного переключения между оплатой кредитной картой или стейблкоином, в зависимости от предпочтений пользователя или принятия продавцом. Расширение A2A x402 специально позволяет агентам монетизировать или оплачивать услуги с помощью ончейн-средств, что может быть решающим на децентрализованных рынках будущего. Оно намекает на то, что агенты, возможно, функционирующие как автономные экономические акторы в блокчейне (концепция, которую некоторые называют DAC или DAO), смогут обрабатывать платежи, необходимые для услуг (например, оплачивать небольшую комиссию другому агенту за информацию). AP2 может предоставить lingua franca для таких транзакций, гарантируя, что даже в децентрализованной сети агент имеет доказуемый мандат на то, что он делает.

Что касается конкуренции, можно задаться вопросом: делают ли чисто децентрализованные решения AP2 ненужным, или наоборот? Вероятно, AP2 будет сосуществовать с решениями Web3 в многоуровневом подходе. Децентрализованные финансы предлагают бездоверительное исполнение (смарт-контракты и т. д.), но они по своей сути не решают проблему «Было ли у ИИ разрешение от человека на это?». AP2 решает именно эту связь доверия между человеком и ИИ, которая остается важной, даже если сам платеж осуществляется в сети. Вместо того чтобы конкурировать с блокчейн-протоколами, AP2 можно рассматривать как мост между ними и офчейн-миром. Например, смарт-контракт может принимать определенную транзакцию только в том случае, если она включает ссылку на действительную подпись мандата AP2 — это можно реализовать для объединения доказательства намерения вне сети с принудительным исполнением в сети. И наоборот, если существуют крипто-нативные агентские фреймворки (некоторые блокчейн-проекты исследуют автономных агентов, которые работают с криптофондами), они могут разработать свои собственные методы авторизации. Однако широкая отраслевая поддержка AP2 может побудить даже эти проекты принять или интегрироваться с AP2 для обеспечения согласованности.

Еще один аспект — это децентрализованная идентификация и учетные данные. Использование AP2 проверяемых учетных данных очень хорошо согласуется с подходом Web3 к идентификации (например, DID и VC, стандартизированные W3C). Это означает, что AP2 может подключаться к децентрализованным системам идентификации — например, DID пользователя может использоваться для подписания мандата AP2, который продавец может проверить по блокчейну или идентификационному хабу. Упоминание об изучении децентрализованной идентификации для авторизации агентов подтверждает, что AP2 может использовать инновации Web3 в области идентификации для децентрализованной проверки личности агентов и пользователей, а не полагаться только на централизованные органы. Это точка синергии, поскольку как AP2, так и Web3 стремятся предоставить пользователям больший контроль и криптографическое доказательство их действий.

Потенциальные конфликты могут возникнуть только в том случае, если представить себе полностью децентрализованную коммерческую экосистему без роли крупных посредников — в этом сценарии, может ли AP2 (изначально продвигаемый Google и партнерами) быть слишком централизованным или управляемым традиционными игроками? Важно отметить, что AP2 является открытым исходным кодом и предназначен для стандартизации, поэтому он не является проприетарным для Google. Это делает его более приемлемым для сообщества Web3, которое ценит открытые протоколы. Если AP2 получит широкое распространение, это может уменьшить потребность в отдельных протоколах платежей, специфичных для Web3, для агентов, тем самым объединяя усилия. С другой стороны, некоторые блокчейн-проекты могут предпочесть чисто ончейн-механизмы авторизации (такие как кошельки с мультиподписью или ончейн-логика эскроу) для агентских транзакций, особенно в бездоверительных средах без каких-либо централизованных органов. Их можно рассматривать как альтернативные подходы, но они, вероятно, останутся нишевыми, если не смогут взаимодействовать с офчейн-системами. AP2, охватывая оба мира, может фактически ускорить внедрение Web3, сделав криптовалюту просто еще одним методом оплаты, который ИИ-агент может беспрепятственно использовать. Действительно, один из партнеров отметил, что «стейблкоины предоставляют очевидное решение проблем масштабирования [для] агентских систем с устаревшей инфраструктурой», подчеркивая, что криптовалюта может дополнять AP2 в обработке масштаба или трансграничных сценариев. Тем временем, ведущий инженер Coinbase отметил, что внедрение крипторасширения x402 в AP2 «имело смысл — это естественная площадка для агентов... интересно видеть, как агенты, платящие друг другу, находят отклик в сообществе ИИ». Это подразумевает видение, где транзакции ИИ-агентов через криптосети — это не просто теоретическая идея, а ожидаемый результат, при этом AP2 выступает в качестве катализатора.

Таким образом, AP2 имеет большое значение для Web3: он включает криптоплатежи в качестве первоклассного гражданина и согласуется со стандартами децентрализованной идентификации и учетных данных. Вместо того чтобы напрямую конкурировать с децентрализованными платежными протоколами, AP2, вероятно, взаимодействует с ними — предоставляя уровень авторизации, в то время как децентрализованные системы обрабатывают передачу стоимости. По мере того как грань между традиционными финансами и криптовалютами стирается (со стейблкоинами, CBDC и т. д.), унифицированный протокол, такой как AP2, может служить универсальным адаптером между ИИ-агентами и любой формой денег, централизованной или децентрализованной.

Внедрение в отрасли, партнерства и дорожная карта

Одной из величайших сильных сторон AP2 является обширная отраслевая поддержка, стоящая за ним, даже на этой ранней стадии. Google Cloud объявил, что «сотрудничает с разнообразной группой из более чем 60 организаций» по AP2. В их число входят крупные сети кредитных карт (например, Mastercard, American Express, JCB, UnionPay), ведущие финтех-компании и платежные процессоры (PayPal, Worldpay, Adyen, Checkout.com, конкуренты Stripe), платформы электронной коммерции и онлайн-рынки (Etsy, Shopify (через партнеров, таких как Stripe или другие), Lazada, Zalora), корпоративные технологические компании (Salesforce, ServiceNow, Oracle, возможно, через партнеров, Dell, Red Hat), фирмы по идентификации и безопасности (Okta, Ping Identity, Cloudflare), консалтинговые фирмы (Deloitte, Accenture) и крипто/Web3-организации (Coinbase, Ethereum Foundation, MetaMask, Mysten Labs, Lightspark) и другие. Такое широкое участие является сильным показателем отраслевого интереса и вероятного внедрения. Многие из этих партнеров публично выразили поддержку. Например, со-генеральный директор Adyen подчеркнул необходимость «общего свода правил» для агентской коммерции и рассматривает AP2 как естественное продолжение их миссии по поддержке продавцов новыми платежными строительными блоками. Исполнительный вице-президент American Express заявил, что AP2 важен для «следующего поколения цифровых платежей», где доверие и подотчетность имеют первостепенное значение. Команда Coinbase, как отмечалось, с энтузиазмом относится к интеграции криптоплатежей в AP2. Этот хор поддержки показывает, что многие в отрасли рассматривают AP2 как вероятный стандарт для платежей, управляемых ИИ, и они стремятся сформировать его, чтобы он соответствовал их требованиям.

С точки зрения внедрения, AP2 в настоящее время находится на стадии спецификации и ранней реализации (анонсирован в сентябре 2025 года). Полная техническая спецификация, документация и некоторые эталонные реализации (на таких языках, как Python) доступны в репозитории проекта на GitHub для экспериментов разработчиков. Google также указал, что AP2 будет включен в его продукты и услуги для агентов. Заметным примером является упомянутый ранее маркетплейс ИИ-агентов: это платформа, где сторонние ИИ-агенты могут быть предложены пользователям (вероятно, часть генеративной ИИ-экосистемы Google). Google заявляет, что многие партнеры, создающие агентов, сделают их доступными на маркетплейсе с «новыми, транзакционными возможностями, обеспечиваемыми AP2». Это означает, что по мере запуска или роста маркетплейса AP2 станет основой для любого агента, которому необходимо выполнить транзакцию, будь то автономная покупка программного обеспечения на Google Cloud Marketplace или покупка агентом товаров/услуг для пользователя. Корпоративные варианты использования, такие как автономные закупки (один агент покупает у другого от имени компании) и автоматическое масштабирование лицензий, были специально упомянуты как области, которые AP2 может облегчить в ближайшее время.

Что касается дорожной карты, документация AP2 и объявление Google дают некоторые четкие указания:

  • Краткосрочная перспектива: Продолжение открытой разработки протокола с участием сообщества. Репозиторий GitHub будет обновляться дополнительными эталонными реализациями и улучшениями по мере проведения реального тестирования. Можно ожидать появления библиотек/SDK, что упростит интеграцию AP2 в агентские приложения. Также могут быть проведены первоначальные пилотные программы или доказательства концепции компаниями-партнерами. Учитывая, что многие крупные платежные компании участвуют, они могут опробовать AP2 в контролируемых средах (например, опция оформления заказа с поддержкой AP2 в небольшой бета-версии для пользователей).
  • Стандарты и управление: Google выразил приверженность переходу AP2 к открытой модели управления, возможно, через органы по стандартизации. Это может означать представление AP2 таким организациям, как Linux Foundation (как это было сделано с протоколом A2A) или формирование консорциума для его поддержки. Linux Foundation, W3C или даже такие органы, как ISO/TC68 (финансовые услуги), могут быть рассмотрены для формализации AP2. Открытое управление успокоит отрасль, что AP2 не находится под контролем одной компании и останется нейтральным и инклюзивным.
  • Расширение функционала: Технически дорожная карта включает расширение поддержки для большего количества типов платежей и вариантов использования. Как отмечается в спецификации, после карт основное внимание будет уделено «push»-платежам, таким как банковские переводы и местные схемы платежей в реальном времени, а также цифровым валютам. Это означает, что AP2 будет описывать, как Мандат намерения/корзины/платежа работает, например, для прямого банковского перевода или перевода криптокошелька, где поток немного отличается от карточных «pull»-платежей. Расширение A2A x402 является одним из таких расширений для криптовалют; аналогично, мы можем увидеть расширение для API открытого банкинга или для сценариев B2B-выставления счетов.
  • Улучшения безопасности и соответствия требованиям: По мере того как реальные транзакции начнут проходить через AP2, будет проводиться тщательная проверка со стороны регуляторов и исследователей безопасности. Открытый процесс, вероятно, будет итеративно улучшать мандаты, делая их еще более надежными (например, обеспечивая стандартизацию форматов мандатов, возможно, используя формат W3C Verifiable Credentials и т. д.). Интеграция с решениями для идентификации (возможно, использование биометрии для подписи мандатов пользователем или привязка мандатов к цифровым идентификационным кошелькам) может быть частью дорожной карты для повышения доверия.
  • Инструменты экосистемы: Вероятно, появится развивающаяся экосистема. Уже сейчас стартапы замечают пробелы — например, анализ Vellum.ai упоминает стартап Autumn, создающий «биллинговую инфраструктуру для ИИ», по сути, инструментарий поверх Stripe для обработки сложного ценообразования для ИИ-сервисов. По мере того как AP2 будет набирать обороты, можно ожидать появления большего количества инструментов, таких как платежные шлюзы, ориентированные на агентов, панели управления мандатами, службы проверки личности агентов и т. д. Участие Google означает, что AP2 также может быть интегрирован в его облачные продукты — представьте поддержку AP2 в инструментах Dialogflow или Vertex AI Agents, что позволит одним щелчком мыши включить агенту возможность обрабатывать транзакции (со всеми необходимыми ключами и сертификатами, управляемыми в Google Cloud).

В целом, траектория AP2 напоминает другие крупные отраслевые стандарты: первоначальный запуск с сильным спонсором (Google), широкая отраслевая коалиция, эталонный код с открытым исходным кодом, за которым следуют итеративные улучшения и постепенное внедрение в реальные продукты. Тот факт, что AP2 приглашает всех игроков «строить это будущее вместе с нами», подчеркивает, что дорожная карта основана на сотрудничестве. Если импульс сохранится, AP2 может стать таким же обычным явлением через несколько лет, как сегодня протоколы OAuth или OpenID Connect в своих областях — невидимый, но критически важный уровень, обеспечивающий функциональность между сервисами.

Заключение

AP2 (Протокол агентов/агентских платежей) представляет собой значительный шаг к будущему, где ИИ-агенты смогут совершать транзакции так же надежно и безопасно, как люди. Технически он вводит умный механизм проверяемых мандатов и учетных данных, которые внушают доверие к транзакциям, управляемым агентами, обеспечивая явность и применимость намерения пользователя. Его открытая, расширяемая архитектура позволяет ему интегрироваться как с развивающимися фреймворками ИИ-агентов, так и с устоявшейся финансовой инфраструктурой. Решая основные проблемы авторизации, аутентичности и подотчетности, AP2 закладывает основу для процветания коммерции, управляемой ИИ, без ущерба для безопасности или контроля пользователя.

Введение AP2 можно рассматривать как закладку нового фундамента — подобно тому, как ранние интернет-протоколы обеспечили работу Интернета — для того, что некоторые называют «экономикой агентов». Оно открывает путь для бесчисленных инноваций: агентов-персональных покупателей, ботов для автоматического поиска сделок, автономных агентов цепочки поставок и многого другого, все они работают в рамках общей основы доверия. Важно отметить, что инклюзивный дизайн AP2 (охватывающий все, от кредитных карт до криптовалют) позиционирует его на пересечении традиционных финансов и Web3, потенциально соединяя эти миры через общий протокол, опосредованный агентами.

Реакция отрасли до сих пор была очень позитивной, и широкая коалиция сигнализирует о том, что AP2, вероятно, станет широко принятым стандартом. Успех AP2 будет зависеть от дальнейшего сотрудничества и реального тестирования, но его перспективы сильны, учитывая явную потребность, которую он удовлетворяет. В более широком смысле AP2 иллюстрирует, как развиваются технологии: появилась новая возможность (ИИ-агенты), которая нарушила старые предположения, и решением стала разработка нового открытого стандарта для размещения этой возможности. Инвестируя в открытый, ориентированный на безопасность протокол сейчас, Google и его партнеры фактически строят архитектуру доверия, необходимую для следующей эры коммерции. Как говорится, «лучший способ предсказать будущее — это создать его» — AP2 является ставкой на будущее, где ИИ-агенты беспрепятственно обрабатывают транзакции для нас, и он активно строит доверие и правила, необходимые для того, чтобы это будущее стало жизнеспособным.

Источники:

  • Блог Google Cloud – «Развитие коммерции ИИ с помощью нового протокола агентских платежей (AP2)» (16 сентября 2025 г.)
  • Документация AP2 на GitHub – «Спецификация и обзор протокола агентских платежей»
  • Блог Vellum AI – «AP2 от Google: новый протокол для платежей ИИ-агентов» (Анализ)
  • Статья на Medium – «Протокол агентских платежей Google (AP2)» (Краткое изложение от Тахира, сентябрь 2025 г.)
  • Цитаты партнеров по AP2 (Блог Google Cloud)
  • Расширение A2A x402 (расширение AP2 для криптоплатежей) – README на GitHub

Создание децентрализованного шифрования с @mysten/seal: Руководство для разработчиков

· 14 мин. чтения
Dora Noda
Software Engineer

Конфиденциальность становится общественной инфраструктурой. В 2025 году разработчикам нужны инструменты, которые сделают шифрование таким же простым, как хранение данных. Seal от Mysten Labs предоставляет именно это — децентрализованное управление секретами с контролем доступа в блокчейне. Это руководство научит вас создавать безопасные Web3-приложения, используя шифрование на основе идентификаторов, пороговую безопасность и программируемые политики доступа.


Введение: Почему Seal важен для Web3

Традиционные облачные приложения полагаются на централизованные системы управления ключами, где один провайдер контролирует доступ к зашифрованным данным. Хотя это удобно, это создает опасные единые точки отказа. Если провайдер скомпрометирован, отключается или решает ограничить доступ, ваши данные становятся недоступными или уязвимыми.

Seal полностью меняет эту парадигму. Разработанный Mysten Labs для блокчейна Sui, Seal — это децентрализованный сервис управления секретами (DSM), который обеспечивает:

  • Шифрование на основе идентификаторов, при котором контент защищается до того, как покинет вашу среду
  • Пороговое шифрование, которое распределяет доступ к ключам между несколькими независимыми узлами
  • Контроль доступа в блокчейне с временными блокировками, токен-гейтингом и настраиваемой логикой авторизации
  • Независимый от хранилища дизайн, который работает с Walrus, IPFS или любым другим решением для хранения

Независимо от того, создаете ли вы безопасные приложения для обмена сообщениями, платформы с ограниченным доступом к контенту или переводы активов с временной блокировкой, Seal предоставляет необходимые криптографические примитивы и инфраструктуру контроля доступа.


Начало работы

Предварительные требования

Прежде чем приступить к работе, убедитесь, что у вас есть:

  • Установленный Node.js 18+
  • Базовое знакомство с TypeScript/JavaScript
  • Кошелек Sui для тестирования (например, Sui Wallet)
  • Понимание концепций блокчейна

Установка

Установите SDK Seal через npm:

npm install @mysten/seal

Вам также понадобится Sui SDK для взаимодействия с блокчейном:

npm install @mysten/sui

Настройка проекта

Создайте новый проект и инициализируйте его:

mkdir seal-tutorial
cd seal-tutorial
npm init -y
npm install @mysten/seal @mysten/sui typescript @types/node

Создайте простую конфигурацию TypeScript:

// tsconfig.json
{
"compilerOptions": {
"target": "ES2020",
"module": "commonjs",
"strict": true,
"esModuleInterop": true,
"skipLibCheck": true,
"forceConsistentCasingInFileNames": true
}
}

Основные концепции: Как работает Seal

Прежде чем писать код, давайте разберемся в архитектуре Seal:

1. Шифрование на основе идентификаторов (IBE)

В отличие от традиционного шифрования, где вы шифруете данные с помощью публичного ключа, IBE позволяет шифровать данные для идентификатора (например, адреса электронной почты или адреса Sui). Получатель может расшифровать данные только в том случае, если он может доказать, что контролирует этот идентификатор.

2. Пороговое шифрование

Вместо того чтобы доверять одному серверу ключей, Seal использует t-из-n пороговые схемы. Вы можете настроить 3 из 5 серверов ключей, что означает, что любые 3 сервера могут сотрудничать для предоставления ключей дешифрования, но 2 или меньше не могут.

3. Контроль доступа в блокчейне

Политики доступа обеспечиваются смарт-контрактами Sui. Прежде чем сервер ключей предоставит ключи дешифрования, он проверяет, соответствует ли запрашивающий требованиям политики в блокчейне (владение токенами, временные ограничения и т. д.).

4. Сеть серверов ключей

Распределенные серверы ключей проверяют политики доступа и генерируют ключи дешифрования. Эти серверы управляются различными сторонами для обеспечения отсутствия единой точки контроля.


Базовая реализация: Ваше первое приложение Seal

Давайте создадим простое приложение, которое шифрует конфиденциальные данные и контролирует доступ через политики блокчейна Sui.

Шаг 1: Инициализация клиента Seal

// src/seal-client.ts
import { SealClient } from "@mysten/seal";
import { SuiClient } from "@mysten/sui/client";

export async function createSealClient() {
// Initialize Sui client for testnet
const suiClient = new SuiClient({
url: "https://fullnode.testnet.sui.io",
});

// Configure Seal client with testnet key servers
const sealClient = new SealClient({
suiClient,
keyServers: [
"https://keyserver1.seal-testnet.com",
"https://keyserver2.seal-testnet.com",
"https://keyserver3.seal-testnet.com",
],
threshold: 2, // 2-of-3 threshold
network: "testnet",
});

return { sealClient, suiClient };
}

Шаг 2: Простое шифрование/дешифрование

// src/basic-encryption.ts
import { createSealClient } from "./seal-client";

async function basicExample() {
const { sealClient } = await createSealClient();

// Data to encrypt
const sensitiveData = "This is my secret message!";
const recipientAddress =
"0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

try {
// Encrypt data for a specific Sui address
const encryptedData = await sealClient.encrypt({
data: Buffer.from(sensitiveData, "utf-8"),
recipientId: recipientAddress,
// Optional: add metadata
metadata: {
contentType: "text/plain",
timestamp: Date.now(),
},
});

console.log("Encrypted data:", {
ciphertext: encryptedData.ciphertext.toString("base64"),
encryptionId: encryptedData.encryptionId,
});

// Later, decrypt the data (requires proper authorization)
const decryptedData = await sealClient.decrypt({
ciphertext: encryptedData.ciphertext,
encryptionId: encryptedData.encryptionId,
recipientId: recipientAddress,
});

console.log("Decrypted data:", decryptedData.toString("utf-8"));
} catch (error) {
console.error("Encryption/decryption failed:", error);
}
}

basicExample();

Контроль доступа с помощью смарт-контрактов Sui

Настоящая мощь Seal заключается в программируемом контроле доступа. Давайте создадим пример шифрования с временной блокировкой, где данные могут быть расшифрованы только по истечении определенного времени.

Шаг 1: Развертывание контракта контроля доступа

Сначала нам нужен смарт-контракт Move, который определяет нашу политику доступа:

// contracts/time_lock.move
module time_lock::policy {
use sui::clock::{Self, Clock};
use sui::object::{Self, UID};
use sui::tx_context::{Self, TxContext};

public struct TimeLockPolicy has key, store {
id: UID,
unlock_time: u64,
authorized_user: address,
}

public fun create_time_lock(
unlock_time: u64,
authorized_user: address,
ctx: &mut TxContext
): TimeLockPolicy {
TimeLockPolicy {
id: object::new(ctx),
unlock_time,
authorized_user,
}
}

public fun can_decrypt(
policy: &TimeLockPolicy,
user: address,
clock: &Clock
): bool {
let current_time = clock::timestamp_ms(clock);
policy.authorized_user == user && current_time >= policy.unlock_time
}
}

Шаг 2: Интеграция с Seal

// src/time-locked-encryption.ts
import { createSealClient } from "./seal-client";
import { TransactionBlock } from "@mysten/sui/transactions";

async function createTimeLocked() {
const { sealClient, suiClient } = await createSealClient();

// Create access policy on Sui
const txb = new TransactionBlock();

const unlockTime = Date.now() + 60000; // Unlock in 1 minute
const authorizedUser =
"0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

txb.moveCall({
target: "time_lock::policy::create_time_lock",
arguments: [txb.pure(unlockTime), txb.pure(authorizedUser)],
});

// Execute transaction to create policy
const result = await suiClient.signAndExecuteTransactionBlock({
transactionBlock: txb,
signer: yourKeypair, // Your Sui keypair
});

const policyId = result.objectChanges?.find(
(change) => change.type === "created",
)?.objectId;

// Now encrypt with this policy
const sensitiveData = "This will unlock in 1 minute!";

const encryptedData = await sealClient.encrypt({
data: Buffer.from(sensitiveData, "utf-8"),
recipientId: authorizedUser,
accessPolicy: {
policyId,
policyType: "time_lock",
},
});

console.log("Time-locked data created. Try decrypting after 1 minute.");

return {
encryptedData,
policyId,
unlockTime,
};
}

Практические примеры

Пример 1: Приложение для безопасного обмена сообщениями

// src/secure-messaging.ts
import { createSealClient } from "./seal-client";

class SecureMessenger {
private sealClient: any;

constructor(sealClient: any) {
this.sealClient = sealClient;
}

async sendMessage(
message: string,
recipientAddress: string,
senderKeypair: any,
) {
const messageData = {
content: message,
timestamp: Date.now(),
sender: senderKeypair.toSuiAddress(),
messageId: crypto.randomUUID(),
};

const encryptedMessage = await this.sealClient.encrypt({
data: Buffer.from(JSON.stringify(messageData), "utf-8"),
recipientId: recipientAddress,
metadata: {
type: "secure_message",
sender: senderKeypair.toSuiAddress(),
},
});

// Store encrypted message on decentralized storage (Walrus)
return this.storeOnWalrus(encryptedMessage);
}

async readMessage(encryptionId: string, recipientKeypair: any) {
// Retrieve from storage
const encryptedData = await this.retrieveFromWalrus(encryptionId);

// Decrypt with Seal
const decryptedData = await this.sealClient.decrypt({
ciphertext: encryptedData.ciphertext,
encryptionId: encryptedData.encryptionId,
recipientId: recipientKeypair.toSuiAddress(),
});

return JSON.parse(decryptedData.toString("utf-8"));
}

private async storeOnWalrus(data: any) {
// Integration with Walrus storage
// This would upload the encrypted data to Walrus
// and return the blob ID for retrieval
}

private async retrieveFromWalrus(blobId: string) {
// Retrieve encrypted data from Walrus using blob ID
}
}

Пример 2: Платформа контента с токен-гейтингом

// src/gated-content.ts
import { createSealClient } from "./seal-client";

class ContentGating {
private sealClient: any;
private suiClient: any;

constructor(sealClient: any, suiClient: any) {
this.sealClient = sealClient;
this.suiClient = suiClient;
}

async createGatedContent(
content: string,
requiredNftCollection: string,
creatorKeypair: any,
) {
// Create NFT ownership policy
const accessPolicy = await this.createNftPolicy(
requiredNftCollection,
creatorKeypair,
);

// Encrypt content with NFT access requirement
const encryptedContent = await this.sealClient.encrypt({
data: Buffer.from(content, "utf-8"),
recipientId: "nft_holders", // Special recipient for NFT holders
accessPolicy: {
policyId: accessPolicy.policyId,
policyType: "nft_ownership",
},
});

return {
contentId: encryptedContent.encryptionId,
accessPolicy: accessPolicy.policyId,
};
}

async accessGatedContent(
contentId: string,
userAddress: string,
userKeypair: any,
) {
// Verify NFT ownership first
const hasAccess = await this.verifyNftOwnership(userAddress, contentId);

if (!hasAccess) {
throw new Error("Access denied: Required NFT not found");
}

// Decrypt content
const decryptedContent = await this.sealClient.decrypt({
encryptionId: contentId,
recipientId: userAddress,
});

return decryptedContent.toString("utf-8");
}

private async createNftPolicy(collection: string, creator: any) {
// Create Move contract that checks NFT ownership
// Returns policy object ID
}

private async verifyNftOwnership(user: string, contentId: string) {
// Check if user owns required NFT
// Query Sui for NFT ownership
}
}

Пример 3: Передача активов с временной блокировкой

// src/time-locked-transfer.ts
import { createSealClient } from "./seal-client";

async function createTimeLockTransfer(
assetData: any,
recipientAddress: string,
unlockTimestamp: number,
senderKeypair: any,
) {
const { sealClient, suiClient } = await createSealClient();

// Create time-lock policy on Sui
const timeLockPolicy = await createTimeLockPolicy(
unlockTimestamp,
recipientAddress,
senderKeypair,
suiClient,
);

// Encrypt asset transfer data
const transferData = {
asset: assetData,
recipient: recipientAddress,
unlockTime: unlockTimestamp,
transferId: crypto.randomUUID(),
};

const encryptedTransfer = await sealClient.encrypt({
data: Buffer.from(JSON.stringify(transferData), "utf-8"),
recipientId: recipientAddress,
accessPolicy: {
policyId: timeLockPolicy.policyId,
policyType: "time_lock",
},
});

console.log(`Asset locked until ${new Date(unlockTimestamp)}`);

return {
transferId: encryptedTransfer.encryptionId,
unlockTime: unlockTimestamp,
policyId: timeLockPolicy.policyId,
};
}

async function claimTimeLockTransfer(
transferId: string,
recipientKeypair: any,
) {
const { sealClient } = await createSealClient();

try {
const decryptedData = await sealClient.decrypt({
encryptionId: transferId,
recipientId: recipientKeypair.toSuiAddress(),
});

const transferData = JSON.parse(decryptedData.toString("utf-8"));

// Process the asset transfer
console.log("Asset transfer unlocked:", transferData);

return transferData;
} catch (error) {
console.error("Transfer not yet unlocked or access denied:", error);
throw error;
}
}

Интеграция с децентрализованным хранилищем Walrus

Seal бесшовно работает с Walrus, децентрализованным решением для хранения данных от Sui. Вот как интегрировать оба:

// src/walrus-integration.ts
import { createSealClient } from "./seal-client";

class SealWalrusIntegration {
private sealClient: any;
private walrusClient: any;

constructor(sealClient: any, walrusClient: any) {
this.sealClient = sealClient;
this.walrusClient = walrusClient;
}

async storeEncryptedData(
data: Buffer,
recipientAddress: string,
accessPolicy?: any,
) {
// Encrypt with Seal
const encryptedData = await this.sealClient.encrypt({
data,
recipientId: recipientAddress,
accessPolicy,
});

// Store encrypted data on Walrus
const blobId = await this.walrusClient.store(encryptedData.ciphertext);

// Return reference that includes both Seal and Walrus info
return {
blobId,
encryptionId: encryptedData.encryptionId,
accessPolicy: encryptedData.accessPolicy,
};
}

async retrieveAndDecrypt(
blobId: string,
encryptionId: string,
userKeypair: any,
) {
// Retrieve from Walrus
const encryptedData = await this.walrusClient.retrieve(blobId);

// Decrypt with Seal
const decryptedData = await this.sealClient.decrypt({
ciphertext: encryptedData,
encryptionId,
recipientId: userKeypair.toSuiAddress(),
});

return decryptedData;
}
}

// Usage example
async function walrusExample() {
const { sealClient } = await createSealClient();
const walrusClient = new WalrusClient("https://walrus-testnet.sui.io");

const integration = new SealWalrusIntegration(sealClient, walrusClient);

const fileData = Buffer.from("Important document content");
const recipientAddress = "0x...";

// Store encrypted
const result = await integration.storeEncryptedData(
fileData,
recipientAddress,
);

console.log("Stored with Blob ID:", result.blobId);

// Later, retrieve and decrypt
const decrypted = await integration.retrieveAndDecrypt(
result.blobId,
result.encryptionId,
recipientKeypair,
);

console.log("Retrieved data:", decrypted.toString());
}

Пороговое шифрование: Расширенная конфигурация

Для производственных приложений вам потребуется настроить пользовательское пороговое шифрование с несколькими серверами ключей:

// src/advanced-threshold.ts
import { SealClient } from "@mysten/seal";

async function setupProductionSeal() {
// Configure with multiple independent key servers
const keyServers = [
"https://keyserver-1.your-org.com",
"https://keyserver-2.partner-org.com",
"https://keyserver-3.third-party.com",
"https://keyserver-4.backup-provider.com",
"https://keyserver-5.fallback.com",
];

const sealClient = new SealClient({
keyServers,
threshold: 3, // 3-of-5 threshold
network: "mainnet",
// Advanced options
retryAttempts: 3,
timeoutMs: 10000,
backupKeyServers: [
"https://backup-1.emergency.com",
"https://backup-2.emergency.com",
],
});

return sealClient;
}

async function robustEncryption() {
const sealClient = await setupProductionSeal();

const criticalData = "Mission critical encrypted data";

// Encrypt with high security guarantees
const encrypted = await sealClient.encrypt({
data: Buffer.from(criticalData, "utf-8"),
recipientId: "0x...",
// Require all 5 servers for maximum security
customThreshold: 5,
// Add redundancy
redundancy: 2,
accessPolicy: {
// Multi-factor requirements
requirements: ["nft_ownership", "time_lock", "multisig_approval"],
},
});

return encrypted;
}

Лучшие практики безопасности

1. Управление ключами

// src/security-practices.ts

// GOOD: Use secure key derivation
import { generateKeypair } from "@mysten/sui/cryptography/ed25519";

const keypair = generateKeypair();

// GOOD: Store keys securely (example with environment variables)
const keypair = Ed25519Keypair.fromSecretKey(process.env.PRIVATE_KEY);

// BAD: Never hardcode keys
const badKeypair = Ed25519Keypair.fromSecretKey(
"hardcoded-secret-key-12345", // Don't do this!
);

2. Проверка политики доступа

// Always validate access policies before encryption
async function secureEncrypt(data: Buffer, recipient: string) {
const { sealClient } = await createSealClient();

// Validate recipient address
if (!isValidSuiAddress(recipient)) {
throw new Error("Invalid recipient address");
}

// Check policy exists and is valid
const policy = await validateAccessPolicy(policyId);
if (!policy.isValid) {
throw new Error("Invalid access policy");
}

return sealClient.encrypt({
data,
recipientId: recipient,
accessPolicy: policy,
});
}

3. Обработка ошибок и запасные варианты

// Robust error handling
async function resilientDecrypt(encryptionId: string, userKeypair: any) {
const { sealClient } = await createSealClient();

try {
return await sealClient.decrypt({
encryptionId,
recipientId: userKeypair.toSuiAddress(),
});
} catch (error) {
if (error.code === "ACCESS_DENIED") {
throw new Error("Access denied: Check your permissions");
} else if (error.code === "KEY_SERVER_UNAVAILABLE") {
// Try with backup configuration
return await retryWithBackupServers(encryptionId, userKeypair);
} else if (error.code === "THRESHOLD_NOT_MET") {
throw new Error("Insufficient key servers available");
} else {
throw new Error(`Decryption failed: ${error.message}`);
}
}
}

4. Проверка данных

// Validate data before encryption
function validateDataForEncryption(data: Buffer): boolean {
// Check size limits
if (data.length > 1024 * 1024) {
// 1MB limit
throw new Error("Data too large for encryption");
}

// Check for sensitive patterns (optional)
const dataStr = data.toString();
if (containsSensitivePatterns(dataStr)) {
console.warn("Warning: Data contains potentially sensitive patterns");
}

return true;
}

Оптимизация производительности

1. Пакетные операции

// Batch multiple encryptions for efficiency
async function batchEncrypt(dataItems: Buffer[], recipients: string[]) {
const { sealClient } = await createSealClient();

const promises = dataItems.map((data, index) =>
sealClient.encrypt({
data,
recipientId: recipients[index],
}),
);

return Promise.all(promises);
}

2. Кэширование ответов сервера ключей

// Cache key server sessions to reduce latency
class OptimizedSealClient {
private sessionCache = new Map();

async encryptWithCaching(data: Buffer, recipient: string) {
let session = this.sessionCache.get(recipient);

if (!session || this.isSessionExpired(session)) {
session = await this.createNewSession(recipient);
this.sessionCache.set(recipient, session);
}

return this.encryptWithSession(data, session);
}
}

Тестирование вашей интеграции Seal

Модульное тестирование

// tests/seal-integration.test.ts
import { describe, it, expect } from "jest";
import { createSealClient } from "../src/seal-client";

describe("Seal Integration", () => {
it("should encrypt and decrypt data successfully", async () => {
const { sealClient } = await createSealClient();
const testData = Buffer.from("test message");
const recipient =
"0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

const encrypted = await sealClient.encrypt({
data: testData,
recipientId: recipient,
});

expect(encrypted.encryptionId).toBeDefined();
expect(encrypted.ciphertext).toBeDefined();

const decrypted = await sealClient.decrypt({
ciphertext: encrypted.ciphertext,
encryptionId: encrypted.encryptionId,
recipientId: recipient,
});

expect(decrypted.toString()).toBe("test message");
});

it("should enforce access control policies", async () => {
// Test that unauthorized users cannot decrypt
const { sealClient } = await createSealClient();

const encrypted = await sealClient.encrypt({
data: Buffer.from("secret"),
recipientId: "authorized-user",
});

await expect(
sealClient.decrypt({
ciphertext: encrypted.ciphertext,
encryptionId: encrypted.encryptionId,
recipientId: "unauthorized-user",
}),
).rejects.toThrow("Access denied");
});
});

Развертывание в продакшене

Конфигурация среды

// config/production.ts
export const productionConfig = {
keyServers: [
process.env.KEY_SERVER_1,
process.env.KEY_SERVER_2,
process.env.KEY_SERVER_3,
process.env.KEY_SERVER_4,
process.env.KEY_SERVER_5,
],
threshold: 3,
network: "mainnet",
suiRpc: process.env.SUI_RPC_URL,
walrusGateway: process.env.WALRUS_GATEWAY,
// Security settings
maxDataSize: 1024 * 1024, // 1MB
sessionTimeout: 3600000, // 1 hour
retryAttempts: 3,
};

Мониторинг и логирование

// utils/monitoring.ts
export class SealMonitoring {
static logEncryption(encryptionId: string, recipient: string) {
console.log(`[SEAL] Encrypted data ${encryptionId} for ${recipient}`);
// Send to your monitoring service
}

static logDecryption(encryptionId: string, success: boolean) {
console.log(
`[SEAL] Decryption ${encryptionId}: ${success ? "SUCCESS" : "FAILED"}`,
);
}

static logKeyServerHealth(serverUrl: string, status: string) {
console.log(`[SEAL] Key server ${serverUrl}: ${status}`);
}
}

Ресурсы и дальнейшие шаги

Официальная документация

Сообщество и поддержка

  • Sui Discord: Присоединяйтесь к каналу #seal для поддержки сообщества
  • GitHub Issues: Сообщайте об ошибках и запрашивайте функции
  • Форумы для разработчиков: Форумы сообщества Sui для обсуждений

Расширенные темы для изучения

  1. Пользовательские политики доступа: Создавайте сложную логику авторизации с помощью контрактов Move
  2. Кросс-чейн интеграция: Используйте Seal с другими блокчейн-сетями
  3. Управление ключами для предприятий: Настройте собственную инфраструктуру серверов ключей
  4. Аудит и соответствие требованиям: Внедрите логирование и мониторинг для регулируемых сред

Примеры приложений

  • Приложение для безопасного чата: Сквозное шифрование сообщений с помощью Seal
  • Управление документами: Обмен корпоративными документами с контролем доступа
  • Управление цифровыми правами: Распространение контента с политиками использования
  • Аналитика, сохраняющая конфиденциальность: Рабочие процессы обработки зашифрованных данных

Заключение

Seal представляет собой фундаментальный сдвиг в сторону превращения конфиденциальности и шифрования в инфраструктурные проблемы в Web3. Объединяя шифрование на основе идентификаторов, пороговую безопасность и программируемый контроль доступа, он предоставляет разработчикам мощные инструменты для создания по-настоящему безопасных и децентрализованных приложений.

Основные преимущества использования Seal включают:

  • Отсутствие единой точки отказа: Распределенные серверы ключей устраняют центральные органы
  • Программируемая безопасность: Политики доступа на основе смарт-контрактов обеспечивают гибкую авторизацию
  • Удобство для разработчиков: SDK TypeScript легко интегрируется с существующими инструментами Web3
  • Независимость от хранилища: Работает с Walrus, IPFS или любым другим решением для хранения
  • Готовность к продакшену: Создан Mysten Labs с учетом корпоративных стандартов безопасности

Независимо от того, защищаете ли вы пользовательские данные, внедряете модели подписки или создаете сложные многосторонние приложения, Seal предоставляет криптографические примитивы и инфраструктуру контроля доступа, необходимые для уверенного создания.

Начните создавать сегодня и присоединяйтесь к растущей экосистеме разработчиков, которые делают конфиденциальность фундаментальной частью общественной инфраструктуры.


Готовы начать создавать? Установите @mysten/seal и начните экспериментировать с примерами из этого руководства. Децентрализованная сеть ждет приложений, которые ставят конфиденциальность и безопасность на первое место.

Юридический справочник Web3: 50 часто задаваемых вопросов, которые должен освоить каждый разработчик

· 6 мин. чтения
Dora Noda
Software Engineer

Запуск протокола или масштабирование ончейн-продукта — это уже не просто техническая задача. Регуляторы тщательно проверяют всё: от запуска токенов до конфиденциальности кошельков, в то время как пользователи ожидают защиты потребительского уровня. Чтобы продолжать уверенно развиваться, каждая команда основателей нуждается в структурированном подходе для перевода сложных юридических меморандумов в продуктовые решения. Основываясь на 50 наиболее распространенных вопросах, которые слышат юристы web3, этот справочник разбивает обсуждение на готовые к действию шаги для разработчиков.

1. Формирование и управление: Разделяйте Devco, Фонд и Сообщество

  • Выберите правильную структуру. Стандартные корпорации типа C (C-corps) или ООО (LLCs) по-прежнему лучше всего справляются с расчетом заработной платы, интеллектуальной собственностью (IP) и проверкой инвесторов. Если вы планируете управлять протоколом или программой грантов, отдельная некоммерческая организация или фонд обеспечит чистоту стимулов и прозрачность управления.
  • Оформляйте каждое отношение. Используйте соглашения о передаче интеллектуальной собственности, соглашения о конфиденциальности и графики вестинга с четкими условиями (cliffs), блокировками (lockups) и положениями о возврате средств от недобросовестных участников (bad-actor clawbacks). Документируйте одобрения совета директоров и ведите таблицы капитализации токенов так же тщательно, как и реестры акционерного капитала.
  • Проводите четкие границы между сущностями. Компания-разработчик может создавать продукты по лицензии, но бюджет, казначейская политика и права принятия решений должны принадлежать фонду или DAO, имеющему свой устав и конституцию. Если DAO требуется правосубъектность, оформите его как ООО или эквивалент.

2. Токены и ценные бумаги: Проектируйте для полезности, документируйте обоснование

  • Предполагайте, что регуляторы смотрят дальше ярлыков. Метки "управление" или "полезность" имеют значение только в том случае, если пользователи действительно взаимодействуют с живой сетью, покупают для потребления и им не обещают рост прибыли. Блокировки могут снизить спекуляцию, но должны быть оправданы как меры стабильности или защиты от атак Сивиллы (anti-sybil safeguards).
  • Различайте доступ и инвестиции. Токены доступа должны читаться как пропуски к продукту — ценообразование, документация и маркетинг должны подтверждать право на услуги, а не на будущую прибыль. Стейблкоины запускают свои собственные режимы платежей или электронных денег в зависимости от резервов и прав на погашение.
  • Относитесь к стейкингу и доходности как к финансовым продуктам. Любое обещание годовой процентной ставки (APR), объединения средств (pooling) или зависимости от усилий команды повышает риск ценных бумаг. Ведите простой маркетинг, делитесь факторами риска и разработайте соответствующий план SAFT-to-mainnet, если вы привлекаете средства с будущими токенами.
  • Помните, что NFT могут быть ценными бумагами. Дробное владение, доли в доходах или формулировки о прибыли переводят их в инвестиционную категорию. Простые, потребительские NFT с явными лицензиями безопаснее.

3. Привлечение средств и продажи: Продвигайте сеть, а не "лунный выстрел"

  • Раскрывайте информацию как взрослый. Цель, функциональность, вестинг, распределения, ограничения на передачу, зависимости и использование выручки должны быть указаны в каждом меморандуме о продаже. Согласуйте маркетинговые тексты с этими документами — никаких твитов о "гарантированной доходности".
  • Соблюдайте юрисдикционные границы. Если вы не можете соблюдать режимы США или другие режимы с высокими требованиями, используйте геофенсинг с проверками соответствия требованиям, договорными ограничениями и постпродажным мониторингом. KYC/AML является стандартом для продаж и всё чаще для аирдропов.
  • Управляйте рисками продвижения. Кампании с инфлюенсерами требуют четкого раскрытия спонсорства и соответствующих сценариев. Листинги на биржах или сделки по маркет-мейкингу требуют письменных соглашений, проверок на конфликт интересов и честных сообщений площадкам.

4. AML, налоги и IP: Встраивайте контроль в продукт

  • Знайте свою регуляторную роль. Некастодиальное программное обеспечение сталкивается с более легкими обязательствами по AML, но как только вы касаетесь фиатных шлюзов, кастодиальных услуг или посреднического обмена, применяются правила для операторов денежных переводов или поставщиков услуг виртуальных активов (VASP). Подготовьте проверку на санкции, пути эскалации и готовность к правилу путешествий (travel-rule) там, где это применимо.
  • Относитесь к токенам как к наличным для бухгалтерского учета. Поступления токенов обычно являются доходом по справедливой рыночной стоимости; последующие продажи вызывают прирост или убытки. Гранты на компенсацию часто создают налогооблагаемый доход при вестинге — используйте письменные гранты, отслеживайте базис и готовьтесь к волатильности.
  • Соблюдайте границы интеллектуальной собственности. Сочетайте NFT и ончейн-контент с явными лицензиями, соблюдайте условия стороннего открытого исходного кода и регистрируйте товарные знаки. Если вы обучаете модели ИИ, подтвердите права на наборы данных и очистите конфиденциальные данные.

5. Конфиденциальность и данные: Ограничьте сбор, планируйте удаление

  • Предполагайте, что адреса кошельков являются персональными данными. Объедините их с IP-адресами, идентификаторами устройств или электронными письмами, и вы получите персональную идентифицируемую информацию (PII). Собирайте только то, что вам нужно, храните вне цепи, когда это возможно, и хешируйте или токенизируйте идентификаторы.
  • Проектируйте для стирания. Неизменяемые реестры не освобождают вас от законов о конфиденциальности — храните PII вне цепи, удаляйте ссылки, когда пользователи запрашивают удаление, и разрывайте связи, которые могут повторно идентифицировать хешированные данные.
  • Будьте прозрачны в отношении телеметрии. Баннеры с файлами cookie, раскрытие аналитических данных и возможность отказа — это базовые требования. Документируйте план реагирования на инциденты, который охватывает уровни серьезности, сроки уведомления и контактные данные.

6. Операции и риски: Проводите аудит заранее, общайтесь часто

  • Проводите аудит и раскрывайте информацию. Независимые аудиты смарт-контрактов, формальная верификация, где это оправдано, и постоянная программа вознаграждения за обнаружение ошибок (bug bounty) сигнализируют о зрелости. Публикуйте отчеты и четко объясняйте остаточные риски.
  • Установите четкие Условия обслуживания. Подробно опишите статус кастодиального хранения, правомочность, запрещенные использования, разрешение споров и то, как вы обрабатываете форки. Согласуйте Условия обслуживания, политику конфиденциальности и поведение в продукте.
  • Планируйте форки, страхование и трансграничный рост. Зарезервируйте права на выбор поддерживаемых цепей, дат снимков и путей миграции. Изучите страховое покрытие от киберрисков, преступлений, D&O (директоров и должностных лиц) и технологических ошибок и упущений (tech E&O). При работе по всему миру локализуйте условия, проверяйте экспортный контроль и используйте партнеров EOR/PEO, чтобы избежать неправильной классификации.
  • Готовьтесь к спорам. Заранее решите, подходит ли арбитраж или отказ от коллективных исков вашей пользовательской базе. Регистрируйте запросы правоохранительных органов, проверяйте юридический процесс и объясняйте технические ограничения, такие как отсутствие хранения ключей.

7. Контрольный список действий для разработчика

  • Определите свою операционную роль: поставщик программного обеспечения, кастодиан, брокерская услуга или платежный посредник.
  • Держите маркетинг фактическим и ориентированным на функциональность; избегайте формулировок, подразумевающих спекулятивную доходность.
  • Минимизируйте кастодиальное хранение и сбор персональных данных; документируйте любые неизбежные точки соприкосновения.
  • Поддерживайте актуальные документы для распределения токенов, дизайна управления, статуса аудита и решений по рискам.
  • С первого дня закладывайте бюджет на юридические консультации, инструменты соответствия, аудиты, программы вознаграждения за ошибки и налоговую экспертизу.

8. Превращение юридических советов в скорость разработки продукта

Регулирование не будет замедляться для разработчиков. Что меняет результаты, так это внедрение юридических соображений в управление бэклогом, управление казначейством и коммуникации с пользователями. Сделайте юридические консультации частью обзоров спринтов, репетируйте реагирование на инциденты и итерируйте раскрытие информации так же, как вы итерируете UX. Сделайте это, и 50 вышеупомянутых часто задаваемых вопросов перестанут быть препятствием и начнут превращаться в конкурентное преимущество для вашего протокола.

От паролей к портативным доказательствам: Руководство по Web3-идентификации для разработчиков в 2025 году

· 10 мин. чтения
Dora Noda
Software Engineer

Большинство приложений по-прежнему привязывают идентификацию к именам пользователей, паролям и централизованным базам данных. Эта модель хрупка (утечки), негерметична (перепродажа данных) и неуклюжа (бесконечные повторения KYC). Новая архитектура, формирующаяся вокруг децентрализованных идентификаторов (DIDs), проверяемых учетных данных (VCs) и аттестаций, указывает на другое будущее: пользователи несут криптографические доказательства фактов о себе и раскрывают только то, что необходимо — ни больше, ни меньше.

Этот пост описывает текущую ситуацию и предлагает практический план, который вы можете реализовать уже сегодня.


Сдвиг: От аккаунтов к учетным данным

Ядро этой новой архитектуры идентификации построено на двух основополагающих стандартах W3C, которые кардинально меняют подход к обработке пользовательских данных.

  • Децентрализованные идентификаторы (DIDs): Это контролируемые пользователем идентификаторы, которые не требуют центрального реестра, такого как система доменных имен. Думайте о DID как о постоянном, самостоятельном адресе для идентификации. DID разрешается в подписанный «DID-документ», содержащий публичные ключи и конечные точки сервисов, что позволяет осуществлять безопасную, децентрализованную аутентификацию. Стандарт v1.0 стал официальной рекомендацией W3C 19 июля 2022 года, что ознаменовало важную веху для экосистемы.
  • Проверяемые учетные данные (VCs): Это защищенный от подделки цифровой формат для выражения утверждений, таких как «возраст старше 18 лет», «имеет диплом Университета X» или «прошел проверку KYC». Модель данных VC 2.0 стала рекомендацией W3C 15 мая 2025 года, заложив современную основу для того, как эти учетные данные выдаются и проверяются.

Что меняется для разработчиков? Сдвиг глубок. Вместо хранения конфиденциальной персонально идентифицируемой информации (PII) в вашей базе данных, вы проверяете криптографические доказательства, предоставленные кошельком пользователя. Вы можете запросить только ту конкретную информацию, которая вам нужна (например, проживание в определенной стране), не видя базового документа, благодаря мощным примитивам, таким как выборочное раскрытие.


Где это встречается с уже используемыми вами логинами

Этот новый мир не требует отказа от привычных способов входа. Напротив, он их дополняет.

  • Ключи доступа (Passkeys) / WebAuthn: Это ваш выбор для аутентификации, устойчивой к фишингу. Ключи доступа — это учетные данные FIDO, привязанные к устройству или биометрическим данным (например, Face ID или отпечатку пальца), и они теперь широко поддерживаются во всех основных браузерах и операционных системах. Они предлагают бесшовный, безпарольный вход в ваше приложение или кошелек.
  • Вход с помощью Ethereum (SIWE / EIP-4361): Этот стандарт позволяет пользователю доказать контроль над блокчейн-адресом и связать его с сеансом приложения. Он работает через простое, подписанное сообщение на основе nonce, создавая чистый мост между традиционными сеансами Web2 и управлением Web3.

Лучшая практика — использовать их вместе: внедрить ключи доступа для основного, повседневного входа и предложить SIWE для потоков, связанных с кошельком, где пользователю необходимо авторизовать крипто-нативное действие.


Основы для выдачи и проверки учетных данных

Чтобы учетные данные были полезными, нам нужны стандартизированные способы их выдачи пользователям и их представления пользователями приложениям. OpenID Foundation предоставляет для этого два ключевых протокола.

  • Выдача: OpenID для выдачи проверяемых учетных данных (OID4VCI) определяет API, защищенный OAuth, для получения учетных данных от эмитентов (таких как государственное учреждение или поставщик KYC) в цифровой кошелек пользователя. Он разработан как гибкий, поддерживающий несколько форматов учетных данных.
  • Представление: OpenID для проверяемых представлений (OID4VP) стандартизирует, как ваше приложение делает «запрос доказательства» и как кошелек пользователя на него отвечает. Это может происходить через классические перенаправления OAuth или через современные API браузера.

При разработке вы столкнетесь с несколькими ключевыми форматами учетных данных, разработанными для различных экосистем и вариантов использования:

  • W3C VC с наборами целостности данных (JSON-LD): Часто сочетается с криптографией BBS+ для обеспечения мощного выборочного раскрытия.
  • VC-JOSE-COSE и SD-JWT VC (IETF): Эти форматы созданы для экосистем на основе JWT и CBOR, также обладая мощными возможностями выборочного раскрытия.

К счастью, совместимость быстро улучшается. Профили, такие как OpenID4VC High Assurance, помогают сузить технические варианты, делая интеграции между различными поставщиками гораздо более разумными для разработчиков.


Методы DID: Выбор правильной схемы адресации

DID — это просто идентификатор; «метод DID» определяет, как он привязан к корню доверия. Вам захочется поддерживать несколько распространенных методов.

  • did:web: Этот метод поддерживает DID с доменом, который вы контролируете. Он невероятно прост в развертывании и является отличным выбором для предприятий, эмитентов и организаций, которые хотят использовать свою существующую веб-инфраструктуру в качестве якоря доверия.
  • did:pkh: Этот метод выводит DID непосредственно из блокчейн-адреса (например, адреса Ethereum). Это очень полезно, когда ваша пользовательская база уже имеет криптокошельки, и вы хотите связать их личность с ончейн-активами.

Практическое правило: Поддерживайте как минимум два метода — did:web для организаций и did:pkh для индивидуальных пользователей. Используйте стандартную библиотеку DID-резолвера для обработки поиска и консультируйтесь с официальными реестрами для оценки безопасности, постоянства и управления любым новым методом, который вы рассматриваете для добавления.


Полезные строительные блоки, которые вы можете подключить

Помимо основных стандартов, несколько инструментов могут улучшить вашу архитектуру идентификации.

  • ENS (Ethereum Name Service): Предоставляет удобочитаемые имена (yourname.eth), которые могут быть сопоставлены с блокчейн-адресами и DIDs. Это бесценный инструмент для улучшения пользовательского опыта, уменьшения ошибок и предоставления простого слоя профиля.
  • Аттестации: Это гибкие, проверяемые «факты о чем угодно», которые могут быть записаны ончейн или офчейн. Ethereum Attestation Service (EAS), например, предоставляет надежную основу для построения репутации и графов доверия без хранения PII в публичном реестре.

Регуляторные факторы, за которыми следует следить

Регулирование часто рассматривается как препятствие, но в этой области оно является мощным ускорителем. Рамочная программа цифровой идентификации ЕС (eIDAS 2.0), официально принятая в качестве Регламента EU 2024/1183 20 мая 2024 года, является наиболее значимым событием. Она обязывает все государства-члены ЕС предлагать гражданам бесплатный Цифровой кошелек ЕС (EUDI). С публикацией имплементационных регламентов 7 мая 2025 года это является мощным сигналом для внедрения учетных данных на основе кошельков как в государственных, так и в частных службах Европы.

Даже если вы не работаете в ЕС, ожидайте, что кошелек EUDI и его базовые протоколы будут формировать ожидания пользователей и стимулировать внедрение кошельков по всему миру.


Рабочие паттерны проектирования в продакшене (2025)

  • Сначала без пароля, кошельки опционально: По умолчанию используйте ключи доступа для входа. Это безопасно, просто и привычно. Вводите SIWE только тогда, когда пользователям необходимо выполнить крипто-связанное действие, такое как минтинг NFT или получение выплаты.
  • Запрашивайте доказательства, а не документы: Замените неуклюжую загрузку документов четким запросом доказательства VC с использованием OID4VP. Вместо запроса водительских прав, запросите доказательство «возраста старше 18 лет» или «страны проживания X». Принимайте учетные данные, поддерживающие выборочное раскрытие, такие как использующие BBS+ или SD-JWT.
  • Не храните PII на своих серверах: Когда пользователь что-то доказывает, записывайте аттестацию или кратковременный результат проверки, а не сами исходные учетные данные. Ончейн-аттестации — это мощный способ создания аудируемой записи — «Пользователь Y прошел KYC у Эмитента Z в дату D» — без хранения каких-либо персональных данных.
  • Позвольте организациям быть эмитентами с did:web: Предприятия, университеты и другие организации уже контролируют свои домены. Позвольте им подписывать учетные данные в качестве эмитентов, используя did:web, что позволит им управлять своими криптографическими ключами в рамках их существующих моделей веб-управления.
  • Используйте ENS для имен, а не для идентификации: Рассматривайте ENS как удобный для пользователя дескриптор и указатель профиля. Это отлично подходит для UX, но сохраняйте авторитетные заявления об идентичности в учетных данных и аттестациях.

Стартовая архитектура

Вот план современной системы идентификации на основе учетных данных:

  • Аутентификация
    • Вход по умолчанию: Ключи доступа (FIDO/WebAuthn).
    • Крипто-связанные сеансы: Вход с помощью Ethereum (SIWE) для действий, связанных с кошельком.
  • Учетные данные
    • Выдача: Интегрируйтесь с конечными точками OID4VCI от выбранных вами эмитентов (например, поставщика KYC, университета).
    • Представление: Запускайте запросы доказательств OID4VP из вашего веб- или нативного приложения. Будьте готовы принимать как W3C VCs (с BBS+), так и SD-JWT VCs.
  • Разрешение и доверие
    • DID-резолвер: Используйте библиотеку, которая поддерживает как минимум did:web и did:pkh. Поддерживайте список разрешенных доверенных DID эмитентов для предотвращения спуфинга.
  • Аттестации и репутация
    • Надежные записи: Когда вам нужен аудируемый сигнал о проверке, создайте аттестацию, содержащую хеш, DID эмитента и метку времени, вместо хранения самого утверждения.
  • Хранение и конфиденциальность
    • Минимализм: Резко минимизируйте PII, которую вы храните на сервере. Шифруйте все данные в состоянии покоя и устанавливайте строгие политики времени жизни (TTL). Отдавайте предпочтение эфемерным доказательствам и активно используйте доказательства с нулевым разглашением или выборочное раскрытие.

Уроки UX

  • Начинайте незаметно: Для большинства пользователей лучший кошелек — это тот, о котором им не нужно думать. Используйте ключи доступа для бесшовного входа и отображайте взаимодействия с кошельком только контекстуально, когда они абсолютно необходимы.
  • Прогрессивное раскрытие: Не запрашивайте все сразу. Запрашивайте наименьшее возможное доказательство, которое разблокирует непосредственную цель пользователя. При выборочном раскрытии вам не нужен полный документ пользователя для проверки одного факта.
  • Восстановление ключей имеет значение: Учетные данные, привязанные к одному ключу устройства, являются уязвимостью. Планируйте перевыпуск и переносимость между устройствами с первого дня. Это одна из ключевых причин, по которой современные профили принимают такие форматы, как SD-JWT VC и привязка держателя на основе утверждений.
  • Удобочитаемые дескрипторы помогают: Имя ENS гораздо менее пугающе, чем длинный шестнадцатеричный адрес. Оно уменьшает ошибки пользователя и добавляет слой узнаваемого контекста, даже если истинный авторитет находится в базовых учетных данных.

Что выпустить в следующем квартале: Прагматичная дорожная карта

  • Недели 1–2:
    • Добавьте ключи доступа для вашего основного потока входа.
    • Защитите все крипто-нативные действия проверкой SIWE.
  • Недели 3–6:
    • Проведите пилотный проект по простой проверке возраста или региона с использованием запроса OID4VP.
    • Принимайте учетные данные VC 2.0 с выборочным раскрытием (BBS+ или SD-JWT VC).
    • Начните создавать аттестации для событий «проверка пройдена» вместо логирования PII.
  • Недели 7–10:
    • Подключите партнера-эмитента (например, вашего поставщика KYC), используя did:web, и реализуйте список разрешенных DID.
    • Предложите связывание имени ENS в профилях пользователей для улучшения UX адресов.
  • Недели 11–12:
    • Разработайте модель угроз для ваших потоков представления и отзыва. Добавьте телеметрию для распространенных режимов отказа (истекшие учетные данные, недоверенный эмитент).
    • Опубликуйте четкую политику конфиденциальности, объясняющую, что именно вы запрашиваете, почему, как долго вы это храните и как пользователи могут это проверить.

Что быстро меняется (следите за этим)

  • Развертывание кошельков EUDI в ЕС: Внедрение и тестирование на соответствие этих кошельков значительно повлияют на возможности и UX верификации по всему миру.
  • Профили OpenID4VC: Совместимость между эмитентами, кошельками и верификаторами постоянно улучшается благодаря новым профилям и наборам тестов.
  • Криптографические наборы для выборочного раскрытия: Библиотеки и руководства для разработчиков как для BBS+, так и для SD-JWT VC быстро развиваются, что упрощает их реализацию.

Принципы, которыми следует руководствоваться при разработке

  • Доказывайте, не храните: По умолчанию проверяйте утверждения, а не храните необработанные PII.
  • Совместимость по умолчанию: Поддерживайте несколько форматов учетных данных и методов DID с первого дня, чтобы обеспечить перспективность вашей архитектуры.
  • Минимизируйте и раскрывайте: Запрашивайте наименьшее возможное утверждение. Будьте прозрачны с пользователями относительно того, что вы проверяете и почему.
  • Сделайте восстановление скучным: Планируйте потерю устройства и смену эмитента. Избегайте хрупкой привязки ключей, которая оставляет пользователей в затруднительном положении.

Если вы создаете финтех-, социальные или платформы для авторов, идентификация на основе учетных данных — это уже не ставка на будущее, а кратчайший путь к снижению рисков, более плавному онбордингу и глобальной совместимости.

Seal на Sui: Программируемый слой секретов для контроля доступа в блокчейне

· 5 мин. чтения
Dora Noda
Software Engineer

Публичные блокчейны предоставляют каждому участнику синхронизированный, проверяемый реестр, но по умолчанию они также раскрывают каждую часть данных. Seal, запущенный в основной сети Sui (Sui Mainnet) 3 сентября 2025 года, решает эту проблему, объединяя логику политики в блокчейне с децентрализованным управлением ключами, чтобы разработчики Web3 могли точно определять, кто получает доступ к расшифровке каких полезных данных.

Краткое содержание

  • Что это: Seal — это сеть управления секретами, которая позволяет смарт-контрактам Sui принудительно применять политики дешифрования в блокчейне, в то время как клиенты шифруют данные с помощью шифрования на основе идентификаторов (IBE) и полагаются на пороговые ключевые серверы для вывода ключей.
  • Почему это важно: Вместо пользовательских бэкендов или непрозрачных внесетевых скриптов, конфиденциальность и контроль доступа становятся первоклассными примитивами Move. Разработчики могут хранить зашифрованные тексты где угодно — Walrus является естественным дополнением — но при этом ограничивать, кто может их читать.
  • Кто выигрывает: Команды, выпускающие медиаконтент с токен-доступом, раскрытие информации по истечении времени, приватные сообщения или ИИ-агентов, осведомленных о политиках, могут подключиться к SDK Seal и сосредоточиться на продуктовой логике, а не на специализированной криптографической инфраструктуре.

Логика политики находится в Move

Пакеты Seal поставляются с функциями Move seal_approve*, которые определяют, кто может запрашивать ключи для данной строки идентификатора и при каких условиях. Политики могут сочетать владение NFT, белые списки, временные блокировки или пользовательские системы ролей. Когда пользователь или агент запрашивает дешифрование, ключевые серверы оценивают эти политики через состояние полного узла Sui и одобряют запрос только в том случае, если блокчейн согласен.

Поскольку правила доступа являются частью вашего пакета в блокчейне, они прозрачны, проверяемы и версионируемы наряду с остальным кодом вашего смарт-контракта. Обновления управления могут быть развернуты, как любое другое обновление Move, с проверкой сообщества и историей в блокчейне.

Пороговая криптография управляет ключами

Seal шифрует данные для идентификаторов, определенных приложением. Комитет независимых ключевых серверов, выбранных разработчиком, разделяет главный секрет IBE. Когда проверка политики пройдена, каждый сервер выводит долю ключа для запрошенного идентификатора. Как только кворум из t серверов отвечает, клиент объединяет доли в пригодный для использования ключ дешифрования.

Вы можете установить компромисс между живучестью и конфиденциальностью, выбирая членов комитета (Ruby Nodes, NodeInfra, Overclock, Studio Mirai, H2O Nodes, Triton One или сервис Enoki от Mysten) и выбирая порог. Нужна более высокая доступность? Выберите более крупный комитет с более низким порогом. Хотите более высокие гарантии конфиденциальности? Ужесточите кворум и полагайтесь на авторизованных провайдеров.

Опыт разработчика: SDK и сеансовые ключи

Seal поставляется с TypeScript SDK (npm i @mysten/seal), который обрабатывает потоки шифрования/дешифрования, форматирование идентификаторов и пакетную обработку. Он также выдает сеансовые ключи, чтобы кошельки не засыпались постоянными запросами, когда приложению требуется повторный доступ. Для расширенных рабочих процессов контракты Move могут запрашивать дешифрование в блокчейне через специализированные режимы, позволяя логике, такой как раскрытие эскроу или аукционы, устойчивые к MEV, выполняться непосредственно в коде смарт-контракта.

Поскольку Seal независим от хранилища, команды могут использовать его в паре с Walrus для проверяемого хранилища больших двоичных объектов, с IPFS или даже с централизованными хранилищами, когда это соответствует операционным реалиям. Граница шифрования — и применение ее политики — перемещается вместе с данными независимо от того, где находится зашифрованный текст.

Проектирование с Seal: Лучшие практики

  • Моделируйте риск доступности: Пороги, такие как 2 из 3 или 3 из 5, напрямую соответствуют гарантиям бесперебойной работы. Промышленные развертывания должны использовать комбинацию провайдеров, отслеживать телеметрию и согласовывать SLA, прежде чем доверять критически важные рабочие процессы.
  • Учитывайте изменчивость состояния: Оценка политики зависит от выполнения полными узлами вызовов dry_run. Избегайте правил, которые зависят от быстро меняющихся счетчиков или порядка внутри контрольных точек, чтобы предотвратить непоследовательные одобрения на разных серверах.
  • Планируйте гигиену ключей: Производные ключи хранятся на клиенте. Настройте логирование, ротируйте сеансовые ключи и рассмотрите конвертное шифрование — используйте Seal для защиты симметричного ключа, который шифрует более крупную полезную нагрузку — чтобы ограничить радиус поражения в случае компрометации устройства.
  • Архитектура для ротации: Комитет зашифрованного текста фиксируется во время шифрования. Создавайте пути обновления, которые повторно шифруют данные через новые комитеты, когда вам нужно сменить провайдеров или скорректировать предположения о доверии.

Что дальше

Дорожная карта Seal указывает на управляемые валидаторами MPC-серверы, клиентские инструменты в стиле DRM и постквантовые опции KEM. Для разработчиков, исследующих ИИ-агентов, премиум-контент или регулируемые потоки данных, сегодняшний релиз уже предоставляет четкий план: кодируйте свою политику в Move, создайте разнообразный ключевой комитет и предоставляйте зашифрованные возможности, которые уважают конфиденциальность пользователей, не выходя за пределы границы доверия Sui.

Если вы рассматриваете Seal для вашего следующего запуска, начните с прототипирования простой политики с NFT-доступом с открытым комитетом 2 из 3, затем итерируйте к комбинации провайдеров и операционных контролей, которые соответствуют профилю риска вашего приложения.

Абстракция цепей: как предприятия наконец-то будут использовать Web3 (не думая о цепях)

· 9 мин. чтения
Dora Noda
Software Engineer

TL;DR

Кросс-чейн абстракция превращает лабиринт цепей, мостов и кошельков в единую, согласованную платформу для разработчиков и конечных пользователей. Экосистема незаметно созрела: стандарты намерений (intent standards), абстракция учетных записей (account abstraction), нативная мобильность стейблкоинов и инициативы на сетевом уровне, такие как OP Superchain и AggLayer от Polygon, делают будущее «множество цепей, один опыт» реалистичным в 2025 году. Для предприятий выгода прагматична: более простые интеграции, применимые меры контроля рисков, детерминированные операции и готовность к аудиту для соблюдения требований — без необходимости ставить все на одну цепь.


Проблема, с которой на самом деле сталкиваются предприятия (и почему одни только мосты ее не решили)

Большинство корпоративных команд не хотят «выбирать цепь». Им нужны результаты: провести платеж, выпустить актив, закрыть сделку или обновить запись — надежно, с возможностью аудита и по предсказуемой стоимости. Проблема в том, что современный Web3 в продакшене безнадежно мультичейн. Сотни роллапов, аппчейнов и L2 были запущены только за последние 18 месяцев, каждый со своими комиссиями, временем финализации, инструментами и предположениями о доверии.

Традиционные кросс-чейн подходы решали проблему транспортировки — перемещения токенов или сообщений из А в Б, но не опыта. Команды по-прежнему вынуждены управлять кошельками для каждой сети, обеспечивать газ для каждой цепи, выбирать мост для каждого маршрута и нести бремя различий в безопасности, которые они не могут легко количественно оценить. Это трение является настоящим налогом на внедрение.

Кросс-чейн абстракция устраняет этот налог, скрывая выбор цепи и транспортировку за декларативными API, пользовательскими интерфейсами, управляемыми намерениями (intent-driven), и унифицированной идентификацией и газом. Другими словами, пользователи и приложения выражают что они хотят; платформа определяет как и где это происходит, безопасно. Абстракция цепей делает технологию блокчейна невидимой для конечных пользователей, сохраняя при этом ее основные преимущества.

Почему 2025 год отличается: строительные блоки наконец-то сошлись

Видение бесшовного мультичейн мира не ново, но базовая технология наконец-то готова к продакшену. Несколько ключевых компонентов созрели и сошлись, делая надежную абстракцию цепей возможной.

  • Унификация на сетевом уровне: Проекты теперь создают фреймворки, чтобы отдельные цепи ощущались как единая, унифицированная сеть. OP Superchain стремится стандартизировать L2 на базе OP-Stack с общими инструментами и уровнями связи. AggLayer от Polygon агрегирует множество ZK-защищенных цепей с «пессимистическими доказательствами» для учета на уровне цепи, предотвращая загрязнение других цепей проблемами одной. Тем временем, IBC v2 расширяет стандартизированную интероперабельность за пределы экосистемы Cosmos, продвигаясь к «IBC повсюду».

  • Зрелые рельсы интероперабельности: Промежуточное ПО для кросс-чейн связи теперь проверено в боевых условиях и широко доступно. Chainlink CCIP предлагает передачу токенов и данных корпоративного уровня через растущее число цепей. LayerZero v2 обеспечивает омничейн-обмен сообщениями и стандартизированные токены OFT с унифицированным предложением. Axelar предоставляет General Message Passing (GMP) для сложных вызовов контрактов между экосистемами, соединяя цепи EVM и Cosmos. Платформы, такие как Hyperlane, обеспечивают развертывания без разрешений, позволяя новым цепям присоединяться к сети без привратников, в то время как Wormhole предлагает обобщенный уровень обмена сообщениями, используемый более чем в 40 цепях.

  • Абстракция намерений и учетных записей: Пользовательский опыт был трансформирован двумя критически важными стандартами. ERC-7683 стандартизирует кросс-чейн намерения, позволяя приложениям объявлять цели и давать общей сети решателей эффективно выполнять их через цепи. Одновременно, смарт-аккаунты EIP-4337 в сочетании с Paymasters обеспечивают абстракцию газа. Это позволяет приложению спонсировать комиссии за транзакции или позволять пользователям платить в стейблкоинах, что крайне важно для любого потока, который может затрагивать несколько сетей.

  • Нативная мобильность стейблкоинов: Протокол кросс-чейн передачи Circle (CCTP) перемещает нативный USDC между цепями через безопасный процесс сжигания и выпуска (burn-and-mint), снижая риск обернутых активов и унифицируя ликвидность. Последняя версия, CCTP v2, дополнительно сокращает задержки и упрощает рабочие процессы разработчиков, делая расчеты стейблкоинов бесшовной частью абстрагированного опыта.

Как выглядит «кросс-чейн абстракция» в корпоративном стеке

Представьте это как многоуровневую возможность, которую можно добавить к существующим системам. Цель состоит в том, чтобы иметь единую конечную точку для выражения намерения и единую плоскость политики для управления тем, как оно выполняется через любое количество цепей.

  1. Единая идентификация и политика: На верхнем уровне находятся смарт-аккаунты (EIP-4337) с контролем доступа на основе ролей, социальным восстановлением и современными опциями хранения, такими как ключи доступа (passkeys) или MPC. Это регулируется центральным механизмом политики, который определяет, кто что может делать и где, используя списки разрешений и запретов для конкретных цепей, активов и мостов.

  2. Абстракция газа и комиссий: Paymasters устраняют головную боль «мне нужен нативный газ в цепи X». Пользователи или сервисы могут оплачивать комиссии в стейблкоинах, или приложение может полностью спонсировать их, в соответствии с заранее определенными политиками и бюджетами.

  3. Исполнение, управляемое намерениями: Пользователи выражают результаты, а не транзакции. Например, «обменять USDC на wETH и доставить его на кошелек нашего поставщика в цепи Y до 17:00». Стандарт ERC-7683 определяет формат для этих заказов, позволяя общим сетям решателей конкурировать за их безопасное и дешевое выполнение.

  4. Программируемые расчеты и обмен сообщениями: Под капотом система использует согласованный API для выбора подходящего рельса для каждого маршрута. Он может использовать CCIP для передачи токенов, где ключевой является корпоративная поддержка, Axelar GMP для вызова контракта между экосистемами или IBC, где нативная безопасность легкого клиента соответствует модели риска.

  5. Наблюдаемость и соответствие требованиям по умолчанию: Весь рабочий процесс отслеживается, от первоначального намерения до окончательного расчета. Это создает четкие аудиторские следы и позволяет экспортировать данные в существующие SIEM-системы. Рамки рисков могут быть запрограммированы для принудительного применения списков разрешений или запуска аварийных тормозов, например, путем приостановки маршрутов, если состояние безопасности моста ухудшается.

Эталонная архитектура

Сверху вниз, система с абстракцией цепей состоит из четких слоев:

  • Уровень опыта (Experience Layer): Поверхности приложений, которые собирают намерения пользователей и полностью скрывают детали цепи, в сочетании с потоками кошельков смарт-аккаунтов в стиле SSO.
  • Плоскость управления (Control Plane): Механизм политики для управления разрешениями, квотами и бюджетами. Эта плоскость интегрируется с системами KMS/HSM и поддерживает списки разрешений для цепей, активов и мостов. Она также получает потоки рисков для автоматического прерывания уязвимых маршрутов.
  • Уровень исполнения (Execution Layer): Маршрутизатор намерений, который выбирает лучший рельс интероперабельности (CCIP, LayerZero, Axelar и т. д.) на основе политики, цены и требований к задержке. Paymaster обрабатывает комиссии, используя казначейство объединенных бюджетов газа и стейблкоинов.
  • Расчеты и состояние (Settlement & State): Канонические ончейн-контракты для основных функций, таких как хранение и выпуск. Унифицированный индексатор отслеживает кросс-чейн события и доказательства, экспортируя данные в хранилище или SIEM для анализа и соблюдения требований.

Создавать или покупать: как оценивать поставщиков абстракции цепей

При выборе партнера для предоставления возможностей абстракции цепей предприятиям следует задать несколько ключевых вопросов:

  • Модель безопасности и доверия: Каковы основные предположения верификации? Зависит ли система от оракулов, наборов хранителей, легких клиентов или сетей валидаторов? Что может быть сокращено (slashed) или ветировано?
  • Покрытие и нейтральность: Какие цепи и активы поддерживаются сегодня? Как быстро можно добавить новые? Является ли процесс безразрешительным (permissionless) или контролируется поставщиком?
  • Соответствие стандартам: Поддерживает ли платформа ключевые стандарты, такие как ERC-7683, EIP-4337, OFT, IBC и CCIP?
  • Операции: Каковы SLA поставщика? Насколько они прозрачны в отношении инцидентов? Предлагают ли они воспроизводимые доказательства, детерминированные повторные попытки и структурированные журналы аудита?
  • Управление и переносимость: Можете ли вы переключать рельсы интероперабельности для каждого маршрута без переписывания вашего приложения? Абстракции, не зависящие от поставщика, критически важны для долгосрочной гибкости.
  • Соответствие требованиям: Какие средства контроля доступны для хранения и резидентности данных? Какова их позиция по SOC2/ISO? Можете ли вы использовать свои собственные KMS/HSM?

Прагматичное 90-дневное корпоративное внедрение

  • Дни 0–15: Базовая линия и политика: Инвентаризация всех используемых цепей, активов, мостов и кошельков. Определите начальный список разрешений и установите правила аварийного отключения на основе четкой системы управления рисками.
  • Дни 16–45: Прототип: Преобразуйте один пользовательский путь, например, кросс-чейн выплату, для использования потока, основанного на намерениях, с абстракцией учетных записей и paymaster. Измерьте влияние на отток пользователей, задержку и нагрузку на поддержку.
  • Дни 46–75: Расширение рельсов: Добавьте второй рельс интероперабельности в систему и динамически маршрутизируйте транзакции на основе политики. Интегрируйте CCTP для нативной мобильности USDC, если стейблкоины являются частью рабочего процесса.
  • Дни 76–90: Укрепление: Подключите данные наблюдаемости платформы к вашей SIEM, проведите хаос-тесты на сбои маршрутов и задокументируйте все операционные процедуры, включая протоколы экстренной паузы.

Распространенные ловушки (и как их избежать)

  • Маршрутизация только по «цене газа»: Задержка, финализация и предположения о безопасности важны так же, как и комиссии. Одна только цена не является полной моделью риска.
  • Игнорирование газа: Если ваш опыт затрагивает несколько цепей, абстракция газа не является опцией — это обязательное условие для удобного продукта.
  • Отношение к мостам как к взаимозаменяемым: Они не таковы. Их предположения о безопасности значительно различаются. Кодифицируйте списки разрешений и внедряйте аварийные выключатели для управления этим риском.
  • Распространение обернутых активов: По возможности, предпочитайте нативную мобильность активов (например, USDC через CCTP), чтобы минимизировать фрагментацию ликвидности и снизить риск контрагента.

Преимущества для предприятий

Когда абстракция цепей реализована хорошо, блокчейн перестает быть набором идиосинкразических сетей и становится исполнительной тканью, которую ваши команды могут программировать. Она предлагает политики, SLA и аудиторские следы, соответствующие стандартам, по которым вы уже работаете. Благодаря зрелым стандартам намерений, абстракции учетных записей, надежным рельсам интероперабельности и нативной транспортировке стейблкоинов, вы наконец-то можете достигать результатов Web3, не заставляя пользователей — или ваших собственных разработчиков — беспокоиться о том, какая цепь выполнила работу.

От MAG7 к Цифровым Чемпионам Завтрашнего Дня: Видение Алекса Тапскотта

· 15 мин. чтения
Dora Noda
Software Engineer

Концепция перехода от сегодняшних доминирующих технологических гигантов "Великолепной семерки" (MAG7) к новому поколению лидеров в области цифровых активов представляет собой один из наиболее значимых инвестиционных тезисов в современных финансах. Хотя конкретная терминология "MAG7 к DAG7" не встречается в общедоступных материалах, Алекс Тапскотт — управляющий директор Ninepoint Partners' Digital Asset Group и лидер мнений в области блокчейна — подробно изложил свое видение того, как технологии Web3 заставят "лидеров старой парадигмы уступить место чемпионам Web3 завтрашнего дня". Этот переход от централизованных монополий платформ к экономикам децентрализованных протоколов определяет следующую эру доминирования на рынке.

Понимание эры MAG7 и её ограничений

Великолепная семерка (MAG7) состоит из Apple, Microsoft, Google/Alphabet, Amazon, Meta, Nvidia и Tesla — технологических гигантов, которые в совокупности представляют более 10 триллионов долларов рыночной капитализации и доминировали на фондовых рынках последнее десятилетие. Эти компании олицетворяют эру Web2 "читай-пиши веб", где пользователи генерируют контент, но платформы извлекают выгоду.

Тапскотт выявляет фундаментальные проблемы этой модели, которые создают возможности для прорыва. Гиганты Web2 стали "привратниками, устанавливающими барьеры и взимающими плату за всё, что мы делаем", превращая пользователей в продукты через капитализм слежки. 45% финансовых посредников ежегодно страдают от экономических преступлений по сравнению с 37% в экономике в целом, в то время как регуляторные издержки продолжают расти, а миллиарды людей остаются исключенными из финансовой системы. MAG7 захватывали стоимость через централизацию, сетевые эффекты, которые привязывали пользователей, и бизнес-модели, основанные на извлечении данных, а не на распределении стоимости.

Как выглядят чемпионы завтрашнего дня по Тапскотту

Инвестиционная концепция Тапскотта сосредоточена на переходе от модели Web2 "читай-пиши" к парадигме Web3 "читай-пиши-владей". Это не просто технологическая эволюция — это фундаментальная реструктуризация того, как стоимость накапливается в цифровых экосистемах. Как он заявил при запуске Web3 Innovators Fund Ninepoint в мае 2023 года: "Будут победители и проигравшие, поскольку лидерам старой парадигмы придется уступить место чемпионам Web3 завтрашнего дня".

Определяющей характеристикой будущих чемпионов является распределение владения, а не его концентрация. "Web3 превращает интернет-пользователей в интернет-владельцев — они могут получать доли владения в продуктах и услугах, владея токенами", — объясняет Тапскотт. Это распространяет практику Кремниевой долины по распределению акций среди сотрудников по всему миру на любого, кто использует приложения Web3. Следующее поколение доминирующих компаний парадоксальным образом будет захватывать больше стоимости, предоставляя владение пользователям, создавая сетевые эффекты через согласованные стимулы, а не через привязку к платформе.

Четыре столпа доминирования следующего поколения

Тапскотт выделяет четыре основных принципа, которые определяют чемпионов завтрашнего дня, каждый из которых представляет собой прямую инверсию экстрактивной модели Web2:

Владение: Цифровые активы служат контейнерами для стоимости, обеспечивая права собственности в цифровой сфере. Ранние пользователи Compound и Uniswap получали токены управления за участие, превращая пользователей в заинтересованные стороны. Будущие лидеры позволят пользователям монетизировать свой вклад, а не платформам монетизировать данные пользователей.

Коммерция: Новый экономический уровень, позволяющий одноранговую передачу стоимости без посредников. Протоколы DeFi дезинтермедиируют традиционные финансы, в то время как токенизация переводит реальные активы в блокчейн. Победители будут устранять посредников и уменьшать трение, а не вставлять себя в качестве незаменимых посредников.

Идентичность: Самосуверенная идентичность возвращает контроль над данными отдельным лицам, освобождая от привязки к платформе. Аутентификация, сохраняющая конфиденциальность, заменяет модели, основанные на слежке. Чемпионы будут решать проблемы идентичности без централизованного контроля.

Управление: Децентрализованные автономные организации (DAO) распределяют полномочия по принятию решений через голосование на основе токенов, согласовывая интересы заинтересованных сторон. Будущие победители не будут максимизировать акционерную стоимость за счет пользователей — они будут согласовывать все стимулы заинтересованных сторон через токеномику.

Инвестиционная концепция Тапскотта для выявления чемпионов

Девять категорий цифровых активов

Таксономия Тапскотта из "Революции цифровых активов" предоставляет всеобъемлющую карту того, где будет накапливаться стоимость:

Криптовалюты, такие как Биткойн, служат цифровым золотом и базовыми расчетными слоями. Рыночная капитализация Биткойна в 1+ триллион долларов и его "непревзойденная" роль "матери всех криптовалют" делают его фундаментальной инфраструктурой.

Протокольные токены (Ethereum, Solana, Cosmos, Avalanche) представляют собой "толстые протоколы", которые захватывают стоимость из прикладных уровней. Тапскотт подчеркивает их как основные инфраструктурные инвестиции, отмечая роль Ethereum в питании DeFi и NFT, в то время как альтернативы, такие как Solana, предлагают масштабируемость "идеального криптопроекта".

Токены управления (Uniswap, Aave, Compound, Yearn Finance) обеспечивают владение протоколами сообществом. Uniswap, который Тапскотт называет "одним из лучших" DAO, часто превосходит объемы Coinbase, распределяя управление среди пользователей — демонстрируя силу децентрализованной координации.

Стейблкоины представляют собой потенциально самое значительное краткосрочное нарушение. С более чем 130 миллиардами долларов в USDT и растущими рынками для USDC и PYUSD, стейблкоины трансформируют платежную инфраструктуру. Тапскотт рассматривает их как замену SWIFT, обеспечивающую финансовую инклюзию по всему миру — особенно критично в кризисных экономиках, переживающих гиперинфляцию.

NFT и игровые активы обеспечивают экономику создателей и цифровое владение. Помимо спекуляций, создатели заработали более 1,8 миллиарда долларов в виде роялти на Ethereum, в то время как более 300 проектов сгенерировали более 1 миллиона долларов каждый — демонстрируя реальную полезность в прямом соединении создателей с потребителями.

Токенизированные ценные бумаги, токены природных активов (углеродные кредиты), биржевые токены и CBDC завершают таксономию, каждый из которых представляет собой оцифровку традиционного хранения стоимости.

Трёхкатегорийный инвестиционный подход

Тапскотт структурирует формирование портфеля вокруг трех взаимодополняющих типов воздействия через стратегию Ninepoint:

Воздействие на платформу: Прямые инвестиции в платформы смарт-контрактов и протоколы — фундаментальный инфраструктурный уровень. Сюда входят Биткойн, Ethereum, Solana, Cosmos и Avalanche, которые служат рельсами, обеспечивающими все другие приложения.

Чистые Web3-компании: Компании, ставящие всё своё существование на технологию блокчейн. Примеры включают Circle (эмитент стейблкоина USDC, планирующий публичное размещение), Animoca Brands (создающая инфраструктуру для более чем 700 миллионов пользователей) и протоколы DeFi, такие как Uniswap и Aave.

Бенефициары и пользователи: Традиционные предприятия, интегрирующие Web3 для трансформации своих бизнес-моделей. Запуск стейблкоина PYUSD от PayPal представляет собой "большой шаг вперед", который "вероятно, не будет последним", в то время как такие компании, как Nike и Microsoft, лидируют в корпоративном принятии. Они соединяют TradFi и DeFi, принося институциональную легитимность.

Конкретные компании и секторы, которые выделяет Тапскотт

Протоколы Layer 1 как фундаментальные ставки

Ранние инвестиции CMCC Global показывают убежденность Тапскотта в доминировании инфраструктуры. Solana по $0,20 и Cosmos по $0,10 представляют собой концентрированные ставки на конкретные технологические подходы — молниеносная скорость Solana и минимальные комиссии против "интернета блокчейнов" Cosmos, обеспечивающего интероперабельность через протокол IBC.

Ethereum остается фундаментальным как доминирующая платформа смарт-контрактов с непревзойденными экосистемами разработчиков и сетевыми эффектами. Avalanche присоединяется к портфелю благодаря своей ориентации на токенизированные реальные активы. Мультичейн-тезис признает, что платформы смарт-контрактов должны бесшовно взаимодействовать, чтобы DeFi и Web3 полностью раскрыли свой потенциал, отвергая динамику "победитель получает всё".

DeFi как катализатор финансовой революции

"Если Биткойн был искрой для революции финансовых услуг, то DeFi и цифровые активы — это катализатор", — объясняет Тапскотт. Он выделяет девять функций, которые DeFi трансформирует: хранение стоимости, перемещение стоимости, кредитование стоимости, финансирование и инвестирование, обмен стоимости, страхование стоимости, анализ стоимости, бухгалтерский учет/аудит и аутентификация личности.

Uniswap демонстрирует силу децентрализованной координации, часто превосходя объемы централизованных бирж, распределяя управление среди держателей токенов. Его рыночная капитализация в 11 миллиардов долларов демонстрирует захват стоимости протоколами, которые устраняют посредников.

Aave и Compound стали пионерами децентрализованного кредитования с мгновенными займами и алгоритмическими процентными ставками, устраняя банки из распределения капитала. Yearn Finance агрегирует доходность по протоколам, демонстрируя, как протоколы DeFi компонуются, как кубики Лего.

Osmosis в экосистеме Cosmos внедрила супержидкий стейкинг и достигла TVL более 15 миллиардов долларов, показывая жизнеспособность не-EVM чейнов. Общая TVL экосистемы DeFi в более чем 75 миллиардов долларов и её рост демонстрируют, что это не спекуляция — это инфраструктура, заменяющая традиционные финансы.

Потребительские приложения и волна массового принятия

Animoca Brands представляет собой крупнейшую инвестицию CMCC Global на сегодняшний день — обязательство в 42 миллиона долларов в несколько раундов, сигнализирующее об убежденности в том, что потребительские приложения движут следующую волну. С более чем 450 портфельными компаниями и более чем 700 миллионами потенциальных пользователей, экосистема Animoca (The Sandbox, Axie Infinity, Mocaverse) создает инфраструктуру для Web3-игр и цифрового владения.

Игры служат убийственным приложением Web3, потому что механика владения естественным образом согласуется с игровым процессом. Игроки, зарабатывающие доход через модели play-to-earn, истинное владение активами, обеспечивающее кросс-игровую интероперабельность, и экономики создателей, где разработчики напрямую захватывают стоимость — всё это представляет собой подлинную полезность за пределами финансовых спекуляций.

Трансформация платежной инфраструктуры

Стейблкоин USDC от Circle с объемом предложения в 20 миллиардов долларов представляет собой "необходимую инфраструктуру" как "инновационная финтех-компания", планирующая публичное размещение. Запуск PYUSD от PayPal ознаменовал принятие традиционными финансами блокчейн-рельсов, при этом Тапскотт отмечает, что это, вероятно, не "последняя компания", которая примет криптоплатежи.

Стейблкоины, прогнозируемые к достижению рынков в 200 миллиардов долларов, решают реальные проблемы: трансграничные платежи без задержек SWIFT, доступ к доллару для населения без банковского обслуживания и программируемые деньги, обеспечивающие автоматизацию смарт-контрактов. Всплеск объема LocalBitcoins в Венесуэле во время гиперинфляции демонстрирует, почему "Биткойн имеет значение" — предоставляя финансовый доступ, когда традиционные системы терпят крах.

Сравнение доминирования MAG7 с характеристиками чемпионов Web3

Фундаментальное различие между эрами заключается в механизмах захвата стоимости и согласовании интересов заинтересованных сторон:

Характеристики Web2 (MAG7): Централизованные платформы, рассматривающие пользователей как продукты, экономика "победитель получает всё" через сетевые эффекты и блокировку, привратники, контролирующие доступ и извлекающие ренту, платформы, захватывающие всю стоимость, в то время как вкладчики получают фиксированное вознаграждение, капитализм слежки, монетизирующий пользовательские данные.

Характеристики Web3 (чемпионы завтрашнего дня): Децентрализованные протоколы, где пользователи становятся владельцами через владение токенами, многополярные экосистемы с интероперабельными протоколами, инновации без разрешений без привратников, захват стоимости сообществом через рост стоимости токенов, экономика владения, где вкладчики участвуют в росте.

Сдвиг представляет собой переход от компаний, которые максимизируют акционерную стоимость за счет пользователей, к протоколам, которые согласовывают все стимулы заинтересованных сторон. Доминирующие "компании" завтрашнего дня будут меньше похожи на компании и больше на протоколы с токенами управления — они не будут компаниями в традиционном смысле, а скорее децентрализованными сетями с распределенным владением.

Как формулирует Тапскотт: "В течение следующего десятилетия этот класс цифровых активов будет экспоненциально расширяться, поглощая традиционные финансовые инструменты, такие как акции, облигации, земельные титулы и фиатная валюта". Токенизация всего означает, что доли владения в протоколах могут затмить традиционные акции по важности.

Методологии и фреймворки для оценки

Технологическая дифференциация как основной фильтр

Тапскотт подчеркивает, что "стоимость будет захватываться через поиск инвестиционных возможностей на ранних стадиях с технологической дифференциацией", а не через выбор времени выхода на рынок или инвестирование, основанное на нарративах. Это требует строгой технической оценки: анализа кодовых баз и архитектуры, механизмов консенсуса и моделей безопасности, дизайна токеномики и согласования стимулов, возможностей интероперабельности и компонуемости.

Фокус на инфраструктуре, а не на приложениях на ранних стадиях, отражает убежденность в том, что фундаментальные протоколы накапливают непропорциональную стоимость. "Толстые протоколы" захватывают стоимость от всех приложений, построенных на их основе, в отличие от Web2, где приложения захватывали стоимость, в то время как протоколы оставались товарами.

Сетевые эффекты и экосистемы разработчиков

Опережающие индикаторы будущего доминирования включают активность разработчиков (коммиты, качество документации, участие в хакатонах), активные адреса и объемы транзакций, общую заблокированную стоимость (TVL) в протоколах DeFi, показатели участия в управлении и кроссчейн-интеграции.

Экосистемы разработчиков особенно важны, потому что они создают кумулятивные преимущества. Огромная база разработчиков Ethereum создает сетевые эффекты, что делает его всё более трудным для вытеснения, несмотря на технические ограничения, в то время как развивающиеся платформы конкурируют за счет превосходных технологий или оптимизации для конкретных сценариев использования.

Философия строительства на медвежьем рынке

"Медвежьи рынки предоставляют отрасли возможность сосредоточиться на строительстве", — подчеркивает Тапскотт. "Криптозимы всегда лучшее время, чтобы углубиться в эти основные концепции, проделать работу и строить будущее". Последний медвежий рынок принес NFT, протоколы DeFi, стейблкоины и игры play-to-earn — инновации, которые определили следующий бычий цикл.

Инвестиционная стратегия сосредоточена на многолетних периодах владения, ориентированных на этапы развития протоколов, а не на краткосрочную волатильность. "Самые успешные люди в криптоиндустрии — это те, кто может сохранять спокойствие и продолжать работать", игнорируя ежедневные колебания цен, чтобы сосредоточиться на фундаментальных показателях.

Формирование портфеля подчеркивает концентрацию — 15-20 основных позиций с высокой убежденностью, а не широкую диверсификацию. Фокус на ранних стадиях означает принятие неликвидности в обмен на асимметричный потенциал роста, при этом инвестиции CMCC Global в Solana по $0,20 и Cosmos по $0,10 демонстрируют силу этого подхода.

Отличие хайпа от реальной возможности

Тапскотт использует строгие фреймворки для отделения подлинных инноваций от спекуляций:

Проблемы, которые решает блокчейн: Решает ли протокол реальные болевые точки (мошенничество, комиссии, задержки, исключение), а не является ли решением, ищущим проблемы? Уменьшает ли он трение и затраты измеримо? Расширяет ли он доступ к недостаточно обслуживаемым рынкам?

Метрики принятия над спекуляциями: Фокус на использовании, а не на цене — объемы транзакций, активные кошельки, коммиты разработчиков, корпоративные партнерства, прогресс в ясности регулирования. "Посмотрите за пределы ежедневных колебаний рынка, и вы увидите, что инноваторы закладывают основы для нового Интернета и индустрии финансовых услуг".

Метод исторического контекста: Сравнение блокчейна с ранним интернетом (1993) предполагает, что технологии на стадии инфраструктуры кажутся переоцененными в краткосрочной перспективе, но преобразующими в долгосрочной. "Через десять лет вы будете удивляться, как общество вообще функционировало без этого, хотя большинство из нас едва ли знает, что это такое сегодня".

Регулирование и институциональные мосты

Будущие чемпионы будут работать с регуляторами, а не против них, встраивая соответствие в архитектуру с самого начала. Подход Тапскотта через регулируемые организации (Ninepoint Partners, лицензии SFC Гонконга CMCC Global) отражает уроки регуляторных проблем NextBlock Global.

Фокус на профессиональных инвесторах и правильные кастодиальные решения (застрахованные биткойн-фонды, администрирование State Street) приносят институциональный авторитет. Конвергенция TradFi и DeFi требует чемпионов, которые могут работать в обоих мирах — протоколов, достаточно сложных для институтов, но доступных для розничных пользователей.

Индикаторы корпоративного принятия, выделенные Тапскоттом, включают более 42 крупных финансовых учреждений, исследующих блокчейн, консорциумы, такие как блокчейн-инициативы Goldman Sachs и JPMorgan, принятие токенизированных казначейских активов и запуск биткойн-ETF, обеспечивающих регулируемое воздействие.

Путь вперед: секторы, определяющие завтрашний день

Тапскотт выделяет несколько мегатрендов, которые произведут следующее поколение триллионных протоколов:

Инфраструктура токенизации, обеспечивающая оцифровку недвижимости, акций, товаров, углеродных кредитов и интеллектуальной собственности. "Этот класс цифровых активов будет экспоненциально расширяться, поглощая традиционные финансовые инструменты", поскольку трение исчезает из формирования капитала и торговли.

DeFi 2.0, сочетающий лучшие аспекты централизованных финансов (скорость, пользовательский опыт) с децентрализацией (самостоятельное хранение, прозрачность). Примеры, такие как Rails, строящий гибридные биржи на Ink L2 Kraken, показывают, что эта конвергенция ускоряется.

Биткойн как продуктивный актив через инновации, такие как протокол Babylon, позволяющий стейкинг, использование BTC в качестве залога DeFi и институциональные казначейские стратегии. Эта эволюция от чистого средства сохранения стоимости к активу, приносящему доход, расширяет полезность Биткойна.

Идентичность и конфиденциальность Web3 через доказательства с нулевым разглашением, обеспечивающие верификацию без раскрытия, самосуверенную идентичность, возвращающую контроль над данными отдельным лицам, и децентрализованные системы репутации, заменяющие профили, зависящие от платформы.

Токенизация реальных активов представляет, возможно, самую большую возможность, с прогнозами рынков RWA в 10+ триллионов долларов к 2030 году. Протоколы, такие как OpenTrade, строящие инфраструктуру институционального уровня, демонстрируют появление ранней инфраструктуры.

Трансформация DeFi по девяти функциям

Концепция Тапскотта для анализа потенциала разрушения DeFi охватывает все функции финансовых услуг, с конкретными примерами протоколов, демонстрирующими жизнеспособность:

Хранение стоимости через некастодиальные кошельки (модель MakerDAO) против банковских депозитов. Перемещение стоимости через трансграничные стейблкоины против сетей SWIFT. Кредитование стоимости одноранговым способом (Aave, Compound) против банковского посредничества. Финансирование и инвестирование через агрегаторы DeFi (Yearn, Rariable), разрушающие роботов-советников. Обмен стоимости на DEX (Uniswap, Osmosis) против централизованных бирж.

Страхование стоимости через децентрализованные страховые протоколы против традиционных страховщиков. Анализ стоимости через ончейн-аналитику, обеспечивающую беспрецедентную прозрачность. Бухгалтерский учет/аудит через прозрачные реестры, обеспечивающие верификацию в реальном времени. Аутентификация личности через самосуверенные решения против централизованных баз данных.

Каждая функция представляет собой триллионные рынки в традиционных финансах, созревшие для децентрализованных альтернатив, которые устраняют посредников, снижают затраты, повышают прозрачность и расширяют глобальный доступ.

Основные выводы: выявление и инвестирование в чемпионов завтрашнего дня

Хотя Алекс Тапскотт публично не сформулировал конкретную концепцию "DAG7", его всеобъемлющий инвестиционный тезис предоставляет четкие критерии для выявления лидеров рынка следующего поколения:

Доминирование инфраструктуры: Чемпионы завтрашнего дня будут протоколами Уровня 1 и критически важным промежуточным ПО, обеспечивающим Интернет ценностей — такими компаниями, как Solana, Cosmos и Ethereum, строящими фундаментальные рельсы.

Экономика владения: Победители будут распределять стоимость среди заинтересованных сторон через токены, а не извлекать ренту, создавая согласованные стимулы между платформами и пользователями, чего никогда не достигали гиганты Web2.

Реальная полезность за пределами спекуляций: Фокус на протоколах, решающих подлинные проблемы с измеримыми метриками — объемы транзакций, активность разработчиков, TVL, активные пользователи — а не на спекуляциях, основанных на нарративах.

Интероперабельность и компонуемость: Мультичейн-будущее требует протоколов, которые бесшовно взаимодействуют, при этом победители обеспечивают кросс-экосистемную передачу стоимости и компонуемость приложений.

Регуляторная изощренность: Чемпионы будут ориентироваться в сложных глобальных регуляторных средах через проактивное взаимодействие, встраивая соответствие в архитектуру, сохраняя при этом принципы децентрализации.

Терпеливый капитал с убежденностью: Инвестиции в инфраструктуру на ранних стадиях требуют многолетних временных горизонтов и готовности выдерживать волатильность для асимметричной доходности, с концентрацией на возможностях с наибольшей убежденностью.

Переход от MAG7 к чемпионам завтрашнего дня представляет собой нечто большее, чем ротацию секторов — он знаменует собой фундаментальную реструктуризацию захвата стоимости в цифровых экономиках. Там, где централизованные платформы когда-то доминировали через сетевые эффекты и извлечение данных, децентрализованные протоколы будут накапливать стоимость, распределяя владение и согласовывая стимулы. Как заключает Тапскотт: "Блокчейн создаст победителей и проигравших. Хотя возможностей предостаточно, риски сбоев и смещений нельзя игнорировать". Вопрос не в том, произойдет ли этот переход, а в том, какие протоколы станут определяющей инфраструктурой экономики владения.