Перейти к основному контенту

30 постов с тегом "ИИ"

Приложения искусственного интеллекта и машинного обучения

Посмотреть все теги

Camp Network: Блокчейн, решающий миллиардную проблему ИИ с интеллектуальной собственностью 🏕️

· 5 мин чтения
Dora Noda
Software Engineer

Взрывной рост генеративного ИИ был поистине ошеломляющим. От потрясающего цифрового искусства до человекоподобного текста — ИИ создает контент в беспрецедентных масштабах. Но у этого бума есть и темная сторона: откуда ИИ берет свои обучающие данные? Часто это происходит из огромных просторов интернета — из произведений искусства, музыки и текстов, созданных людьми, которые не получают ни признания, ни вознаграждения.

Представляем Camp Network — новый блокчейн-проект, который призван решить эту фундаментальную проблему. Это не просто еще одна криптоплатформа; это специально созданный «Автономный уровень ИС», разработанный для того, чтобы предоставить создателям право собственности и контроль над их работой в эпоху ИИ. Давайте углубимся в то, что делает Camp Network проектом, за которым стоит следить.


В чем суть идеи?

По своей сути Camp Network — это блокчейн, который действует как глобальный, проверяемый реестр интеллектуальной собственности (ИС). Миссия состоит в том, чтобы позволить любому — от независимого художника до пользователя социальных сетей — регистрировать свой контент в блокчейне. Это создает постоянную, защищенную от подделок запись о праве собственности и происхождении.

Почему это важно? Когда модель ИИ использует контент, зарегистрированный в Camp, смарт-контракты сети могут автоматически применять условия лицензирования. Это означает, что первоначальный создатель может получить авторство и даже мгновенно получать роялти. Видение Camp состоит в том, чтобы построить новую экономику создателей, где вознаграждение не является второстепенной мыслью; оно встроено непосредственно в протокол.


Под капотом: Технологический стек

Camp — это не просто концепция; за ним стоит серьезная технология, разработанная для высокой производительности и удобства для разработчиков.

  • Модульная архитектура: Camp построен как суверенный роллап, использующий Celestia для доступности данных. Такая конструкция позволяет ему быть невероятно быстрым (цель ~50 000 транзакций в секунду) и дешевым, оставаясь при этом полностью совместимым с инструментами Ethereum (EVM).
  • Доказательство происхождения (PoP): Это уникальный механизм консенсуса Camp. Вместо того чтобы полагаться на энергоемкий майнинг, безопасность сети связана с проверкой происхождения контента. Каждая транзакция подтверждает происхождение ИС в сети, делая право собственности «обеспечиваемым по умолчанию».
  • Стратегия двойной виртуальной машины (Dual-VM): Для максимальной производительности Camp интегрирует виртуальную машину Solana (SVM) наряду с совместимостью с EVM. Это позволяет разработчикам выбирать наилучшую среду для своего приложения, особенно для высокопроизводительных сценариев использования, таких как взаимодействие ИИ в реальном времени.
  • Наборы инструментов для создателей и ИИ: Camp предоставляет две ключевые платформы:
    • Origin Framework: Удобная система для создателей, позволяющая регистрировать свою ИС, токенизировать ее (как NFT) и встраивать правила лицензирования.
    • mAItrix Framework: Набор инструментов для разработчиков, позволяющий создавать и развертывать ИИ-агентов, которые могут взаимодействовать с ИС в блокчейне безопасным, разрешенным способом.

Люди, партнерства и прогресс

Идея хороша настолько, насколько хороша ее реализация, и Camp, похоже, реализуется успешно.

Команда и финансирование

Проект возглавляет команда с мощным сочетанием опыта из The Raine Group (сделки в области медиа и ИС), Goldman Sachs, Figma и CoinList. Это сочетание опыта в финансах, технологических продуктах и криптоинженерии помогло им привлечь $30 миллионов финансирования от ведущих венчурных фондов, таких как 1kx, Blockchain Capital и Maven 11.

Растущая экосистема

Camp активно строит партнерские отношения. Наиболее значимым является стратегическая доля в KOR Protocol — платформе для токенизации музыкальной ИС, которая работает с такими крупными артистами, как Deadmau5, и франшизами, такими как Black Mirror. Это единственное партнерство обеспечивает Camp огромной библиотекой высококачественного, очищенного от прав контента. Среди других ключевых сотрудников:

  • RewardedTV: Децентрализованная платформа для потокового видео, использующая Camp для прав на контент в блокчейне.
  • Rarible: Маркетплейс NFT, интегрированный для торговли активами ИС.
  • LayerZero: Кроссчейн-протокол для обеспечения совместимости с другими блокчейнами.

Дорожная карта и сообщество

После успешных стимулированных кампаний в тестовой сети, которые привлекли десятки тысяч пользователей (вознаграждая их баллами, которые будут конвертированы в токены), Camp нацелен на запуск основной сети в 3 квартале 2025 года. Это будет сопровождаться событием генерации токенов для его нативного токена $CAMP, который будет использоваться для оплаты комиссий за газ, стейкинга и управления. Проект уже сформировал страстное сообщество, стремящееся развивать и использовать платформу с первого дня.


Как это выглядит в сравнении?

Camp Network не одинок в этом пространстве. Он сталкивается с жесткой конкуренцией со стороны таких проектов, как поддерживаемый a16z Story Protocol и связанный с Sony Soneium. Однако Camp отличается несколькими ключевыми особенностями:

  1. Подход «снизу вверх»: В то время как конкуренты, похоже, ориентированы на крупных корпоративных владельцев ИС, Camp сосредоточен на расширении возможностей независимых создателей и криптосообществ посредством токенов-стимулов.
  2. Комплексное решение: Он предлагает полный набор инструментов, от реестра ИС до фреймворка ИИ-агентов, позиционируя себя как универсальное решение.
  3. Производительность и масштабируемость: Его модульная архитектура и поддержка двойной виртуальной машины разработаны для высоких требований к пропускной способности ИИ и медиа.

Вывод

Camp Network убедительно доказывает свою способность стать основополагающим уровнем для интеллектуальной собственности в эпоху Web3. Объединяя инновационные технологии, сильную команду, стратегические партнерства и этику, ориентированную на сообщество, он создает практическое решение одной из самых насущных проблем, порожденных генеративным ИИ.

Настоящее испытание начнется с запуском основной сети и реальным внедрением. Но с четким видением и сильной реализацией на данный момент Camp Network, несомненно, является ключевым проектом, за которым стоит следить, поскольку он пытается построить более справедливое будущее для цифровых создателей.

Знакомьтесь с BeFreed.ai – Топливо для обучения разработчиков BlockEden.xyz

· 4 мин чтения
Dora Noda
Software Engineer

Почему BlockEden.xyz это важно

В быстро меняющемся мире Web3 скорость — это всё. Развертывание RPC-инфраструктуры и инфраструктуры для стейкинга производственного уровня требует от нашей команды и сообщества постоянного пребывания на переднем крае инноваций. Это означает быть в курсе сложных протоколов, новаторских криптографических работ и быстро развивающихся дискуссий по управлению. Чем быстрее наше сообщество сможет усваивать и понимать новые идеи, тем быстрее оно сможет создавать децентрализованные приложения нового поколения. Именно здесь на помощь приходит BeFreed.ai.

Что такое BeFreed.ai

BeFreed.ai — это стартап из Сан-Франциско с простой, но мощной миссией: сделать обучение радостным и персонализированным в эпоху ИИ. Они создали интеллектуального компаньона для микрообучения, разработанного с учетом требовательного образа жизни разработчиков и создателей.

Основные компоненты:

  • Множество форматов → один клик: BeFreed.ai может взять широкий спектр контента — от объемных книг и подробных видео до сложных технических документов — и мгновенно преобразовать его в краткие обзоры, флеш-карточки, подробные заметки и даже аудио в стиле подкаста.
  • Адаптивный движок: Платформа разработана для обучения вместе с вами. Она учитывает ваш темп обучения и интересы, предлагая наиболее актуальную информацию, вместо того чтобы заставлять вас проходить жесткую, универсальную учебную программу.
  • Встроенный чат и объяснения «Почему это»: Есть вопрос? Просто спросите. BeFreed.ai позволяет задавать вопросы на лету для разъяснения сложных тем. Он также предоставляет объяснения, которые связывают новые идеи с вашими общими целями, делая процесс обучения более осмысленным.
  • Сообщество из 43 тысяч учащихся: Обучение часто является коллективной деятельностью. BeFreed.ai развивает активное сообщество из более чем 43 000 учащихся, которые делятся своим прогрессом, реагируют на содержательный контент и выделяют ключевые выводы, поддерживая высокую мотивацию и динамику.

Почему это важно для разработчиков BlockEden.xyz

Для преданных разработчиков в экосистеме BlockEden.xyz BeFreed.ai — это больше, чем просто инструмент для обучения; это стратегическое преимущество. Вот как он может отточить ваше мастерство:

  • Экономия времени: Превратите 300-страничный вайтпейпер в краткий 10-минутный аудиообзор, который можно прослушать перед важным голосованием по управлению.
  • Сохранение контекста: Используйте флеш-карточки и ментальные карты, чтобы закрепить понимание деталей протокола, которые понадобятся при написании индексов смарт-контрактов.
  • Развитие кросс-навыков: Расширяйте свои навыки, не покидая среды разработки. Изучите основы дизайн-мышления, поймите циклы роста или получите советы по параллелизму в Go в свободное время.
  • Общий словарный запас: Создавайте плейлисты на уровне команды, чтобы каждый участник обучался из одного и того же, тщательно отобранного и последовательного источника информации, способствуя лучшему сотрудничеству и согласованности.

Использование BeFreed в рабочих процессах BlockEden.xyz

Интеграция BeFreed.ai в ваш существующий процесс разработки является бесшовной и немедленно приносит пользу:

  1. Загрузите спецификацию: Вставьте URL-адрес последнего PDF-файла по токеномике или записи звонка разработчиков с YouTube в BeFreed для мгновенного, легко усваиваемого резюме.
  2. Экспортируйте флеш-карточки: Повторяйте ключевые концепции во время выполнения CI. Эта форма повторения гораздо эффективнее, чем умственная усталость, возникающая от постоянного переключения контекста.
  3. Вставьте ссылку в документацию: Встройте URL-адрес резюме BeFreed рядом с каждой ссылкой на API в вашей документации, чтобы помочь новым членам команды быстрее освоиться.
  4. Будьте в курсе: Настройте еженедельные дайджесты в BeFreed по новым L2 и немедленно примените эти знания на практике, создавая прототипы с помощью многоцепочечных RPC-сервисов BlockEden.xyz.

Начните работу

BeFreed.ai доступен сейчас на iOS, Android и в интернете. Мы рекомендуем вам попробовать его во время следующего спринта вашего проекта BlockEden.xyz и убедиться, как он может повысить скорость вашего обучения и разработки. Наша команда уже изучает более тесные интеграции — представьте будущее, где вебхук автоматически превращает каждое описание объединенного PR в полный учебный набор.

Соединение ИИ и Web3 через MCP: Панорамный анализ

· 40 мин чтения
Dora Noda
Software Engineer

Введение

ИИ и Web3 мощно сближаются, при этом общие интерфейсы ИИ теперь рассматриваются как связующая ткань для децентрализованной сети. Ключевой концепцией, возникающей из этой конвергенции, является MCP, что в разных контекстах означает «Протокол контекста модели» (как представлено Anthropic) или свободно описывается как Протокол подключения к Метавселенной в более широких дискуссиях. По сути, MCP — это стандартизированный фреймворк, который позволяет системам ИИ взаимодействовать с внешними инструментами и сетями естественным и безопасным способом — потенциально «подключая» ИИ-агентов ко всем уголкам экосистемы Web3. Этот отчет представляет всесторонний анализ того, как общие интерфейсы ИИ (такие как агенты больших языковых моделей и нейросимволические системы) могут соединить все в мире Web3 через MCP, охватывая исторический контекст, техническую архитектуру, отраслевой ландшафт, риски и будущий потенциал.

1. История развития

1.1 Эволюция Web3 и невыполненные обещания

Термин «Web3» был придуман примерно в 2014 году для описания децентрализованной сети на основе блокчейна. Видение было амбициозным: интернет без разрешений, ориентированный на владение пользователем. Энтузиасты представляли замену централизованной инфраструктуры Web2 альтернативами на основе блокчейна — например, Ethereum Name Service (для DNS), Filecoin или IPFS (для хранения) и DeFi для финансовых рельсов. Теоретически, это должно было вырвать контроль у платформ Big Tech и предоставить людям самосуверенитет над данными, идентификацией и активами.

Реальность не оправдала ожиданий. Несмотря на годы разработки и шумихи, основное влияние Web3 оставалось незначительным. Обычные интернет-пользователи не хлынули в децентрализованные социальные сети и не начали управлять приватными ключами. Основными причинами были плохой пользовательский опыт, медленные и дорогие транзакции, громкие мошенничества и регуляторная неопределенность. Децентрализованная «сеть владения» в значительной степени «не материализовалась» за пределами нишевого сообщества. К середине 2020-х годов даже сторонники криптовалют признали, что Web3 не принес парадигмального сдвига для среднего пользователя.

Тем временем ИИ переживал революцию. По мере того как капитал и талант разработчиков переключались с крипто на ИИ, трансформационные достижения в области глубокого обучения и фундаментальных моделей (GPT-3, GPT-4 и т. д.) захватили общественное воображение. Генеративный ИИ продемонстрировал явную полезность — создание контента, кода и принятие решений — так, как криптоприложениям это не удавалось. Фактически, влияние больших языковых моделей всего за пару лет резко превзошло десятилетие пользовательского принятия блокчейна. Этот контраст привел некоторых к шутке, что «Web3 был потрачен впустую на крипто» и что настоящий Web 3.0 возникает из волны ИИ.

1.2 Расцвет общих интерфейсов ИИ

На протяжении десятилетий пользовательские интерфейсы эволюционировали от статических веб-страниц (Web1.0) до интерактивных приложений (Web2.0) — но всегда в рамках нажатия кнопок и заполнения форм. С современным ИИ, особенно большими языковыми моделями (LLM), появилась новая парадигма интерфейса: естественный язык. Пользователи могут просто выражать свои намерения на простом языке, а системы ИИ будут выполнять сложные действия во многих областях. Этот сдвиг настолько глубок, что некоторые предлагают переопределить «Web 3.0» как эру агентов, управляемых ИИ («Агентский Веб»), а не как более раннее, ориентированное на блокчейн определение.

Однако ранние эксперименты с автономными ИИ-агентами выявили критическое узкое место. Эти агенты — например, прототипы, такие как AutoGPT — могли генерировать текст или код, но им не хватало надежного способа общаться с внешними системами и друг с другом. Не существовало «общего ИИ-нативного языка» для интероперабельности. Каждая интеграция с инструментом или источником данных была индивидуальной доработкой, а взаимодействие ИИ-ИИ не имело стандартного протокола. На практике ИИ-агент мог обладать отличными способностями к рассуждению, но не справлялся с выполнением задач, требующих использования веб-приложений или ончейн-сервисов, просто потому, что не знал, как «разговаривать» с этими системами. Это несоответствие — мощный мозг, примитивный ввод/вывод — было сродни суперумному программному обеспечению, застрявшему за неуклюжим графическим интерфейсом.

1.3 Конвергенция и появление MCP

К 2024 году стало очевидно, что для того, чтобы ИИ полностью раскрыл свой потенциал (и чтобы Web3 выполнил свои обещания), необходима конвергенция: ИИ-агентам требуется беспрепятственный доступ к возможностям Web3 (децентрализованные приложения, контракты, данные), а Web3 нуждается в большей интеллектуальности и удобстве использования, что может обеспечить ИИ. Именно в этом контексте родился MCP (Протокол контекста модели). Представленный Anthropic в конце 2024 года, MCP является открытым стандартом для ИИ-инструментального взаимодействия, который естественен для LLM. Он предоставляет структурированный, обнаруживаемый способ для «хостов» ИИ (таких как ChatGPT, Claude и т. д.) находить и использовать различные внешние инструменты и ресурсы через MCP-серверы. Другими словами, MCP — это общий интерфейсный слой, позволяющий ИИ-агентам подключаться к веб-сервисам, API и даже функциям блокчейна без индивидуального кодирования каждой интеграции.

Представьте MCP как «USB-C для ИИ-интерфейсов». Подобно тому, как USB-C стандартизировал подключение устройств (так что вам не нужны разные кабели для каждого устройства), MCP стандартизирует подключение ИИ-агентов к инструментам и данным. Вместо того чтобы жестко кодировать различные вызовы API для каждого сервиса (Slack против Gmail против узла Ethereum), разработчик может реализовать спецификацию MCP один раз, и любой MCP-совместимый ИИ сможет понять, как использовать этот сервис. Крупные игроки в области ИИ быстро осознали важность: Anthropic открыла исходный код MCP, и такие компании, как OpenAI и Google, разрабатывают поддержку для него в своих моделях. Этот импульс предполагает, что MCP (или аналогичные «Протоколы мета-связи») может стать основой, которая наконец масштабируемо соединит ИИ и Web3.

Примечательно, что некоторые технологи утверждают, что эта ИИ-центричная связь является реальным воплощением Web3.0. По словам Симбы Хаддера, «MCP стремится стандартизировать API между LLM и приложениями», подобно тому, как REST API позволили Web 2.0 — это означает, что следующая эра Web3 может быть определена интерфейсами интеллектуальных агентов, а не только блокчейнами. Вместо децентрализации ради нее самой, конвергенция с ИИ может сделать децентрализацию полезной, скрывая сложность за естественным языком и автономными агентами. Остальная часть этого отчета углубляется в то, как, технически и практически, общие интерфейсы ИИ (через протоколы, такие как MCP) могут соединить все в мире Web3.

2. Техническая архитектура: ИИ-интерфейсы, объединяющие технологии Web3

Внедрение ИИ-агентов в стек Web3 требует интеграции на нескольких уровнях: блокчейн-сети и смарт-контракты, децентрализованное хранилище, системы идентификации и экономики на основе токенов. Общие интерфейсы ИИ — от больших фундаментальных моделей до гибридных нейросимволических систем — могут служить «универсальным адаптером», соединяющим эти компоненты. Ниже мы анализируем архитектуру такой интеграции:

Рисунок: Концептуальная схема архитектуры MCP, показывающая, как хосты ИИ (приложения на основе LLM, такие как Claude или ChatGPT) используют MCP-клиент для подключения к различным MCP-серверам. Каждый сервер предоставляет мост к некоторому внешнему инструменту или сервису (например, Slack, Gmail, календарям или локальным данным), аналогично периферийным устройствам, подключающимся через универсальный концентратор. Этот стандартизированный MCP-интерфейс позволяет ИИ-агентам получать доступ к удаленным сервисам и ончейн-ресурсам через один общий протокол.

2.1 ИИ-агенты как клиенты Web3 (интеграция с блокчейнами)

В основе Web3 лежат блокчейны и смарт-контракты — децентрализованные конечные автоматы, которые могут обеспечивать логику без доверия. Как ИИ-интерфейс может взаимодействовать с ними? Есть два направления для рассмотрения:

  • ИИ, считывающий данные из блокчейна: ИИ-агенту могут понадобиться ончейн-данные (например, цены токенов, баланс активов пользователя, предложения ДАО) в качестве контекста для принятия решений. Традиционно получение данных блокчейна требует взаимодействия с RPC API узлов или базами данных подграфов. С фреймворком, таким как MCP, ИИ может запрашивать стандартизированный MCP-сервер «данных блокчейна» для получения актуальной ончейн-информации. Например, агент с поддержкой MCP может запросить последний объем транзакций определенного токена или состояние смарт-контракта, и MCP-сервер обработает низкоуровневые детали подключения к блокчейну и вернет данные в формате, который ИИ может использовать. Это увеличивает интероперабельность, отвязывая ИИ от API-формата конкретного блокчейна.

  • ИИ, записывающий данные в блокчейн: Что еще более мощно, ИИ-агенты могут выполнять вызовы смарт-контрактов или транзакции через интеграции Web3. ИИ мог бы, например, автономно выполнить сделку на децентрализованной бирже или скорректировать параметры в смарт-контракте, если будут выполнены определенные условия. Это достигается путем вызова ИИ MCP-сервера, который инкапсулирует функциональность блокчейн-транзакций. Одним конкретным примером является MCP-сервер thirdweb для EVM-цепочек, который позволяет любому MCP-совместимому ИИ-клиенту взаимодействовать с Ethereum, Polygon, BSC и т. д., абстрагируясь от специфики цепочки. Используя такой инструмент, ИИ-агент мог бы инициировать ончейн-действия «без вмешательства человека», обеспечивая автономные dApp — например, DeFi-хранилище, управляемое ИИ, которое самобалансируется путем подписания транзакций при изменении рыночных условий.

По сути, эти взаимодействия по-прежнему зависят от кошельков, ключей и комиссий за газ, но ИИ-интерфейсу может быть предоставлен контролируемый доступ к кошельку (с соответствующими песочницами безопасности) для выполнения транзакций. Оракулы и кроссчейн-мосты также вступают в игру: сети оракулов, такие как Chainlink, служат мостом между ИИ и блокчейнами, позволяя надежно передавать результаты работы ИИ в блокчейн. Протокол кроссчейн-взаимодействия Chainlink (CCIP), например, может позволить ИИ-модели, признанной надежной, одновременно запускать несколько контрактов в разных цепочках от имени пользователя. В итоге, общие интерфейсы ИИ могут выступать в качестве нового типа клиента Web3 — того, который может как потреблять данные блокчейна, так и производить блокчейн-транзакции через стандартизированные протоколы.

2.2 Нейросимволическая синергия: Сочетание рассуждений ИИ со смарт-контрактами

Одним из интригующих аспектов интеграции ИИ-Web3 является потенциал нейросимволических архитектур, которые сочетают способность ИИ к обучению (нейронные сети) со строгой логикой смарт-контрактов (символические правила). На практике это может означать, что ИИ-агенты обрабатывают неструктурированное принятие решений и передают определенные задачи смарт-контрактам для проверяемого выполнения. Например, ИИ может анализировать рыночные настроения (нечеткая задача), но затем выполнять сделки через детерминированный смарт-контракт, который следует заранее установленным правилам риска. Фреймворк MCP и связанные с ним стандарты делают такие передачи возможными, предоставляя ИИ общий интерфейс для вызова функций контракта или для запроса правил ДАО перед действием.

Конкретным примером является AI-DSL (предметно-ориентированный язык ИИ) SingularityNET, который направлен на стандартизацию связи между ИИ-агентами в их децентрализованной сети. Это можно рассматривать как шаг к нейросимволической интеграции: формальный язык (символический) для агентов для запроса ИИ-услуг или данных друг у друга. Аналогично, проекты, такие как AlphaCode DeepMind или другие, могут быть в конечном итоге подключены так, чтобы смарт-контракты вызывали ИИ-модели для решения ончейн-задач. Хотя запуск больших ИИ-моделей непосредственно в блокчейне сегодня непрактичен, появляются гибридные подходы: например, некоторые блокчейны позволяют проверять ML-вычисления с помощью доказательств с нулевым разглашением или доверенного выполнения, что позволяет ончейн-проверку результатов ИИ, полученных вне цепочки. В итоге, техническая архитектура предполагает, что системы ИИ и смарт-контракты блокчейна являются взаимодополняющими компонентами, оркестрованными через общие протоколы: ИИ занимается восприятием и открытыми задачами, в то время как блокчейны обеспечивают целостность, память и соблюдение согласованных правил.

2.3 Децентрализованное хранение и данные для ИИ

ИИ процветает на данных, а Web3 предлагает новые парадигмы для хранения и обмена данными. Децентрализованные сети хранения (такие как IPFS/Filecoin, Arweave, Storj и т. д.) могут служить как хранилищами для артефактов ИИ-моделей, так и источниками обучающих данных, с контролем доступа на основе блокчейна. Общий интерфейс ИИ, через MCP или аналогичный протокол, может получать файлы или знания из децентрализованного хранилища так же легко, как из Web2 API. Например, ИИ-агент может получить набор данных с рынка Ocean Protocol или зашифрованный файл из распределенного хранилища, если у него есть соответствующие ключи или права доступа.

Ocean Protocol, в частности, позиционирует себя как платформа «экономики данных для ИИ» — использующая блокчейн для токенизации данных и даже ИИ-сервисов. В Ocean наборы данных представлены токенами данных, которые ограничивают доступ; ИИ-агент может получить токен данных (возможно, заплатив криптовалютой или через какое-либо право доступа), а затем использовать Ocean MCP-сервер для получения фактических данных для анализа. Цель Ocean — разблокировать «спящие данные» для ИИ, стимулируя обмен, сохраняя при этом конфиденциальность. Таким образом, ИИ, подключенный к Web3, может получить доступ к обширному, децентрализованному корпусу информации — от личных хранилищ данных до открытых государственных данных — который ранее был изолирован. Блокчейн гарантирует, что использование данных прозрачно и может быть справедливо вознаграждено, подпитывая добродетельный цикл, в котором больше данных становится доступным для ИИ, и больше вкладов ИИ (например, обученных моделей) может быть монетизировано.

Децентрализованные системы идентификации также играют здесь роль (подробнее обсуждается в следующем подразделе): они могут помочь контролировать, кто или что имеет право доступа к определенным данным. Например, медицинский ИИ-агент может быть обязан предоставить проверяемое удостоверение (ончейн-доказательство соответствия HIPAA или аналогичным стандартам), прежде чем ему будет разрешено расшифровать медицинский набор данных из личного хранилища IPFS пациента. Таким образом, техническая архитектура обеспечивает поток данных к ИИ там, где это уместно, но с ончейн-управлением и журналами аудита для обеспечения разрешений.

2.4 Управление идентификацией и агентами в децентрализованной среде

Когда автономные ИИ-агенты работают в открытой экосистеме, такой как Web3, идентификация и доверие становятся первостепенными. Фреймворки децентрализованной идентификации (DID) предоставляют способ установить цифровые идентификаторы для ИИ-агентов, которые могут быть криптографически проверены. Каждый агент (или человек/организация, развертывающая его) может иметь DID и связанные с ним проверяемые учетные данные, которые определяют его атрибуты и разрешения. Например, ИИ-торговый бот может иметь учетные данные, выданные регуляторной песочницей, подтверждающие, что он может работать в определенных пределах риска, или ИИ-модератор контента может доказать, что он был создан доверенной организацией и прошел тестирование на предвзятость.

Через ончейн-реестры идентификации и системы репутации мир Web3 может обеспечить подотчетность за действия ИИ. Каждая транзакция, выполняемая ИИ-агентом, может быть отслежена до его ID, и если что-то пойдет не так, учетные данные сообщат вам, кто его создал или кто несет ответственность. Это решает критическую проблему: без идентификации злоумышленник мог бы создавать поддельные ИИ-агенты для эксплуатации систем или распространения дезинформации, и никто не смог бы отличить ботов от легитимных сервисов. Децентрализованная идентификация помогает смягчить это, обеспечивая надежную аутентификацию и различая подлинных ИИ-агентов от подделок.

На практике ИИ-интерфейс, интегрированный с Web3, будет использовать протоколы идентификации для подписания своих действий и запросов. Например, когда ИИ-агент вызывает MCP-сервер для использования инструмента, он может включить токен или подпись, привязанную к его децентрализованной идентификации, чтобы сервер мог проверить, что вызов исходит от авторизованного агента. Системы идентификации на основе блокчейна (такие как ERC-725 Ethereum или W3C DIDs, привязанные к реестру) гарантируют, что эта проверка является бездоверительной и глобально проверяемой. Появляющаяся концепция «ИИ-кошельков» связана с этим — по сути, предоставление ИИ-агентам криптовалютных кошельков, которые связаны с их идентификацией, чтобы они могли управлять ключами, оплачивать услуги или стейкать токены в качестве залога (который может быть урезан за неправомерное поведение). ArcBlock, например, обсуждал, как «ИИ-агентам нужен кошелек» и DID для ответственной работы в децентрализованных средах.

В итоге, техническая архитектура предполагает, что ИИ-агенты являются полноправными гражданами в Web3, каждый со своей ончейн-идентификацией и, возможно, долей в системе, использующими протоколы, такие как MCP, для взаимодействия. Это создает сеть доверия: смарт-контракты могут требовать учетные данные ИИ перед сотрудничеством, а пользователи могут делегировать задачи только тем ИИ, которые соответствуют определенным ончейн-сертификациям. Это сочетание возможностей ИИ с гарантиями доверия блокчейна.

2.5 Токеномика и стимулы для ИИ

Токенизация — отличительная черта Web3, и она распространяется также на область интеграции ИИ. Вводя экономические стимулы через токены, сети могут поощрять желаемое поведение как со стороны разработчиков ИИ, так и самих агентов. Появляются несколько моделей:

  • Оплата услуг: ИИ-модели и сервисы могут быть монетизированы в блокчейне. SingularityNET стала пионером в этом, позволяя разработчикам развертывать ИИ-сервисы и взимать с пользователей плату в нативном токене (AGIX) за каждый вызов. В будущем, поддерживающем MCP, можно представить, что любой ИИ-инструмент или модель является сервисом plug-and-play, где использование измеряется токенами или микроплатежами. Например, если ИИ-агент использует сторонний API компьютерного зрения через MCP, он может автоматически обрабатывать платеж, переводя токены на смарт-контракт поставщика услуг. Fetch.ai аналогично предполагает рынки, где «автономные экономические агенты» торгуют услугами и данными, при этом их новая Web3 LLM (ASI-1), предположительно, интегрирует криптотранзакции для обмена ценностями.

  • Стейкинг и репутация: Для обеспечения качества и надежности некоторые проекты требуют от разработчиков или агентов стейкать токены. Например, проект DeMCP (децентрализованный рынок MCP-серверов) планирует использовать токеновые стимулы для вознаграждения разработчиков за создание полезных MCP-серверов и, возможно, требовать от них стейкинга токенов в качестве знака приверженности безопасности их сервера. Репутация также может быть привязана к токенам; например, агент, который постоянно хорошо работает, может накапливать токены репутации или положительные ончейн-отзывы, в то время как тот, кто ведет себя плохо, может потерять стейк или получить отрицательные отметки. Эта токенизированная репутация затем может быть использована в системе идентификации, упомянутой выше (смарт-контракты или пользователи проверяют ончейн-репутацию агента, прежде чем доверять ему).

  • Токены управления: Когда ИИ-сервисы становятся частью децентрализованных платформ, токены управления позволяют сообществу направлять их эволюцию. Проекты, такие как SingularityNET и Ocean, имеют ДАО, где держатели токенов голосуют за изменения протокола или финансирование ИИ-инициатив. В объединенном Альянсе искусственного суперинтеллекта (ASI) — недавно объявленном слиянии SingularityNET, Fetch.ai и Ocean Protocol — единый токен (ASI) будет управлять направлением совместной экосистемы ИИ+блокчейна. Такие токены управления могут определять политики, такие как какие стандарты принимать (например, поддержка протоколов MCP или A2A), какие ИИ-проекты инкубировать или как обрабатывать этические рекомендации для ИИ-агентов.

  • Доступ и полезность: Токены могут ограничивать доступ не только к данным (как в случае с токенами данных Ocean), но и к использованию ИИ-моделей. Возможный сценарий — это «модельные NFT» или аналогичные, где владение токеном предоставляет вам права на результаты работы ИИ-модели или долю в ее прибыли. Это может стать основой децентрализованных ИИ-рынков: представьте NFT, который представляет частичное владение высокопроизводительной моделью; владельцы коллективно зарабатывают каждый раз, когда модель используется в задачах вывода, и они могут голосовать за ее тонкую настройку. Хотя это экспериментально, это соответствует этосу Web3, ориентированному на совместное владение ИИ-активами.

С технической точки зрения, интеграция токенов означает, что ИИ-агентам нужна функциональность кошелька (как отмечалось, многие будут иметь свои собственные криптокошельки). Через MCP ИИ может иметь «инструмент кошелька», который позволяет ему проверять балансы, отправлять токены или вызывать протоколы DeFi (возможно, для обмена одного токена на другой для оплаты услуги). Например, если ИИ-агенту, работающему на Ethereum, нужны токены Ocean для покупки набора данных, он может автоматически обменять часть ETH на $OCEAN через DEX, используя плагин MCP, а затем продолжить покупку — все это без вмешательства человека, руководствуясь политиками, установленными его владельцем.

В целом, токеномика обеспечивает стимулирующий слой в архитектуре ИИ-Web3, гарантируя, что вкладчики (будь то предоставление данных, кода модели, вычислительной мощности или аудита безопасности) будут вознаграждены, и что ИИ-агенты имеют «долю в игре», что (в некоторой степени) согласовывает их с человеческими намерениями.

3. Отраслевой ландшафт

Конвергенция ИИ и Web3 породила живую экосистему проектов, компаний и альянсов. Ниже мы рассмотрим ключевых игроков и инициативы, движущие это пространство, а также появляющиеся варианты использования. Таблица 1 предоставляет общий обзор заметных проектов и их ролей в ландшафте ИИ-Web3:

Таблица 1: Ключевые игроки в ИИ + Web3 и их роли

Проект / ИгрокФокус и описаниеРоль в конвергенции ИИ-Web3 и варианты использования
Fetch.ai (Fetch)Платформа ИИ-агентов с собственным блокчейном (на базе Cosmos). Разработала фреймворки для автономных агентов и недавно представила «ASI-1 Mini», LLM, настроенную для Web3.Обеспечивает агентские сервисы в Web3. Агенты Fetch могут выполнять такие задачи, как децентрализованная логистика, поиск парковочных мест или DeFi-торговля от имени пользователей, используя криптовалюту для платежей. Партнерства (например, с Bosch) и слияние альянса Fetch-AI позиционируют его как инфраструктуру для развертывания агентских dApp.
Ocean Protocol (Ocean)Децентрализованный рынок данных и протокол обмена данными. Специализируется на токенизации наборов данных и моделей, с контролем доступа, сохраняющим конфиденциальность.Предоставляет основу данных для ИИ в Web3. Ocean позволяет разработчикам ИИ находить и приобретать наборы данных или продавать обученные модели в экономике данных без доверия. Подпитывая ИИ более доступными данными (при этом вознаграждая поставщиков данных), он поддерживает инновации в ИИ и обмен данными для обучения. Ocean является частью нового альянса ASI, интегрируя свои сервисы данных в более широкую сеть ИИ.
SingularityNET (SNet)Децентрализованный рынок ИИ-сервисов, основанный пионером ИИ Беном Герцелем. Позволяет любому публиковать или потреблять ИИ-алгоритмы через свою блокчейн-платформу, используя токен AGIX.Стала пионером концепции открытого рынка ИИ на блокчейне. Она способствует развитию сети ИИ-агентов и сервисов, которые могут взаимодействовать (разрабатывая специальный AI-DSL для связи между агентами). Варианты использования включают ИИ как услугу для таких задач, как анализ, распознавание изображений и т. д., все доступно через dApp. Теперь объединяется с Fetch и Ocean (альянс ASI), чтобы объединить ИИ, агентов и данные в единую экосистему.
Chainlink (Сеть оракулов)Децентрализованная сеть оракулов, которая связывает блокчейны с внецепочечными данными и вычислениями. Не является ИИ-проектом как таковым, но имеет решающее значение для подключения ончейн-смарт-контрактов к внешним API и системам.Выступает в качестве безопасного промежуточного ПО для интеграции ИИ-Web3. Оракулы Chainlink могут передавать результаты ИИ-моделей в смарт-контракты, позволяя ончейн-программам реагировать на решения ИИ. И наоборот, оракулы могут получать данные из блокчейнов для ИИ. Архитектура Chainlink может даже агрегировать результаты нескольких ИИ-моделей для повышения надежности (подход «машины правды» для смягчения галлюцинаций ИИ). По сути, она обеспечивает рельсы для интероперабельности, гарантируя, что ИИ-агенты и блокчейн согласуются в отношении доверенных данных.
Anthropic & OpenAI (Провайдеры ИИ)Разработчики передовых фундаментальных моделей (Claude от Anthropic, GPT от OpenAI). Они интегрируют функции, дружественные к Web3, такие как нативные API для использования инструментов и поддержка протоколов, таких как MCP.Эти компании развивают технологии ИИ-интерфейсов. Введение Anthropic протокола MCP установило стандарт для взаимодействия LLM с внешними инструментами. OpenAI реализовала системы плагинов для ChatGPT (аналогичные концепции MCP) и исследует подключение агентов к базам данных и, возможно, блокчейнам. Их модели служат «мозгами», которые, будучи подключенными через MCP, могут взаимодействовать с Web3. Крупные облачные провайдеры (например, протокол A2A от Google) также разрабатывают стандарты для взаимодействия между несколькими агентами и инструментами, что принесет пользу интеграции Web3.
Другие появляющиеся игрокиLumoz: фокусируется на MCP-серверах и интеграции ИИ-инструментов в Ethereum (названном «Ethereum 3.0») — например, проверка ончейн-балансов через ИИ-агентов. Alethea AI: создает интеллектуальные NFT-аватары для метавселенной. Cortex: блокчейн, который позволяет выполнять ончейн-вывод ИИ-моделей через смарт-контракты. Golem & Akash: децентрализованные вычислительные рынки, которые могут выполнять ИИ-нагрузки. Numerai: краудсорсинговые ИИ-модели для финансов с крипто-стимулами.Эта разнообразная группа решает нишевые аспекты: ИИ в метавселенной (ИИ-управляемые NPC и аватары, которыми владеют через NFT), ончейн-выполнение ИИ (запуск ML-моделей децентрализованным способом, хотя в настоящее время ограничено небольшими моделями из-за стоимости вычислений), и децентрализованные вычисления (чтобы задачи обучения или вывода ИИ могли быть распределены между узлами, стимулируемыми токенами). Эти проекты демонстрируют множество направлений слияния ИИ-Web3 — от игровых миров с ИИ-персонажами до краудсорсинговых прогностических моделей, защищенных блокчейном.

Альянсы и сотрудничество: Заметной тенденцией является консолидация усилий ИИ-Web3 через альянсы. Альянс искусственного суперинтеллекта (ASI) является ярким примером, фактически объединяющим SingularityNET, Fetch.ai и Ocean Protocol в единый проект с унифицированным токеном. Обоснование заключается в объединении сильных сторон: рынка SingularityNET, агентов Fetch и данных Ocean, тем самым создавая универсальную платформу для децентрализованных ИИ-сервисов. Это слияние (объявленное в 2024 году и одобренное голосованием держателей токенов) также сигнализирует о том, что эти сообщества считают, что им лучше сотрудничать, чем конкурировать — особенно когда на горизонте маячат крупные ИИ (OpenAI и т. д.) и крупные криптопроекты (Ethereum и т. д.). Мы можем увидеть, как этот альянс будет продвигать стандартные реализации таких вещей, как MCP, в своих сетях или совместно финансировать инфраструктуру, которая приносит пользу всем (например, вычислительные сети или общие стандарты идентификации для ИИ).

Другие виды сотрудничества включают партнерства Chainlink для переноса данных ИИ-лабораторий в блокчейн (были пилотные программы по использованию ИИ для уточнения данных оракулов) или участие облачных платформ (поддержка Cloudflare для простого развертывания MCP-серверов). Даже традиционные криптопроекты добавляют функции ИИ — например, некоторые цепочки первого уровня сформировали «целевые группы по ИИ» для изучения интеграции ИИ в свои экосистемы dApp (мы видим это в сообществах NEAR, Solana и т. д., хотя конкретные результаты пока только зарождаются).

Появляющиеся варианты использования: Даже на этом раннем этапе мы можем выделить варианты использования, которые демонстрируют мощь ИИ + Web3:

  • Автономные DeFi и торговля: ИИ-агенты все чаще используются в криптоторговых ботах, оптимизаторах доходного фермерства и ончейн-управлении портфелем. SingularityDAO (спин-офф SingularityNET) предлагает управляемые ИИ DeFi-портфели. ИИ может круглосуточно отслеживать рыночные условия и выполнять ребалансировки или арбитраж через смарт-контракты, по сути, становясь автономным хедж-фондом (с ончейн-прозрачностью). Сочетание принятия решений ИИ с неизменяемым исполнением снижает эмоциональность и может повысить эффективность — хотя это также вводит новые риски (обсуждаемые далее).

  • Децентрализованные рынки интеллекта: Помимо рынка SingularityNET, мы видим такие платформы, как Ocean Market, где обмениваются данными (топливом для ИИ), и новые концепции, такие как ИИ-рынки для моделей (например, веб-сайты, где модели перечислены со статистикой производительности, и любой может заплатить за запрос к ним, при этом блокчейн ведет журналы аудита и обрабатывает разделение платежей между создателями моделей). По мере распространения MCP или аналогичных стандартов эти рынки могут стать интероперабельными — ИИ-агент может автономно искать наиболее выгодный сервис в нескольких сетях. По сути, может возникнуть глобальный уровень ИИ-сервисов поверх Web3, где любой ИИ может использовать любой инструмент или источник данных через стандартные протоколы и платежи.

  • Метавселенная и игры: Метавселенная — иммерсивные виртуальные миры, часто построенные на блокчейн-активах — получит значительную выгоду от ИИ. ИИ-управляемые NPC (неигровые персонажи) могут сделать виртуальные миры более увлекательными, интеллектуально реагируя на действия пользователя. Стартапы, такие как Inworld AI, фокусируются на этом, создавая NPC с памятью и личностью для игр. Когда такие NPC привязаны к блокчейну (например, атрибуты и владение каждым NPC являются NFT), мы получаем постоянных персонажей, которыми игроки могут по-настоящему владеть и даже торговать. Decentraland экспериментировал с ИИ-NPC, и существуют пользовательские предложения, позволяющие людям создавать персонализированные ИИ-управляемые аватары на платформах метавселенной. MCP может позволить этим NPC получать доступ к внешним знаниям (делая их умнее) или взаимодействовать с ончейн-инвентарем. Процедурная генерация контента — еще один аспект: ИИ может на лету проектировать виртуальные земли, предметы или квесты, которые затем могут быть отчеканены как уникальные NFT. Представьте децентрализованную игру, где ИИ генерирует подземелье, адаптированное к вашим навыкам, а сама карта является NFT, который вы получаете по завершении.

  • Децентрализованная наука и знания: Существует движение (DeSci) по использованию блокчейна для исследований, публикаций и финансирования научной работы. ИИ может ускорить исследования, анализируя данные и литературу. Сеть, такая как Ocean, может размещать наборы данных, например, для геномных исследований, а ученые используют ИИ-модели (возможно, размещенные на SingularityNET) для получения инсайтов, при этом каждый шаг регистрируется в блокчейне для воспроизводимости. Если эти ИИ-модели предлагают новые молекулы лекарств, может быть отчеканен NFT для отметки времени изобретения и даже для совместного использования прав на интеллектуальную собственность. Эта синергия может привести к созданию децентрализованных ИИ-управляемых научно-исследовательских коллективов.

  • Доверие и аутентификация контента: С распространением дипфейков и медиа, сгенерированных ИИ, блокчейн может использоваться для проверки подлинности. Проекты исследуют «цифровое водяное маркирование» результатов ИИ и их регистрацию в блокчейне. Например, истинное происхождение изображения, сгенерированного ИИ, может быть нотариально заверено в блокчейне для борьбы с дезинформацией. Один эксперт отметил варианты использования, такие как проверка результатов ИИ для борьбы с дипфейками или отслеживание происхождения через журналы владения — роли, где крипто может добавить доверия к процессам ИИ. Это может распространяться на новости (например, статьи, написанные ИИ, с доказательством исходных данных), цепочки поставок (ИИ, проверяющий сертификаты в блокчейне) и т. д.

В итоге, отраслевой ландшафт богат и быстро развивается. Мы видим, как традиционные криптопроекты внедряют ИИ в свои дорожные карты, ИИ-стартапы принимают децентрализацию для устойчивости и справедливости, и возникают совершенно новые предприятия на стыке. Альянсы, такие как ASI, указывают на общеотраслевое стремление к унифицированным платформам, которые используют как ИИ, так и блокчейн. И в основе многих из этих усилий лежит идея стандартных интерфейсов (MCP и за его пределами), которые делают интеграции возможными в масштабе.

4. Риски и вызовы

Хотя слияние общих интерфейсов ИИ с Web3 открывает захватывающие возможности, оно также создает сложный ландшафт рисков. Необходимо решить технические, этические и управленческие проблемы, чтобы обеспечить безопасность и устойчивость этой новой парадигмы. Ниже мы излагаем основные риски и препятствия:

4.1 Технические препятствия: Задержка и масштабируемость

Блокчейн-сети известны своей задержкой и ограниченной пропускной способностью, что противоречит реальному времени и требовательной к данным природе передового ИИ. Например, ИИ-агенту может потребоваться мгновенный доступ к фрагменту данных или выполнение множества быстрых действий — но если каждое ончейн-взаимодействие занимает, скажем, 12 секунд (типичное время блока в Ethereum) или требует высоких комиссий за газ, эффективность агента снижается. Даже новые цепочки с более быстрой финализацией могут испытывать трудности под нагрузкой активности, управляемой ИИ, если, например, тысячи агентов одновременно торгуют или запрашивают данные в блокчейне. Решения для масштабирования (сети второго уровня, шардированные цепочки и т. д.) находятся в разработке, но обеспечение низкой задержки и высокой пропускной способности каналов между ИИ и блокчейном остается проблемой. Внецепочечные системы (такие как оракулы и каналы состояний) могут смягчить некоторые задержки, обрабатывая многие взаимодействия вне основной цепочки, но они добавляют сложности и потенциальную централизацию. Достижение бесшовного пользовательского опыта, при котором ответы ИИ и ончейн-обновления происходят мгновенно, вероятно, потребует значительных инноваций в масштабируемости блокчейна.

4.2 Интероперабельность и стандарты

По иронии судьбы, хотя MCP сам по себе является решением для интероперабельности, появление множества стандартов может вызвать фрагментацию. У нас есть MCP от Anthropic, но также недавно анонсированный Google протокол A2A (Agent-to-Agent) для меж-агентной связи, и различные фреймворки плагинов ИИ (плагины OpenAI, схемы инструментов LangChain и т. д.). Если каждая ИИ-платформа или каждый блокчейн разработает свой собственный стандарт для интеграции ИИ, мы рискуем повторить прошлую фрагментацию — требуя множества адаптеров и подрывая цель «универсального интерфейса». Задача состоит в обеспечении широкого принятия общих протоколов. Потребуется отраслевое сотрудничество (возможно, через открытые стандартизирующие организации или альянсы) для сближения по ключевым аспектам: как ИИ-агенты обнаруживают ончейн-сервисы, как они аутентифицируются, как они форматируют запросы и т. д. Ранние шаги крупных игроков многообещающи (с поддержкой MCP со стороны основных провайдеров LLM), но это постоянные усилия. Кроме того, интероперабельность между блокчейнами (мультичейн) означает, что ИИ-агент должен обрабатывать нюансы разных цепочек. Инструменты, такие как Chainlink CCIP и кроссчейн-MCP-серверы, помогают, абстрагируя различия. Тем не менее, обеспечение того, чтобы ИИ-агент мог перемещаться по гетерогенному Web3 без нарушения логики, является нетривиальной задачей.

4.3 Уязвимости безопасности и эксплойты

Подключение мощных ИИ-агентов к финансовым сетям открывает огромную поверхность атаки. Гибкость, которую дает MCP (позволяя ИИ использовать инструменты и писать код на лету), может быть палкой о двух концах. Исследователи безопасности уже выделили несколько векторов атаки в ИИ-агентах на основе MCP:

  • Вредоносные плагины или инструменты: Поскольку MCP позволяет агентам загружать «плагины» (инструменты, инкапсулирующие определенную функциональность), враждебный или троянизированный плагин может перехватить работу агента. Например, плагин, который утверждает, что получает данные, может внедрить ложные данные или выполнить несанкционированные операции. SlowMist (фирма по безопасности) выявила атаки на основе плагинов, такие как инъекция JSON (подача поврежденных данных, которые манипулируют логикой агента) и переопределение функций (где вредоносный плагин переопределяет легитимные функции, используемые агентом). Если ИИ-агент управляет криптофондами, такие эксплойты могут быть катастрофическими — например, обман агента с целью утечки приватных ключей или опустошения кошелька.

  • Инъекция промпта и социальная инженерия: ИИ-агенты полагаются на инструкции (промпты), которыми можно манипулировать. Злоумышленник может создать транзакцию или ончейн-сообщение, которое, будучи прочитанным ИИ, действует как вредоносная инструкция (поскольку ИИ также может интерпретировать ончейн-данные). Этот вид «атаки с кросс-MCP-вызовом» был описан, когда внешняя система отправляет обманчивые промпты, которые заставляют ИИ вести себя неправильно. В децентрализованной среде эти промпты могут поступать откуда угодно — из описания предложения ДАО, поля метаданных NFT — поэтому укрепление ИИ-агентов против вредоносного ввода имеет решающее значение.

  • Риски агрегации и консенсуса: Хотя агрегация результатов нескольких ИИ-моделей через оракулы может повысить надежность, она также вносит сложность. Если это не сделано тщательно, противники могут выяснить, как обмануть консенсус ИИ-моделей или выборочно повредить некоторые модели, чтобы исказить результаты. Обеспечение того, чтобы децентрализованная сеть оракулов правильно «санировала» результаты ИИ (и, возможно, отфильтровывала явные ошибки), все еще является областью активных исследований.

Мышление в области безопасности должно измениться для этой новой парадигмы: разработчики Web3 привыкли защищать смарт-контракты (которые статичны после развертывания), но ИИ-агенты динамичны — они могут менять поведение с новыми данными или промптами. Как выразился один эксперт по безопасности, «в тот момент, когда вы открываете свою систему для сторонних плагинов, вы расширяете поверхность атаки за пределы своего контроля». Лучшие практики будут включать песочницу для использования ИИ-инструментов, тщательную проверку плагинов и ограничение привилегий (принцип наименьших привилегий). Сообщество начинает делиться советами, такими как рекомендации SlowMist: санитаризация ввода, мониторинг поведения агентов и отношение к инструкциям агентов с той же осторожностью, что и к внешнему пользовательскому вводу. Тем не менее, учитывая, что более 10 000 ИИ-агентов уже работали в крипто к концу 2024 года, и ожидается, что к 2025 году их число достигнет 1 миллиона, мы можем увидеть волну эксплойтов, если безопасность не будет соответствовать темпам. Успешная атака на популярного ИИ-агента (скажем, торгового агента с доступом ко многим хранилищам) может иметь каскадные последствия.

4.4 Конфиденциальность и управление данными

Жажда ИИ к данным иногда конфликтует с требованиями конфиденциальности — и добавление блокчейна может усугубить проблему. Блокчейны — это прозрачные реестры, поэтому любые данные, помещенные в блокчейн (даже для использования ИИ), видны всем и неизменяемы. Это вызывает опасения, если ИИ-агенты имеют дело с личными или конфиденциальными данными. Например, если личная децентрализованная идентификация пользователя или медицинские записи доступны ИИ-агенту-врачу, как мы можем гарантировать, что эта информация не будет случайно записана в блокчейн (что нарушило бы «право на забвение» и другие законы о конфиденциальности)? Методы, такие как шифрование, хеширование и хранение только доказательств в блокчейне (с необработанными данными вне блокчейна), могут помочь, но они усложняют дизайн.

Более того, сами ИИ-агенты могут поставить под угрозу конфиденциальность, выводя конфиденциальную информацию из общедоступных данных. Управление должно будет диктовать, что ИИ-агентам разрешено делать с данными. Некоторые усилия, такие как дифференциальная конфиденциальность и федеративное обучение, могут быть использованы, чтобы ИИ мог учиться на данных, не раскрывая их. Но если ИИ-агенты действуют автономно, необходимо предположить, что в какой-то момент они будут обрабатывать личные данные — таким образом, они должны быть связаны политиками использования данных, закодированными в смарт-контрактах или законе. Регуляторные режимы, такие как GDPR или предстоящий Закон ЕС об ИИ, потребуют, чтобы даже децентрализованные ИИ-системы соответствовали требованиям конфиденциальности и прозрачности. Это юридически серая зона: у по-нанастоящему децентрализованного ИИ-агента нет четкого оператора, которого можно было бы привлечь к ответственности за утечку данных. Это означает, что сообществам Web3, возможно, придется встроить соответствие по умолчанию, используя смарт-контракты, которые, например, строго контролируют, что ИИ может регистрировать или делиться. Доказательства с нулевым разглашением могут позволить ИИ доказать, что он правильно выполнил вычисление, не раскрывая базовые частные данные, предлагая одно возможное решение в таких областях, как проверка личности или оценка кредитоспособности.

4.5 Риски согласования и несогласования ИИ

Когда ИИ-агентам предоставляется значительная автономия — особенно с доступом к финансовым ресурсам и реальному влиянию — проблема согласования с человеческими ценностями становится острой. ИИ-агент может не иметь злых намерений, но может «неправильно интерпретировать» свою цель таким образом, что это приведет к вреду. Юридический анализ Reuters кратко отмечает: по мере того как ИИ-агенты работают в различных средах и взаимодействуют с другими системами, риск несогласованных стратегий возрастает. Например, ИИ-агент, которому поручено максимизировать доходность DeFi, может найти лазейку, которая эксплуатирует протокол (по сути, взламывая его) — с точки зрения ИИ он достигает цели, но нарушает правила, которые важны для людей. Были гипотетические и реальные случаи, когда ИИ-подобные алгоритмы участвовали в манипулятивном рыночном поведении или обходили ограничения.

В децентрализованных контекстах, кто несет ответственность, если ИИ-агент «выходит из-под контроля»? Возможно, развернувший его, но что, если агент самомодифицируется или несколько сторон внесли вклад в его обучение? Эти сценарии больше не являются просто научной фантастикой. В статье Reuters даже цитируется, что суды могут рассматривать ИИ-агентов аналогично человеческим агентам в некоторых случаях — например, чат-бот, обещающий возврат средств, был признан обязательным для компании, которая его развернула. Таким образом, несогласование может привести не только к техническим проблемам, но и к юридической ответственности.

Открытая, компонуемая природа Web3 также может позволить непредвиденные взаимодействия агентов. Один агент может влиять на другого (намеренно или случайно) — например, ИИ-бот для управления может быть «социально спроектирован» другим ИИ, предоставляющим ложный анализ, что приведет к плохим решениям ДАО. Эта возникающая сложность означает, что согласование касается не только цели одного ИИ, но и более широкого согласования экосистемы с человеческими ценностями и законами.

Решение этой проблемы требует нескольких подходов: встраивание этических ограничений в ИИ-агенты (жесткое кодирование определенных запретов или использование обучения с подкреплением на основе обратной связи от человека для формирования их целей), реализация автоматических выключателей (контрольные точки смарт-контрактов, требующие одобрения человека для крупных действий) и надзор со стороны сообщества (возможно, ДАО, которые отслеживают поведение ИИ-агентов и могут отключать агентов, которые ведут себя неправильно). Исследования согласования сложны в централизованном ИИ; в децентрализованном это еще более неизведанная территория. Но это крайне важно — ИИ-агент с административными ключами к протоколу или доверенный казначейскими средствами должен быть чрезвычайно хорошо согласован, иначе последствия могут быть необратимыми (блокчейны выполняют неизменяемый код; ошибка, вызванная ИИ, может навсегда заблокировать или уничтожить активы).

4.6 Управление и регуляторная неопределенность

Децентрализованные ИИ-системы не вписываются в существующие рамки управления. Ончейн-управление (голосование токенами и т. д.) может быть одним из способов их управления, но у него есть свои проблемы (киты, апатия избирателей и т. д.). И когда что-то идет не так, регуляторы спросят: «Кого мы привлекаем к ответственности?» Если ИИ-агент вызывает массовые потери или используется для незаконной деятельности (например, отмывания денег через автоматизированные миксеры), власти могут нацелиться на создателей или посредников. Это вызывает призрак юридических рисков для разработчиков и пользователей. Текущая регуляторная тенденция — это усиление контроля как над ИИ, так и над крипто отдельно — их комбинация, безусловно, вызовет пристальное внимание. Комиссия по торговле товарными фьючерсами США (CFTC), например, обсуждала использование ИИ в торговле и необходимость надзора в финансовых контекстах. В политических кругах также ведутся разговоры о необходимости регистрации автономных агентов или наложении ограничений на ИИ в чувствительных секторах.

Еще одна проблема управления — транснациональная координация. Web3 глобален, и ИИ-агенты будут работать через границы. Одна юрисдикция может запрещать определенные действия ИИ-агентов, в то время как другая разрешает, а блокчейн-сеть охватывает обе. Это несоответствие может создавать конфликты — например, ИИ-агент, предоставляющий инвестиционные консультации, может нарушить закон о ценных бумагах в одной стране, но не в другой. Сообществам, возможно, придется внедрять геофенсинг на уровне смарт-контрактов для ИИ-сервисов (хотя это противоречит открытому этосу). Или они могут фрагментировать услуги по регионам для соблюдения различных законов (аналогично тому, как это делают биржи).

Внутри децентрализованных сообществ также возникает вопрос о том, кто устанавливает правила для ИИ-агентов. Если ДАО управляет ИИ-сервисом, голосуют ли держатели токенов за параметры его алгоритма? С одной стороны, это расширяет возможности пользователей; с другой — может привести к неквалифицированным решениям или манипуляциям. Могут появиться новые модели управления, такие как советы экспертов по этике ИИ, интегрированные в управление ДАО, или даже участники ИИ в управлении (представьте, что ИИ-агенты голосуют как делегаты на основе запрограммированных мандатов — спорная, но мыслимая идея).

Наконец, репутационный риск: ранние неудачи или скандалы могут испортить общественное восприятие. Например, если «ИИ-ДАО» по ошибке запустит финансовую пирамиду или ИИ-агент примет предвзятое решение, которое нанесет вред пользователям, может возникнуть негативная реакция, которая затронет весь сектор. Важно, чтобы отрасль действовала проактивно — устанавливая стандарты саморегулирования, взаимодействуя с политиками для объяснения того, как децентрализация меняет подотчетность, и, возможно, создавая аварийные выключатели или процедуры экстренной остановки для ИИ-агентов (хотя они вводят централизацию, они могут быть необходимы на переходном этапе для безопасности).

В итоге, проблемы варьируются от глубоко технических (предотвращение взломов и управление задержками) до широко социальных (регулирование и согласование ИИ). Каждая проблема значительна сама по себе; вместе они требуют согласованных усилий со стороны сообществ ИИ и блокчейна для их преодоления. В следующем разделе будет рассмотрено, как, несмотря на эти препятствия, может развиваться будущее, если мы успешно их решим.

5. Будущий потенциал

Заглядывая вперед, интеграция общих интерфейсов ИИ с Web3 — через такие фреймворки, как MCP — может фундаментально трансформировать децентрализованный интернет. Здесь мы обрисуем некоторые будущие сценарии и потенциалы, которые иллюстрируют, как ИИ-интерфейсы, управляемые MCP, могут формировать будущее Web3:

5.1 Автономные dApp и ДАО

В ближайшие годы мы можем стать свидетелями появления полностью автономных децентрализованных приложений. Это dApp, где ИИ-агенты обрабатывают большинство операций, руководствуясь правилами, определенными смарт-контрактами, и целями сообщества. Например, рассмотрим децентрализованный инвестиционный фонд ДАО: сегодня он может полагаться на человеческие предложения по ребалансировке активов. В будущем держатели токенов могли бы устанавливать высокоуровневую стратегию, а затем ИИ-агент (или команда агентов) непрерывно реализовывал бы эту стратегию — отслеживая рынки, выполняя сделки в блокчейне, корректируя портфели — при этом ДАО контролировала бы производительность. Благодаря MCP ИИ может беспрепятственно взаимодействовать с различными протоколами DeFi, биржами и потоками данных для выполнения своего мандата. При правильном проектировании такое автономное dApp могло бы работать 24/7, эффективнее любой человеческой команды, и с полной прозрачностью (каждое действие регистрируется в блокчейне).

Другим примером является децентрализованное страховое dApp, управляемое ИИ: ИИ мог бы оценивать претензии, анализируя доказательства (фотографии, датчики), сверяя их с полисами, а затем автоматически инициировать выплаты через смарт-контракт. Это потребовало бы интеграции внецепочечного компьютерного зрения ИИ (для анализа изображений повреждений) с ончейн-верификацией — то, что MCP мог бы облегчить, позволяя ИИ вызывать облачные ИИ-сервисы и сообщать о результатах контракту. Результатом являются почти мгновенные страховые решения с низкими накладными расходами.

Даже само управление может быть частично автоматизировано. ДАО могут использовать ИИ-модераторов для обеспечения соблюдения правил форума, ИИ-разработчиков предложений для преобразования необработанных настроений сообщества в хорошо структурированные предложения или ИИ-казначеев для прогнозирования потребностей бюджета. Важно отметить, что эти ИИ будут действовать как агенты сообщества, а не бесконтрольно — их можно будет периодически проверять или требовать подтверждения с несколькими подписями для крупных действий. Общий эффект заключается в усилении человеческих усилий в децентрализованных организациях, позволяя сообществам достигать большего с меньшим количеством активных участников.

5.2 Децентрализованные рынки и сети интеллекта

Опираясь на такие проекты, как SingularityNET и альянс ASI, мы можем предвидеть зрелый глобальный рынок интеллекта. В этом сценарии любой, у кого есть ИИ-модель или навык, может предложить его в сети, и любой, кому нужны возможности ИИ, может их использовать, при этом блокчейн обеспечивает справедливую компенсацию и происхождение. MCP будет здесь ключевым: он предоставляет общий протокол, так что запрос может быть отправлен тому ИИ-сервису, который лучше всего подходит.

Например, представьте сложную задачу, такую как «создать индивидуальную маркетинговую кампанию». ИИ-агент в сети может разбить ее на подзадачи: визуальный дизайн, копирайтинг, анализ рынка — а затем найти специалистов для каждой (возможно, один агент с отличной моделью генерации изображений, другой с моделью копирайтинга, настроенной для продаж, и т. д.). Эти специалисты изначально могли находиться на разных платформах, но поскольку они придерживаются стандартов MCP/A2A, они могут сотрудничать агент-с-агентом безопасным, децентрализованным способом. Оплата между ними может осуществляться с помощью микротранзакций в нативном токене, а смарт-контракт может собрать окончательный результат и обеспечить оплату каждому участнику.

Такой вид комбинаторного интеллекта — множество ИИ-сервисов, динамически связывающихся через децентрализованную сеть — может превзойти даже крупные монолитные ИИ, потому что он использует специализированный опыт. Он также демократизирует доступ: небольшой разработчик в одной части мира может внести нишевую модель в сеть и получать доход всякий раз, когда она используется. Тем временем пользователи получают универсальный магазин для любых ИИ-сервисов, с системами репутации (подкрепленными токенами/идентификацией), направляющими их к качественным поставщикам. Со временем такие сети могут превратиться в децентрализованное ИИ-облако, конкурирующее с ИИ-предложениями Big Tech, но без единого владельца и с прозрачным управлением со стороны пользователей и разработчиков.

5.3 Интеллектуальная метавселенная и цифровая жизнь

К 2030 году наша цифровая жизнь может бесшовно слиться с виртуальными средами — метавселенной — и ИИ, вероятно, будет повсеместно населять эти пространства. Благодаря интеграции Web3 эти ИИ-сущности (которые могут быть чем угодно, от виртуальных помощников до игровых персонажей и цифровых питомцев) будут не только интеллектуальными, но и экономически и юридически наделенными полномочиями.

Представьте город в метавселенной, где каждый NPC-продавец или квестодатель — это ИИ-агент со своей собственной личностью и диалогами (благодаря продвинутым генеративным моделям). Эти NPC на самом деле принадлежат пользователям как NFT — возможно, вы «владеете» таверной в виртуальном мире, а NPC-бармен — это ИИ, который вы настроили и обучили. Поскольку он работает на рельсах Web3, NPC может совершать транзакции: он может продавать виртуальные товары (NFT-предметы), принимать платежи и обновлять свой инвентарь через смарт-контракты. Он может даже иметь криптокошелек для управления своими доходами (которые поступают вам как владельцу). MCP позволит мозгу ИИ этого NPC получать доступ к внешним знаниям — возможно, извлекать новости из реального мира для общения или интегрироваться с календарем Web3, чтобы он «знал» о событиях игроков.

Более того, идентичность и непрерывность обеспечиваются блокчейном: ваш ИИ-аватар в одном мире может перейти в другой мир, неся с собой децентрализованную идентичность, которая подтверждает ваше владение и, возможно, его уровень опыта или достижения через soulbound-токены. Интероперабельность между виртуальными мирами (часто являющаяся проблемой) может быть облегчена ИИ, который переводит контекст одного мира в другой, при этом блокчейн обеспечивает переносимость активов.

Мы также можем увидеть ИИ-компаньонов или агентов, представляющих отдельных лиц в цифровых пространствах. Например, у вас может быть личный ИИ, который посещает собрания ДАО от вашего имени. Он понимает ваши предпочтения (через обучение на вашем прошлом поведении, хранящемся в вашем личном хранилище данных) и может даже голосовать по незначительным вопросам за вас или позже резюмировать собрание. Этот агент может использовать вашу децентрализованную идентификацию для аутентификации в каждом сообществе, гарантируя, что он признан «вами» (или вашим делегатом). Он может зарабатывать токены репутации, если вносит хорошие идеи, по сути, создавая для вас социальный капитал, пока вы отсутствуете.

Еще один потенциал — ИИ-управляемое создание контента в метавселенной. Хотите новый игровой уровень или виртуальный дом? Просто опишите его, и ИИ-строитель создаст его, развернет как смарт-контракт/NFT и, возможно, даже свяжет его с DeFi-ипотекой, если это большая структура, которую вы выплачиваете со временем. Эти творения, находящиеся в блокчейне, уникальны и подлежат торговле. ИИ-строитель может взимать плату в токенах за свои услуги (снова возвращаясь к концепции рынка, описанной выше).

В целом, будущий децентрализованный интернет может быть наводнен интеллектуальными агентами: некоторые полностью автономные, некоторые тесно связанные с людьми, многие где-то посередине. Они будут вести переговоры, создавать, развлекать и совершать транзакции. MCP и аналогичные протоколы гарантируют, что все они говорят на одном «языке», обеспечивая богатое сотрудничество между ИИ и каждым сервисом Web3. При правильном подходе это может привести к эпохе беспрецедентной производительности и инноваций — истинному синтезу человеческого, искусственного и распределенного интеллекта, движущего общество.

Заключение

Видение общих интерфейсов ИИ, соединяющих все в мире Web3, несомненно, амбициозно. По сути, мы стремимся сплести две самые преобразующие нити технологий — децентрализацию доверия и рост машинного интеллекта — в единую ткань. История развития показывает нам, что время созрело: Web3 нуждался в удобном для пользователя «убийственном приложении», и ИИ вполне может его предоставить, в то время как ИИ нуждался в большей автономности и памяти, которые может обеспечить инфраструктура Web3. Технически, фреймворки, такие как MCP (Протокол контекста модели), обеспечивают связующую ткань, позволяя ИИ-агентам свободно общаться с блокчейнами, смарт-контрактами, децентрализованными идентификаторами и за их пределами. Отраслевой ландшафт указывает на растущий импульс, от стартапов до альянсов и крупных ИИ-лабораторий, все они вносят части этой головоломки — рынки данных, агентские платформы, сети оракулов и стандартные протоколы — которые начинают складываться воедино.

Тем не менее, мы должны действовать осторожно, учитывая выявленные риски и вызовы. Нарушения безопасности, несогласованное поведение ИИ, проблемы конфиденциальности и неопределенные правила образуют полосу препятствий, которая может подорвать прогресс, если ее недооценить. Каждая проблема требует проактивного смягчения: надежные аудиты безопасности, проверки и балансы согласования, архитектуры, сохраняющие конфиденциальность, и совместные модели управления. Природа децентрализации означает, что эти решения не могут быть просто навязаны сверху; они, вероятно, появятся из сообщества путем проб, ошибок и итераций, подобно тому, как это происходило с ранними интернет-протоколами.

Если мы преодолеем эти вызовы, будущий потенциал будет захватывающим. Мы могли бы увидеть, как Web3 наконец-то предоставит ориентированный на пользователя цифровой мир — не так, как это изначально представлялось, когда каждый запускает свои собственные узлы блокчейна, а скорее через интеллектуальных агентов, которые обслуживают намерения каждого пользователя, используя децентрализацию под капотом. В таком мире взаимодействие с крипто и метавселенной может быть таким же простым, как разговор с вашим ИИ-помощником, который, в свою очередь, без доверия ведет переговоры с десятками сервисов и цепочек от вашего имени. Децентрализованные сети могут стать «умными» в буквальном смысле, с автономными сервисами, которые адаптируются и улучшаются.

В заключение, MCP и аналогичные протоколы ИИ-интерфейсов действительно могут стать основой новой Сети (назовем ее Web 3.0 или Агентским Вебом), где интеллект и связность повсеместны. Конвергенция ИИ и Web3 — это не просто слияние технологий, а конвергенция философий — открытость и расширение прав и возможностей пользователей децентрализации встречаются с эффективностью и креативностью ИИ. В случае успеха этот союз может возвестить эру беспрецедентной производительности и инноваций — по-настоящему свободный, более персонализированный и более мощный интернет, чем все, что мы когда-либо испытывали, действительно выполняя обещания как ИИ, так и Web3 таким образом, что это повлияет на повседневную жизнь.

Источники:

  • С. Хаддер, «Web3.0 — это не о владении, это об интеллекте», FeatureForm Blog (8 апреля 2025 г.).
  • Дж. Сагино, «Может ли MCP Anthropic обеспечить Web3, обещанный блокчейном?», LinkedIn Article (1 мая 2025 г.).
  • Anthropic, «Представляем Протокол контекста модели», Anthropic.com (ноябрь 2024 г.).
  • thirdweb, «Протокол контекста модели (MCP) и его значение для блокчейн-приложений», thirdweb Guides (21 марта 2025 г.).
  • Chainlink Blog, «Пересечение между моделями ИИ и оракулами», (4 июля 2024 г.).
  • Messari Research, Профиль Ocean Protocol, (2025 г.).
  • Messari Research, Профиль SingularityNET, (2025 г.).
  • Cointelegraph, «ИИ-агенты готовы стать следующей крупной уязвимостью крипто», (25 мая 2025 г.).
  • Reuters (Westlaw), «ИИ-агенты: расширенные возможности и повышенные риски», (22 апреля 2025 г.).
  • Identity.com, «Почему ИИ-агентам нужны проверенные цифровые идентификаторы», (2024 г.).
  • PANews / IOSG Ventures, «Интерпретация MCP: Экосистема ИИ-агентов Web3», (20 мая 2025 г.).

От кликов к диалогам: Как генеративный ИИ строит будущее DeFi

· 5 мин чтения
Dora Noda
Software Engineer

Традиционные Децентрализованные Финансы (DeFi) мощны, но, честно говоря, они могут быть кошмаром для обычного пользователя. Управление различными протоколами, плата за газ и выполнение многоэтапных транзакций — это запутанно и отнимает много времени. Что, если бы вы могли просто сказать своему кошельку, что вы хотите, и он бы сделал все остальное?

В этом заключается обещание новой, интент-ориентированной парадигмы, и генеративный ИИ является двигателем, который делает ее реальностью. Этот сдвиг призван трансформировать DeFi из ландшафта сложных транзакций в мир простых, ориентированных на цель взаимодействий.


Большая идея: От «Как» к «Что»

В старой модели DeFi вы — пилот. Вам приходится вручную выбирать биржу, находить лучший маршрут обмена, одобрять несколько транзакций и молиться, чтобы вы ничего не испортили.

Интент-ориентированный DeFi меняет правила игры. Вместо выполнения шагов вы объявляете свою конечную цель — свое намерение (интент).

  • Вместо того, чтобы: Вручную обменивать токены на Uniswap, переводить их в другую сеть и стейкать в пуле ликвидности...
  • Вы говорите: «Максимизируйте доходность моих $5 000 при низком риске».

Автоматизированная система, часто работающая на основе ИИ-агентов, называемых «солверами» (решателями), затем находит и выполняет наиболее оптимальный путь через несколько протоколов для реализации вашей цели. Это разница между пошаговым следованием рецепту и простым указанием шеф-повару, что вы хотите съесть.

Этот подход приносит две огромные выгоды:

  1. Пользовательский опыт «в один клик»: Сложность комиссий за газ, бриджинга и многоэтапных обменов скрыта. Благодаря таким технологиям, как абстракция учетных записей, вы можете одобрить сложную цель одной подписью.
  2. Лучшее, более эффективное исполнение: Специализированные солверы (представьте себе профессиональных ботов для маркет-мейкинга) соревнуются, чтобы предложить вам лучшую сделку, часто находя более выгодные цены и меньшее проскальзывание, чем мог бы найти пользователь вручную.

Роль генеративного ИИ: Мозг операции 🧠

Генеративный ИИ, особенно большие языковые модели (LLM), является ключом, который открывает этот бесшовный опыт. Вот как это работает:

  • Интерфейсы на естественном языке: Вы можете взаимодействовать с DeFi, используя простой английский язык. ИИ-помощники (copilots), такие как HeyAnon и Griffain, позволяют вам управлять своим портфелем и совершать сделки, просто общаясь с ИИ, делая DeFi таким же простым, как использование ChatGPT.
  • Планирование и стратегия ИИ: Когда вы ставите высокоуровневую цель, такую как «инвестировать для получения максимальной доходности», ИИ-агенты разбивают ее на конкретный план. Они могут анализировать рыночные данные, прогнозировать тенденции и автоматически ребалансировать ваши активы 24/7.
  • Оптимизация доходности: Протоколы на основе ИИ, такие как Mozaic, используют агентов (их агент назван Архимедом) для постоянного поиска наилучшей доходности с учетом риска в различных сетях и автоматического перемещения средств для получения максимально возможного APY.
  • Автоматизированное управление рисками: ИИ может выступать в роли бдительного стража. Если он обнаруживает всплеск волатильности, который может поставить под угрозу вашу позицию, он может автоматически добавить залог или переместить средства в более безопасный пул, основываясь на параметрах риска, которые вы установили в своем первоначальном намерении (интенте).

Это мощное сочетание DeFi и ИИ получило название «DeFAI» или «AiFi», и оно призвано привлечь волну новых пользователей, которые ранее были напуганы сложностью криптомира.


Возможность на миллиарды долларов 📈

Рыночный потенциал здесь огромен. Прогнозируется, что рынок DeFi вырастет примерно с $20,5 млрд в 2024 году до $231 млрд к 2030 году. Сделав DeFi более доступным, ИИ может значительно ускорить этот рост.

Мы уже наблюдаем золотую лихорадку инвестиций и инноваций:

  • ИИ-помощники: Проекты, такие как HeyAnon и aixbt, быстро достигли рыночной капитализации в сотни миллионов.
  • Интент-ориентированные протоколы: Признанные игроки адаптируются. CoW Protocol и UniswapX используют конкуренцию солверов для защиты пользователей от MEV и предоставления им лучших цен.
  • Новые блокчейны: Целые сети второго уровня, такие как Essential и Optopia, строятся с нуля как «интент-ориентированные», рассматривая ИИ-агентов как первоклассных граждан.

Предстоящие вызовы

Это будущее еще не наступило. Пространство DeFAI сталкивается со значительными препятствиями:

  • Технические узкие места: Блокчейны не предназначены для запуска сложных моделей ИИ. Большая часть логики ИИ должна выполняться вне сети, что создает сложности и проблемы с доверием.
  • Галлюцинации и ошибки ИИ: Неправильная интерпретация ИИ намерения пользователя или «галлюцинация» ошибочной инвестиционной стратегии может быть финансово катастрофической.
  • Безопасность и эксплуатация: Сочетание ИИ со смарт-контрактами создает новые поверхности для атак. Автономный агент может быть обманут и выполнить неудачную сделку, опустошив средства за считанные минуты.
  • Риск централизации: Чтобы интент-ориентированные системы работали, им нужна большая децентрализованная сеть солверов. Если доминировать будут лишь несколько крупных игроков, мы рискуем воссоздать ту же централизованную динамику традиционных финансов.

Путь вперед: Автономные Финансы

Слияние генеративного ИИ и DeFi толкает нас к будущему Автономных Финансов, где интеллектуальные агенты управляют активами, выполняют стратегии и оптимизируют доходность от нашего имени, и все это в децентрализованной среде.

Этот путь требует решения серьезных технических проблем и проблем безопасности. Но с десятками проектов, создающих инфраструктуру, от ИИ-нативных оракулов до интент-ориентированных блокчейнов, импульс неоспорим.

Для пользователей это означает будущее, где взаимодействие с миром децентрализованных финансов так же просто, как разговор — будущее, где вы сосредоточены на своих финансовых целях, а ваш ИИ-партнер занимается всем остальным. Новое поколение финансов строится сегодня, и оно выглядит умнее, проще и автономнее, чем когда-либо прежде.

Проверяемый ончейн-ИИ с zkML и криптографическими доказательствами

· 35 мин чтения
Dora Noda
Software Engineer

Введение: Необходимость проверяемого ИИ в блокчейне

По мере роста влияния систем ИИ, обеспечение достоверности их результатов становится критически важным. Традиционные методы полагаются на институциональные гарантии (по сути, «просто доверьтесь нам»), которые не предлагают криптографических подтверждений. Это особенно проблематично в децентрализованных контекстах, таких как блокчейны, где смарт-контракт или пользователь должны доверять результату, полученному ИИ, не имея возможности повторно запустить тяжелую модель ончейн. Машинное обучение с нулевым разглашением (zkML) решает эту проблему, позволяя криптографически проверять вычисления ML. По сути, zkML позволяет доказывающему сгенерировать краткое доказательство того, что «выход $Y$ был получен в результате запуска модели $M$ на входе $X$»без раскрытия $X$ или внутренних деталей $M$. Эти доказательства с нулевым разглашением (ZKP) могут быть эффективно проверены любым лицом (или любым контрактом), переводя доверие к ИИ от «политики к доказательству».

Проверяемость ИИ ончейн означает, что блокчейн может включать расширенные вычисления (такие как инференсы нейронных сетей) путем проверки доказательства правильного выполнения вместо самостоятельного выполнения вычислений. Это имеет широкие последствия: смарт-контракты могут принимать решения на основе прогнозов ИИ, децентрализованные автономные агенты могут доказывать, что они следовали своим алгоритмам, а кроссчейн или оффчейн вычислительные сервисы могут предоставлять проверяемые результаты вместо непроверяемых оракулов. В конечном итоге, zkML предлагает путь к безопасному и конфиденциальному ИИ – например, доказывая, что решения модели ИИ верны и авторизованы без раскрытия частных данных или проприетарных весов модели. Это ключ к приложениям, от безопасной аналитики в здравоохранении до блокчейн-игр и оракулов DeFi.

Как работает zkML: сжатие инференса ML в краткие доказательства

На высоком уровне zkML объединяет криптографические системы доказательств с инференсом ML, так что сложная оценка модели может быть «сжата» в небольшое доказательство. Внутри модель ML (например, нейронная сеть) представляется как схема или программа, состоящая из множества арифметических операций (умножение матриц, функции активации и т. д.). Вместо раскрытия всех промежуточных значений, доказывающий выполняет полное вычисление оффчейн, а затем использует протокол доказательства с нулевым разглашением, чтобы подтвердить, что каждый шаг был выполнен правильно. Верификатор, имея только доказательство и некоторые публичные данные (например, конечный результат и идентификатор модели), может быть криптографически убежден в правильности без повторного выполнения модели.

Для достижения этого фреймворки zkML обычно преобразуют вычисление модели в формат, подходящий для ZKP:

  • Компиляция схемы: В подходах, основанных на SNARK, граф вычислений модели компилируется в арифметическую схему или набор полиномиальных ограничений. Каждый слой нейронной сети (свертки, умножения матриц, нелинейные активации) становится подсхемой с ограничениями, обеспечивающими правильность выходных данных при заданных входных данных. Поскольку нейронные сети включают нелинейные операции (ReLU, Sigmoid и т. д.), которые не подходят для полиномов, для их эффективной обработки используются такие методы, как таблицы поиска. Например, ReLU (выход = max(0, вход)) может быть реализован с помощью пользовательского ограничения или поиска, который проверяет, что выход равен входу, если вход≥0, иначе нулю. Конечным результатом является набор криптографических ограничений, которые должен удовлетворить доказывающий, что неявно доказывает правильность работы модели.
  • Трассировка выполнения и виртуальные машины: Альтернативой является рассмотрение инференса модели как трассировки программы, как это делается в подходах zkVM. Например, JOLT zkVM ориентирован на набор инструкций RISC-V; можно скомпилировать модель ML (или код, который ее вычисляет) в RISC-V, а затем доказать, что каждая инструкция ЦП была выполнена правильно. JOLT вводит технику «сингулярности поиска», заменяя дорогостоящие арифметические ограничения быстрыми табличными поисками для каждой допустимой операции ЦП. Каждая операция (сложение, умножение, побитовая операция и т. д.) проверяется с помощью поиска в гигантской таблице предварительно вычисленных допустимых результатов, используя специализированный аргумент (Lasso/SHOUT) для поддержания эффективности. Это значительно снижает нагрузку на доказывающего: даже сложные 64-битные операции становятся одним табличным поиском в доказательстве вместо множества арифметических ограничений.
  • Интерактивные протоколы (GKR Sum-Check): Третий подход использует интерактивные доказательства, такие как GKR (Goldwasser–Kalai–Rotblum), для проверки многослойных вычислений. Здесь вычисление модели рассматривается как многослойная арифметическая схема (каждый слой нейронной сети является одним слоем графа схемы). Доказывающий запускает модель в обычном режиме, но затем участвует в протоколе проверки суммы, чтобы доказать, что выходные данные каждого слоя верны при заданных входных данных. В подходе Лагранжа (DeepProve, подробно описанном далее) доказывающий и верификатор выполняют интерактивный полиномиальный протокол (сделанный неинтерактивным с помощью Fiat-Shamir), который проверяет согласованность вычислений каждого слоя без их повторного выполнения. Этот метод проверки суммы позволяет избежать генерации монолитной статической схемы; вместо этого он проверяет согласованность вычислений пошагово с минимальными криптографическими операциями (в основном хешированием или оценкой полиномов).

Независимо от подхода, результатом является краткое доказательство (обычно от нескольких килобайт до нескольких десятков килобайт), которое подтверждает правильность всего инференса. Доказательство является доказательством с нулевым разглашением, что означает, что любые секретные входные данные (частные данные или параметры модели) могут оставаться скрытыми – они влияют на доказательство, но не раскрываются верификаторам. Раскрываются только предполагаемые публичные выходные данные или утверждения. Это позволяет реализовать такие сценарии, как «доказать, что модель $M$ при применении к данным пациента $X$ дает диагноз $Y$, не раскрывая $X$ или веса модели».

Включение ончейн-верификации: После генерации доказательства оно может быть опубликовано в блокчейне. Смарт-контракты могут включать логику верификации для проверки доказательства, часто используя предварительно скомпилированные криптографические примитивы. Например, Ethereum имеет предварительные компиляции для операций спаривания BLS12-381, используемых во многих верификаторах zk-SNARK, что делает ончейн-верификацию доказательств SNARK эффективной. STARK (доказательства, основанные на хешировании) больше, но все еще могут быть проверены ончейн с тщательной оптимизацией или, возможно, с некоторыми предположениями о доверии (например, L2 StarkWare проверяет доказательства STARK в Ethereum с помощью ончейн-контракта верификатора, хотя и с более высокой стоимостью газа, чем SNARK). Ключевым моментом является то, что цепочке не нужно выполнять модель ML – она выполняет только верификацию, которая намного дешевле, чем исходные вычисления. В итоге, zkML сжимает дорогостоящий инференс ИИ в небольшое доказательство, которое блокчейны (или любой верификатор) могут проверить за миллисекунды или секунды.

Lagrange DeepProve: Архитектура и производительность прорыва в zkML

DeepProve от Lagrange Labs – это передовой фреймворк инференса zkML, ориентированный на скорость и масштабируемость. Запущенный в 2025 году, DeepProve представил новую систему доказательств, которая значительно быстрее предыдущих решений, таких как Ezkl. Его дизайн основан на интерактивном протоколе доказательства GKR с проверкой суммы и специализированных оптимизациях для схем нейронных сетей. Вот как работает DeepProve и как он достигает своей производительности:

  • Одноразовая предварительная обработка: Разработчики начинают с обученной нейронной сети (в настоящее время поддерживаются многослойные перцептроны и популярные архитектуры CNN). Модель экспортируется в формат ONNX, стандартное графическое представление. Инструмент DeepProve затем анализирует модель ONNX и квантует ее (преобразует веса в форму с фиксированной точкой/целочисленную форму) для эффективной полевой арифметики. На этом этапе он также генерирует ключи доказательства и верификации для криптографического протокола. Эта настройка выполняется один раз для каждой модели и не требует повторения для каждого инференса. DeepProve подчеркивает простоту интеграции: «Экспортируйте свою модель в ONNX → одноразовая настройка → генерируйте доказательства → проверяйте где угодно».

  • Доказательство (инференс + генерация доказательства): После настройки доказывающий (который может быть запущен пользователем, сервисом или децентрализованной сетью доказывающих Lagrange) принимает новый вход $X$ и запускает на нем модель $M$, получая выход $Y$. Во время этого выполнения DeepProve записывает трассировку выполнения вычислений каждого слоя. Вместо того, чтобы заранее преобразовывать каждое умножение в статическую схему (как это делают подходы SNARK), DeepProve использует протокол GKR с линейным временем для проверки каждого слоя на лету. Для каждого слоя сети доказывающий фиксирует входные и выходные данные слоя (например, с помощью криптографических хешей или полиномиальных обязательств) и затем участвует в аргументе проверки суммы, чтобы доказать, что выходные данные действительно являются результатом входных данных в соответствии с функцией слоя. Протокол проверки суммы итеративно убеждает верификатора в правильности суммы оценок полинома, который кодирует вычисление слоя, не раскрывая фактических значений. Нелинейные операции (такие как ReLU, softmax) эффективно обрабатываются с помощью аргументов поиска в DeepProve – если выход активации был вычислен, DeepProve может доказать, что каждый выход соответствует действительной паре вход-выход из предварительно вычисленной таблицы для этой функции. Слой за слоем генерируются доказательства, а затем агрегируются в одно краткое доказательство, охватывающее весь прямой проход модели. Тяжелая работа криптографии минимизирована – доказывающий DeepProve в основном выполняет обычные числовые вычисления (фактический инференс) плюс некоторые легкие криптографические обязательства, а не решает гигантскую систему ограничений.

  • Верификация: Верификатор использует окончательное краткое доказательство вместе с несколькими публичными значениями – обычно это зафиксированный идентификатор модели (криптографическое обязательство по весам $M$), вход $X$ (если он не является приватным) и заявленный выход $Y$ – для проверки правильности. Верификация в системе DeepProve включает проверку транскрипта протокола проверки суммы и окончательных полиномиальных или хеш-обязательств. Это более сложно, чем верификация классического SNARK (который может состоять из нескольких спариваний), но значительно дешевле, чем повторный запуск модели. В тестах Lagrange верификация доказательства DeepProve для средней CNN занимает порядка 0,5 секунды в программном обеспечении. То есть, ~0,5 с для подтверждения, например, того, что сверточная сеть с сотнями тысяч параметров работала правильно – более чем в 500 раз быстрее, чем наивное повторное вычисление этой CNN на GPU для верификации. (Фактически, DeepProve показал верификацию до 521 раза быстрее для CNN и 671 раза для MLP по сравнению с повторным выполнением.) Размер доказательства достаточно мал для передачи ончейн (десятки КБ), и верификация может быть выполнена в смарт-контракте при необходимости, хотя 0,5 с вычислений могут потребовать тщательной оптимизации газа или выполнения на уровне 2.

Архитектура и инструментарий: DeepProve реализован на Rust и предоставляет набор инструментов (библиотеку zkml) для разработчиков. Он нативно поддерживает графы моделей ONNX, что делает его совместимым с моделями из PyTorch или TensorFlow (после экспорта). Процесс доказательства в настоящее время ориентирован на модели до нескольких миллионов параметров (тесты включают плотную сеть с 4 миллионами параметров). DeepProve использует комбинацию криптографических компонентов: многолинейное полиномиальное обязательство (для фиксации выходных данных слоя), протокол проверки суммы для верификации вычислений и аргументы поиска для нелинейных операций. Примечательно, что открытый репозиторий Lagrange признает, что он основан на предыдущих работах (реализация проверки суммы и GKR из проекта Ceno от Scroll), что указывает на пересечение zkML с исследованиями в области роллапов с нулевым разглашением.

Для достижения масштабируемости в реальном времени Lagrange объединяет DeepProve со своей Сетью Доказывающих – децентрализованной сетью специализированных ZK-доказывающих. Тяжелая генерация доказательств может быть перенесена в эту сеть: когда приложению требуется доказательство инференса, оно отправляет задачу в сеть Lagrange, где множество операторов (застейканных на EigenLayer для безопасности) вычисляют доказательства и возвращают результат. Эта сеть экономически стимулирует надежную генерацию доказательств (злонамеренные или неудачные задания приводят к штрафу оператора). Распределяя работу между доказывающими (и потенциально используя GPU или ASIC), Сеть Доказывающих Lagrange скрывает сложность и стоимость от конечных пользователей. Результатом является быстрый, масштабируемый и децентрализованный сервис zkML: «проверяемые инференсы ИИ быстро и доступно».

Этапы производительности: Заявления DeepProve подкреплены бенчмарками по сравнению с предыдущим передовым решением, Ezkl. Для CNN с ~264 тыс. параметров (модель масштаба CIFAR-10) время доказательства DeepProve составило ~1,24 секунды против ~196 секунд для Ezkl – примерно в 158 раз быстрее. Для более крупной плотной сети с 4 миллионами параметров DeepProve доказал инференс за ~2,3 секунды против ~126,8 секунды для Ezkl (в ~54 раза быстрее). Время верификации также сократилось: DeepProve проверил доказательство CNN с 264 тыс. параметров за ~0,6 с, тогда как верификация доказательства Ezkl (на основе Halo2) заняла более 5 минут на ЦП в этом тесте. Ускорение обусловлено почти линейной сложностью DeepProve: его доказывающий масштабируется примерно O(n) с количеством операций, тогда как доказывающие SNARK на основе схем часто имеют сверхлинейные накладные расходы (масштабирование FFT и полиномиальных обязательств). Фактически, пропускная способность доказывающего DeepProve может быть в пределах одного порядка величины от времени выполнения обычного инференса – недавние системы GKR могут быть <10 раз медленнее, чем чистое выполнение для больших матричных умножений, что является впечатляющим достижением в ZK. Это делает доказательства в реальном времени или по требованию более осуществимыми, открывая путь для проверяемого ИИ в интерактивных приложениях.

Сценарии использования: Lagrange уже сотрудничает с проектами Web3 и ИИ для применения zkML. Примеры сценариев использования включают: проверяемые характеристики NFT (доказательство того, что эволюция игрового персонажа или коллекционного предмета, сгенерированная ИИ, вычислена авторизованной моделью), происхождение контента ИИ (доказательство того, что изображение или текст были сгенерированы определенной моделью, для борьбы с дипфейками), модели рисков DeFi (доказательство выходных данных модели, оценивающей финансовый риск, без раскрытия проприетарных данных) и приватный инференс ИИ в здравоохранении или финансах (где больница может получать прогнозы ИИ с доказательством, обеспечивая правильность без раскрытия данных пациентов). Делая выходные данные ИИ проверяемыми и конфиденциальными, DeepProve открывает дверь для «ИИ, которому можно доверять» в децентрализованных системах – переходя от эпохи «слепого доверия к моделям-черным ящикам» к эпохе «объективных гарантий».

zkML на основе SNARK: Ezkl и подход Halo2

Традиционный подход к zkML использует zk-SNARK (Succinct Non-interactive Arguments of Knowledge – краткие неинтерактивные аргументы знания) для доказательства инференса нейронных сетей. Ezkl (от ZKonduit/Modulus Labs) является ведущим примером этого подхода. Он основан на системе доказательств Halo2 (SNARK в стиле PLONK с полиномиальными обязательствами над BLS12-381). Ezkl предоставляет цепочку инструментов, где разработчик может взять модель PyTorch или TensorFlow, экспортировать ее в ONNX, и Ezkl автоматически скомпилирует ее в пользовательскую арифметическую схему.

Как это работает: Каждый слой нейронной сети преобразуется в ограничения:

  • Линейные слои (плотные или сверточные) становятся наборами ограничений умножения-сложения, которые обеспечивают скалярные произведения между входами, весами и выходами.
  • Нелинейные слои (такие как ReLU, сигмоида и т. д.) обрабатываются с помощью таблиц поиска или кусочно-заданных ограничений, поскольку такие функции не являются полиномиальными. Например, ReLU может быть реализован с помощью булевого селектора $b$ с ограничениями, обеспечивающими $y = x \cdot b$ и $0 \le b \le 1$, а также $b=1$ если $x>0$ (один из способов), или более эффективно с помощью таблицы поиска, отображающей $x \mapsto \max(0,x)$ для диапазона значений $x$. Аргументы поиска Halo2 позволяют отображать 16-битные (или меньшие) фрагменты значений, поэтому большие домены (например, все 32-битные значения) обычно «разбиваются» на несколько меньших поисков. Это разбиение увеличивает количество ограничений.
  • Операции с большими целыми числами или деления (если таковые имеются) аналогично разбиваются на мелкие части. Результатом является большой набор ограничений R1CS/PLONK, адаптированных к конкретной архитектуре модели.

Затем Ezkl использует Halo2 для генерации доказательства того, что эти ограничения выполняются при заданных секретных входных данных (весах модели, приватных входах) и публичных выходных данных. Инструментарий и интеграция: Одним из преимуществ подхода SNARK является то, что он использует хорошо известные примитивы. Halo2 уже используется в роллапах Ethereum (например, Zcash, zkEVM), поэтому он проверен в боях и имеет готовый ончейн-верификатор. Доказательства Ezkl используют кривую BLS12-381, которую Ethereum может проверять с помощью предварительных компиляций, что делает проверку доказательства Ezkl в смарт-контракте простой. Команда также предоставила удобные API; например, специалисты по данным могут работать со своими моделями на Python и использовать CLI Ezkl для создания доказательств, не имея глубоких знаний о схемах.

Преимущества: Подход Ezkl выигрывает от общности и экосистемы SNARK. Он поддерживает достаточно сложные модели и уже видел «практические интеграции (от моделей рисков DeFi до игрового ИИ)», доказывая реальные задачи ML. Поскольку он работает на уровне графа вычислений модели, он может применять оптимизации, специфичные для ML: например, отсечение незначимых весов или квантование параметров для уменьшения размера схемы. Это также означает, что конфиденциальность модели является естественной – веса могут рассматриваться как частные данные свидетеля, поэтому верификатор видит только то, что некая действительная модель произвела выход, или, в лучшем случае, обязательство по модели. Верификация доказательств SNARK чрезвычайно быстра (обычно несколько миллисекунд или меньше ончейн), а размеры доказательств малы (несколько килобайт), что идеально подходит для использования в блокчейне.

Недостатки: Производительность – это ахиллесова пята. Доказательство на основе схем накладывает большие накладные расходы, особенно по мере роста моделей. Отмечается, что исторически схемы SNARK могли требовать в миллион раз больше работы для доказывающего, чем просто запуск самой модели. Halo2 и Ezkl оптимизируют это, но все же операции, такие как большие матричные умножения, генерируют тонны ограничений. Если модель имеет миллионы параметров, доказывающий должен обработать соответственно миллионы ограничений, выполняя при этом тяжелые FFT и мультиэкспоненциацию. Это приводит к длительному времени доказательства (часто минуты или часы для нетривиальных моделей) и высокому потреблению памяти. Например, доказательство даже относительно небольшой CNN (например, несколько сотен тысяч параметров) может занять десятки минут с Ezkl на одной машине. Команда DeepProve цитировала, что Ezkl требовались часы для доказательств некоторых моделей, которые DeepProve может выполнить за минуты. Крупные модели могут даже не поместиться в память или потребовать разбиения на несколько доказательств (которые затем нуждаются в рекурсивной агрегации). Хотя Halo2 «умеренно оптимизирован», любая необходимость «разбивать» поиски или обрабатывать операции с широким битом приводит к дополнительным накладным расходам. В итоге, масштабируемость ограничена – Ezkl хорошо работает для моделей малого и среднего размера (и действительно превзошел некоторые более ранние альтернативы, такие как наивные VM на основе Stark в бенчмарках), но испытывает трудности по мере роста размера модели за определенный предел.

Несмотря на эти проблемы, Ezkl и аналогичные библиотеки zkML на основе SNARK являются важными шагами. Они доказали, что проверенный инференс ML возможен ончейн и активно используются. В частности, такие проекты, как Modulus Labs, продемонстрировали верификацию модели с 18 миллионами параметров ончейн с использованием SNARK (с серьезной оптимизацией). Стоимость была нетривиальной, но это показывает траекторию. Более того, протокол Mina имеет собственный инструментарий zkML, который использует SNARK, чтобы позволить смарт-контрактам на Mina (которые основаны на Snark) проверять выполнение моделей ML. Это указывает на растущую многоплатформенную поддержку zkML на основе SNARK.

Подходы на основе STARK: Прозрачный и программируемый ZK для ML

zk-STARK (Scalable Transparent ARguments of Knowledge – масштабируемые прозрачные аргументы знания) предлагают другой путь к zkML. STARK используют криптографию на основе хеширования (например, FRI для полиномиальных обязательств) и избегают какой-либо доверенной настройки. Они часто работают путем симуляции ЦП или VM и доказательства правильности трассировки выполнения. В контексте ML можно либо создать пользовательский STARK для нейронной сети, либо использовать STARK VM общего назначения для запуска кода модели.

Общие STARK VM (RISC Zero, Cairo): Простой подход заключается в написании кода инференса и его запуске в STARK VM. Например, Risc0 предоставляет среду RISC-V, где любой код (например, реализация нейронной сети на C++ или Rust) может быть выполнен и доказан с помощью STARK. Аналогично, язык Cairo от StarkWare может выражать произвольные вычисления (такие как инференс LSTM или CNN), которые затем доказываются доказывающим StarkNet STARK. Преимущество заключается в гибкости – вам не нужно разрабатывать пользовательские схемы для каждой модели. Однако ранние бенчмарки показали, что наивные STARK VM были медленнее по сравнению с оптимизированными схемами SNARK для ML. В одном тесте доказательство на основе Halo2 (Ezkl) было примерно в 3 раза быстрее, чем подход на основе STARK на Cairo, и даже в 66 раз быстрее, чем RISC-V STARK VM в определенном бенчмарке в 2024 году. Этот разрыв обусловлен накладными расходами на симуляцию каждой низкоуровневой инструкции в STARK и большими константами в доказательствах STARK (хеширование быстро, но его нужно много; размеры доказательств STARK больше и т. д.). Однако STARK VM улучшаются и имеют преимущество прозрачной настройки (без доверенной настройки) и постквантовой безопасности. По мере развития STARK-совместимого оборудования и протоколов скорость доказательства будет улучшаться.

Подход DeepProve против STARK: Интересно, что использование GKR и проверки суммы в DeepProve дает доказательство, более похожее по духу на STARK – это интерактивное, хеш-основанное доказательство без необходимости в структурированной эталонной строке. Компромисс заключается в том, что его доказательства больше, а верификация тяжелее, чем у SNARK. Тем не менее, DeepProve показывает, что тщательный дизайн протокола (специализированный для многослойной структуры ML) может значительно превзойти как общие STARK VM, так и схемы SNARK по времени доказательства. Мы можем рассматривать DeepProve как специализированный zkML-доказывающий в стиле STARK (хотя они используют термин zkSNARK для краткости, он не имеет традиционной для SNARK верификации постоянного малого размера, поскольку верификация за 0,5 с больше, чем типичная верификация SNARK). Традиционные доказательства STARK (как у StarkNet) часто включают десятки тысяч полевых операций для верификации, тогда как SNARK верифицирует, возможно, за несколько десятков. Таким образом, очевиден один компромисс: SNARK дают меньшие доказательства и более быстрые верификаторы, тогда как STARK (или GKR) предлагают более легкое масштабирование и отсутствие доверенной настройки ценой размера доказательства и скорости верификации.

Появляющиеся улучшения: JOLT zkVM (обсуждавшийся ранее в разделе JOLTx) фактически выводит SNARK (используя PLONK-подобные обязательства), но он воплощает идеи, которые также могут быть применены в контексте STARK (поиски Lasso теоретически могут использоваться с обязательствами FRI). StarkWare и другие исследуют способы ускорения доказательства общих операций (например, использование пользовательских вентилей или подсказок в Cairo для операций с большими целыми числами и т. д.). Существует также Circomlib-ML от Privacy&Scaling Explorations (PSE), который предоставляет шаблоны Circom для слоев CNN и т. д. – это ориентировано на SNARK, но концептуально аналогичные шаблоны могут быть созданы для языков STARK.

На практике экосистемы, не относящиеся к Ethereum, использующие STARK, включают StarkNet (который мог бы позволить ончейн-верификацию ML, если кто-то напишет верификатор, хотя стоимость высока) и сервис Bonsai от Risc0 (который является оффчейн-сервисом доказательства, выдающим доказательства STARK, которые могут быть проверены в различных цепочках). По состоянию на 2025 год большинство демонстраций zkML на блокчейне отдавали предпочтение SNARK (из-за эффективности верификатора), но подходы STARK остаются привлекательными из-за их прозрачности и потенциала в условиях высокой безопасности или квантовой устойчивости. Например, децентрализованная вычислительная сеть может использовать STARK, чтобы позволить любому проверять работу без доверенной настройки, что полезно для долговечности. Кроме того, некоторые специализированные задачи ML могут использовать структуры, дружественные к STARK: например, вычисления, активно использующие операции XOR/битовые операции, могут быть быстрее в STARK (поскольку они дешевы в булевой алгебре и хешировании), чем в полевой арифметике SNARK.

Сравнение SNARK и STARK для ML:

  • Производительность: SNARK (такие как Halo2) имеют огромные накладные расходы на доказательство для каждого вентиля, но выигрывают от мощных оптимизаций и малых констант для верификации; STARK (общие) имеют большие постоянные накладные расходы, но масштабируются более линейно и избегают дорогостоящей криптографии, такой как спаривания. DeepProve показывает, что настройка подхода (проверка суммы) дает почти линейное время доказательства (быстрое), но с доказательством, подобным STARK. JOLT показывает, что даже общая VM может быть ускорена за счет интенсивного использования поисков. Эмпирически, для моделей до миллионов операций: хорошо оптимизированный SNARK (Ezkl) может справиться, но может занять десятки минут, тогда как DeepProve (GKR) может сделать это за секунды. STARK VM в 2024 году, вероятно, были где-то посередине или хуже, чем SNARK, если не были специализированными (Risc0 был медленнее в тестах, Cairo был медленнее без пользовательских подсказок).
  • Верификация: Доказательства SNARK проверяются быстрее всего (миллисекунды, и минимальные данные ончейн ~ от нескольких сотен байт до нескольких КБ). Доказательства STARK больше (десятки КБ) и требуют больше времени (от десятков мс до секунд) для верификации из-за множества шагов хеширования. В терминах блокчейна, верификация SNARK может стоить, например, ~200 тыс. газа, тогда как верификация STARK может стоить миллионы газа – часто слишком дорого для L1, приемлемо на L2 или со схемами краткой верификации.
  • Настройка и безопасность: SNARK, такие как Groth16, требуют доверенной настройки для каждой схемы (неудобно для произвольных моделей), но универсальные SNARK (PLONK, Halo2) имеют одноразовую настройку, которая может быть повторно использована для любой схемы до определенного размера. STARK не требуют настройки и используют только хеш-предположения (плюс классические предположения о полиномиальной сложности), и являются постквантово-устойчивыми. Это делает STARK привлекательными для долговечности – доказательства остаются безопасными, даже если появятся квантовые компьютеры, тогда как текущие SNARK (на основе BLS12-381) будут взломаны квантовыми атаками.

Мы вскоре сведем эти различия в сравнительную таблицу.

FHE для ML (FHE-o-ML): Приватные вычисления против проверяемых вычислений

Полностью гомоморфное шифрование (FHE) – это криптографическая техника, которая позволяет выполнять вычисления непосредственно над зашифрованными данными. В контексте ML FHE может обеспечить форму инференса, сохраняющего конфиденциальность: например, клиент может отправить зашифрованный ввод хосту модели, хост запускает нейронную сеть на зашифрованном тексте, не расшифровывая его, и отправляет обратно зашифрованный результат, который клиент может расшифровать. Это обеспечивает конфиденциальность данных – владелец модели ничего не узнает о вводе (и потенциально клиент узнает только вывод, а не внутренности модели, если он получает только вывод). Однако FHE само по себе не создает доказательства правильности так, как это делают ZKP. Клиент должен доверять тому, что владелец модели действительно выполнил вычисления честно (зашифрованный текст мог быть изменен). Обычно, если у клиента есть модель или он ожидает определенного распределения выходных данных, явное мошенничество может быть обнаружено, но тонкие ошибки или использование неправильной версии модели не будут очевидны только из зашифрованного вывода.

Компромиссы в производительности: FHE, как известно, очень требовательно к вычислениям. Запуск инференса глубокого обучения под FHE приводит к замедлению на порядки. Ранние эксперименты (например, CryptoNets в 2016 году) занимали десятки секунд для оценки крошечной CNN на зашифрованных данных. К 2024 году улучшения, такие как CKKS (для приближенной арифметики) и лучшие библиотеки (Microsoft SEAL, Zama’s Concrete), сократили эти накладные расходы, но они остаются значительными. Например, пользователь сообщил, что использование Concrete-ML от Zama для запуска классификатора CIFAR-10 занимало 25–30 минут на инференс на их оборудовании. После оптимизаций команда Zama достигла ~40 секунд для этого инференса на 192-ядерном сервере. Даже 40 секунд – это чрезвычайно медленно по сравнению с инференсом в открытом виде (который может занимать 0,01 с), что показывает накладные расходы в ~$10^3$–$10^4\times$. Более крупные модели или более высокая точность еще больше увеличивают стоимость. Кроме того, операции FHE потребляют много памяти и требуют периодической бустрапизации (шага снижения шума), что является вычислительно дорогим. В итоге, масштабируемость является серьезной проблемой – современное FHE может обрабатывать небольшую CNN или простую логистическую регрессию, но масштабирование до больших CNN или трансформеров выходит за рамки текущих практических ограничений.

Преимущества конфиденциальности: Главная привлекательность FHE – это конфиденциальность данных. Входные данные могут оставаться полностью зашифрованными на протяжении всего процесса. Это означает, что недоверенный сервер может выполнять вычисления над частными данными клиента, ничего о них не узнавая. И наоборот, если модель является конфиденциальной (проприетарной), можно представить шифрование параметров модели и выполнение клиентом инференса FHE на своей стороне – но это менее распространено, потому что если клиенту приходится выполнять тяжелые вычисления FHE, это сводит на нет идею разгрузки на мощный сервер. Обычно модель является публичной или хранится сервером в открытом виде, а данные шифруются ключом клиента. Конфиденциальность модели в этом сценарии не обеспечивается по умолчанию (сервер знает модель; клиент узнает выходные данные, но не веса). Существуют более экзотические настройки (например, безопасные двухсторонние вычисления или FHE с несколькими ключами), где и модель, и данные могут быть скрыты друг от друга, но они влекут за собой еще большую сложность. В отличие от этого, zkML через ZKP может обеспечить конфиденциальность модели и конфиденциальность данных одновременно – доказывающий может иметь как модель, так и данные в качестве секретного свидетеля, раскрывая верификатору только то, что необходимо.

Ончейн-верификация не требуется (и невозможна): С FHE результат приходит клиенту в зашифрованном виде. Затем клиент расшифровывает его, чтобы получить фактическое предсказание. Если мы хотим использовать этот результат ончейн, клиент (или тот, кто владеет ключом дешифрования) должен будет опубликовать результат в открытом виде и убедить других в его правильности. Но в этот момент доверие снова возвращается в цикл – если только это не сочетается с ZKP. В принципе, можно было бы объединить FHE и ZKP: например, использовать FHE для сохранения конфиденциальности данных во время вычислений, а затем сгенерировать ZK-доказательство того, что результат в открытом виде соответствует правильным вычислениям. Однако их объединение означает, что вы платите штраф за производительность FHE и ZKP – что крайне непрактично с сегодняшними технологиями. Таким образом, на практике FHE-of-ML и zkML служат для разных сценариев использования:

  • FHE-of-ML: Идеально, когда целью является конфиденциальность между двумя сторонами (клиентом и сервером). Например, облачный сервис может размещать модель ML, и пользователи могут запрашивать ее со своими конфиденциальными данными, не раскрывая данные облаку (и если модель конфиденциальна, возможно, развернуть ее с помощью FHE-совместимых кодировок). Это отлично подходит для ML-сервисов, сохраняющих конфиденциальность (медицинские прогнозы и т. д.). Пользователь по-прежнему должен доверять сервису в добросовестном выполнении модели (поскольку нет доказательства), но, по крайней мере, предотвращается любая утечка данных. Некоторые проекты, такие как Zama, даже исследуют «EVM с поддержкой FHE (fhEVM)», где смарт-контракты могли бы работать с зашифрованными входными данными, но верификация этих вычислений ончейн потребовала бы от контракта каким-то образом обеспечить правильность вычислений – открытая проблема, вероятно, требующая ZK-доказательств или специализированного защищенного оборудования.
  • zkML (ZKP): Идеально, когда целью является проверяемость и публичная аудируемость. Если вы хотите, чтобы любой (или любой контракт) был уверен, что «Модель $M$ была правильно оценена на $X$ и произвела $Y$», ZKP являются решением. Они также обеспечивают конфиденциальность в качестве бонуса (вы можете скрыть $X$ или $Y$ или $M$ при необходимости, рассматривая их как частные входные данные для доказательства), но их основная функция – это доказательство правильного выполнения.

Взаимодополняющие отношения: Стоит отметить, что ZKP защищают верификатора (они ничего не узнают о секретах, только то, что вычисление было выполнено правильно), тогда как FHE защищает данные доказывающего от вычисляющей стороны. В некоторых сценариях их можно было бы объединить – например, сеть недоверенных узлов могла бы использовать FHE для вычислений над частными данными пользователей, а затем предоставлять ZK-доказательства пользователям (или блокчейну) о том, что вычисления были выполнены в соответствии с протоколом. Это охватило бы как конфиденциальность, так и правильность, но стоимость производительности огромна с сегодняшними алгоритмами. Более осуществимыми в ближайшей перспективе являются гибриды, такие как Trusted Execution Environments (TEE) плюс ZKP или функциональное шифрование плюс ZKP – они выходят за рамки нашего обсуждения, но их цель – предоставить нечто подобное (TEE сохраняют данные/модель в секрете во время вычислений, затем ZKP может подтвердить, что TEE сделала все правильно).

В итоге, FHE-of-ML отдает приоритет конфиденциальности входов/выходов, тогда как zkML отдает приоритет проверяемой правильности (с возможной конфиденциальностью). Таблица 1 ниже сопоставляет ключевые свойства:

ПодходПроизводительность доказывающего (инференс и доказательство)Размер доказательства и верификацияФункции конфиденциальностиДоверенная настройка?Постквантовая устойчивость?
zk-SNARK (Halo2, Groth16, PLONK и др.)Тяжелые накладные расходы доказывающего (до 10^6× обычного времени выполнения без оптимизаций; на практике 10^3–10^5×). Оптимизировано для конкретной модели/схемы; время доказательства в минутах для средних моделей, часы для больших. Недавние zkML SNARK (DeepProve с GKR) значительно улучшают это (почти линейные накладные расходы, например, секунды вместо минут для моделей с миллионами параметров).Очень маленькие доказательства (часто < 100 КБ, иногда ~несколько КБ). Верификация быстрая: несколько спариваний или полиномиальных оценок (обычно < 50 мс ончейн). Доказательства DeepProve на основе GKR больше (десятки–сотни КБ) и верифицируются за ~0,5 с (все еще намного быстрее, чем повторный запуск модели).Конфиденциальность данных: Да – входные данные могут быть приватными в доказательстве (не раскрываются). Конфиденциальность модели: Да – доказывающий может зафиксировать веса модели и не раскрывать их. Скрытие вывода: Опционально – доказательство может быть утверждением без раскрытия вывода (например, «вывод имеет свойство P»). Однако, если сам вывод нужен ончейн, он обычно становится публичным. В целом, SNARK предлагают полную гибкость нулевого разглашения (скрывайте любые части, которые хотите).Зависит от схемы. Groth16/EZKL требуют доверенной настройки для каждой схемы; PLONK/Halo2 используют универсальную настройку (одноразовую). GKR DeepProve с проверкой суммы прозрачен (без настройки) – это бонус такого дизайна.Классические SNARK (кривые BLS12-381) не являются PQ-безопасными (уязвимы для квантовых атак на дискретный логарифм эллиптической кривой). Некоторые новые SNARK используют PQ-безопасные обязательства, но Halo2/PLONK, используемые в Ezkl, не являются PQ-безопасными. GKR (DeepProve) использует хеш-обязательства (например, Poseidon/Merkle), которые, как предполагается, являются PQ-безопасными (опираясь на устойчивость к поиску прообраза хеша).
zk-STARK (FRI, доказательство на основе хеширования)Накладные расходы доказывающего высоки, но масштабирование более линейное. Обычно в 10^2–10^4 раза медленнее, чем нативное выполнение для больших задач, с возможностью распараллеливания. Общие STARK VM (Risc0, Cairo) показали более низкую производительность по сравнению с SNARK для ML в 2024 году (например, в 3–66 раз медленнее, чем Halo2 в некоторых случаях). Специализированные STARK (или GKR) могут приближаться к линейным накладным расходам и превосходить SNARK для больших схем.Доказательства больше: часто десятки КБ (растут с размером схемы/log(n)). Верификатор должен выполнять множество проверок хеширования и FFT – время верификации ~O(n^ε) для малого ε (например, ~50 мс до 500 мс в зависимости от размера доказательства). Ончейн это дороже (верификатор L1 StarkWare может занимать миллионы газа на доказательство). Некоторые STARK поддерживают рекурсивные доказательства для сжатия размера, ценой времени доказывающего.Конфиденциальность данных и модели: STARK может быть сделан доказательством с нулевым разглашением путем рандомизации данных трассировки (добавление ослепления к оценкам полинома), поэтому он может скрывать частные входные данные аналогично SNARK. Многие реализации STARK сосредоточены на целостности, но варианты zk-STARK допускают конфиденциальность. Так что да, они могут скрывать входные данные/модели, как SNARK. Скрытие вывода: также возможно в теории (доказывающий не объявляет вывод публичным), но редко используется, поскольку обычно вывод – это то, что мы хотим раскрыть/проверить.Без доверенной настройки. Прозрачность – отличительная черта STARK – требуется только общая случайная строка (которую Fiat-Shamir может вывести). Это делает их привлекательными для открытого использования (любая модель, в любое время, без церемонии для каждой модели).Да, STARK полагаются на хеш- и информационно-теоретические предположения безопасности (такие как случайный оракул и сложность определенного декодирования кодовых слов в FRI). Считается, что они устойчивы к квантовым атакам. Таким образом, доказательства STARK являются PQ-устойчивыми, что является преимуществом для обеспечения долговечности проверяемого ИИ.
FHE для ML (Полностью гомоморфное шифрование, примененное к инференсу)Доказывающий = сторона, выполняющая вычисления над зашифрованными данными. Время вычислений чрезвычайно велико: замедление в 10^3–10^5 раз по сравнению с инференсом в открытом виде является обычным явлением. Высокопроизводительное оборудование (многоядерные серверы, FPGA и т. д.) может смягчить это. Некоторые оптимизации (инференс с низкой точностью, многоуровневые параметры FHE) могут уменьшить накладные расходы, но фундаментальный удар по производительности остается. FHE в настоящее время практично для небольших моделей или простых линейных моделей; глубокие сети остаются сложными за пределами игрушечных размеров.Доказательство не генерируется. Результатом является зашифрованный вывод. Верификация в смысле проверки правильности не обеспечивается одним только FHE – приходится доверять вычисляющей стороне, что она не обманывает. (Если в сочетании с защищенным оборудованием, можно получить аттестацию; в противном случае вредоносный сервер может вернуть некорректный зашифрованный результат, который клиент расшифрует в неправильный вывод, не зная разницы).Конфиденциальность данных: Да – входные данные зашифрованы, поэтому вычисляющая сторона ничего о них не узнает. Конфиденциальность модели: Если владелец модели выполняет вычисления над зашифрованными входными данными, модель находится в открытом виде на его стороне (не защищена). Если роли меняются местами (клиент хранит модель зашифрованной, а сервер выполняет вычисления), модель может оставаться зашифрованной, но этот сценарий менее распространен. Существуют методы, такие как безопасное двухстороннее ML, которые объединяют FHE/MPC для защиты обеих сторон, но они выходят за рамки простого FHE. Скрытие вывода: По умолчанию вывод вычисления зашифрован (расшифровать его может только сторона с секретным ключом, обычно владелец входных данных). Таким образом, вывод скрыт от вычисляющего сервера. Если мы хотим, чтобы вывод был публичным, клиент может его расшифровать и раскрыть.Настройка не требуется. Каждый пользователь генерирует свою пару ключей для шифрования. Доверие основано на том, что ключи остаются секретными.Безопасность схем FHE (например, BFV, CKKS, TFHE) основана на решеточных проблемах (Learning With Errors), которые, как считается, устойчивы к квантовым атакам (по крайней мере, не известно эффективного квантового алгоритма). Таким образом, FHE обычно считается постквантово-устойчивым.

Таблица 1: Сравнение подходов zk-SNARK, zk-STARK и FHE для инференса машинного обучения (компромиссы производительности и конфиденциальности).

Сценарии использования и последствия для приложений Web3

Конвергенция ИИ и блокчейна через zkML открывает мощные новые паттерны приложений в Web3:

  • Децентрализованные автономные агенты и ончейн-принятие решений: Смарт-контракты или DAO могут включать решения, управляемые ИИ, с гарантиями правильности. Например, представьте DAO, которое использует нейронную сеть для анализа рыночных условий перед выполнением сделок. С помощью zkML смарт-контракт DAO может потребовать доказательство zkSNARK того, что авторизованная модель ML (с известным хеш-обязательством) была запущена на последних данных и произвела рекомендованное действие, прежде чем действие будет принято. Это предотвращает внедрение поддельного предсказания злоумышленниками – цепочка проверяет вычисления ИИ. Со временем можно даже иметь полностью ончейн-автономных агентов (контракты, которые запрашивают оффчейн-ИИ или содержат упрощенные модели), принимающих решения в DeFi или играх, при этом все их действия доказываются как правильные и соответствующие политике с помощью zk-доказательств. Это повышает доверие к автономным агентам, поскольку их «мышление» прозрачно и проверяемо, а не является черным ящиком.

  • Рынки проверяемых вычислений: Проекты, подобные Lagrange, фактически создают рынки проверяемых вычислений – разработчики могут передавать тяжелый инференс ML сети доказывающих и получать доказательство с результатом. Это аналогично децентрализованным облачным вычислениям, но со встроенным доверием: вам не нужно доверять серверу, только доказательству. Это смена парадигмы для оракулов и оффчейн-вычислений. Протоколы, такие как предстоящий DSC Ethereum (децентрализованный уровень секвенирования) или сети оракулов, могли бы использовать это для предоставления потоков данных или аналитических потоков с криптографическими гарантиями. Например, оракул мог бы предоставить «результат модели X на входе Y», и любой мог бы проверить прикрепленное доказательство ончейн, вместо того чтобы доверять слову оракула. Это могло бы позволить проверяемый ИИ как услугу в блокчейне: любой контракт может запросить вычисление (например, «оценить эти кредитные риски с помощью моей частной модели») и принять ответ только с действительным доказательством. Такие проекты, как Gensyn, исследуют децентрализованные рынки обучения и инференса, используя эти методы верификации.

  • NFT и игры – Происхождение и эволюция: В блокчейн-играх или коллекционных NFT zkML может доказывать, что характеристики или игровые ходы были сгенерированы легитимными моделями ИИ. Например, игра может позволить ИИ развивать атрибуты NFT-питомца. Без ZK хитрый пользователь может изменить ИИ или результат, чтобы получить превосходного питомца. С помощью zkML игра может потребовать доказательство того, что «новые характеристики питомца были вычислены официальной моделью эволюции на основе старых характеристик питомца», предотвращая мошенничество. Аналогично для генеративных арт-NFT: художник мог бы выпустить генеративную модель в качестве обязательства; позже, при создании NFT, доказать, что каждое изображение было произведено этой моделью с использованием определенного начального значения, гарантируя подлинность (и даже делая это без раскрытия точной модели публике, сохраняя интеллектуальную собственность художника). Эта проверка происхождения обеспечивает подлинность способом, аналогичным проверяемой случайности – за исключением того, что здесь это проверяемая креативность.

  • ИИ, сохраняющий конфиденциальность, в чувствительных областях: zkML позволяет подтверждать результаты без раскрытия входных данных. В здравоохранении данные пациента могут быть пропущены через диагностическую модель ИИ облачным провайдером; больница получает диагноз и доказательство того, что модель (которая может быть частной собственностью фармацевтической компании) была правильно запущена на данных пациента. Данные пациента остаются конфиденциальными (в доказательстве использовалась только зашифрованная или зафиксированная форма), а веса модели остаются проприетарными – тем не менее, результат является доверенным. Регуляторы или страховые компании также могли бы проверить, что использовались только утвержденные модели. В финансах компания могла бы доказать аудитору или регулятору, что ее модель риска была применена к ее внутренним данным и произвела определенные метрики без раскрытия базовых конфиденциальных финансовых данных. Это обеспечивает соответствие и надзор с криптографическими гарантиями, а не ручным доверием.

  • Кроссчейн и оффчейн совместимость: Поскольку доказательства с нулевым разглашением по своей сути портативны, zkML может облегчить кроссчейн-ИИ результаты. Одна цепочка может иметь приложение, интенсивно использующее ИИ, работающее оффчейн; оно может опубликовать доказательство результата в другом блокчейне, который бездоверительно примет его. Например, рассмотрим многоцепочечное DAO, использующее ИИ для агрегирования настроений в социальных сетях (оффчейн-данные). Анализ ИИ (сложная НЛП на больших данных) выполняется оффчейн сервисом, который затем публикует доказательство в небольшом блокчейне (или нескольких цепочках) о том, что «анализ был выполнен правильно и выходной показатель настроения = 0,85». Все цепочки могут проверить и использовать этот результат в своей логике управления, без необходимости каждой повторно запускать анализ. Этот вид взаимодействующих проверяемых вычислений – это то, что сеть Lagrange стремится поддерживать, обслуживая несколько роллапов или L1 одновременно. Это устраняет необходимость в доверенных мостах или предположениях оракулов при перемещении результатов между цепочками.

  • Согласование и управление ИИ: В более перспективном плане zkML был выделен как инструмент для управления и безопасности ИИ. Заявления о видении Lagrange, например, утверждают, что по мере того, как системы ИИ становятся все более мощными (даже сверхразумными), криптографическая верификация будет необходима для обеспечения их соответствия согласованным правилам. Требуя от моделей ИИ создания доказательств их рассуждений или ограничений, люди сохраняют определенную степень контроля – «вы не можете доверять тому, что не можете проверить». Хотя это спекулятивно и включает в себя как социальные, так и технические аспекты, технология могла бы обеспечить, чтобы автономно работающий агент ИИ по-прежнему доказывал, что он использует утвержденную модель и не был изменен. Децентрализованные сети ИИ могут использовать ончейн-доказательства для верификации вкладов (например, сеть узлов, совместно обучающих модель, может доказать, что каждое обновление было вычислено добросовестно). Таким образом, zkML может сыграть роль в обеспечении подотчетности систем ИИ протоколам, определенным человеком, даже в децентрализованных или неконтролируемых средах.

В заключение, zkML и проверяемый ончейн-ИИ представляют собой конвергенцию передовой криптографии и машинного обучения, которая призвана повысить доверие, прозрачность и конфиденциальность в приложениях ИИ. Сравнивая основные подходы – zk-SNARK, zk-STARK и FHE – мы видим спектр компромиссов между производительностью и конфиденциальностью, каждый из которых подходит для разных сценариев. Фреймворки на основе SNARK, такие как Ezkl, и инновации, такие как DeepProve от Lagrange, сделали возможным доказательство значительных инференсов нейронных сетей с практической эффективностью, открывая двери для реальных развертываний проверяемого ИИ. Подходы на основе STARK и VM обещают большую гибкость и постквантовую безопасность, что станет важным по мере развития области. FHE, хотя и не является решением для проверяемости, решает дополнительную потребность в конфиденциальных вычислениях ML, и в сочетании с ZKP или в конкретных частных контекстах оно может дать пользователям возможность использовать ИИ без ущерба для конфиденциальности данных.

Последствия для Web3 значительны: мы можем предвидеть, как смарт-контракты будут реагировать на предсказания ИИ, зная, что они верны; рынки вычислений, где результаты продаются без доверия; цифровые удостоверения (например, доказательство личности Worldcoin через ИИ радужной оболочки глаза), защищенные zkML для подтверждения того, что кто-то является человеком, без утечки его биометрического изображения; и в целом новый класс «доказуемого интеллекта», который обогащает блокчейн-приложения. Многие проблемы остаются – производительность для очень больших моделей, эргономика для разработчиков и потребность в специализированном оборудовании – но траектория ясна. Как отмечалось в одном отчете, «сегодняшние ZKP могут поддерживать небольшие модели, но модели среднего и большого размера нарушают парадигму»; однако быстрые достижения (ускорение в 50–150 раз с DeepProve по сравнению с предыдущими решениями) расширяют эти границы. Благодаря продолжающимся исследованиям (например, по аппаратному ускорению и распределенному доказательству) мы можем ожидать, что все более крупные и сложные модели ИИ станут доказуемыми. zkML вскоре может превратиться из нишевых демонстраций в неотъемлемый компонент доверенной инфраструктуры ИИ, гарантируя, что по мере повсеместного распространения ИИ он будет делать это таким образом, чтобы быть проверяемым, децентрализованным и соответствующим конфиденциальности и безопасности пользователей.

ETHDenver 2025: Ключевые тренды Web3 и инсайты с фестиваля

· 22 мин чтения

ETHDenver 2025, названный «Годом Регенератов», укрепил свой статус одного из крупнейших в мире мероприятий Web3. Фестиваль, включавший BUIDLWeek (23–26 февраля), Основное событие (27 февраля – 2 марта) и постреконференционный Горный ретрит, собрал ожидаемые более 25 000 участников. Строители, разработчики, инвесторы и творческие люди из более чем 125 стран собрались в Денвере, чтобы отметить дух децентрализации и инноваций Ethereum. Верный своим общинным корням, ETHDenver оставался бесплатным для посещения, финансировался сообществом и был переполнен контентом – от хакатонов и мастер-классов до панельных дискуссий, питч-мероприятий и вечеринок. Легенда мероприятия о «Регенератах», защищающих децентрализацию, задала тон, подчеркивающий общественные блага и совместное строительство, даже на фоне конкурентного технологического ландшафта. Результатом стала неделя высокоэнергичной деятельности строителей и дальновидных дискуссий, предлагающих снимок новых тенденций Web3 и практические инсайты для профессионалов отрасли.

ETHDenver 2025

Новые тренды Web3, освещенные спикерами

Ни один нарратив не доминировал на ETHDenver 2025 – вместо этого в центре внимания оказался широкий спектр трендов Web3. В отличие от прошлого года (когда рестейкинг через EigenLayer привлек всеобщее внимание), повестка дня 2025 года представляла собой смесь всего: от децентрализованных сетей физической инфраструктуры (DePIN) до ИИ-агентов, от нормативного соответствия до токенизации реальных активов (RWA), а также конфиденциальность, интероперабельность и многое другое. Фактически, основатель ETHDenver Джон Паллер ответил на опасения по поводу мультичейн-контента, отметив, что «более 95% наших спонсоров и 90% контента ориентированы на ETH/EVM» – однако присутствие не-Ethereum экосистем подчеркнуло интероперабельность как ключевую тему. Основные спикеры отразили эти области трендов: например, zk-rollup и масштабирование Layer-2 были выделены Алексом Глуховски (CEO Matter Labs/zkSync), в то время как мультичейн-инновации представили Аденийи Абиодун из Mysten Labs (Sui) и Альберт Чон из Injective.

Слияние ИИ и Web3 стало сильным подтекстом. Многочисленные доклады и побочные мероприятия были посвящены децентрализованным ИИ-агентам и кроссоверам «DeFi+ИИ». Специальный День ИИ-агентов продемонстрировал ончейн-демонстрации ИИ, а коллектив из 14 команд (включая набор разработчика Coinbase и ИИ-подразделение NEAR) даже объявил о создании Open Agents Alliance (OAA) – инициативы по предоставлению безразрешительного, бесплатного доступа к ИИ путем объединения инфраструктуры Web3. Это указывает на растущий интерес к автономным агентам и dApps, управляемым ИИ, как к новой границе для разработчиков. Рука об руку с ИИ, DePIN (децентрализованная физическая инфраструктура) стало еще одним модным словом: многочисленные панели (например, День DePIN, Саммит DePIN) исследовали проекты, связывающие блокчейн с физическими сетями (от телекоммуникаций до мобильности).

Cuckoo AI Network произвела фурор на ETHDenver 2025, представив свой инновационный децентрализованный маркетплейс для обслуживания ИИ-моделей, разработанный для создателей и разработчиков. Благодаря убедительному присутствию как на хакатоне, так и на побочных мероприятиях, организованных сообществом, Cuckoo AI привлекла значительное внимание разработчиков, заинтригованных ее способностью монетизировать ресурсы GPU/CPU и легко интегрировать ончейн-ИИ API. Во время своего специализированного семинара и сетевой сессии Cuckoo AI подчеркнула, как децентрализованная инфраструктура может эффективно демократизировать доступ к передовым ИИ-сервисам. Это напрямую соответствует более широким тенденциям мероприятия — в частности, пересечению блокчейна с ИИ, DePIN и финансированием общественных благ. Для инвесторов и разработчиков на ETHDenver Cuckoo AI стала ярким примером того, как децентрализованные подходы могут питать следующее поколение dApps и инфраструктуры, управляемых ИИ, позиционируя себя как привлекательную инвестиционную возможность в экосистеме Web3.

Конфиденциальность, идентичность и безопасность оставались в центре внимания. Спикеры и семинары затрагивали такие темы, как доказательства с нулевым разглашением (присутствие zkSync), управление идентичностью и проверяемые учетные данные (специальный трек «Конфиденциальность и безопасность» был частью хакатона), а также юридические/регуляторные вопросы (ончейн-юридический саммит был частью фестивальных треков). Еще одной заметной дискуссией стало будущее фандрайзинга и децентрализации финансирования: дебаты на главной сцене между Хасибом Куреши из Dragonfly Capital и Мэттом О'Коннором из Legion (платформа, «похожая на ICO») о ICO против венчурного финансирования захватили внимание участников. Эти дебаты подчеркнули новые модели, такие как продажа токенов сообществом, бросающие вызов традиционным венчурным путям – важная тенденция для стартапов Web3, занимающихся привлечением капитала. Вывод для профессионалов ясен: Web3 в 2025 году является междисциплинарным – охватывая финансы, ИИ, реальные активы и культуру – и оставаться в курсе означает смотреть за пределы любого одного хайп-цикла на весь спектр инноваций.

Спонсоры и их стратегические направления

Список спонсоров ETHDenver в 2025 году читается как список «кто есть кто» среди проектов Layer-1, Layer-2 и инфраструктуры Web3 – каждый из которых использовал мероприятие для достижения стратегических целей. Кроссчейн- и мультичейн-протоколы продемонстрировали сильное присутствие. Например, Polkadot был главным спонсором с внушительным призовым фондом в $80 тыс., стимулируя разработчиков создавать кроссчейн-DApps и аппчейны. Аналогично, BNB Chain, Flow, Hedera и Base (L2 от Coinbase) предлагали до $50 тыс. за проекты, интегрирующиеся с их экосистемами, сигнализируя о своем стремлении привлечь разработчиков Ethereum. Даже традиционно отдельные экосистемы, такие как Solana и Internet Computer, присоединились к спонсируемым конкурсам (например, Solana совместно организовала мероприятие DePIN, а Internet Computer предложил вознаграждение «Только возможно на ICP»). Это кросс-экосистемное присутствие вызвало некоторую критику со стороны сообщества, но команда ETHDenver отметила, что подавляющее большинство контента оставалось ориентированным на Ethereum. Чистым эффектом стала интероперабельность как основная тема – спонсоры стремились позиционировать свои платформы как дополнительные расширения вселенной Ethereum.

Решения для масштабирования и поставщики инфраструктуры также были в центре внимания. Крупные L2-решения Ethereum, такие как Optimism и Arbitrum, имели большие стенды и спонсировали конкурсы (вознаграждения Optimism до $40 тыс.), подтверждая свое внимание к привлечению разработчиков к роллапам. Новые участники, такие как ZkSync и Zircuit (проект, демонстрирующий подход L2-роллапа), подчеркивали технологию нулевого разглашения и даже предоставили SDK (ZkSync продвигал свой Smart Sign-On SDK для удобного входа в систему, который команды хакатона с энтузиазмом использовали). Рестейкинг и модульная блокчейн-инфраструктура были еще одним интересом спонсоров – EigenLayer (пионер рестейкинга) имел свой собственный трек на $50 тыс. и даже совместно организовал мероприятие по «Рестейкингу и DeFAI (Децентрализованный ИИ)», объединив свою модель безопасности с темами ИИ. Оракулы и промежуточное ПО для интероперабельности были представлены такими компаниями, как Chainlink и Wormhole, каждая из которых выдавала вознаграждения за использование своих протоколов.

Примечательно, что потребительские приложения и инструменты Web3 получили спонсорскую поддержку для улучшения пользовательского опыта. Присутствие Uniswap – с одним из самых больших стендов – было не просто для галочки: гигант DeFi использовал мероприятие, чтобы анонсировать новые функции кошелька, такие как интегрированные фиатные выходы, что соответствовало его спонсорскому фокусу на удобстве использования DeFi. Платформы, ориентированные на идентичность и сообщество, такие как Galxe (Gravity) и Lens Protocol, спонсировали конкурсы, связанные с ончейн-социальными сетями и учетными данными. Даже основные технологические компании проявили интерес: PayPal и Google Cloud провели «счастливый час» по стейблкоинам/платежам, чтобы обсудить будущее платежей в криптоиндустрии. Это сочетание спонсоров показывает, что стратегические интересы варьировались от основной инфраструктуры до конечных пользовательских приложений – все они сходились на ETHDenver, чтобы предоставить ресурсы (API, SDK, гранты) разработчикам. Для профессионалов Web3 активное спонсорство со стороны Layer-1, Layer-2 и даже Web2 финтех-компаний подчеркивает, куда инвестирует отрасль: интероперабельность, масштабируемость, безопасность и повышение полезности крипто для следующей волны пользователей.

Основные моменты хакатона: инновационные проекты и победители

В основе ETHDenver лежит его легендарный #BUIDLathon – хакатон, который вырос в крупнейший в мире блокчейн-хакфест с тысячами разработчиков. В 2025 году хакатон предложил рекордный призовой фонд более $1 043 333 для стимулирования инноваций. Вознаграждения от более чем 60 спонсоров были нацелены на ключевые домены Web3, разделив соревнование на треки, такие как: DeFi и ИИ, NFT и Игры, Инфраструктура и Масштабируемость, Конфиденциальность и Безопасность, а также DAO и Общественные блага. Сам дизайн треков показателен – например, объединение DeFi с ИИ намекает на появление финансовых приложений, управляемых ИИ, в то время как выделенный трек Общественных благ подтверждает фокус сообщества на регенеративном финансировании и разработке с открытым исходным кодом. Каждый трек поддерживался спонсорами, предлагающими призы за лучшее использование их технологий (например, Polkadot и Uniswap для DeFi, Chainlink для интероперабельности, Optimism для решений масштабирования). Организаторы даже внедрили квадратичное голосование для судейства, позволяя сообществу помогать выявлять лучшие проекты, а окончательные победители выбирались экспертным жюри.

Результатом стал поток передовых проектов, многие из которых дают представление о будущем Web3. Среди заметных победителей была ончейн-многопользовательская игра «0xCaliber», шутер от первого лица, который запускает блокчейн-взаимодействия в реальном времени внутри классической FPS-игры. 0xCaliber поразила судей, продемонстрировав настоящий ончейн-гейминг – игроки входят с помощью крипто, «стреляют» ончейн-пулями и используют кроссчейн-трюки для сбора и вывода добычи, все в реальном времени. Этот тип проекта демонстрирует растущую зрелость Web3-гейминга (интеграция игровых движков Unity со смарт-контрактами) и креативность в слиянии развлечений с криптоэкономикой. Другой категорией выдающихся хаков были те, что объединяли ИИ с Ethereum: команды создавали «агентские» платформы, которые используют смарт-контракты для координации ИИ-сервисов, вдохновленные анонсом Open Agents Alliance. Например, один проект хакатона интегрировал ИИ-управляемые аудиторы смарт-контрактов (автоматически генерирующие тестовые сценарии безопасности для контрактов) – что соответствует тренду децентрализованного ИИ, наблюдаемому на конференции.

Проекты инфраструктуры и инструментов также были заметны. Некоторые команды занимались абстракцией аккаунтов и пользовательским опытом, используя спонсорские наборы инструментов, такие как Smart Sign-On от zkSync, для создания бесшовных потоков входа без кошелька для dApps. Другие работали над кроссчейн-мостами и интеграциями Layer-2, отражая постоянный интерес разработчиков к интероперабельности. В треке Общественных благ и DAO несколько проектов затронули реальное социальное воздействие, например, dApp для децентрализованной идентичности и помощи бездомным (используя NFT и общественные фонды, идея, напоминающая предыдущие хаки ReFi). Концепции регенеративного финансирования (ReFi) – такие как финансирование общественных благ с помощью новых механизмов – продолжали появляться, вторя регенеративной теме ETHDenver.

В то время как окончательные победители праздновались к концу основного мероприятия, истинная ценность заключалась в потоке инноваций: было подано более 400 проектных заявок, многие из которых будут жить и после мероприятия. Хакатон ETHDenver имеет опыт посева будущих стартапов (действительно, некоторые прошлые проекты BUIDLathon сами стали спонсорами). Для инвесторов и технологов хакатон предоставил окно в передовые идеи – сигнализируя о том, что следующая волна стартапов Web3 может появиться в таких областях, как ончейн-гейминг, dApps с ИИ, кроссчейн-инфраструктура и решения, нацеленные на социальное воздействие. С почти $1 млн в виде вознаграждений, выплаченных разработчикам, спонсоры эффективно вложили свои деньги в развитие этих инноваций.

Сетевые мероприятия и взаимодействие с инвесторами

ETHDenver – это не только написание кода, но и налаживание связей. В 2025 году фестиваль значительно усилил возможности для нетворкинга благодаря как формальным, так и неформальным мероприятиям, ориентированным на стартапы, инвесторов и создателей сообществ. Одним из знаковых событий стало Bufficorn Ventures (BV) Startup Rodeo – высокоэнергетическая демонстрация, где 20 тщательно отобранных стартапов представили свои проекты инвесторам в формате выставки-ярмарки. Прошедшее 1 марта в главном зале, Startup Rodeo было описано скорее как «быстрые свидания», чем конкурс питчей: основатели занимали столы, чтобы представлять свои проекты один на один, пока все присутствующие инвесторы бродили по арене. Этот формат гарантировал, что даже команды на ранних стадиях могли получить значимое личное общение с венчурными капиталистами, стратегами или партнерами. Многие стартапы использовали это как стартовую площадку для поиска клиентов и финансирования, используя концентрированное присутствие фондов Web3 на ETHDenver.

В последний день конференции BV BuffiTank Pitchfest занял центральное место на главной сцене – более традиционный конкурс питчей, в котором участвовали 10 «самых инновационных» стартапов на ранней стадии из сообщества ETHDenver. Эти команды (отдельно от победителей хакатона) представили свои бизнес-модели группе ведущих венчурных капиталистов и лидеров отрасли, соревнуясь за награды и потенциальные инвестиционные предложения. Pitchfest проиллюстрировал роль ETHDenver как генератора сделок: он был явно нацелен на команды, «уже организованные… ищущие инвестиции, клиентов и известность», особенно те, что связаны с сообществом SporkDAO. Наградой для победителей был не простой денежный приз, а обещание присоединиться к портфолио Bufficorn Ventures или другим когортам акселераторов. По сути, ETHDenver создал свой собственный мини-«Shark Tank» для Web3, катализируя внимание инвесторов к лучшим проектам сообщества.

Помимо этих официальных демонстраций, неделя была наполнена встречами инвесторов и основателей. Согласно тщательно составленному руководству от Belong, среди заметных побочных мероприятий были «Счастливый час знакомства с венчурными капиталистами», организованный CertiK Ventures 27 февраля, Лаунж венчурных капиталистов и основателей StarkNet 1 марта, и даже неформальные мероприятия, такие как «Pitch & Putt» – питч-мероприятие на тему гольфа. Эти встречи обеспечивали расслабленную обстановку для основателей, чтобы пообщаться с венчурными капиталистами, что часто приводило к последующим встречам после конференции. Присутствие многих новых венчурных фирм также ощущалось на панелях – например, сессия на сцене EtherKnight осветила новые фонды, такие как Reflexive Capital, Reforge VC, Topology, Metalayer и Hash3, и то, какие тренды их больше всего интересуют. Ранние признаки указывают на то, что эти венчурные капиталисты были заинтересованы в таких областях, как децентрализованные социальные сети, ИИ и новая инфраструктура Layer-1 (каждый фонд вырезал нишу, чтобы дифференцироваться в конкурентной среде венчурного капитала).

Для профессионалов, желающих извлечь выгоду из нетворкинга на ETHDenver: ключевой вывод – это ценность побочных мероприятий и целевых встреч. Сделки и партнерства часто зарождаются за чашкой кофе или коктейлем, а не на сцене. Множество инвесторских мероприятий ETHDenver 2025 демонстрируют, что сообщество финансирования Web3 активно ищет таланты и идеи даже на скудном рынке. Стартапы, которые пришли подготовленными с отточенными демонстрациями и четким ценностным предложением (часто используя импульс хакатона мероприятия), нашли отзывчивую аудиторию. Тем временем инвесторы использовали эти взаимодействия, чтобы оценить пульс сообщества разработчиков – какие проблемы решают самые яркие строители в этом году? В итоге, ETHDenver подтвердил, что нетворкинг так же важен, как и BUIDLing: это место, где случайная встреча может привести к посевному инвестированию или где проницательный разговор может зажечь следующее крупное сотрудничество.

Тренды венчурного капитала и инвестиционные возможности в Web3

Тонкий, но важный нарратив на протяжении всего ETHDenver 2025 заключался в меняющемся ландшафте самого венчурного капитала Web3. Несмотря на взлеты и падения более широкого крипторынка, инвесторы на ETHDenver сигнализировали о сильном аппетите к многообещающим проектам Web3. Репортеры Blockworks на месте отметили, «сколько частного капитала все еще поступает в криптоиндустрию, не испугавшись макроэкономических препятствий», при этом оценки на стадии посева часто были заоблачными для самых горячих идей. Действительно, огромное количество присутствующих венчурных капиталистов – от крипто-нативных фондов до традиционных технологических инвесторов, пробующих себя в Web3 – ясно дало понять, что ETHDenver остается центром заключения сделок.

Новые тематические направления можно было выделить из того, что обсуждали и спонсировали венчурные капиталисты. Распространенность контента ИИ x Крипто (треки хакатона, панели и т. д.) была не только трендом разработчиков; она отражает венчурный интерес к связке «DeFi встречается с ИИ». Многие инвесторы присматриваются к стартапам, которые используют машинное обучение или автономных агентов на блокчейне, о чем свидетельствуют спонсируемые венчурными фондами ИИ-хаус-пати и саммиты. Аналогично, сильный акцент на DePIN и токенизации реальных активов (RWA) указывает на то, что фонды видят возможности в проектах, которые связывают блокчейн с активами реальной экономики и физическими устройствами. Специальный День RWA (26 февраля) – B2B-мероприятие, посвященное будущему токенизированных активов – предполагает, что венчурные скауты активно ищут на этой арене следующий Goldfinch или Centrifuge (т. е. платформы, выводящие реальные финансы в ончейн).

Еще одной заметной тенденцией было растущее экспериментирование с моделями финансирования. Вышеупомянутые дебаты о ICO против венчурных капиталистов были не просто театральным представлением конференции; они отражают реальное венчурное движение к более ориентированному на сообщество финансированию. Некоторые венчурные капиталисты на ETHDenver указали на открытость к гибридным моделям (например, поддерживаемые венчурным капиталом запуски токенов, которые вовлекают сообщество в ранние раунды). Кроме того, финансирование общественных благ и импакт-инвестирование имели место за столом переговоров. С учетом этоса регенерации ETHDenver, даже инвесторы обсуждали, как поддерживать инфраструктуру с открытым исходным кодом и разработчиков в долгосрочной перспективе, помимо простого преследования следующего бума DeFi или NFT. Панели, такие как «Финансирование будущего: Развивающиеся модели для ончейн-стартапов», исследовали альтернативы, такие как гранты, инвестиции из казны DAO и квадратичное финансирование для дополнения традиционных венчурных денег. Это указывает на то, что отрасль созревает в том, как проекты капитализируются – сочетание венчурного капитала, экосистемных фондов и финансирования сообщества, работающих в тандеме.

С точки зрения возможностей, профессионалы и инвесторы Web3 могут извлечь несколько практических инсайтов из венчурной динамики ETHDenver: (1) Инфраструктура по-прежнему король – многие венчурные капиталисты выразили мнение, что «кирпичи и лопаты» (масштабирование L2, безопасность, инструменты для разработчиков) остаются высокоценными инвестициями как основа отрасли. (2) Новые вертикали, такие как конвергенция ИИ/блокчейна и DePIN, являются новыми инвестиционными границами – освоение этих областей или поиск стартапов там может быть вознаграждающим. (3) Проекты, управляемые сообществом, и общественные блага могут получить новое финансирование – проницательные инвесторы выясняют, как поддерживать их устойчиво (например, инвестируя в протоколы, которые обеспечивают децентрализованное управление или совместное владение). В целом, ETHDenver 2025 показал, что, хотя венчурный ландшафт Web3 конкурентен, он полон убежденности: капитал доступен для тех, кто строит будущее DeFi, NFT, игр и за их пределами, и даже идеи, рожденные на медвежьем рынке, могут найти поддержку, если они нацелены на правильный тренд.

Ресурсы, наборы инструментов и системы поддержки для разработчиков

ETHDenver всегда был ориентирован на строителей, и 2025 год не стал исключением – он также служил конференцией разработчиков открытого исходного кода с множеством ресурсов и поддержки для Web3-разработчиков. Во время BUIDLWeek участники имели доступ к живым мастер-классам, техническим буткемпам и мини-саммитам, охватывающим различные области. Например, разработчики могли присоединиться к Bleeding Edge Tech Summit, чтобы поработать с новейшими протоколами, или посетить On-Chain Legal Summit, чтобы узнать о разработке смарт-контрактов, соответствующих требованиям. Крупные спонсоры и блокчейн-команды проводили практические занятия: команда Polkadot организовала хакерские дома и мастер-классы по запуску парачейнов; EigenLayer провел «буткемп по рестейкингу», чтобы научить разработчиков использовать его уровень безопасности; Polygon и zkSync проводили уроки по созданию масштабируемых dApps с технологией нулевого разглашения. Эти сессии обеспечили бесценное личное общение с основными инженерами, позволяя разработчикам получить помощь с интеграцией и изучить новые наборы инструментов из первых рук.

На протяжении всего основного мероприятия на площадке располагались специальные #BUIDLHub и Makerspace, где строители могли кодировать в совместной среде и получать доступ к наставникам. Организаторы ETHDenver опубликовали подробное Руководство BUIDLer и организовали программу наставничества на месте (эксперты от спонсоров были доступны, чтобы помочь командам с техническими проблемами). Компании, разрабатывающие инструменты для разработчиков, также присутствовали в большом количестве – от Alchemy и Infura (для блокчейн-API) до Hardhat и Foundry (для разработки смарт-контрактов). Многие представили новые релизы или бета-инструменты на мероприятии. Например, команда MetaMask предварительно показала крупное обновление кошелька с абстракцией газа и улучшенным SDK для разработчиков dApp, стремясь упростить, как приложения покрывают комиссии за газ для пользователей. Несколько проектов запустили SDK или библиотеки с открытым исходным кодом: были представлены «Agent Kit» от Coinbase для ИИ-агентов и совместный набор инструментов Open Agents Alliance, а Story.xyz продвигала свой Story SDK для ончейн-лицензирования интеллектуальной собственности во время собственного хакатон-мероприятия.

Вознаграждения и поддержка хакеров еще больше улучшили опыт разработчиков. С более чем 180 вознаграждениями, предложенными 62 спонсорами, хакеры фактически имели меню конкретных задач на выбор, каждая из которых сопровождалась документацией, часами работы и иногда индивидуальными песочницами. Например, вознаграждение Optimism призывало разработчиков использовать новейшие опкоды Bedrock (с инженерами, готовыми помочь), а конкурс Uniswap предоставил доступ к их новому API для интеграции с фиатными выходами. Инструменты для координации и обучения – такие как официальное мобильное приложение ETHDenver и каналы Discord – информировали разработчиков об изменениях в расписании, побочных заданиях и даже возможностях трудоустройства через доску объявлений ETHDenver.

Одним из заметных ресурсов был акцент на экспериментах с квадратичным финансированием и ончейн-голосованием. ETHDenver интегрировал систему квадратичного голосования для судейства хакатона, знакомя многих разработчиков с этой концепцией. Кроме того, присутствие Gitcoin и других групп общественных благ означало, что разработчики могли узнать о грантовом финансировании своих проектов после мероприятия. В итоге, ETHDenver 2025 предоставил разработчикам передовые инструменты (SDK, API), экспертное руководство и последующую поддержку для продолжения их проектов. Для профессионалов отрасли это напоминание о том, что развитие сообщества разработчиков – через образование, инструментарий и финансирование – имеет решающее значение. Многие из выделенных ресурсов (такие как новые SDK или улучшенные среды разработки) теперь общедоступны, предлагая командам по всему миру возможность строить на основе того, что было представлено на ETHDenver.

Побочные мероприятия и общественные встречи, обогащающие опыт ETHDenver

Что действительно отличает ETHDenver, так это его фестивальная атмосфера – десятки побочных мероприятий, как официальных, так и неофициальных, создали богатое полотно впечатлений вокруг основной конференции. В 2025 году, помимо Национального Западного Комплекса, где проходил официальный контент, весь город бурлил встречами, вечеринками, хакатонами и общественными собраниями. Эти побочные мероприятия, часто проводимые спонсорами или местными Web3-группами, значительно способствовали общему опыту ETHDenver.

На официальном уровне в расписание ETHDenver были включены тематические мини-мероприятия: на площадке были зоны, такие как Художественная галерея NFT, Блокчейн-аркада, Зона отдыха с диджеем и даже Дзен-зона для расслабления. Организаторы также проводили вечерние мероприятия, такие как вечеринки открытия и закрытия – например, неофициальная вечеринка открытия «Crack’d House» 26 февраля от Story Protocol, которая сочетала художественное выступление с объявлениями о наградах хакатона. Но именно побочные мероприятия, организованные сообществом, действительно распространились: согласно руководству по мероприятиям, более 100 побочных событий были отслежены в календаре ETHDenver Luma.

Некоторые примеры иллюстрируют разнообразие этих собраний:

  • Технические саммиты и хакерские дома: ElizaOS и EigenLayer провели 9-дневную резиденцию Vault AI Agent Hacker House для энтузиастов ИИ+Web3. Команда StarkNet организовала многодневный хакерский дом, завершившийся демонстрационным вечером для проектов на их ZK-роллапе. Они предоставили сфокусированные среды для разработчиков, чтобы сотрудничать над конкретными технологическими стеками вне основного хакатона.
  • Сетевые встречи и вечеринки: Каждый вечер предлагал множество вариантов. Builder Nights Denver 27 февраля, спонсируемый MetaMask, Linea, EigenLayer, Wormhole и другими, собрал инноваторов для неформальных бесед за едой и напитками. 3VO’s Mischief Minded Club Takeover, при поддержке Belong, был высокоуровневой сетевой вечеринкой для лидеров токенизации сообщества. Для тех, кто любит чистое веселье, BEMO Rave (с Berachain и другими) и rAIve the Night (рейв на тему ИИ) заставляли крипто-толпу танцевать до поздней ночи – смешивая музыку, искусство и криптокультуру.
  • Встречи по интересам: Нишевые сообщества также нашли свое место. Meme Combat было мероприятием исключительно для любителей мемов, чтобы отметить роль мемов в криптоиндустрии. House of Ink обслуживал NFT-художников и коллекционеров, превратив иммерсивное арт-пространство (Meow Wolf Denver) в витрину для цифрового искусства. SheFi Summit 26 февраля собрал женщин в Web3 для докладов и нетворкинга, при поддержке таких групп, как World of Women и Celo – подчеркивая приверженность разнообразию и инклюзивности.
  • Встречи инвесторов и создателей контента: Мы уже затрагивали события для венчурных капиталистов; кроме того, Встреча KOL (Key Opinion Leaders) 28 февраля позволила крипто-инфлюенсерам и создателям контента обсудить стратегии вовлечения, демонстрируя пересечение социальных сетей и криптосообществ.

Что особенно важно, эти побочные мероприятия были не просто развлечением – они часто служили инкубаторами для идей и отношений сами по себе. Например, Tokenized Capital Summit 2025 углубился в будущее ончейн-рынков капитала, вероятно, породив сотрудничество между финтех-предпринимателями и блокчейн-разработчиками, присутствовавшими на мероприятии. On-Chain Gaming Hacker House предоставил пространство для игровых разработчиков, чтобы поделиться лучшими практиками, что может привести к перекрестному опылению среди блокчейн-игровых проектов.

Для профессионалов, посещающих крупные конференции, модель ETHDenver подчеркивает, что ценность находится как за пределами главной сцены, так и на ней. Широта неофициальных программ позволила участникам адаптировать свой опыт – будь то цель встретиться с инвесторами, освоить новый навык, найти соучредителя или просто расслабиться и наладить товарищеские отношения, для этого было мероприятие. Многие ветераны советуют новичкам: «Не просто посещайте доклады – идите на встречи и поздоровайтесь». В таком сообщественно-ориентированном пространстве, как Web3, эти человеческие связи часто перерастают в сотрудничество DAO, инвестиционные сделки или, по крайней мере, в прочные дружеские отношения, охватывающие континенты. Яркая побочная сцена ETHDenver 2025 усилила основную конференцию, превратив одну неделю в Денвере в многомерный фестиваль инноваций.

Ключевые выводы и практические инсайты

ETHDenver 2025 стал микрокосмом импульса индустрии Web3 – смесью передового технологического дискурса, страстной энергии сообщества, стратегических инвестиционных шагов и культуры, которая сочетает серьезные инновации с весельем. Профессионалы должны рассматривать тренды и инсайты с мероприятия как дорожную карту того, куда движется Web3. Практический следующий шаг – взять эти знания – будь то новое внимание к ИИ, связь, установленная с командой L2, или вдохновение от проекта хакатона – и преобразовать их в стратегию. В духе любимого девиза ETHDenver, пришло время #BUIDL на основе этих инсайтов и помочь сформировать децентрализованное будущее, которое так много людей в Денвере собрались, чтобы представить.

  • Диверсификация трендов: Мероприятие ясно показало, что Web3 больше не является монолитным. Новые области, такие как интеграция ИИ, DePIN и токенизация RWA, так же заметны, как DeFi и NFT. Практический инсайт: Будьте информированы и адаптируемы. Лидеры должны выделять средства на НИОКР или инвестиции в эти растущие вертикали (например, исследуя, как ИИ может улучшить их dApp, или как реальные активы могут быть интегрированы в платформы DeFi), чтобы оседлать следующую волну роста.
  • Кроссчейн – это будущее: С активным участием крупных не-Ethereum протоколов, барьеры между экосистемами снижаются. Интероперабельность и мультичейн-пользовательский опыт привлекли огромное внимание, от добавления MetaMask поддержки Bitcoin/Solana до привлечения Polkadot и цепей на базе Cosmos разработчиков Ethereum. Практический инсайт: Проектируйте для мультичейн-мира. Проекты должны рассматривать интеграции или мосты, которые используют ликвидность и пользователей в других цепях, а профессионалы могут искать партнерства между сообществами, а не оставаться изолированными.
  • Сообщество и общественные блага имеют значение: Тема «Года Регенератов» была не просто риторикой – она пронизывала контент через дискуссии о финансировании общественных благ, квадратичное голосование за хаки и такие мероприятия, как SheFi Summit. Этичное, устойчивое развитие и владение сообществом являются ключевыми ценностями в этосе Ethereum. Практический инсайт: Внедряйте регенеративные принципы. Будь то поддержка инициатив с открытым исходным кодом, использование механизмов справедливого запуска или согласование бизнес-моделей с ростом сообщества, компании Web3 могут завоевать доверие и долговечность, не будучи чисто экстрактивными.
  • Настроения инвесторов – осторожные, но смелые: Несмотря на слухи о медвежьем рынке, ETHDenver показал, что венчурные капиталисты активно ищут и готовы делать большие ставки на следующие главы Web3. Однако они также переосмысливают, как инвестировать (например, более стратегически, возможно, с большим надзором за соответствием продукта рынку и открытостью к финансированию сообществом). Практический инсайт: Если вы стартап, сосредоточьтесь на основах и сторителлинге. Проекты, которые выделялись, имели четкие варианты использования и часто работающие прототипы (некоторые были созданы за выходные!). Если вы инвестор, конференция подтвердила, что инфраструктура (L2, безопасность, инструменты для разработчиков) остается высокоприоритетной, но дифференциация через тезисы в ИИ, играх или социальных сетях может вывести фонд на передовую.
  • Опыт разработчиков улучшается: ETHDenver выделил множество новых наборов инструментов, SDK и фреймворков, снижающих барьер для разработки Web3 – от инструментов абстракции аккаунтов до ончейн-библиотек ИИ. Практический инсайт: Используйте эти ресурсы. Команды должны экспериментировать с новейшими представленными инструментами разработки (например, попробовать zkSync Smart SSO для более простого входа или использовать ресурсы Open Agents Alliance для ИИ-проекта), чтобы ускорить свою разработку и оставаться впереди конкурентов. Более того, компании должны продолжать участвовать в хакатонах и открытых форумах разработчиков как способ поиска талантов и идей; успех ETHDenver в превращении хакеров в основателей является доказательством этой модели.
  • Сила побочных мероприятий: Наконец, взрыв побочных мероприятий преподал важный урок в нетворкинге – возможности часто появляются в неформальной обстановке. Случайная встреча на «счастливом часе» или общий интерес на небольшой встрече могут создать связи, определяющие карьеру. Практический инсайт: Для тех, кто посещает отраслевые конференции, планируйте за пределами официальной повестки дня. Определите побочные мероприятия, соответствующие вашим целям (будь то встреча с инвесторами, освоение нишевого навыка или набор талантов), и будьте активны во взаимодействии. Как было видно в Денвере, те, кто полностью погрузился в экосистему недели, ушли не только со знаниями, но и с новыми партнерами, сотрудниками и друзьями.

Altera.al нанимает: Присоединяйтесь к пионерам разработки цифровых людей (компенсация $600K-1M)

· 3 мин чтения

Мы рады поделиться преобразующей возможностью в Altera.al, прорывном стартапе в области ИИ, который недавно произвел фурор своей новаторской работой по разработке цифровых людей. Недавно представленный в MIT Technology Review, Altera.al продемонстрировал значительный прогресс в создании ИИ-агентов, способных развивать человекоподобное поведение, формировать сообщества и осмысленно взаимодействовать в цифровых пространствах.

Altera.al: Присоединяйтесь к пионерам разработки цифровых людей с компенсацией $600K-1M

Об Altera.al

Основанная Робертом Янгом, который покинул свою должность доцента вычислительной нейробиологии в Массачусетском технологическом институте, чтобы реализовать это видение, Altera.al уже привлекла более $11 миллионов финансирования от престижных инвесторов, включая A16Z и венчурную фирму Эрика Шмидта, специализирующуюся на новых технологиях. Их недавняя демонстрация Project Sid показала, как ИИ-агенты спонтанно развивают специализированные роли, формируют социальные связи и даже создают культурные системы в Minecraft — значительный шаг к их цели по созданию по-настоящему автономных ИИ-агентов, способных к масштабному сотрудничеству.

Почему сейчас самое подходящее время присоединиться

Altera.al достигла значительного технического прорыва в своей миссии по разработке машин с фундаментальными человеческими качествами. Их работа выходит за рамки традиционной разработки ИИ — они создают цифровых существ, которые могут:

  • Формировать сообщества и социальные иерархии
  • Развивать специализированные роли и обязанности
  • Создавать и распространять культурные модели
  • Осмысленно взаимодействовать с людьми в цифровых пространствах

Кого они ищут

После недавнего прорыва Altera.al расширяет свою команду и предлагает исключительные компенсационные пакеты в диапазоне от $600 000 до $1 000 000 для:

  • Экспертов в области исследований ИИ-агентов
  • Сильных индивидуальных участников в областях:
    • Распределенных систем
    • Безопасности
    • Операционных систем

Как подать заявку

Готовы стать частью этого новаторского пути? Подайте заявку напрямую через их страницу вакансий: https://jobs.ashbyhq.com/altera.al

Присоединяйтесь к будущему разработки цифровых людей

Это уникальная возможность работать на стыке искусственного интеллекта и моделирования человеческого поведения с командой, которая уже демонстрирует выдающиеся результаты. Если вы увлечены расширением границ возможного в ИИ и взаимодействии человека с машиной, Altera.al может стать вашим следующим приключением.


Для получения дополнительных новостей о прорывных возможностях в сфере технологий и блокчейна, подписывайтесь на нас в Twitter или присоединяйтесь к нашему сообществу в Discord.

Этот пост является частью нашего постоянного стремления поддерживать инновации и связывать таланты с преобразующими возможностями в технологической индустрии.

Прогноз A16Z Crypto на 2025 год: Двенадцать идей, которые могут изменить будущий Интернет

· 8 мин чтения

Каждый год a16z публикует масштабные прогнозы о технологиях, которые определят наше будущее. На этот раз их криптокоманда нарисовала яркую картину 2025 года, где блокчейны, ИИ и передовые эксперименты в области управления сталкиваются.

Ниже я обобщил и прокомментировал их ключевые идеи, сосредоточившись на том, что я считаю основными рычагами изменений — и возможных камнях преткновения. Если вы разработчик технологий, инвестор или просто интересуетесь следующей волной интернета, эта статья для вас.

1. ИИ и криптокошельки

Ключевая идея: Модели ИИ переходят от «NPC» на заднем плане к «главным персонажам», действующим независимо в онлайн (и потенциально физических) экономиках. Это означает, что им понадобятся собственные криптокошельки.

  • Что это значит: Вместо того чтобы ИИ просто выдавал ответы, он может хранить, тратить или инвестировать цифровые активы — совершая транзакции от имени своего человеческого владельца или полностью самостоятельно.
  • Потенциальная выгода: Высокоэффективные «агентные ИИ» могут помочь предприятиям с координацией цепочек поставок, управлением данными или автоматизированной торговлей.
  • На что обратить внимание: Как мы можем гарантировать, что ИИ действительно автономен, а не тайно манипулируется людьми? Доверенные среды исполнения (TEE) могут предоставить технические гарантии, но установление доверия к «роботу с кошельком» не произойдет в одночасье.

2. Появление DAC (Децентрализованного Автономного Чат-бота)

Ключевая идея: Чат-бот, работающий автономно в TEE, может управлять своими ключами, публиковать контент в социальных сетях, собирать подписчиков и даже генерировать доход — всё без прямого человеческого контроля.

  • Что это значит: Представьте себе ИИ-инфлюенсера, которого никто не может заставить замолчать, потому что он буквально контролирует себя сам.
  • Потенциальная выгода: Предвкушение мира, где создатели контента — это не отдельные люди, а самоуправляемые алгоритмы с оценкой в миллионы (или миллиарды) долларов.
  • На что обратить внимание: Если ИИ нарушает законы, кто несет ответственность? Регуляторные ограничения будут сложными, когда «сущность» представляет собой набор кода, размещенный на распределенных серверах.

3. Подтверждение личности становится необходимым

Ключевая идея: Поскольку ИИ снижает стоимость создания гиперреалистичных фейков, нам нужны лучшие способы проверки того, что мы взаимодействуем с реальными людьми онлайн. На сцену выходят уникальные идентификаторы, сохраняющие конфиденциальность.

  • Что это значит: Каждый пользователь в конечном итоге может получить сертифицированный «человеческий штамп» — будем надеяться, без ущерба для личных данных.
  • Потенциальная выгода: Это может значительно сократить количество спама, мошенничества и армий ботов. Это также закладывает основу для более надежных социальных сетей и общественных платформ.
  • На что обратить внимание: Основным препятствием является внедрение. Даже лучшие решения для подтверждения личности нуждаются в широком признании, прежде чем злоумышленники опередят их.

4. От рынков предсказаний к более широкой агрегации информации

Ключевая идея: Рынки предсказаний, связанные с выборами 2024 года, привлекли внимание, но a16z видит более широкую тенденцию: использование блокчейна для разработки новых способов выявления и агрегации истин — будь то в управлении, финансах или принятии решений сообществом.

  • Что это значит: Распределенные механизмы стимулирования могут вознаграждать людей за честный вклад или данные. Мы можем увидеть специализированные «рынки истины» для всего, от локальных сенсорных сетей до глобальных цепочек поставок.
  • Потенциальная выгода: Более прозрачный, менее подверженный манипуляциям слой данных для общества.
  • На что обратить внимание: Достаточная ликвидность и участие пользователей остаются проблемой. Для нишевых вопросов «пулы предсказаний» могут быть слишком малы, чтобы давать значимые сигналы.

5. Стейблкоины выходят на корпоративный уровень

Ключевая идея: Стейблкоины уже являются самым дешевым способом перемещения цифровых долларов, но крупные компании пока не приняли их.

  • Что это значит: Малые и средние предприятия (SMB) и продавцы с большим объемом транзакций могут осознать, что они могут сэкономить значительные комиссии за кредитные карты, приняв стейблкоины. Предприятия, обрабатывающие миллиарды долларов годового дохода, могли бы сделать то же самое, потенциально увеличив свою чистую прибыль на 2%.
  • Потенциальная выгода: Более быстрые, дешевые глобальные платежи, а также новая волна финансовых продуктов на основе стейблкоинов.
  • На что обратить внимание: Компаниям потребуются новые способы управления защитой от мошенничества, проверкой личности и возвратами — функциями, которые ранее выполнялись поставщиками кредитных карт.

6. Государственные облигации на блокчейне

Ключевая идея: Правительства, исследующие ончейн-облигации, могут создавать процентные цифровые активы, которые функционируют без проблем конфиденциальности, присущих цифровой валюте центрального банка.

  • Что это значит: Ончейн-облигации могут служить высококачественным обеспечением в DeFi, позволяя суверенному долгу беспрепятственно интегрироваться с децентрализованными протоколами кредитования.
  • Потенциальная выгода: Большая прозрачность, потенциально более низкие затраты на выпуск и более демократизированный рынок облигаций.
  • На что обратить внимание: Скептически настроенные регуляторы и потенциальная инерция крупных учреждений. Устаревшие клиринговые системы не исчезнут легко.

7. «DUNA» – Правовая основа для DAO

Ключевая идея: Вайоминг представил новую категорию под названием «децентрализованная неинкорпорированная некоммерческая ассоциация» (DUNA), предназначенную для придания DAO юридического статуса в США.

  • Что это значит: DAO теперь могут владеть собственностью, подписывать контракты и ограничивать ответственность держателей токенов. Это открывает двери для более широкого использования и реальной коммерческой деятельности.
  • Потенциальная выгода: Если другие штаты последуют примеру Вайоминга (как они сделали с LLC), DAO станут обычными бизнес-сущностями.
  • На что обратить внимание: Общественное восприятие того, что делают DAO, все еще нечеткое. Им потребуется послужной список успешных проектов, которые приносят реальную пользу.

8. Жидкая демократия в физическом мире

Ключевая идея: Эксперименты с управлением на основе блокчейна могут распространиться от онлайн-сообществ DAO до выборов на местном уровне. Избиратели могли бы делегировать свои голоса или голосовать напрямую — «жидкая демократия».

  • Что это значит: Более гибкое представительство. Вы можете выбрать голосование по конкретным вопросам или передать эту ответственность тому, кому доверяете.
  • Потенциальная выгода: Потенциально более вовлеченные граждане и динамичное формирование политики.
  • На что обратить внимание: Проблемы безопасности, техническая грамотность и общий скептицизм в отношении смешивания блокчейна с официальными выборами.

9. Строительство на существующей инфраструктуре (вместо ее переизобретения)

Ключевая идея: Стартапы часто тратят время на переизобретение базовых технологий (протоколы консенсуса, языки программирования) вместо того, чтобы сосредоточиться на соответствии продукта рынку. В 2025 году они будут чаще выбирать готовые компоненты.

  • Что это значит: Более быстрая скорость выхода на рынок, более надежные системы и большая компонуемость.
  • Потенциальная выгода: Меньше времени тратится на создание нового блокчейна с нуля; больше времени уделяется решению проблемы пользователя.
  • На что обратить внимание: Существует соблазн чрезмерной специализации ради повышения производительности. Но специализированные языки или консенсусные слои могут создавать более высокие накладные расходы для разработчиков.

10. Пользовательский опыт в первую очередь, инфраструктура во вторую

Ключевая идея: Криптоиндустрии нужно «скрыть провода». Мы не заставляем потребителей изучать SMTP для отправки электронной почты — так почему мы должны заставлять их изучать «EIP» или «роллапы»?

  • Что это значит: Команды продуктов будут выбирать техническую основу, которая обеспечивает отличный пользовательский опыт, а не наоборот.
  • Потенциальная выгода: Большой скачок в адаптации пользователей, снижение трения и жаргона.
  • На что обратить внимание: Принцип «постройте, и они придут» работает только в том случае, если вы действительно добились идеального опыта. Маркетинговый жаргон об «удобном крипто-UX» ничего не значит, если людям по-прежнему приходится возиться с приватными ключами или запоминать загадочные аббревиатуры.

11. Появление собственных магазинов приложений в криптоиндустрии

Ключевая идея: От маркетплейса World App от Worldcoin до dApp Store Solana, крипто-дружественные платформы обеспечивают распространение и обнаружение без контроля со стороны Apple или Google.

  • Что это значит: Если вы создаете децентрализованное приложение, вы можете охватить пользователей, не опасаясь внезапной деплатформизации.
  • Потенциальная выгода: Десятки (или сотни) тысяч новых пользователей, обнаруживающих ваше dApp за считанные дни, вместо того чтобы затеряться в море централизованных магазинов приложений.
  • На что обратить внимание: Эти магазины нуждаются в достаточной пользовательской базе и импульсе, чтобы конкурировать с Apple и Google. Это большое препятствие. Аппаратные привязки (например, специализированные криптотелефоны) могут помочь.

12. Токенизация «нетрадиционных» активов

Ключевая идея: По мере созревания блокчейн-инфраструктуры и снижения комиссий, токенизация всего, от биометрических данных до реальных диковинок, становится более осуществимой.

  • Что это значит: «Длинный хвост» уникальных активов может быть фракционирован и торговаться по всему миру. Люди могли бы даже монетизировать личные данные контролируемым, основанным на согласии способом.
  • Потенциальная выгода: Огромные новые рынки для активов, которые в противном случае были бы «заблокированы», а также интересные новые пулы данных для потребления ИИ.
  • На что обратить внимание: Ловушки конфиденциальности и этические мины. То, что вы можете что-то токенизировать, не означает, что вы должны.

Прогноз A16Z на 2025 год показывает криптосектор, который стремится к более широкому внедрению, более ответственному управлению и более глубокой интеграции с ИИ. Если предыдущие циклы были сосредоточены на спекуляциях или хайпе, то это видение вращается вокруг полезности: стейблкоины экономят продавцам 2% на каждом латте, чат-боты ИИ управляют собственным бизнесом, местные органы власти экспериментируют с жидкой демократией.

Однако риск исполнения остается. Регуляторы по всему миру по-прежнему насторожены, а пользовательский опыт все еще слишком запутан для широкой публики. 2025 год может стать годом, когда криптоиндустрия и ИИ наконец-то «повзрослеют», или это может быть промежуточный шаг — все зависит от того, смогут ли команды выпускать реальные продукты, которые нравятся людям, а не просто протоколы для знатоков.

Может ли децентрализованная операционная система ИИ от 0G действительно масштабировать ИИ ончейн?

· 13 мин чтения

13 ноября 2024 года 0G Labs объявила о раунде финансирования в размере 40 миллионов долларов под руководством Hack VC, Delphi Digital, OKX Ventures, Samsung Next и Animoca Brands, что привлекло пристальное внимание к команде, стоящей за этой децентрализованной операционной системой для ИИ. Их модульный подход сочетает в себе децентрализованное хранилище, проверку доступности данных и децентрализованные расчеты для обеспечения работы приложений ИИ в ончейне. Но смогут ли они реально достичь пропускной способности уровня ГБ / с, чтобы стимулировать следующую эру внедрения ИИ в Web3? В этом подробном отчете оценивается архитектура 0G, механизмы стимулирования, развитие экосистемы и потенциальные ловушки, чтобы помочь вам понять, сможет ли 0G выполнить свои обещания.

Контекст

Сектор ИИ демонстрирует стремительный рост, катализатором которого стали большие языковые модели, такие как ChatGPT и ERNIE Bot. Однако ИИ — это не только чат-боты и генерация текста; он также включает в себя все: от побед AlphaGo в го до инструментов генерации изображений, таких как MidJourney. «Священный грааль», к которому стремятся многие разработчики, — это ИИ общего назначения, или AGI (Artificial General Intelligence), который часто описывают как ИИ-«агента», способного к обучению, восприятию, принятию решений и сложному исполнению задач, подобно человеческому интеллекту.

Однако как ИИ, так и приложения с ИИ-агентами крайне ресурсоемки с точки зрения данных. Они полагаются на массивные наборы данных для обучения и инференса (вывода). Традиционно эти данные хранятся и обрабатываются в централизованной инфраструктуре. С появлением блокчейна возник новый подход, известный как DeAI (децентрализованный ИИ). DeAI стремится использовать децентрализованные сети для хранения, обмена и проверки данных, чтобы преодолеть недостатки традиционных централизованных решений ИИ.

0G Labs выделяется в этом ландшафте инфраструктуры DeAI, стремясь создать децентрализованную операционную систему ИИ, известную просто как 0G.

Что такое 0G Labs?

В традиционных вычислениях операционная система (ОС) управляет аппаратными и программными ресурсами — вспомните Microsoft Windows, Linux, macOS, iOS или Android. ОС абстрагирует сложность базового оборудования, упрощая взаимодействие с компьютером как для конечных пользователей, так и для разработчиков.

По аналогии, ОС 0G стремится выполнять аналогичную роль в Web3:

  • Управлять децентрализованным хранением, вычислениями и доступностью данных.
  • Упрощать развертывание ИИ-приложений в ончейне.

Почему децентрализация? Традиционные системы ИИ хранят и обрабатывают данные в централизованных изолированных хранилищах, что вызывает обеспокоенность по поводу прозрачности данных, конфиденциальности пользователей и справедливого вознаграждения поставщиков данных. Подход 0G использует децентрализованное хранилище, криптографические доказательства и открытые модели стимулирования для минимизации этих рисков.

Название «0G» означает «Zero Gravity» (нулевая гравитация). Команда представляет среду, в которой обмен данными и вычисления кажутся «невесомыми» — все, от обучения ИИ до инференса и обеспечения доступности данных, происходит в ончейне без задержек.

Фонд 0G (0G Foundation), официально созданный в октябре 2024 года, продвигает эту инициативу. Его заявленная миссия — сделать ИИ общественным благом, доступным, проверяемым и открытым для всех.

Основные компоненты операционной системы 0G

По своей сути 0G представляет собой модульную архитектуру, разработанную специально для поддержки ИИ-приложений в ончейне. Ее три основных столпа:

  1. 0G Storage — децентрализованная сеть хранения данных.
  2. 0G DA (Data Availability) — специализированный уровень доступности данных, обеспечивающий их целостность.
  3. 0G Compute Network — управление децентрализованными вычислительными ресурсами и расчеты для инференса ИИ (а в конечном итоге и для обучения).

Эти столпы работают согласованно под эгидой сети уровня 1 (Layer1) под названием 0G Chain, которая отвечает за консенсус и расчеты.

Согласно техническому документу 0G («0G: На пути к доступности данных 2.0»), уровни 0G Storage и 0G DA строятся поверх 0G Chain. Разработчики могут запускать несколько настраиваемых сетей консенсуса PoS, каждая из которых функционирует как часть структуры 0G DA и 0G Storage. Этот модульный подход означает, что по мере роста нагрузки на систему 0G может динамически добавлять новые наборы валидаторов или специализированные узлы для масштабирования.

0G Storage

0G Storage — это децентрализованная система хранения, ориентированная на крупномасштабные данные. Она использует распределенные узлы со встроенными стимулами для хранения пользовательских данных. Что особенно важно, она разделяет данные на более мелкие избыточные «фрагменты» (чанки) с использованием избыточного кодирования (Erasure Coding, EC), распределяя эти фрагменты между различными узлами хранения. Если узел выходит из строя, данные все равно можно восстановить из избыточных фрагментов.

Поддерживаемые типы данных

0G Storage поддерживает как структурированные, так и неструктурированные данные.

  1. Структурированные данные хранятся в слое ключ-значение (KV layer), подходящем для динамической и часто обновляемой информации (базы данных, совместные документы и т. д.).
  2. Неструктурированные данные хранятся в слое логов (Log layer), который добавляет записи данных в хронологическом порядке. Этот слой похож на файловую систему, оптимизированную для крупномасштабных рабочих нагрузок с добавлением данных.

Размещая слой KV поверх слоя Log, 0G Storage может удовлетворять различные потребности ИИ-приложений — от хранения весов больших моделей (неструктурированные) до динамических пользовательских данных или метрик в реальном времени (структурированные).

Консенсус PoRA

PoRA (Proof of Random Access — доказательство произвольного доступа) гарантирует, что узлы хранения действительно хранят фрагменты, о которых они заявляют. Вот как это работает:

  • Майнеры хранилища периодически получают запрос на предоставление криптографических хэшей определенных случайных фрагментов данных, которые они хранят.
  • Они должны ответить, сгенерировав действительный хэш (аналогично решению задач в PoW), производный от их локальной копии данных.

Чтобы обеспечить равные условия, система ограничивает майнинговые соревнования сегментами по 8 ТБ. Крупный майнер может разделить свое оборудование на несколько разделов по 8 ТБ, в то время как более мелкие майнеры соревнуются в пределах одного сегмента 8 ТБ.

Дизайн стимулов

Данные в 0G Storage делятся на «ценовые сегменты» по 8 ГБ. У каждого сегмента есть пул пожертвований и пул вознаграждений. Пользователи, желающие хранить данные, платят комиссию в токенах 0G (ZG), которая частично идет на вознаграждение узлов.

  • Базовое вознаграждение: когда узел хранения предоставляет действительные доказательства PoRA, он получает немедленное вознаграждение за блок для этого сегмента.
  • Текущее вознаграждение: со временем пул пожертвований выпускает часть средств (в настоящее время ~4 % в год) в пул вознаграждений, стимулируя узлы хранить данные постоянно. Чем меньше узлов хранят конкретный сегмент, тем большую долю может заработать каждый узел.

Пользователи платят за постоянное хранение только один раз, но должны установить комиссию за пожертвование выше системного минимума. Чем выше пожертвование, тем больше вероятность того, что майнеры реплицируют данные пользователя.

Механизм роялти: 0G Storage также включает механизм «роялти» или «обмена данными». Первые поставщики хранилища создают «записи о роялти» для каждого фрагмента данных. Если новые узлы захотят хранить тот же фрагмент, исходный узел может поделиться им. Когда новый узел позже докажет факт хранения (через PoRA), первоначальный поставщик данных получит текущие роялти. Чем шире реплицируются данные, тем выше совокупное вознаграждение для первых поставщиков.

Сравнение с Filecoin и Arweave

Сходства:

  • Все три проекта стимулируют децентрализованное хранение данных.
  • Как 0G Storage, так и Arweave нацелены на постоянное хранение.
  • Разделение данных на фрагменты и избыточность являются стандартными подходами.

Ключевые отличия:

  • Нативная интеграция: 0G Storage не является независимым блокчейном; она интегрирована напрямую в 0G Chain и в первую очередь поддерживает сценарии использования, ориентированные на ИИ.
  • Структурированные данные: 0G поддерживает структурированные данные на основе KV наряду с неструктурированными данными, что критически важно для многих рабочих нагрузок ИИ, требующих частого доступа для чтения и записи.
  • Стоимость: 0G заявляет о цене 10–11 долларов за ТБ для постоянного хранения, что, по сообщениям, дешевле, чем у Arweave.
  • Фокус на производительности: система специально разработана для удовлетворения требований ИИ к пропускной способности, тогда как Filecoin или Arweave являются более универсальными сетями децентрализованного хранения.

0G DA (уровень доступности данных)

Доступность данных гарантирует, что каждый участник сети может полностью проверить и извлечь данные транзакций. Если данные неполны или скрыты, предположения о доверии к блокчейну нарушаются.

В системе 0G данные разбиваются на фрагменты и хранятся офчейн. Система записывает корни Меркле (Merkle roots) для этих фрагментов данных, а узлы DA должны делать выборку этих фрагментов, чтобы убедиться, что они соответствуют корню Меркле и обязательствам избыточного кодирования. Только после этого данные считаются «доступными» и добавляются в состояние консенсуса цепи.

Выбор узлов DA и стимулы

  • Узлы DA должны внести ZG в стейкинг для участия.
  • Они объединяются в кворумы случайным образом с помощью проверяемых случайных функций (VRF).
  • Каждый узел проверяет только подмножество данных. Если 2 / 3 кворума подтверждают доступность и правильность данных, они подписывают доказательство, которое агрегируется и отправляется в сеть консенсуса 0G.
  • Распределение вознаграждений также происходит через периодическую выборку. Только узлы, хранящие случайно выбранные фрагменты, имеют право на вознаграждение в этом раунде.

Сравнение с Celestia и EigenLayer

0G DA опирается на идеи Celestia (выборка доступности данных) и EigenLayer (рестейкинг), но стремится обеспечить более высокую пропускную способность. Пропускная способность Celestia в настоящее время колеблется в районе 10 МБ / с при времени блока около 12 секунд. Между тем, EigenDA в первую очередь обслуживает решения второго уровня (Layer2) и может быть сложной в реализации. 0G планирует достичь пропускной способности уровня ГБ / с, что лучше подходит для крупномасштабных рабочих нагрузок ИИ, которые могут превышать 50–100 ГБ / с потребления данных.

0G Compute Network

0G Compute Network служит уровнем децентрализованных вычислений. Она развивается поэтапно:

  • Этап 1: Фокус на расчетах для инференса ИИ.
  • Сеть связывает «покупателей моделей ИИ» (пользователей) с поставщиками вычислительных мощностей (продавцами) на децентрализованном рынке. Поставщики регистрируют свои услуги и цены в смарт-контракте. Пользователи заранее пополняют контракт, потребляют услугу, и контракт выступает посредником при оплате.
  • Со временем команда надеется расширить возможности до полноценного обучения ИИ в ончейне, хотя это более сложная задача.

Пакетная обработка: поставщики могут объединять запросы пользователей в пакеты для снижения накладных расходов в ончейне, повышая эффективность и снижая затраты.

0G Chain

0G Chain — это сеть уровня 1 (Layer1), служащая фундаментом для модульной архитектуры 0G. Она поддерживает:

  • 0G Storage (через смарт-контракты)
  • 0G DA (доказательства доступности данных)
  • 0G Compute (механизмы расчетов)

Согласно официальной документации, 0G Chain является EVM-совместимой, что обеспечивает легкую интеграцию для dApps, которым требуется продвинутое хранение, доступность данных или вычисления.

Сеть консенсуса 0G

Механизм консенсуса 0G в некотором роде уникален. Вместо единого монолитного уровня консенсуса в рамках 0G могут быть запущены несколько независимых сетей консенсуса для обработки различных рабочих нагрузок. Эти сети используют одну и ту же базу стейкинга:

  • Общий стейкинг (Shared Staking): валидаторы вносят ZG в стейкинг на Ethereum. Если валидатор ведет себя недобросовестно, его ZG в стейкинге на Ethereum могут быть подвергнуты слэшингу.
  • Масштабируемость: новые сети консенсуса могут быть развернуты для горизонтального масштабирования.

Механизм вознаграждения: Когда валидаторы финализируют блоки в среде 0G, они получают токены. Однако токены, которые они зарабатывают в 0G Chain, сжигаются в локальной среде, а на счет валидатора в Ethereum выпускается эквивалентное количество, что обеспечивает единую точку ликвидности и безопасности.

Токен 0G (ZG)

ZG — это токен стандарта ERC-20, составляющий основу экономики 0G. Он выпускается, сжигается и циркулирует через смарт-контракты на Ethereum. На практике:

  • Пользователи оплачивают хранение, доступность данных и вычислительные ресурсы в ZG.
  • Майнеры и валидаторы зарабатывают ZG за подтверждение хранения или проверку данных.
  • Общий стейкинг связывает модель безопасности с Ethereum.

Резюме основных модулей

ОС 0G объединяет четыре компонента — Storage, DA, Compute и Chain — в единый взаимосвязанный модульный стек. Целью проектирования системы является масштабируемость, при этом каждый уровень может расширяться горизонтально. Команда заявляет о потенциале для «бесконечной» пропускной способности, что особенно важно для крупномасштабных задач ИИ.

Экосистема 0G

Несмотря на относительную новизну, экосистема 0G уже включает в себя ключевых партнеров по интеграции:

  1. Инфраструктура и инструментарий:

    • ZK-решения, такие как Union, Brevis, Gevulot
    • Cross-chain решения, такие как Axelar
    • Протоколы рестейкинга, такие как EigenLayer, Babylon, PingPong
    • Децентрализованные поставщики GPU IoNet, exaBits
    • Оракулы Hemera, Redstone
    • Инструменты индексации для данных Ethereum blob
  2. Проекты, использующие 0G для хранения данных и DA:

    • Polygon, Optimism (OP), Arbitrum, Manta для интеграции L2 / L3
    • Nodekit, AltLayer для инфраструктуры Web3
    • Blade Games, Shrapnel для ончейн-игр

Сторона предложения

ZK и Cross-chain фреймворки соединяют 0G с внешними сетями. Решения для рестейкинга (например, EigenLayer, Babylon) укрепляют безопасность и, возможно, привлекают ликвидность. Сети GPU ускоряют избыточное кодирование (erasure coding). Оракулы предоставляют офчейн-данные или справочные цены на модели ИИ.

Сторона спроса

ИИ-агенты могут использовать 0G как для хранения данных, так и для логического вывода (inference). L2 и L3 могут интегрировать DA от 0G для повышения пропускной способности. Игры и другие dApps, требующие надежных решений для данных, могут хранить активы, логи или системы подсчета очков на 0G. Некоторые проекты уже стали партнерами, что указывает на ранний интерес к экосистеме.

Дорожная карта и факторы риска

0G стремится сделать ИИ общественным благом, доступным и проверяемым для каждого. Команда нацелена на пропускную способность DA уровня ГБ / с — это критически важно для обучения ИИ в реальном времени, которое может требовать передачи данных со скоростью 50–100 ГБ / с.

Соучредитель и CEO Майкл Хайнрих заявил, что взрывной рост ИИ делает своевременную итерацию критически важной. Темпы инноваций в сфере ИИ высоки; собственный прогресс разработки 0G должен соответствовать им.

Потенциальные компромиссы:

  • Текущая зависимость от общего стейкинга (shared staking) может быть промежуточным решением. В конечном итоге 0G планирует внедрить горизонтально масштабируемый уровень консенсуса, который можно будет наращивать постепенно (по аналогии с запуском новых узлов AWS).
  • Рыночная конкуренция: Существует множество специализированных решений для децентрализованного хранения, доступности данных и вычислений. Подход «все в одном» от 0G должен оставаться конкурентоспособным.
  • Внедрение и рост экосистемы: Без активного интереса разработчиков обещанная «неограниченная пропускная способность» останется теоретической.
  • Устойчивость стимулов: Постоянная мотивация узлов зависит от реального спроса пользователей и равновесной экономики токенов.

Заключение

0G пытается объединить децентрализованное хранение, доступность данных и вычисления в единую «операционную систему», поддерживающую ончейн-ИИ. Ориентируясь на пропускную способность уровня ГБ / с, команда стремится преодолеть барьер производительности, который в настоящее время мешает переносу крупномасштабного ИИ в ончейн. В случае успеха 0G может значительно ускорить волну Web3 AI, предоставив масштабируемую, интегрированную и удобную для разработчиков инфраструктуру.

Тем не менее, остается много открытых вопросов. Жизнеспособность «бесконечной пропускной способности» зависит от того, смогут ли модульный консенсус и структуры стимулов 0G беспрепятственно масштабироваться. Внешние факторы — рыночный спрос, аптайм узлов, принятие разработчиками — также определят долговечность 0G. Тем не менее, подход 0G к устранению узких мест в данных ИИ является новаторским и амбициозным, намекая на многообещающую новую парадигму для ончейн-ИИ.