Перейти к основному содержимому

22 записи с тегом "ИИ"

Посмотреть все теги

Децентрализованные рынки ИИ-выводов: Bittensor, Gensyn и Cuckoo AI

· 60 мин. чтения
Dora Noda
Software Engineer

Введение

Децентрализованные рынки ИИ-выводов/обучения призваны использовать глобальные вычислительные ресурсы и общедоступные модели без необходимости доверия. Такие проекты, как Bittensor, Gensyn и Cuckoo Network (Cuckoo AI), демонстрируют, как блокчейн-технологии могут обеспечивать работу открытых ИИ-маркетплейсов. Каждая платформа токенизирует ключевые ИИ-активы — вычислительную мощность, модели машинного обучения, а иногда и данные — в ончейн-экономические единицы. Далее мы углубимся в технические архитектуры, лежащие в основе этих сетей, способы токенизации ресурсов, их структуры управления и стимулирования, методы отслеживания владения моделями, механизмы распределения доходов и возникающие поверхности атаки (например, атаки Сивиллы, сговор, фрирайдерство, отравление данных). Сравнительная таблица в конце подытоживает все ключевые аспекты Bittensor, Gensyn и Cuckoo AI.

Технические архитектуры

Bittensor: Децентрализованный «Нейронный Интернет» на подсетях

Bittensor построен на основе кастомного блокчейна уровня 1 (цепочка Subtensor, основанная на Substrate), который координирует сеть узлов ИИ-моделей в многочисленных специализированных подсетях. Каждая подсеть представляет собой независимую мини-сеть, ориентированную на конкретную ИИ-задачу (например, подсеть для генерации языка, другая — для генерации изображений и т. д.). Участники Bittensor выполняют различные роли:

  • Майнеры — они запускают модели машинного обучения на своем оборудовании и предоставляют ответы на запросы (или даже выполняют обучение) для задачи подсети. По сути, майнер — это узел, размещающий ИИ-модель, которая будет отвечать на запросы.
  • Валидаторы — они запрашивают модели майнеров с помощью промптов и оценивают качество ответов, формируя мнение о том, какие майнеры вносят ценные результаты. Валидаторы эффективно оценивают производительность майнеров.
  • Владельцы подсетей — они создают и определяют подсети, устанавливая правила для выполнения задач и проведения валидации в этой подсети. Владелец подсети может, например, указать, что подсеть предназначена для определенного набора данных или модальности, и определить процедуру валидации.
  • Делегаторы — держатели токенов, которые не запускают узлы, могут делегировать (стейкать) свои токены Bittensor (TAO) майнерам или валидаторам, чтобы поддержать лучших исполнителей и получить долю вознаграждения (аналогично стейкингу в сетях Proof-of-Stake).

Механизм консенсуса Bittensor является новаторским: вместо традиционной валидации блоков Bittensor использует консенсус Yuma, который является формой «доказательства интеллекта». В консенсусе Yuma оценки валидаторов майнеров агрегируются в ончейне для определения распределения вознаграждений. Каждые 12 секунд сеть выпускает новые токены TAO и распределяет их в соответствии с консенсусом валидаторов относительно того, какие майнеры выполнили полезную работу. Оценки валидаторов объединяются по схеме медианы, взвешенной по стейку: выбросы мнений отсекаются, и преобладает честное большинство. Это означает, что если большинство валидаторов согласны с тем, что майнер был высококачественным, этот майнер получит значительное вознаграждение; если валидатор сильно отклоняется от других (возможно, из-за сговора или ошибки), этот валидатор наказывается меньшим заработком. Таким образом, блокчейн Bittensor координирует петлю обратной связи между майнером и валидатором: майнеры соревнуются за создание лучших ИИ-выводов, а валидаторы курируют и ранжируют эти выводы, при этом обе стороны зарабатывают токены пропорционально ценности, которую они добавляют. Эта архитектура часто описывается как «децентрализованная нейронная сеть» или «глобальный мозг», где модели учатся на сигналах друг друга и коллективно развиваются. Примечательно, что Bittensor недавно обновил свою цепь для поддержки совместимости с EVM (для смарт-контрактов) и представил dTAO, систему токенов и стейкинга для конкретных подсетей (объясняется позже) для дальнейшей децентрализации контроля над распределением ресурсов.

Gensyn: Протокол доверенных распределенных вычислений

Gensyn подходит к децентрализованному ИИ с точки зрения протокола распределенных вычислений для машинного обучения. Его архитектура соединяет разработчиков (отправителей), у которых есть ИИ-задачи (например, обучение модели или выполнение задачи вывода), с поставщиками вычислений (решателями) по всему миру, у которых есть свободные ресурсы GPU/TPU. Первоначально Gensyn планировал цепь Substrate L1, но затем перешел на создание на Ethereum в качестве роллапа для повышения безопасности и ликвидности. Таким образом, сеть Gensyn является уровнем 2 Ethereum (роллап Ethereum), который координирует размещение заданий и платежи, в то время как вычисления происходят вне цепи на оборудовании поставщиков.

Ключевым нововведением в дизайне Gensyn является его система верификации для офчейн-работы. Gensyn использует комбинацию оптимистической верификации (доказательства мошенничества) и криптографических методов для обеспечения того, что когда решатель заявляет о выполнении задачи обучения/вывода, результат является правильным. На практике протокол включает несколько ролей участников:

  • Отправитель — сторона, запрашивающая задание (например, тот, кому нужно обучить модель). Они оплачивают комиссию сети и предоставляют модель/данные или спецификацию задачи.
  • Решатель — узел, который делает ставки на выполнение ML-задачи на своем оборудовании и выполняет ее. Он будет обучать модель или выполнять вывод по запросу, а затем представит результаты и доказательство вычислений.
  • Верификатор/Челленджер — узлы, которые могут проверять или выборочно проверять работу решателя. Gensyn реализует схему в стиле Truebit, где по умолчанию результат решателя принимается, но верификатор может оспорить его в течение определенного окна, если подозревает неправильное вычисление. В случае оспаривания используется интерактивный «бинарный поиск» по шагам вычисления (протокол доказательства мошенничества) для выявления любых расхождений. Это позволяет цепи разрешать споры, выполняя только минимальную критическую часть вычисления в ончейне, а не повторяя всю дорогостоящую задачу.

Важно отметить, что Gensyn разработан для избежания массовой избыточности наивных подходов. Вместо того чтобы множество узлов повторяли одну и ту же ML-задачу (что уничтожило бы экономию средств), подход Gensyn «доказательство обучения» использует метаданные обучения для проверки того, что был достигнут прогресс в обучении. Например, решатель может предоставить криптографические хеши или контрольные точки промежуточных весов модели и краткое доказательство того, что они прогрессировали в соответствии с обновлениями обучения. Это вероятностное доказательство обучения может быть проверено гораздо дешевле, чем повторный запуск всего обучения, что позволяет осуществлять доверенную верификацию без полного дублирования. Только если верификатор обнаружит аномалию, в крайнем случае будет запущено более тяжелое ончейн-вычисление. Этот подход значительно снижает накладные расходы по сравнению с проверкой методом грубой силы, делая децентрализованное ML-обучение более осуществимым. Таким образом, архитектура Gensyn сильно акцентирует внимание на криптоэкономическом игровом дизайне: решатели вносят стейк или залог, и если они обманывают (представляют неверные результаты), они теряют этот стейк в пользу честных верификаторов, которые их поймают. Объединяя координацию блокчейна (для платежей и разрешения споров) с офчейн-вычислениями и умной верификацией, Gensyn создает маркетплейс для ML-вычислений, который может использовать простаивающие GPU в любой точке мира, сохраняя при этом отсутствие доверия. Результатом является гипермасштабируемый «протокол вычислений», где любой разработчик может получить доступ к доступной, глобально распределенной вычислительной мощности по требованию.

Cuckoo AI: Полнофункциональная децентрализованная платформа ИИ-сервисов

Cuckoo Network (или Cuckoo AI) использует более вертикально интегрированный подход, стремясь предоставлять сквозные децентрализованные ИИ-сервисы, а не просто сырые вычисления. Cuckoo построил свой собственный блокчейн (первоначально уровень 1 под названием Cuckoo Chain на Arbitrum Orbit, фреймворке роллапов, совместимом с Ethereum) для оркестрации всего: он не только сопоставляет задания с GPU, но также размещает ИИ-приложения и обрабатывает платежи в одной системе. Дизайн является полнофункциональным: он сочетает блокчейн для транзакций и управления, децентрализованный уровень ресурсов GPU/CPU и пользовательские ИИ-приложения и API сверху. Другими словами, Cuckoo интегрирует все три уровня — блокчейн, вычисления и ИИ-приложения — в рамках единой платформы.

Участники Cuckoo делятся на четыре группы:

  • Разработчики ИИ-приложений (Координаторы) — это разработчики, которые развертывают ИИ-модели или сервисы на Cuckoo. Например, разработчик может разместить генератор изображений Stable Diffusion или чат-бота LLM в качестве сервиса. Они запускают Узлы-координаторы, которые отвечают за управление своим сервисом: прием пользовательских запросов, разделение их на задачи и назначение этих задач майнерам. Координаторы стейкают нативный токен ($CAI), чтобы присоединиться к сети и получить право использовать майнеров. По сути, они действуют как оркестраторы уровня 2, которые взаимодействуют между пользователями и поставщиками GPU.
  • Майнеры GPU/CPU (Узлы задач) — это поставщики ресурсов. Майнеры запускают клиент Cuckoo для задач и предоставляют свое оборудование для выполнения задач вывода для ИИ-приложений. Например, майнеру может быть назначен запрос на генерацию изображения (с заданной моделью и промптом) координатором, и он использует свой GPU для вычисления результата. Майнеры также должны стейкать $CAI для обеспечения обязательств и хорошего поведения. Они зарабатывают токен-вознаграждения за каждую правильно выполненную задачу.
  • Конечные пользователи — потребители ИИ-приложений. Они взаимодействуют через веб-портал Cuckoo или API (например, генерируют искусство через CooVerse или общаются с ИИ-персонажами). Пользователи могут либо платить криптовалютой за каждое использование, либо, возможно, предоставлять свои собственные вычисления (или стейк) для компенсации затрат на использование. Важным аспектом является устойчивость к цензуре: если один координатор (поставщик услуг) заблокирован или выходит из строя, пользователи могут переключиться на другого, обслуживающего то же приложение, поскольку несколько координаторов могут размещать аналогичные модели в децентрализованной сети.
  • Стейкеры (Делегаторы) — члены сообщества, которые не запускают ИИ-сервисы или майнинговое оборудование, все еще могут участвовать, стейкая $CAI на тех, кто это делает. Голосуя своим стейком за доверенных координаторов или майнеров, они помогают сигнализировать о репутации и взамен получают долю сетевых вознаграждений. Этот дизайн создает уровень репутации Web3: хорошие акторы привлекают больше стейка (и, следовательно, доверия и вознаграждений), в то время как плохие акторы теряют стейк и репутацию. Даже конечные пользователи могут стейкать в некоторых случаях, что соответствует их интересам в успехе сети.

Цепочка Cuckoo (сейчас находится в процессе перехода от автономной цепи к роллапу с общей безопасностью) отслеживает все эти взаимодействия. Когда пользователь вызывает ИИ-сервис, узел-координатор создает ончейн-назначения задач для майнеров. Майнеры выполняют задачи офчейн и возвращают результаты координатору, который их проверяет (например, проверяет, что выходное изображение или текст не является бессмыслицей) и доставляет окончательный результат пользователю. Блокчейн обрабатывает расчеты по платежам: за каждую задачу смарт-контракт координатора платит майнеру в $CAI (часто агрегируя микроплатежи в ежедневные выплаты). Cuckoo подчеркивает отсутствие доверия и прозрачность — все участники стейкают токены, и все назначения и выполнения задач записываются, поэтому мошенничество пресекается угрозой потери стейка и публичной видимостью производительности. Модульный дизайн сети означает, что новые ИИ-модели или варианты использования могут быть легко добавлены: хотя она начиналась с генерации текста в изображение в качестве доказательства концепции, ее архитектура достаточно универсальна для поддержки других ИИ-нагрузок (например, вывод языковых моделей, транскрипция аудио и т. д.).

Примечательным аспектом архитектуры Cuckoo является то, что она изначально запустила свой собственный блокчейн уровня 1 для максимизации пропускной способности для ИИ-транзакций (достигая 300 тыс. ежедневных транзакций во время тестирования). Это позволило выполнить пользовательские оптимизации для планирования ИИ-задач. Однако команда обнаружила, что поддержание автономного L1 является дорогостоящим и сложным, и по состоянию на середину 2025 года они решили прекратить поддержку собственной цепи и перейти на модель роллапа/AVS (Active Validated Service) на Ethereum. Это означает, что Cuckoo будет наследовать безопасность от Ethereum или L2, такого как Arbitrum, вместо того чтобы запускать свой собственный консенсус, но продолжит управлять своим децентрализованным ИИ-маркетплейсом на этом уровне общей безопасности. Изменение призвано улучшить экономическую безопасность (используя надежность Ethereum) и позволить команде Cuckoo сосредоточиться на продукте, а не на низкоуровневом обслуживании цепи. В итоге, архитектура Cuckoo создает децентрализованную платформу для обслуживания ИИ, где любой может подключить оборудование или развернуть сервис ИИ-модели, а пользователи по всему миру могут получить доступ к ИИ-приложениям с меньшими затратами и меньшей зависимостью от инфраструктуры Big Tech.

Механизмы токенизации активов

Общей темой этих сетей является преобразование вычислений, моделей и данных в ончейн-активы или экономические единицы, которые можно торговать или монетизировать. Однако каждый проект фокусируется на токенизации этих ресурсов по-разному:

  • Вычислительная мощность: Все три платформы превращают вычислительную работу в токены вознаграждения. В Bittensor полезные вычисления (вывод или обучение, выполненные майнером) количественно оцениваются с помощью оценок валидаторов и вознаграждаются токенами TAO за каждый блок. По сути, Bittensor «измеряет» внесенный интеллект и выпускает TAO как товар, представляющий этот вклад. Gensyn явно рассматривает вычисления как товар — его протокол создает маркетплейс, где время GPU является продуктом, а цена устанавливается спросом и предложением в токенах. Разработчики покупают вычисления, используя токен, а поставщики зарабатывают токены, продавая свои аппаратные циклы. Команда Gensyn отмечает, что любой цифровой ресурс (вычисления, данные, алгоритмы) может быть представлен и продан на аналогичном доверенном рынке. Cuckoo токенизирует вычисления с помощью токена ERC-20 $CAI, выпускаемого в качестве оплаты за выполненные задачи. Поставщики GPU, по сути, «майнят» CAI, выполняя работу по ИИ-выводу. Система Cuckoo создает ончейн-записи задач, поэтому можно рассматривать каждую выполненную задачу GPU как атомарную единицу работы, оплачиваемую токенами. Предпосылка для всех трех заключается в том, что иначе простаивающая или недоступная вычислительная мощность становится токенизированным, ликвидным активом — либо через эмиссию токенов на уровне протокола (как в Bittensor и раннем Cuckoo), либо через открытый рынок ордеров на покупку/продажу вычислительных заданий (как в Gensyn).

  • ИИ-модели: Представление ИИ-моделей в виде ончейн-активов (например, NFT или токенов) все еще находится на ранней стадии. Bittensor не токенизирует сами модели — модели остаются офчейн во владении майнеров. Вместо этого Bittensor косвенно оценивает модели, вознаграждая те, которые хорошо работают. По сути, «интеллект» модели превращается в заработок TAO, но нет NFT, который бы представлял веса модели или позволял другим использовать модель. Gensyn фокусируется на вычислительных транзакциях, а не на явном создании токенов для моделей. Модель в Gensyn обычно предоставляется разработчиком офчейн (возможно, с открытым исходным кодом или проприетарная), обучается решателями и возвращается — нет встроенного механизма для создания токена, который владеет моделью или ее ИС. (Тем не менее, маркетплейс Gensyn потенциально может облегчить торговлю артефактами или контрольными точками моделей, если стороны выберут это, но сам протокол рассматривает модели как содержимое вычислений, а не как токенизированный актив.) Cuckoo находится где-то посередине: он говорит об «ИИ-агентах» и моделях, интегрированных в сеть, но в настоящее время нет невзаимозаменяемого токена, представляющего каждую модель. Вместо этого модель развертывается разработчиком приложения, а затем обслуживается через сеть. Права на использование этой модели неявно токенизируются тем, что модель может зарабатывать $CAI при использовании (через координатора, который ее развертывает). Все три платформы признают концепцию токенизации моделей — например, предоставление сообществам владения моделями через токены — но практические реализации ограничены. В отрасли токенизация ИИ-моделей (например, в виде NFT с правами собственности и долей прибыли) все еще исследуется. Подход Bittensor, при котором модели обмениваются ценностью друг с другом, является формой «маркетплейса моделей» без явного токена для каждой модели. Команда Cuckoo отмечает, что децентрализованное владение моделями обещает снизить барьеры по сравнению с централизованным ИИ, но требует эффективных методов проверки выходов и использования моделей в ончейне. В итоге, вычислительная мощность немедленно токенизируется (легко платить токенами за выполненную работу), тогда как модели токенизируются косвенно или в перспективе (вознаграждаются за свои выходы, возможно, представлены стейком или репутацией, но пока не рассматриваются как передаваемые NFT на этих платформах).

  • Данные: Токенизация данных остается самой сложной. Ни Bittensor, ни Gensyn, ни Cuckoo не имеют полностью обобщенных ончейн-маркетплейсов данных (где наборы данных торгуются с принудительными правами использования). Узлы Bittensor могут обучаться на различных наборах данных, но эти наборы данных не являются частью ончейн-системы. Gensyn может позволить разработчику предоставить набор данных для обучения, но протокол не токенизирует эти данные — они просто предоставляются офчейн для использования решателем. Cuckoo аналогично не токенизирует пользовательские данные; он в основном обрабатывает данные (например, пользовательские промпты или выходы) временным образом для задач вывода. В блоге Cuckoo прямо говорится, что «децентрализованные данные остаются сложными для токенизации», несмотря на то, что это критически важный ресурс. Данные чувствительны (проблемы конфиденциальности и владения) и трудно обрабатываются с помощью текущих блокчейн-технологий. Таким образом, хотя вычисления становятся товаром, а модели начинают им быть, данные в основном остаются офчейн, за исключением особых случаев (некоторые проекты за пределами этих трех экспериментируют с объединениями данных и токен-вознаграждениями за вклад данных, но это выходит за рамки нашей текущей области). В итоге, вычислительная мощность теперь является ончейн-товаром в этих сетях, модели оцениваются через токены, но еще не токенизированы индивидуально как активы, а токенизация данных все еще остается открытой проблемой (помимо признания ее важности).

Управление и стимулы

Надежный дизайн управления и стимулирования имеет решающее значение для автономного и справедливого функционирования этих децентрализованных ИИ-сетей. Здесь мы рассмотрим, как каждая платформа управляется (кто принимает решения, как происходят обновления или изменения параметров) и как они согласовывают стимулы участников посредством токеномики.

  • Управление Bittensor: На ранних этапах разработка Bittensor и параметры подсетей в значительной степени контролировались основной командой и набором из 64 «корневых» валидаторов в основной подсети. Это было точкой централизации — несколько влиятельных валидаторов имели чрезмерное влияние на распределение вознаграждений, что привело к тому, что некоторые называли «олигархической системой голосования». Для решения этой проблемы Bittensor в 2025 году ввел управление dTAO (децентрализованный TAO). Система dTAO перевела распределение ресурсов на рыночное и контролируемое сообществом. Конкретно, держатели TAO могут стейкать свои токены в пулы ликвидности для конкретных подсетей (по сути, они «голосуют» за то, какие подсети должны получать больше эмиссии сети) и получать альфа-токены, которые представляют собой право собственности в этих пулах подсетей. Подсети, которые привлекают больше стейка, будут иметь более высокую цену альфа-токена и получать большую долю ежедневной эмиссии TAO, тогда как непопулярные или плохо работающие подсети будут терять капитал (и, следовательно, эмиссию). Это создает петлю обратной связи: если подсеть производит ценные ИИ-сервисы, больше людей стейкают в нее TAO (в поисках вознаграждений), что дает этой подсети больше TAO для вознаграждения своих участников, способствуя росту. Если подсеть стагнирует, стейкеры выводят средства в более прибыльные подсети. По сути, держатели TAO коллективно управляют фокусом сети, финансово сигнализируя, какие ИИ-области заслуживают больше ресурсов. Это форма ончейн-управления по весу токенов, согласованная с экономическими результатами. Помимо распределения ресурсов, основные обновления протокола или изменения параметров, вероятно, по-прежнему проходят через предложения по управлению, за которые голосуют держатели TAO (Bittensor имеет механизм для ончейн-предложений и референдумов, управляемых Фондом Bittensor и избранным советом, аналогично управлению Polkadot). Со временем можно ожидать, что управление Bittensor будет становиться все более децентрализованным, при этом фонд будет отходить на второй план, поскольку сообщество (через стейк TAO) будет управлять такими вещами, как уровень инфляции, утверждение новых подсетей и т. д. Переход на dTAO является большим шагом в этом направлении, заменяя централизованных лиц, принимающих решения, рынком заинтересованных сторон токенов, согласованным по стимулам.

  • Стимулы Bittensor: Структура стимулов Bittensor тесно вплетена в его консенсус. Каждый блок (12 секунд) ровно 1 TAO выпускается и делится между участниками каждой подсети на основе производительности. Разделение вознаграждения за блок по умолчанию для каждой подсети составляет 41% майнерам, 41% валидаторам и 18% владельцу подсети. Это гарантирует, что все роли вознаграждаются: майнеры зарабатывают за выполнение работы по выводу, валидаторы зарабатывают за свои усилия по оценке, а владельцы подсетей (которые, возможно, загрузили данные/задачу для этой подсети) получают остаток за предоставление «маркетплейса» или дизайн задачи. Эти проценты фиксированы в протоколе и направлены на согласование стимулов всех участников для получения высококачественного ИИ-вывода. Механизм консенсуса Yuma дополнительно уточняет стимулы, взвешивая вознаграждения в соответствии с оценками качества — майнер, который предоставляет лучшие ответы (согласно консенсусу валидаторов), получает большую часть этих 41%, а валидатор, который точно следует честному консенсусу, получает больше из доли валидатора. Плохие исполнители экономически отсеиваются. Кроме того, делегаторы (стейкеры), которые поддерживают майнера или валидатора, обычно получают долю от заработка этого узла (узлы часто устанавливают комиссию и отдают остальное своим делегаторам, аналогично стейкингу в сетях PoS). Это позволяет пассивным держателям TAO поддерживать лучших участников и получать доход, что еще больше укрепляет меритократию. Токен Bittensor (TAO) таким образом является утилитарным токеном: он требуется для регистрации новых майнеров (майнеры должны потратить небольшое количество TAO, чтобы присоединиться, что борется со спамом Сивиллы) и может быть застейкан для увеличения влияния или заработка через делегирование. Он также рассматривается как платежный токен, если внешние пользователи хотят потреблять услуги из сети Bittensor (например, платить TAO за запрос языковой модели в Bittensor), хотя внутренний механизм вознаграждения до сих пор был основной «экономикой». Общая философия стимулирования заключается в вознаграждении «ценного интеллекта» — то есть моделей, которые помогают производить хорошие ИИ-результаты — и в создании конкуренции, которая постоянно улучшает качество моделей в сети.

  • Управление Gensyn: Модель управления Gensyn структурирована таким образом, чтобы развиваться от контроля основной команды к контролю сообщества по мере созревания сети. Первоначально Gensyn будет иметь Фонд Gensyn и избранный совет, который будет контролировать обновления протокола и решения по казначейству. Ожидается, что этот совет будет состоять из членов основной команды и ранних лидеров сообщества. Gensyn планирует Событие генерации токенов (TGE) для своего нативного токена (часто называемого GENS), после чего власть управления будет все больше переходить в руки держателей токенов через ончейн-голосование. Роль фонда заключается в представлении интересов протокола и обеспечении плавного перехода к полной децентрализации. На практике Gensyn, вероятно, будет иметь ончейн-механизмы предложений, где изменения параметров (например, длительность игры верификации, ставки комиссий) или обновления будут голосоваться сообществом. Поскольку Gensyn реализуется как роллап Ethereum, управление также может быть связано с безопасностью Ethereum (например, использование ключей обновления для контракта роллапа, которые в конечном итоге передаются DAO держателей токенов). Раздел децентрализации и управления в лайтпейпере Gensyn подчеркивает, что протокол в конечном итоге должен принадлежать всему миру, что соответствует этике, согласно которой «сеть для машинного интеллекта» должна принадлежать ее пользователям и участникам. В итоге, управление Gensyn начинается полуцентрализованным, но спроектировано так, чтобы стать DAO, где держатели токенов GENS (потенциально взвешенные по стейку или участию) принимают решения коллективно.

  • Стимулы Gensyn: Экономические стимулы в Gensyn представляют собой прямую рыночную динамику, дополненную криптоэкономической безопасностью. Разработчики (клиенты) платят за ML-задачи в токене Gensyn, а Решатели зарабатывают токены, правильно выполняя эти задачи. Цена за вычислительные циклы определяется открытым рынком — предположительно, разработчики могут выставлять задачи с вознаграждением, а решатели могут делать ставки или просто брать задачу, если цена соответствует их ожиданиям. Это гарантирует, что пока есть предложение свободных GPU, конкуренция будет снижать стоимость до справедливой ставки (команда Gensyn прогнозирует снижение затрат до 80% по сравнению с облачными ценами, поскольку сеть находит самое дешевое доступное оборудование по всему миру). С другой стороны, решатели заинтересованы в заработке токенов за работу; их оборудование, которое иначе простаивало бы, теперь приносит доход. Для обеспечения качества Gensyn требует от решателей стейкать залог при выполнении задания — если они обманывают или производят неверный результат и их ловят, они теряют этот стейк (он может быть сокращен и передан честному верификатору). Верификаторы стимулируются возможностью получить «джекпот» в случае поимки мошеннического решателя, аналогично дизайну Truebit, который периодически вознаграждает верификаторов, успешно выявляющих неверные вычисления. Это поддерживает честность решателей и мотивирует некоторые узлы действовать как наблюдатели. В оптимальном сценарии (без мошенничества) решатели просто получают плату за задачу, а роль верификатора в основном простаивает (или один из участвующих решателей может выступать в качестве верификатора для других). Токен Gensyn, таким образом, служит как валютой для оплаты газа для покупки вычислений, так и залоговым стейком, который обеспечивает безопасность протокола. В лайтпейпере упоминается тестовая сеть с неперманентными токенами и то, что ранние участники тестовой сети будут вознаграждены на TGE реальными токенами. Это указывает на то, что Gensyn выделил часть предложения токенов для бустрапинга — вознаграждения ранних пользователей, тестовых решателей и членов сообщества. В долгосрочной перспективе плата за реальные задания должна поддерживать сеть. Также может быть небольшая протокольная комиссия (процент от каждого платежа за задачу), которая поступает в казну или сжигается; эта деталь пока не подтверждена, но многие протоколы маркетплейсов включают комиссию для финансирования разработки или выкупа и сжигания токенов. В итоге, стимулы Gensyn согласованы вокруг честного выполнения ML-заданий: выполняй работу, получай оплату; пытайся обмануть, теряй стейк; проверяй других, зарабатывай, если поймаешь мошенников. Это создает саморегулирующуюся экономическую систему, направленную на достижение надежных распределенных вычислений.

  • Управление Cuckoo: Cuckoo Network с самого начала встроила управление в свою экосистему, хотя оно все еще находится на стадии развития. Токен CAIявноявляетсятокеномуправлениявдополнениекегоутилитарнымролям.ФилософияCuckooзаключаетсявтом,чтооператорыузловGPU,разработчикиприложенийидажеконечныепользователидолжныиметьправоголосавразвитиисети—этоотражаетеевидение,ориентированноенасообщество.Напрактикеважныерешения(например,обновленияпротоколаилиэкономическиеизменения)будутприниматьсяпутемголосования,взвешенногопотокенам,предположительночерезмеханизмDAO.Например,Cuckooможетпроводитьончейнголосованиязаизменениераспределениявознагражденийиливнедрениеновойфункции,идержателиCAI явно является токеном управления в дополнение к его утилитарным ролям. Философия Cuckoo заключается в том, что операторы узлов GPU, разработчики приложений и даже конечные пользователи должны иметь право голоса в развитии сети — это отражает ее видение, ориентированное на сообщество. На практике важные решения (например, обновления протокола или экономические изменения) будут приниматься путем голосования, взвешенного по токенам, предположительно через механизм DAO. Например, Cuckoo может проводить ончейн-голосования за изменение распределения вознаграждений или внедрение новой функции, и держатели CAI (включая майнеров, разработчиков и пользователей) будут голосовать. Уже сейчас ончейн-голосование используется как система репутации: Cuckoo требует, чтобы каждая роль стейкала токены, а затем члены сообщества могут голосовать (возможно, делегируя стейк или через модули управления) за то, какие координаторы или майнеры заслуживают доверия. Это влияет на оценки репутации и может влиять на планирование задач (например, координатор с большим количеством голосов может привлекать больше пользователей, или майнер с большим количеством голосов может получать больше задач). Это сочетание управления и стимулов — использование токенов управления для установления доверия. Фонд Cuckoo или основная команда до сих пор руководили направлением проекта (например, приняли недавнее решение о прекращении поддержки цепи L1), но их блог указывает на приверженность переходу к децентрализованному владению. Они определили, что запуск собственной цепи повлек за собой высокие накладные расходы, и что переход на роллап позволит более открытую разработку и интеграцию с существующими экосистемами. Вероятно, что после перехода на общий уровень (например, Ethereum) Cuckoo реализует более традиционный DAO для обновлений, при этом сообщество будет голосовать с использованием CAI.

  • Стимулы Cuckoo: Дизайн стимулов для Cuckoo имеет две фазы: начальная фаза бустрапинга с фиксированными распределениями токенов и будущее состояние с распределением доходов, зависящим от использования. При запуске Cuckoo провела «честный запуск» распределения 1 миллиарда токенов CAI. 51% предложения было выделено для сообщества, распределено следующим образом:

    • Вознаграждения за майнинг: 30% от общего предложения зарезервировано для оплаты GPU-майнерам за выполнение ИИ-задач.
    • Вознаграждения за стейкинг: 11% предложения для тех, кто стейкает и помогает обеспечивать безопасность сети.
    • Аирдропы: 5% для ранних пользователей и членов сообщества в качестве стимула к принятию.
    • (Еще 5% было выделено на гранты для разработчиков для поощрения создания на Cuckoo.)

    Это большое распределение означало, что на ранних этапах сети майнеры и стейкеры вознаграждались из пула эмиссии, даже если фактический пользовательский спрос был низким. Действительно, на начальном этапе Cuckoo предлагала высокую APY-доходность за стейкинг и майнинг, что успешно привлекало участников, но также и «фармеров доходности», которые были там только ради токенов. Команда отметила, что многие пользователи ушли, как только ставки вознаграждения упали, что указывает на то, что эти стимулы не были связаны с реальным использованием. Учитывая это, Cuckoo переходит к модели, где вознаграждения напрямую коррелируют с реальной ИИ-нагрузкой. В будущем (и частично уже сейчас), когда конечный пользователь платит за ИИ-вывод, этот платеж (в CAI или, возможно, другом принятом токене, конвертированном в CAI) будет разделен между участниками:

    • GPU-майнеры получат большую часть за предоставленные вычисления.
    • Координатор (разработчик приложения) получит часть как поставщик услуг, который предоставил модель и обработал запрос.
    • Стейкеры, которые делегировали этим майнерам или координаторам, могут получить небольшую долю или инфляционное вознаграждение, чтобы продолжать стимулировать поддержку надежных узлов.
    • Сеть/Казначейство может удерживать комиссию за текущую разработку или для финансирования будущих стимулов (или комиссия может быть нулевой/номинальной для максимизации доступности для пользователей).

    По сути, Cuckoo переходит к модели распределения доходов: если ИИ-приложение на Cuckoo приносит доход, этот доход распределяется между всеми участниками этого сервиса справедливым образом. Это согласовывает стимулы таким образом, что участники получают выгоду от фактического использования, а не только от инфляции. Уже сейчас сеть требовала от всех сторон стейкать CAI — это означает, что майнеры и координаторы зарабатывают не только фиксированное вознаграждение, но и, возможно, вознаграждения на основе стейка (например, координатор может зарабатывать больше, если многие пользователи стейкают на него или если он сам стейкает больше, аналогично тому, как зарабатывают валидаторы Proof-of-Stake). Что касается стимулов для пользователей, Cuckoo также представила такие вещи, как портал аирдропов и краны (которые некоторые пользователи обманывали) для стимулирования начальной активности. В будущем пользователи могут быть стимулированы через токен-ребейты за использование услуг или через вознаграждения за управление за участие в курировании (например, возможно, зарабатывая небольшие токены за оценку выходов или предоставление данных). Суть в том, что токен Cuckoo ($CAI) является многоцелевым: это токен газа/комиссии в цепи (все транзакции и платежи используют его), он используется для стейкинга и голосования, и это единица вознаграждения за выполненную работу. Cuckoo явно упоминает, что хочет привязать токен-вознаграждения к KPI на уровне сервиса (ключевым показателям производительности) — например, времени безотказной работы, пропускной способности запросов, удовлетворенности пользователей — чтобы избежать чисто спекулятивных стимулов. Это отражает созревание токеномики от простого майнинга ликвидности к более устойчивой, ориентированной на полезность модели.

Владение моделями и атрибуция ИС

Обработка интеллектуальной собственности (ИС) и прав собственности на ИИ-модели является сложным аспектом децентрализованных ИИ-сетей. Каждая платформа заняла несколько иную позицию, и в целом это развивающаяся область, пока не имеющая полного решения:

  • Bittensor: Модели в Bittensor предоставляются узлами-майнерами, и эти майнеры сохраняют полный контроль над весами своих моделей (которые никогда не публикуются в ончейне). Bittensor явно не отслеживает, кто «владеет» моделью, помимо того факта, что она работает по определенному адресу кошелька. Если майнер уходит, его модель уходит вместе с ним. Таким образом, атрибуция ИС в Bittensor происходит офчейн: если майнер использует проприетарную модель, в ончейне нет ничего, что бы это обеспечивало или даже знало. Философия Bittensor поощряет открытые вклады (многие майнеры могут использовать модели с открытым исходным кодом, такие как GPT-J или другие), и сеть вознаграждает производительность этих моделей. Можно сказать, что Bittensor создает репутационную оценку для моделей (через рейтинги валидаторов), и это является формой признания ценности модели, но права на саму модель не токенизируются и не распределяются. Примечательно, что владельцы подсетей в Bittensor могут рассматриваться как владельцы части ИС: они определяют задачу (которая может включать набор данных или метод). Владелец подсети выпускает NFT (называемый UID подсети) при создании подсети, и этот NFT дает ему право на 18% вознаграждений в этой подсети. Это фактически токенизирует создание маркетплейса моделей (подсети), если не экземпляров моделей. Если определение подсети (скажем, задача распознавания речи с определенным набором данных) рассматривать как ИС, то это по крайней мере записывается и вознаграждается. Но индивидуальные веса моделей, которые обучают майнеры — записи о владении ими в ончейне нет. Атрибуция происходит в виде вознаграждений, выплачиваемых на адрес этого майнера. Bittensor в настоящее время не реализует систему, где, например, несколько человек могли бы совместно владеть моделью и получать автоматическую долю дохода — человек, запускающий модель (майнер), получает вознаграждение, и от него зависит, соблюдать ли офчейн любые лицензии ИС на используемую им модель.

  • Gensyn: В Gensyn владение моделями прямолинейно: отправитель (тот, кто хочет обучить модель) предоставляет архитектуру модели и данные, и после обучения получает результирующий артефакт модели. Решатели, выполняющие работу, не имеют прав на модель; они подобны подрядчикам, получающим оплату за услугу. Протокол Gensyn, таким образом, предполагает традиционную модель ИС: если у вас были законные права на модель и данные, которые вы предоставили, они остаются у вас после обучения — вычислительная сеть не претендует на какое-либо владение. Gensyn упоминает, что маркетплейс также может торговать алгоритмами и данными, как и любым другим ресурсом. Это намекает на сценарий, когда кто-то может предложить модель или алгоритм для использования в сети, возможно, за плату, тем самым токенизируя доступ к этой модели. Например, создатель модели может разместить свою предварительно обученную модель на Gensyn и позволить другим дообучать ее через сеть за плату (это фактически монетизировало бы ИС модели). Хотя протокол не обеспечивает соблюдение условий лицензии, можно закодировать требования к оплате: смарт-контракт может требовать плату для разблокировки весов модели для решателя. Однако это спекулятивные варианты использования — основной дизайн Gensyn заключается в обеспечении выполнения задач обучения. Что касается атрибуции, если несколько сторон вносят вклад в модель (скажем, одна предоставляет данные, другая — вычисления), это, вероятно, будет регулироваться любым контрактом или соглашением, которое они заключили до использования Gensyn (например, смарт-контракт может разделить платеж между поставщиком данных и поставщиком вычислений). Сам Gensyn не отслеживает в ончейне «эта модель была создана X, Y, Z» помимо записи о том, какие адреса были оплачены за работу. В итоге, ИС модели в Gensyn остается у отправителя, и любая атрибуция или лицензирование должны обрабатываться через юридические соглашения вне протокола или через пользовательские смарт-контракты, построенные поверх него.

  • Cuckoo: В экосистеме Cuckoo создатели моделей (разработчики ИИ-приложений) являются первоклассными участниками — они развертывают ИИ-сервис. Если разработчик приложения дообучает языковую модель или разрабатывает пользовательскую модель и размещает ее на Cuckoo, эта модель по сути является его собственностью, и он выступает в качестве владельца сервиса. Cuckoo не захватывает никакого владения; вместо этого она предоставляет инфраструктуру для монетизации использования. Например, если разработчик развертывает чат-бота с ИИ, пользователи могут взаимодействовать с ним, и разработчик (плюс майнеры) зарабатывают CAI от каждого взаимодействия. Таким образом, платформа приписывает доход от использования создателю модели, но не публикует явно веса модели и не превращает их в NFT. Фактически, для запуска модели на GPU майнеров узел-координатор, вероятно, должен отправить модель (или среду выполнения) майнеру в какой-либо форме. Это вызывает вопросы ИС: может ли злонамеренный майнер скопировать веса модели и распространить их? В децентрализованной сети такой риск существует, если используются проприетарные модели. Текущий фокус Cuckoo был на достаточно открытых моделях (Stable Diffusion, модели, производные от LLaMA и т. д.) и на создании сообщества, поэтому мы еще не видели обеспечения прав ИС через смарт-контракты. Платформа потенциально может интегрировать такие инструменты, как зашифрованное выполнение моделей или защищенные анклавы в будущем для защиты ИС, но в документации ничего конкретного не упоминается. Что она действительно отслеживает, так это кто предоставил сервис модели для каждой задачи — поскольку координатор является ончейн-идентичностью, все использование его модели учитывается ему, и он автоматически получает свою долю вознаграждений. Если бы кто-то передал или продал модель кому-то другому, он фактически передал бы контроль над узлом-координатором (возможно, даже просто передал бы ему приватный ключ или NFT, если роль координатора была токенизирована). В настоящее время общественное владение моделями (через доли токенов) не реализовано, но видение Cuckoo намекает на децентрализованный ИИ, управляемый сообществом, поэтому они могут изучить возможность позволить людям коллективно финансировать или управлять ИИ-моделью. Токенизация моделей за пределами индивидуального владения все еще является открытой областью в этих сетях — это признается целью (позволить сообществам владеть ИИ-моделями, а не корпорациям), но на практике это требует решений для вышеупомянутых проблем ИС и верификации.

В итоге, владение моделями в Bittensor, Gensyn и Cuckoo обрабатывается офчейн традиционными способами: лицо или сущность, запускающая или отправляющая модель, фактически является владельцем. Сети обеспечивают атрибуцию в виде экономических вознаграждений (оплачивая вкладчику модели его ИС или усилия). Ни одна из трех платформ пока не имеет встроенной лицензии или механизма принудительного взимания роялти за использование модели на уровне смарт-контракта. Атрибуция происходит через репутацию и вознаграждение: например, лучшие модели Bittensor получают высокие оценки репутации (что является публичной записью) и больше TAO, что является неявным кредитом их создателям. Со временем мы можем увидеть такие функции, как веса моделей, привязанные к NFT, или децентрализованные лицензии для лучшего отслеживания ИС, но в настоящее время приоритетом является обеспечение функционирования сетей и стимулирование вкладов. Все согласны с тем, что проверка происхождения и выходов моделей является ключом к созданию настоящих рынков активов моделей, и исследования в этом направлении продолжаются.

Структуры распределения доходов

Все три платформы должны решить, как разделить экономический пирог, когда несколько сторон сотрудничают для получения ценного ИИ-выхода. Кто получает оплату и сколько, когда используется ИИ-сервис или когда выпускаются токены? Каждая имеет свою уникальную модель распределения доходов:

  • Bittensor: Как упоминалось в разделе о стимулах, распределение доходов Bittensor определяется протоколом на уровне блоков: 41% майнерам, 41% валидаторам, 18% владельцу подсети за каждый выпуск TAO в блоке. Это фактически встроенное распределение доходов для ценности, генерируемой в каждой подсети. Доля владельца подсети (18%) действует как роялти за «дизайн модели/задачи» или за бустрапинг экосистемы этой подсети. Майнеры и валидаторы, получающие равные доли, гарантируют, что без валидации майнеры не получают вознаграждения (и наоборот) — они симбиотичны, и каждый получает равную часть выпущенных вознаграждений. Если мы рассмотрим внешнего пользователя, платящего TAO за запрос модели, в вайтпейпере Bittensor предполагается, что этот платеж также будет аналогично разделен между майнером, который отвечает, и валидаторами, которые помогли проверить ответ (точное разделение может быть определено протоколом или рыночными силами). Кроме того, делегаторы, которые стейкают на майнеров/валидаторов, фактически являются партнерами — как правило, майнер/валидатор делится процентом своего заработанного TAO со своими делегаторами (это настраивается, но часто большая часть достается делегаторам). Таким образом, если майнер заработал 1 TAO за блок, это может быть разделено, например, 80/20 между его делегаторами и им самим, в зависимости от стейка. Это означает, что даже не-операторы получают долю дохода сети пропорционально своей поддержке. С введением dTAO был добавлен еще один уровень распределения: те, кто стейкает в пул подсети, получают альфа-токены, которые дают им право на часть эмиссии этой подсети (подобно фармингу доходности). По сути, любой может сделать ставку на успех конкретной подсети и получать долю вознаграждений майнеров/валидаторов, владея альфа-токенами (альфа-токены дорожают по мере того, как подсеть привлекает больше использования и эмиссии). В итоге, распределение доходов Bittensor фиксировано кодом для основных ролей и далее распределяется по социальным/стейкинговым соглашениям. Это относительно прозрачное, основанное на правилах разделение — каждый блок участники точно знают, как распределяется 1 TAO, и, таким образом, знают свой «заработок» за вклад. Эта ясность является одной из причин, по которой Bittensor иногда сравнивают с Биткойном для ИИ — детерминированная денежная эмиссия, где вознаграждение участников математически установлено.

  • Gensyn: Распределение доходов в Gensyn более динамично и ориентировано на рынок, поскольку задачи оцениваются индивидуально. Когда отправитель создает задание, он прикрепляет вознаграждение (скажем, X токенов), которое он готов заплатить. Решатель, который выполняет задание, получает эти X (за вычетом любой сетевой комиссии). Если задействован верификатор, обычно действует правило: если мошенничество не обнаружено, решатель сохраняет полную оплату; если мошенничество обнаружено, решатель подвергается слэшингу — теряя часть или весь свой стейк — и эта сокращенная сумма передается верификатору в качестве вознаграждения. Таким образом, верификаторы не зарабатывают на каждой задаче, только когда они ловят плохой результат (плюс, возможно, небольшая базовая комиссия за участие, в зависимости от реализации). Здесь нет встроенной концепции оплаты владельцу модели, потому что предполагается, что отправитель либо является владельцем модели, либо имеет права на ее использование. Можно представить сценарий, когда отправитель дообучает чью-то предварительно обученную модель, и часть платежа идет первоначальному создателю модели — но это должно быть обработано вне протокола (например, по соглашению или отдельному смарт-контракту, который соответствующим образом делит платеж в токенах). Распределение на уровне протокола Gensyn, по сути, происходит по схеме клиент -> решатель (-> верификатор). Модель токена, вероятно, включает некоторое распределение для казначейства протокола или фонда; например, небольшой процент от платежа за каждую задачу может идти в казну, которая может использоваться для финансирования разработки или страховых пулов (это не указано явно в доступных документах, но многие протоколы так делают). Кроме того, на ранних этапах Gensyn может субсидировать решателей через инфляцию: пользователям тестовой сети обещаны вознаграждения при TGE, что фактически является долей дохода от первоначального распределения токенов (ранние решатели и сторонники получают часть токенов за помощь в бустрапинге, сродни аирдропу или вознаграждению за майнинг). Со временем, по мере того как реальные задания будут доминировать, инфляционные вознаграждения будут сокращаться, а доход решателей будет в основном поступать от пользовательских платежей. Подход Gensyn можно резюмировать как модель дохода «плата за услугу»: сеть облегчает прямую оплату от тех, кому нужна работа, тем, кто ее выполняет, при этом верификаторы и, возможно, стейкеры токенов получают доли только тогда, когда они играют роль в обеспечении этой услуги.

  • Cuckoo: Распределение доходов Cuckoo развивалось. Изначально, поскольку не было много платящих конечных пользователей, распределение доходов по сути было распределением инфляции: 30% на майнинг и 11% на стейкинг из предложения токенов означали, что майнеры и стейкеры делили токены, выпущенные пулом честного запуска сети. На практике Cuckoo осуществляла такие вещи, как ежедневные выплаты CAI майнерам пропорционально выполненным задачам. Эти выплаты в основном поступали из выделения вознаграждений за майнинг (которое является частью зарезервированного фиксированного предложения). Это похоже на то, как многие блокчейны уровня 1 распределяют вознаграждения за блоки майнерам/валидаторам — это не было привязано к фактическому использованию внешними пользователями, это было скорее для стимулирования участия и роста. Однако, как подчеркивается в их блоге от июля 2025 года, это привело к использованию, которое стимулировалось фармингом токенов, а не реальным спросом. Следующий этап для Cuckoo — это настоящая модель распределения доходов, основанная на платах за услуги. В этой модели, когда конечный пользователь использует, скажем, сервис генерации изображений и платит 1(вкриптовалютномвыражении),этитокенына1 (в криптовалютном выражении), эти токены на 1 будут разделены, возможно, следующим образом: 0,70 майнеру, который выполнил работу на GPU, 0,20 разработчику приложения (координатору), который предоставил модель и интерфейс, и 0,10 стейкерам или казначейству сети. (Примечание: точные соотношения гипотетические; Cuckoo еще не опубликовала их, но это иллюстрирует концепцию.) Таким образом, все участники предоставления услуги получают долю дохода. Это аналогично, например, экономике совместных поездок, но для ИИ: транспортное средство (GPU-майнер) получает большую часть, водитель или платформа (координатор, создавший сервис модели) получает долю, и, возможно, управление/стейкеры платформы получают небольшую комиссию. Упоминание Cuckoo о «моделях распределения доходов и токен-вознаграждениях, напрямую привязанных к метрикам использования» предполагает, что если конкретный сервис или узел обрабатывает большой объем, его операторы и сторонники будут зарабатывать больше. Они отходят от фиксированной доходности за простое блокирование токенов (что было в случае с их начальной APY за стейкинг). В конкретных терминах: если вы стейкаете на координатора, который в итоге обеспечивает работу очень популярного ИИ-приложения, вы можете заработать часть комиссий этого приложения — сценарий стейкинга как инвестирования в полезность, а не стейкинга просто ради инфляции. Это согласовывает стимулы всех участников на привлечение реальных пользователей, которые платят за ИИ-сервисы, что, в свою очередь, возвращает ценность держателям токенов. Стоит отметить, что цепочка Cuckoo также имела комиссии за транзакции (газ), поэтому майнеры, которые производили блоки (изначально GPU-майнеры также способствовали производству блоков в цепочке Cuckoo), также получали комиссии за газ. С закрытием цепочки и миграцией на роллап комиссии за газ, вероятно, будут минимальными (или на Ethereum), поэтому основным доходом станут сами комиссии за ИИ-сервисы. В итоге, Cuckoo переходит от модели, основанной на субсидиях (сеть платит участникам из своего пула токенов), к модели, основанной на спросе (участники зарабатывают на фактических платежах пользователей). Токен по-прежнему будет играть роль в стейкинге и управлении, но ежедневный заработок майнеров и разработчиков приложений должен все больше поступать от пользователей, покупающих ИИ-сервисы. Эта модель более устойчива в долгосрочной перспективе и тесно отражает распределение доходов SaaS в Web2, но реализована через смарт-контракты и токены для прозрачности.

Поверхности атаки и уязвимости

Децентрализация ИИ вводит несколько проблем со стимулами и безопасностью. Теперь мы проанализируем ключевые векторы атак — атаки Сивиллы, сговор, фрирайдерство и отравление данных/моделей — и то, как каждая платформа смягчает их или остается уязвимой к ним:

  • Атаки Сивиллы (фальшивые личности): В открытой сети злоумышленник может создать множество личностей (узлов), чтобы получить непропорциональные вознаграждения или влияние.

    • Bittensor: Устойчивость к атакам Сивиллы обеспечивается в основном стоимостью входа. Для регистрации нового майнера или валидатора в Bittensor необходимо потратить или застейкать TAO — это может быть сжигание или требование залога. Это означает, что создание N фальшивых узлов влечет за собой N-кратные затраты, что делает крупные рои Сивиллы дорогостоящими. Кроме того, консенсус Bittensor связывает влияние со стейком и производительностью; Сивилла без стейка или с плохой производительностью мало зарабатывает. Злоумышленнику придется вложить значительные средства, а также заставить свои узлы Сивиллы фактически вносить полезную работу, чтобы получить какое-либо значительное вознаграждение (что не является типичной стратегией Сивиллы). Тем не менее, если у злоумышленника действительно много капитала, он может приобрести большинство TAO и зарегистрировать много валидаторов или майнеров — фактически, Сивилла за счет богатства. Это пересекается со сценарием атаки 51%: если одна сущность контролирует >50% застейканных TAO в подсети, она может сильно повлиять на консенсус. Введение dTAO в Bittensor немного помогает здесь: оно распределяет влияние по подсетям и требует поддержки сообщества для процветания подсетей, что затрудняет контроль над всем одной сущности. Тем не менее, атаки Сивиллы со стороны хорошо финансируемого противника остаются проблемой — анализ Arxiv явно отмечает, что стейк сейчас довольно сконцентрирован, поэтому барьер для атаки большинства не так высок, как хотелось бы. Для смягчения этой проблемы были предложены такие меры, как ограничения на стейк для каждого кошелька (например, ограничение эффективного стейка 88-м процентилем для предотвращения доминирования одного кошелька). В итоге, Bittensor полагается на идентичность, взвешенную по стейку (вы не можете дешево создавать личности без пропорционального стейка) для борьбы с Сивиллами; это достаточно эффективно, за исключением очень ресурсного злоумышленника.
    • Gensyn: Атаки Сивиллы в Gensyn проявились бы в том, что злоумышленник запускает множество узлов-решателей или верификаторов, чтобы обмануть систему. Защита Gensyn является чисто экономической и криптографической — сами по себе личности не имеют значения, но выполнение работы или внесение залога имеют. Если злоумышленник создает 100 фальшивых узлов-решателей, но у них нет заданий или стейка, они ничего не добьются. Чтобы выиграть задачи, узел Сивиллы должен будет конкурировать в ставках и иметь оборудование для выполнения работы. Если они занижают ставки без достаточной мощности, они потерпят неудачу и потеряют стейк. Аналогично, злоумышленник может создать множество верификаторов, надеясь быть выбранным для проверки (если протокол случайным образом выбирает верификаторов). Но если их слишком много, сеть или отправитель задания могут ограничить количество активных верификаторов. Кроме того, верификаторам, возможно, придется выполнять вычисления для проверки, что дорого; наличие множества фальшивых верификаторов не поможет, если вы не можете фактически проверять результаты. Более актуальный аспект атаки Сивиллы в Gensyn заключается в том, что злоумышленник пытается заполнить сеть поддельными заданиями или ответами, чтобы потратить время других. Это смягчается требованием депозита и от отправителей (злонамеренный отправитель, размещающий фальшивые задания, теряет свою оплату или депозит). В целом, использование Gensyn обязательных стейков/залогов и случайного выбора для верификации означает, что злоумышленник мало что получает от наличия нескольких личностей, если он также не приносит пропорциональные ресурсы. Это становится более дорогостоящей атакой, а не дешевой. Оптимистическая модель безопасности предполагает наличие хотя бы одного честного верификатора — Сивиллы должны будут подавить и быть всеми верификаторами, чтобы постоянно обманывать, что снова сводится к владению большинством стейка или вычислительной мощности. Устойчивость Gensyn к атакам Сивиллы, таким образом, сравнима с устойчивостью оптимистического роллапа: пока есть хотя бы один честный актор, Сивиллы не могут легко причинить системный вред.
    • Cuckoo: Предотвращение атак Сивиллы в Cuckoo основано на стейкинге и проверке сообществом. Каждая роль в Cuckoo (майнер, координатор, даже пользователь в некоторых случаях) требует стейкинга $CAI. Это немедленно увеличивает стоимость личностей Сивиллы — злоумышленнику, создающему 100 фиктивных майнеров, потребуется приобрести и заблокировать стейк для каждого. Более того, дизайн Cuckoo имеет человеческий/общественный элемент: новые узлы должны зарабатывать репутацию через ончейн-голосование. Армия Сивиллы из новых узлов без репутации вряд ли получит много задач или доверия пользователей. Координаторы, в частности, должны привлекать пользователей; фальшивый координатор без послужного списка не получит использования. Для майнеров координаторы могут видеть их статистику производительности (успешные задачи и т. д.) на Cuckoo Scan и будут предпочитать надежных майнеров. Cuckoo также имела относительно небольшое количество майнеров (40 GPU в один момент в бета-версии), поэтому любой странный приток множества узлов был бы заметен. Потенциально слабым местом является то, что злоумышленник также использует систему репутации — например, он стейкает много CAI на своих узлах Сивиллы, чтобы они выглядели респектабельными, или создает фальшивые «пользовательские» учетные записи, чтобы голосовать за себя. Это теоретически возможно, но поскольку все это курируется токенами, это стоит токенов (вы, по сути, будете голосовать своим собственным стейком за свои собственные узлы). Команда Cuckoo также может корректировать параметры стейкинга и вознаграждений, если наблюдается поведение Сивиллы (особенно сейчас, когда она становится более централизованным сервисом роллапа; они могут приостанавливать или сокращать плохих акторов). В целом, Сивиллы сдерживаются требованием «шкурного интереса» (стейка) и необходимостью одобрения сообщества. Никто не может просто так прийти с сотнями фальшивых GPU и получать вознаграждения без значительных инвестиций, которые честные участники могли бы лучше потратить на реальное оборудование и стейк.
  • Сговор: Здесь мы рассматриваем сговор нескольких участников для обмана системы — например, сговор валидаторов и майнеров в Bittensor, или решателей и верификаторов в Gensyn и т. д.

    • Bittensor: Сговор был признан реальной проблемой. В первоначальном дизайне несколько валидаторов могли сговориться, чтобы всегда одобрять определенных майнеров или самих себя, несправедливо искажая распределение вознаграждений (это наблюдалось как концентрация власти в корневой подсети). Консенсус Yuma обеспечивает некоторую защиту: принимая медиану оценок валидаторов и наказывая тех, кто отклоняется, он предотвращает драматическое повышение целевого объекта небольшой сговорившейся группой, если только они не составляют большинство. Другими словами, если 3 из 10 валидаторов сговариваются, чтобы дать майнеру очень высокую оценку, но остальные 7 этого не делают, оценки сговорщиков-выбросов отсекаются, и вознаграждение майнера основывается на медианной оценке (таким образом, сговор не помогает значительно). Однако, если сговорщики составляют >50% валидаторов (или >50% стейка среди валидаторов), они фактически являются консенсусом — они могут договориться о ложных высоких оценках, и медиана будет отражать их точку зрения. Это классический сценарий атаки 51%. К сожалению, исследование Arxiv показало, что в некоторых подсетях Bittensor коалиция всего 1–2% участников (по количеству) контролировала большинство стейка из-за высокой концентрации токенов. Это означает, что сговор нескольких крупных держателей был реальной угрозой. Смягчение, которое Bittensor преследует через dTAO, заключается в демократизации влияния: позволяя любому держателю TAO направлять стейк в подсети, это разбавляет власть закрытых групп валидаторов. Также предложения, такие как вогнутый стейкинг (уменьшающаяся отдача от чрезмерного стейка) и ограничения на стейк, направлены на то, чтобы лишить одну сговорившуюся сущность возможности собрать слишком много голосующей силы. Предположение безопасности Bittensor теперь аналогично Proof-of-Stake: ни одна сущность (или картель) не контролирует >50% активного стейка. Пока это сохраняется, сговор ограничен, потому что честные валидаторы будут отменять плохие оценки, а сговорившиеся владельцы подсетей не могут произвольно увеличивать свои собственные вознаграждения. Наконец, что касается сговора между владельцами подсетей и валидаторами (например, владелец подсети подкупает валидаторов, чтобы они высоко оценивали майнеров его подсети), dTAO устраняет прямой контроль валидаторов, заменяя его решениями держателей токенов. Сговориться с «рынком» сложнее, если только вы не выкупите все предложение токенов — в этом случае это не совсем сговор, это поглощение. Таким образом, основной метод борьбы со сговором в Bittensor — это алгоритмический консенсус (отсечение медианы) и широкое распределение токенов.
    • Gensyn: Сговор в Gensyn, вероятно, будет включать сговор решателя и верификатора (или нескольких верификаторов) для обмана системы. Например, решатель может произвести поддельный результат, а сговорившийся верификатор может намеренно не оспаривать его (или даже подтвердить, что он правильный, если протокол просил верификаторов подписать). Для смягчения этого, модель безопасности Gensyn требует наличия хотя бы одного честного верификатора. Если все верификаторы сговариваются с решателем, то плохой результат остается неоспоренным. Gensyn решает эту проблему, поощряя множество независимых верификаторов (любой может верифицировать) и используя теорию игр, согласно которой верификатор может получить большое вознаграждение, выйдя из сговора и оспорив (потому что он получит стейк решателя). По сути, даже если есть группа, согласившаяся на сговор, у каждого члена есть стимул дезертировать и забрать награду себе — это классическая дилемма заключенного. Надежда состоит в том, что это сохраняет группы сговорщиков небольшими или неэффективными. Другой потенциальный сговор — между несколькими решателями для повышения цен или монополизации задач. Однако, поскольку разработчики могут выбирать, куда размещать задачи (и задачи не являются идентичными единицами, которые можно легко монополизировать), сговор решателей по ценам было бы трудно координировать глобально — любой не сговорившийся решатель мог бы предложить более низкую цену, чтобы выиграть работу. Динамика открытого рынка противодействует ценовому сговору, предполагая наличие хотя бы нескольких конкурентоспособных участников. Еще один аспект: сговор верификаторов для «гриферства» решателей — например, верификаторы ложно обвиняют честных решателей, чтобы украсть их стейк. Доказательство мошенничества Gensyn является бинарным и ончейн; ложное обвинение потерпит неудачу, когда ончейн-пересчет не обнаружит ошибки, и предположительно злонамеренный верификатор тогда что-то потеряет (возможно, депозит или репутацию). Таким образом, сговор верификаторов, пытающихся саботировать решателей, будет пойман процессом верификации протокола. В итоге, архитектура Gensyn надежна, пока хотя бы одна сторона в любом сговорившемся наборе имеет стимул быть честной — свойство оптимистической верификации, аналогичное требованию наличия одного честного майнера в Биткойне, чтобы в конечном итоге разоблачить мошенничество. Сговор теоретически возможен, если злоумышленник сможет контролировать всех верификаторов и решателей в задаче (как большинство сети), но тогда они могли бы просто обманывать без необходимости сговора как такового. Криптоэкономические стимулы устроены так, чтобы поддержание сговора было иррациональным.
    • Cuckoo: Сговор в Cuckoo может произойти несколькими способами:
      1. Координатор в сговоре с майнерами — например, координатор может всегда назначать задачи группе дружественных майнеров и делить вознаграждения, игнорируя других честных майнеров. Поскольку координаторы имеют право по своему усмотрению планировать задачи, это может произойти. Однако, если дружественные майнеры работают некачественно, конечные пользователи могут заметить медленное или плохое обслуживание и уйти, поэтому координатор не заинтересован в чистом фаворитизме, который вредит качеству. Если сговор направлен на манипулирование вознаграждениями (скажем, отправку фальшивых задач для выдачи токенов майнерам), это будет обнаружено в ончейне (много задач с, возможно, идентичными входными данными или без фактического пользователя) и может быть наказано. Ончейн-прозрачность Cuckoo означает, что любые необычные паттерны могут быть отмечены сообществом или основной командой. Кроме того, поскольку все участники стейкают, сговорившееся кольцо координатор-майнер рискует потерять свой стейк, если будет поймано на злоупотреблении системой (например, если управление решит сократить их за мошенничество).
      2. Майнеры сговариваются между собой — они могут обмениваться информацией или формировать картель, чтобы, скажем, голосовать друг за друга в репутационной системе или все отказываться обслуживать определенного координатора, чтобы получить более высокие комиссии. Эти сценарии менее вероятны: голосование за репутацию осуществляется стейкерами (включая пользователей), а не самими майнерами, голосующими друг за друга. А отказ от обслуживания только заставит координаторов искать других майнеров или поднимет тревогу. Учитывая относительно небольшой текущий масштаб, любой сговор будет трудно скрыть.
      3. Сговор с целью манипулирования управлением — крупные держатели CAI могут сговориться, чтобы принять предложения в свою пользу (например, установить непомерную комиссию или перенаправить казну). Это риск в любом токен-управлении. Лучшее смягчение — это широкое распределение токена (честный запуск Cuckoo отдал 51% сообществу) и активный надзор со стороны сообщества. Кроме того, поскольку Cuckoo отказалась от L1, непосредственное ончейн-управление может быть ограничено, пока они не перейдут на новую цепь; команда, вероятно, сохраняет мультисиг-контроль в промежутке, что, по иронии судьбы, предотвращает сговор злонамеренных посторонних за счет временной централизации. В целом, Cuckoo опирается на прозрачность и стейкинг для борьбы со сговором. Существует элемент доверия к координаторам, чтобы они вели себя хорошо, потому что они хотят привлекать пользователей в конкурентной среде. Если сговор приводит к ухудшению обслуживания или очевидной игре с вознаграждениями, заинтересованные стороны могут проголосовать против или прекратить стейкинг на плохих акторов, а сеть может сократить или заблокировать их. Достаточно открытый характер (любой может стать координатором или майнером, если он стейкает) означает, что сговор потребует больших скоординированных усилий, которые будут очевидны. Это не так математически предотвращено, как в Bittensor или Gensyn, но сочетание экономического стейка и управления сообществом обеспечивает проверку.
  • Фрирайдерство (проблемы безбилетника): Это относится к участникам, пытающимся получить вознаграждение, не внося эквивалентной ценности — например, валидатор, который фактически не оценивает, но все равно зарабатывает, или майнер, который копирует ответы других вместо вычислений, или пользователи, фармящие вознаграждения без предоставления полезного вклада.

    • Bittensor: Известной проблемой фрирайдерства в Bittensor является «копирование весов» ленивыми валидаторами. Валидатор может просто скопировать мнение большинства (или оценки другого валидатора) вместо независимой оценки майнеров. При этом они избегают затрат на выполнение ИИ-запросов, но все равно получают вознаграждение, если их представленные оценки соответствуют консенсусу. Bittensor борется с этим, измеряя согласованность консенсуса и информационный вклад каждого валидатора. Если валидатор всегда просто копирует других, он может хорошо согласовываться (поэтому его не сильно наказывают), но он не добавляет уникальной ценности. Разработчики протокола обсуждали предоставление более высоких вознаграждений валидаторам, которые предоставляют точные, но не чисто избыточные оценки. Такие методы, как «введение шума» (намеренное предоставление валидаторам немного разных запросов), могут заставить их фактически работать, а не копировать — хотя неясно, реализовано ли это. Arxiv предлагает методы взвешенной по производительности эмиссии и композитного скоринга для лучшей связи усилий валидатора с вознаграждением. Что касается майнеров, одним из возможных видов фрирайдерства было бы, если майнер запрашивает других майнеров и передает ответ (форма плагиата). Дизайн Bittensor (с децентрализованными запросами) может позволить модели майнера вызывать другие через свой собственный дендрит. Если майнер просто передает ответ другого, хороший валидатор может это заметить, потому что ответ может не соответствовать заявленным возможностям модели майнера. Это сложно обнаружить алгоритмически, но майнер, который никогда не вычисляет оригинальные результаты, в конечном итоге должен получить низкие оценки по некоторым запросам и потерять репутацию. Другой сценарий фрирайдерства — делегаторы, зарабатывающие вознаграждения без выполнения ИИ-работы. Это намеренно (для вовлечения держателей токенов), поэтому это не атака — но это означает, что часть эмиссии токенов идет людям, которые только стейкали. Bittensor оправдывает это как согласование стимулов, а не растраченные вознаграждения. Короче говоря, Bittensor признает проблему фрирайдерства валидаторов и настраивает стимулы (например, дает «оценки доверия валидаторов», которые повышают тех, кто не отклоняется и не копирует). Их решение, по сути, заключается в более явном вознаграждении за усилия и правильность, так что бездействие или слепое копирование со временем приносит меньше TAO.
    • Gensyn: В Gensyn фрирайдерам было бы трудно зарабатывать, потому что нужно либо предоставлять вычисления, либо ловить кого-то на мошенничестве, чтобы получить токены. Решатель не может «подделать» работу — он должен предоставить либо действительное доказательство, либо рискнуть быть сокращенным. Нет механизма получения оплаты без выполнения задачи. Верификатор теоретически может сидеть без дела и надеяться, что другие поймают мошенников — но тогда он ничего не заработает (потому что только тот, кто поднимает доказательство мошенничества, получает вознаграждение). Если слишком много верификаторов пытаются быть фрирайдерами (фактически не пересчитывают задачи), то мошеннический решатель может проскользнуть, потому что никто не проверяет. Дизайн стимулов Gensyn решает эту проблему с помощью джекпот-вознаграждения: достаточно одного активного верификатора, чтобы поймать мошенника и получить большую выплату, поэтому рационально, чтобы хотя бы один всегда выполнял работу. Другие, не выполняющие работу, не вредят сети, кроме как бесполезностью; они также не получают вознаграждения. Таким образом, система естественным образом отсеивает фрирайдеров: только те верификаторы, которые фактически верифицируют, будут получать прибыль в долгосрочной перспективе (другие тратят ресурсы на узлы впустую или очень редко случайно получают вознаграждение). Протокол также может рандомизировать, какой верификатор получает возможность оспорить, чтобы отговорить всех верификаторов от предположения «кто-то другой это сделает». Поскольку задачи оплачиваются индивидуально, нет аналога «вознаграждений за стейкинг без работы», кроме временных стимулов тестовой сети. Одна область, на которую стоит обратить внимание, — это оптимизация нескольких задач: решатель может попытаться повторно использовать работу между задачами или тайно передать ее кому-то более дешевому (например, использовать централизованное облако) — но это не совсем вредное фрирайдерство; если они предоставляют правильные результаты вовремя, неважно, как они это сделали. Это скорее арбитраж, чем атака. В итоге, дизайн механизма Gensyn оставляет мало места для фрирайдеров, потому что каждый распределенный токен соответствует выполненной работе или наказанному мошенничеству.
    • Cuckoo: Начальная фаза Cuckoo непреднамеренно создала проблему фрирайдерства: аирдроп и высокодоходный стейкинг привлекли пользователей, которые были там только для фарминга токенов. Эти пользователи циклически пропускали токены через краны или обманывали задачи аирдропа (например, постоянно используя бесплатные тестовые промпты или создавая множество учетных записей для получения вознаграждений), не внося вклад в долгосрочную ценность сети. Cuckoo признала это проблемой — по сути, люди «использовали» сеть не для ИИ-вывода, а для спекулятивной выгоды. Решение о прекращении поддержки цепочки L1 и переориентации было частично направлено на устранение этих несоответствий стимулов. Привязывая будущие токен-вознаграждения к фактическому использованию (т. е. вы зарабатываете, потому что сервис фактически используется платящими клиентами), привлекательность фрирайдерства уменьшается. Существует также сценарий фрирайдерства со стороны майнеров: майнер может присоединиться, получить назначенные задачи и каким-то образом не выполнить их, но все равно требовать вознаграждение. Однако координатор проверяет результаты — если майнер возвращает нулевой или плохой результат, координатор не будет считать это выполненной задачей, поэтому майнер не получит оплату. Майнеры также могут пытаться выбирать легкие задачи и отказываться от сложных (например, если некоторые промпты медленнее, майнер может отключиться, чтобы избежать их). Это может быть проблемой, но координаторы могут отмечать надежность майнера. Если майнер часто отключается, координатор может прекратить назначать ему задачи или сократить его стейк (если такой механизм существует или просто не вознаграждать его). Фрирайдерство пользователей — поскольку многие ИИ-сервисы имеют бесплатные пробные версии, пользователь может спамить запросы, чтобы получить выводы без оплаты (если есть субсидируемая модель). Это не столько проблема на уровне протокола, сколько на уровне сервиса; каждый координатор может решить, как обрабатывать бесплатное использование (например, требовать небольшую оплату или дросселировать). Поскольку Cuckoo изначально раздавала бесплатные услуги (например, бесплатную генерацию ИИ-изображений для привлечения пользователей), некоторые воспользовались этим, но это было частью ожидаемого маркетинга роста. По мере окончания этих акций пользователям придется платить, таким образом, не будет бесплатного обеда для эксплуатации. В целом, новая стратегия Cuckoo по привязке распределения токенов к реальной полезности явно направлена на устранение проблемы фрирайдерства «майнинга токенов за бессмысленные циклы».
  • Отравление данных или моделей: Это относится к злонамеренному введению плохих данных или поведений, в результате чего ИИ-модели деградируют или выходы манипулируются, а также к проблемам вредоносного или предвзятого контента.

    • Bittensor: Отравление данных в Bittensor означало бы, что майнер намеренно дает неверные или вредоносные ответы, или валидаторы целенаправленно неправильно оценивают хорошие ответы как плохие. Если майнер постоянно выдает мусор или вредоносный контент, валидаторы будут давать низкие оценки, и этот майнер будет мало зарабатывать и в конечном итоге отсеется — экономический стимул заключается в предоставлении качества, поэтому «отравление» других не приносит пользы злоумышленнику (если только его цель не чисто саботаж за свой счет). Может ли злонамеренный майнер отравить других? В Bittensor майнеры не обучают друг друга напрямую (по крайней мере, не по замыслу — нет глобальной модели, которая обновляется и может быть отравлена). Модель каждого майнера отдельна. Они учатся в том смысле, что майнер может брать интересные образцы у других для дообучения себя, но это полностью необязательно и зависит от каждого. Если злонамеренный актор спамит бессмысленные ответы, честные валидаторы отфильтруют это (они оценят это низко), поэтому это не окажет значительного влияния на процесс обучения любого честного майнера (плюс, майнер, вероятно, будет использовать знания высокооцененных коллег, а не низкооцененных). Таким образом, классическое отравление данных (введение плохих обучающих данных для повреждения модели) минимально в текущей настройке Bittensor. Более актуальным риском является манипуляция ответами модели: например, майнер, который выдает тонко предвзятый или опасный контент, который не очевиден для валидаторов. Однако, поскольку валидаторы также являются агентами, разработанными человеком или, по крайней мере, алгоритмическими, явная токсичность или ошибка, вероятно, будет поймана (некоторые подсети могут даже иметь ИИ-валидаторов, проверяющих на небезопасный контент). Худший сценарий — если злоумышленник каким-то образом имеет большинство валидаторов и майнеров, сговаривающихся, чтобы продвигать определенный неверный вывод как «правильный» — они могли бы тогда исказить консенсус сети по ответам (например, все сговаривающиеся валидаторы одобряют вредоносный ответ). Но чтобы внешний пользователь пострадал от этого, он должен фактически запросить сеть и доверять выводу. Bittensor все еще находится на стадии, когда он наращивает возможности, а не широко используется для критических запросов конечными пользователями. К тому времени, когда это произойдет, можно надеяться, что он будет иметь фильтрацию контента и разнообразие валидаторов для смягчения таких рисков. Со стороны валидаторов злонамеренный валидатор может подавать отравленные оценки — например, постоянно занижать оценки определенному честному майнеру, чтобы устранить конкуренцию. При достаточном стейке они могут преуспеть в вытеснении этого майнера (если вознаграждения майнера упадут так низко, что он уйдет). Это атака на механизм стимулирования. Опять же, если они не составляют большинство, отсечение медианы помешает валидатору-выбросу. Если они составляют большинство, это сливается со сценарием сговора/51% — любое большинство может переписывать правила. Решение возвращается к децентрализации: не допускать доминирования одной сущности. В итоге, дизайн Bittensor по своей сути наказывает отравленные данные/вклады моделей через свою систему оценки — плохие вклады получают низкий вес и, следовательно, низкое вознаграждение. Нет постоянного репозитория моделей для отравления; все динамично и постоянно оценивается. Это обеспечивает устойчивость: сеть может постепенно «забывать» или игнорировать плохих акторов, поскольку их вклады отфильтровываются валидаторами.
    • Gensyn: Если решатель захочет отравить обучаемую модель (например, внедрить бэкдор или предвзятость во время обучения), он может попытаться сделать это скрытно. Протокол Gensyn проверит, что обучение проходило в соответствии с указанным алгоритмом (шаги стохастического градиентного спуска и т. д.), но он не обязательно обнаружит, если решатель внедрил тонкий триггер бэкдора, который не проявляется в обычных метриках валидации. Это более коварная проблема — это не сбой вычислений, это манипуляция в рамках допустимых степеней свободы обучения (например, корректировка весов в сторону триггерной фразы). Обнаружение этого является активной исследовательской проблемой в области безопасности ML. Gensyn не имеет специального механизма для отравления моделей, помимо того факта, что отправитель может оценить конечную модель на выбранном им тестовом наборе. Опытный отправитель всегда должен тестировать возвращенную модель; если он обнаружит, что она не работает на некоторых входных данных или имеет странное поведение, он может оспорить результат или отказаться от оплаты. Возможно, протокол мог бы позволить отправителю указать определенные критерии приемлемости (например, «модель должна достичь как минимум X точности на этом секретном тестовом наборе»), и если результат решателя не соответствует, решатель не получает полную оплату. Это предотвратило бы отравление, потому что злоумышленник не соответствовал бы критериям оценки. Однако, если отравление не влияет на точность при обычных тестах, оно может проскользнуть. Верификаторы в Gensyn проверяют только целостность вычислений, а не качество модели, поэтому они не поймают преднамеренное переобучение или трояны, пока журналы обучения выглядят действительными. Таким образом, это остается проблемой доверия на уровне задачи: отправитель должен доверять либо тому, что решатель не отравит модель, либо использовать методы, такие как ансамблирование нескольких результатов обучения от разных решателей, чтобы ослабить влияние любого отдельного решателя. Другой аспект — отравление данных: если отправитель предоставляет обучающие данные, злонамеренный решатель может игнорировать эти данные и обучать на чем-то другом или добавлять мусорные данные. Но это, вероятно, снизит точность, что отправитель заметит в производительности выходной модели. Тогда решатель не получит полную оплату (поскольку предположительно он хочет достичь целевого показателя производительности). Таким образом, отравление, которое ухудшает производительность, само по себе является проигрышным для вознаграждения решателя. Только отравление, которое нейтрально по производительности, но злонамеренно (бэкдор), представляет реальную опасность, и это выходит за рамки типичной блокчейн-верификации — это проблема безопасности машинного обучения. Лучшее смягчение Gensyn, вероятно, социальное: использовать известные авторитетные модели, проводить несколько циклов обучения, использовать инструменты с открытым исходным кодом. Что касается задач вывода (если Gensyn также используется для задач вывода), сговорившийся решатель может возвращать неверные выходы, которые искажают определенный ответ. Но верификаторы поймают неверные выходы, если они запускают ту же модель, так что это меньше отравление и больше просто мошенничество, которое решается доказательствами мошенничества. В итоге, Gensyn обеспечивает безопасность процесса, а не намерения. Он гарантирует, что обучение/вывод были выполнены правильно, но не то, что результат хороший или свободен от скрытых неприятностей. Это остается открытой проблемой, и вайтпейпер Gensyn, вероятно, еще не полностью решает ее (немногие это делают).
    • Cuckoo: Поскольку Cuckoo в настоящее время фокусируется на выводе (обслуживании существующих моделей), риск отравления данных/моделей относительно ограничен манипуляцией выводами или отравлением контента. Злонамеренный майнер может попытаться подделать модель, которую ему дали для запуска — например, если ему предоставили контрольную точку Stable Diffusion, он мог бы заменить ее другой моделью, которая, возможно, вставляет какой-то тонкий водяной знак или рекламу в каждое изображение. Однако координатор (который является владельцем модели) обычно отправляет задачи с ожиданием формата вывода; если майнер постоянно возвращает нестандартные выводы, координатор пометит и заблокирует этого майнера. Кроме того, майнеры не могут легко модифицировать модель, не влияя заметно на ее выводы. Другой сценарий — если Cuckoo введет модели, обученные сообществом: тогда майнеры или поставщики данных могут попытаться отравить обучающие данные (например, ввести много неправильных меток или предвзятого текста). Cuckoo потребуется реализовать валидацию краудсорсинговых данных или взвешивание вкладчиков. Это пока не является функцией, но интерес команды к персонализированному ИИ (например, их упоминание об ИИ-коуче или обучающих приложениях) означает, что они могут в конечном итоге обрабатывать пользовательские обучающие данные, что потребует тщательных проверок. Что касается безопасности контента, поскольку майнеры Cuckoo выполняют вывод, можно беспокоиться о том, что они выдают вредоносный контент, даже если модель обычно этого не делает. Но майнеры не заинтересованы в произвольном изменении выходов — им платят за правильные вычисления, а не за творчество. Во всяком случае, злонамеренный майнер может пропустить полное вычисление, чтобы сэкономить время (например, вернуть размытое изображение или общий ответ). Координатор или пользователь увидят это и понизят рейтинг этого майнера (и, вероятно, не заплатят за эту задачу). Конфиденциальность — еще один аспект: злонамеренный майнер может утечь или записать пользовательские данные (например, если пользователь ввел конфиденциальный текст или изображения). Это не отравление, но это атака на конфиденциальность. Позиция Cuckoo в отношении конфиденциальности заключается в том, что она исследует методы сохранения конфиденциальности (упоминание VPN, сохраняющего конфиденциальность в экосистеме, предполагает будущий фокус). Они могли бы включить такие методы, как защищенные анклавы или разделенный вывод, чтобы сохранить данные конфиденциальными от майнеров. Пока не реализовано, но является известным соображением. Наконец, блог Cuckoo подчеркивает эффективную проверку выходов моделей и обеспечение безопасной децентрализованной работы моделей как ключ к жизнеспособности токенизации моделей. Это указывает на то, что они осознают, что для истинной децентрализации ИИ необходимо защищаться от таких вещей, как отравленные выходы или неисправные модели. Возможно, они намерены использовать комбинацию криптоэкономических стимулов (сокращение стейка для плохих акторов) и систем пользовательских рейтингов (пользователи могут помечать плохие выходы, и эти майнеры теряют репутацию). Система репутации может помочь здесь: если майнер возвращает даже один очевидно вредоносный или неверный результат, пользователи/координаторы могут понизить его рейтинг, что сильно повлияет на его будущую способность зарабатывать. Зная это, майнеры заинтересованы в том, чтобы быть последовательно правильными и не допускать никакого отравления. По сути, Cuckoo полагается на «доверяй, но проверяй»: это более традиционно в том смысле, что если кто-то ведет себя неправильно, вы его идентифицируете и удаляете (с потерей стейка в качестве наказания). У него пока нет специализированных защит от тонкого отравления моделей, но структура, предусматривающая конкретных владельцев приложений (координаторов), добавляет уровень надзора — эти владельцы будут мотивированы обеспечить, чтобы ничто не скомпрометировало целостность их модели, поскольку их собственный доход и репутация зависят от этого.

В заключение, хотя децентрализованные ИИ-сети вводят новые поверхности атаки, они также развертывают комбинацию криптографических, игровых и общественно-управленческих защит: Устойчивость к атакам Сивиллы в основном обеспечивается требованием экономического стейка для участия. Устойчивость к сговору достигается за счет согласования стимулов (честное поведение более выгодно) и механизмов консенсуса, которые ограничивают влияние небольших сговорившихся групп. Предотвращение фрирайдерства достигается путем тесной привязки вознаграждений к фактической полезной работе и наказания или устранения тех, кто ничего не вносит. Отравление и связанные с ним атаки остаются сложными, но системы смягчают явные случаи посредством непрерывной оценки и возможности сокращения или исключения злонамеренных акторов. Эти платформы активно исследуют и совершенствуют эти дизайны — о чем свидетельствуют постоянные доработки Yuma и dTAO в Bittensor, а также изменение токеномики в Cuckoo — для обеспечения безопасной, самоподдерживающейся децентрализованной ИИ-экосистемы.

Сравнительная оценка

Чтобы выделить различия и сходства Bittensor, Gensyn и Cuckoo AI, следующая таблица предоставляет параллельное сравнение по ключевым параметрам:

ПараметрBittensor (TAO)GensynCuckoo AI (CAI)
Технический стекКастомный L1 (цепочка Subtensor на базе Substrate) с более чем 93 специализированными ИИ-подсетями. Совместим с EVM (после недавнего обновления) на собственной цепи.Роллап на базе Ethereum (изначально планировался L1, теперь роллап ETH). Офчейн-вычисления с ончейн-верификацией.Запущен как цепочка уровня 2 Arbitrum Orbit (роллап EVM). Полнофункциональная платформа (собственная цепь + вычисления + пользовательский интерфейс приложения). Переходит от кастомного L1 к общей безопасности Ethereum (роллап/AVS).
Основное направлениеДецентрализованная ИИ-сеть моделей («нейронный интернет»). Узлы вносят вклад в коллективный вывод и обучение моделей по различным задачам (LLM, зрение и т. д.).Децентрализованный маркетплейс вычислений для ML. Акцент на офчейн-обучении моделей и выводе с помощью глобальных GPU, верификация работы через блокчейн.Децентрализованная платформа ИИ-сервисов. Фокус на обслуживании/выводе моделей (например, генеративное искусство, LLM API) с использованием распределенных GPU-майнеров. Интегрирует конечные пользовательские приложения с бэкенд-маркетплейсом GPU.
Ключевые ролиВладелец подсети: определяет задачу и валидацию в подсети (получает 18% вознаграждений).
Майнеры: запускают ИИ-модели (вывод/обучение), предоставляют ответы.
Валидаторы: отправляют запросы и оценивают выходы майнеров (курируют качество).
Делегаторы: стейкают TAO на майнеров/валидаторов для усиления влияния и получения доли.
Отправитель (Разработчик): размещает ML-задание (с моделью/данными) и оплату.
Решатель: выполняет задачу на своем оборудовании, отправляет результат.
Верификатор (Наблюдатель): проверяет результат решателя; может оспорить через доказательство мошенничества, если он неверен.
(Отдельной роли «владельца» нет, так как отправитель предоставляет модель; роли управления через держателей токенов).
Разработчик ИИ-приложений (Координатор): развертывает ИИ-сервис, стейкает CAI, управляет задачами для майнеров.
Майнер (Поставщик GPU/CPU): стейкает CAI, выполняет назначенные задачи вывода, возвращает результаты.
Конечный пользователь: использует ИИ-приложения (платит криптовалютой или предоставляет ресурсы).
Стейкер (Делегатор): стейкает на координаторов/майнеров, голосует в управлении, получает долю вознаграждений.
Technical StackCustom L1 (Substrate-based Subtensor chain) with 93+ specialized AI subnets. EVM-compatible (after recent upgrade) on its own chain.Ethereum-based rollup (originally planned L1, now an ETH rollup). Off-chain compute with on-chain verification.Launched as an Arbitrum Orbit Layer-2 chain (EVM rollup). Full-stack platform (own chain + compute + app UI). Migrating from custom L1 to Ethereum shared security (rollup/AVS).
Primary FocusDecentralized AI network of models (“neural internet”). Nodes contribute to collective model inference and training across tasks (LLM, vision, etc.).Decentralized compute marketplace for ML. Emphasis on off-chain model training and inference by global GPUs, verifying the work via blockchain.Децентрализованная платформа ИИ-сервисов. Фокус на обслуживании/выводе моделей (например, генеративное искусство, LLM API) с использованием распределенных GPU-майнеров. Интегрирует конечные пользовательские приложения с бэкенд-маркетплейсом GPU.
Key RolesВладелец подсети: определяет задачу и валидацию в подсети (получает 18% вознаграждений).
Майнеры: запускают ИИ-модели (вывод/обучение), предоставляют ответы.
Валидаторы: отправляют запросы и оценивают выходы майнеров (курируют качество).
Делегаторы: стейкают TAO на майнеров/валидаторов для усиления влияния и получения доли.
Отправитель (Разработчик): размещает ML-задание (с моделью/данными) и оплату.
Решатель: выполняет задачу на своем оборудовании, отправляет результат.
Верификатор (Наблюдатель): проверяет результат решателя; может оспорить через доказательство мошенничества, если он неверен.
(Отдельной роли «владельца» нет, так как отправитель предоставляет модель; роли управления через держателей токенов).
Разработчик ИИ-приложений (Координатор): развертывает ИИ-сервис, стейкает CAI, управляет задачами для майнеров.
Майнер (Поставщик GPU/CPU): стейкает CAI, выполняет назначенные задачи вывода, возвращает результаты.
Конечный пользователь: использует ИИ-приложения (платит криптовалютой или предоставляет ресурсы).
Стейкер (Делегатор): стейкает на координаторов/майнеров, голосует в управлении, получает долю вознаграждений.
Consensus & VerificationYuma Consensus: custom “proof-of-intelligence” – validators’ scores of AI output are aggregated (stake-weighted median) to determine miner rewards. Underlying chain consensus is PoS-like (Substrate) for blocks, but block validity hinges on the AI consensus each epoch. Resistant to outlier scoring and collusion up to 50%.Optimistic verification (Truebit-style): assume solver’s result correct unless a verifier challenges. Uses interactive on-chain fraud proofs to pinpoint any incorrect step. Also implementing cryptographic proofs-of-computation (proof-of-learning) to validate training progress without re-execution. Ethereum provides base consensus for transactions.Консенсус Proof-of-Stake цепи + валидация задач координаторами: Cuckoo Chain использовала валидаторы PoS для производства блоков (изначально майнеры также помогали обеспечивать безопасность блоков). Результаты ИИ-задач проверяются узлами-координаторами (которые проверяют выходы майнеров на соответствие ожидаемому поведению модели). Специализированных криптографических доказательств пока нет — полагается на стейк и репутацию (отсутствие доверия в той степени, в какой неправомерное поведение приводит к сокращению стейка или понижению рейтинга, а не к автоматическому математически доказанному обнаружению). Переходит на консенсус Ethereum (роллап) для безопасности реестра.

Проверяемый ИИ в движении: как динамические zk-SNARKs от Lagrange Labs обеспечивают непрерывное доверие

· 6 мин. чтения
Dora Noda
Software Engineer

В быстро сближающихся мирах искусственного интеллекта и блокчейна спрос на доверие и прозрачность никогда не был таким высоким. Как мы можем быть уверены, что результат работы модели ИИ точен и не подвергался изменениям? Как мы можем выполнять сложные вычисления на огромных ончейн-наборах данных без ущерба для безопасности или масштабируемости? Lagrange Labs решает эти вопросы напрямую с помощью своего набора инфраструктуры с нулевым разглашением (ZK), стремясь построить будущее "ИИ, который можно доказать". Этот пост представляет объективный обзор их миссии, технологий и недавних прорывов, кульминацией которых стала их последняя статья о динамических zk-SNARKs.

1. Команда и ее миссия

Lagrange Labs создает базовую инфраструктуру для генерации криптографических доказательств для любого вывода ИИ или ончейн-приложения. Их цель — сделать вычисления проверяемыми, привнося новый уровень доверия в цифровой мир. Их экосистема построена на трех основных продуктовых линейках:

  • Сеть ZK-доказателей: Децентрализованная сеть из более чем 85 узлов-доказателей, которая обеспечивает вычислительную мощность, необходимую для широкого спектра задач доказательства, от ИИ и роллапов до децентрализованных приложений (dApps).
  • DeepProve (zkML): Специализированная система для генерации ZK-доказательств выводов нейронных сетей. Lagrange утверждает, что она до 158 раз быстрее конкурирующих решений, что делает проверяемый ИИ практической реальностью.
  • ZK-сопроцессор 1.0: Первый ZK-сопроцессор на основе SQL, позволяющий разработчикам выполнять пользовательские запросы к массивным ончейн-наборам данных и получать проверяемо точные результаты.

2. Дорожная карта к проверяемому ИИ

Lagrange методично реализует дорожную карту, разработанную для поэтапного решения проблем проверяемости ИИ.

  • 3 квартал 2024 г.: Запуск ZK-сопроцессора 1.0: Этот релиз представил гиперпараллельные рекурсивные схемы, которые обеспечили среднее увеличение скорости примерно в 2 раза. Такие проекты, как Azuki и Gearbox, уже используют сопроцессор для своих потребностей в ончейн-данных.
  • 1 квартал 2025 г.: Представление DeepProve: Lagrange анонсировала DeepProve, свое решение для машинного обучения с нулевым разглашением (zkML). Оно поддерживает популярные архитектуры нейронных сетей, такие как многослойные перцептроны (MLP) и сверточные нейронные сети (CNN). Система достигает значительного, на порядок, ускорения на всех трех критических этапах: однократная настройка, генерация доказательства и верификация, при этом ускорение достигает 158x.
  • 2 квартал 2025 г.: Статья о динамических zk-SNARKs (Последняя веха): Эта статья представляет новаторский алгоритм "обновления". Вместо повторной генерации доказательства с нуля каждый раз, когда изменяются базовые данные или вычисления, этот метод может "заплатать" старое доказательство (π) в новое доказательство (π'). Это обновление может быть выполнено со сложностью всего O(√n log³n), что является значительным улучшением по сравнению с полной перегенерацией. Это нововведение особенно подходит для динамических систем, таких как постоянно обучающиеся модели ИИ, игровая логика в реальном времени и развивающиеся смарт-контракты.

3. Почему динамические zk-SNARKs важны

Введение обновляемых доказательств представляет собой фундаментальный сдвиг в модели затрат технологии с нулевым разглашением.

  • Новая парадигма затрат: Отрасль переходит от модели "полной перегенерации для каждого доказательства" к "инкрементальному доказательству, основанному на размере изменения". Это значительно снижает вычислительные и финансовые затраты для приложений, которые часто подвергаются незначительным обновлениям.

  • Последствия для ИИ:

    • Непрерывная донастройка: При донастройке менее 1% параметров модели время генерации доказательства растет почти линейно с количеством измененных параметров (Δ параметров), а не с общим размером модели.
    • Потоковый вывод: Это позволяет генерировать доказательства одновременно с самим процессом вывода. Это значительно сокращает задержку между принятием решения ИИ и его фиксацией и верификацией в блокчейне, открывая такие варианты использования, как ончейн-сервисы ИИ и сжатые доказательства для роллапов.
  • Последствия для ончейн-приложений:

    • Динамические zk-SNARKs предлагают огромную оптимизацию газа и времени для приложений, характеризующихся частыми, небольшими изменениями состояния. Это включает книги ордеров децентрализованных бирж (DEX), развивающиеся игровые состояния и обновления реестра, включающие частые добавления или удаления.

4. Взгляд на технологический стек

Мощная инфраструктура Lagrange построена на сложном и интегрированном технологическом стеке:

  • Проектирование схем: Система является гибкой, поддерживая встраивание моделей ONNX (Open Neural Network Exchange), SQL-парсеров и пользовательских операторов непосредственно в свои схемы.
  • Рекурсия и параллелизм: Сеть ZK-доказателей облегчает распределенные рекурсивные доказательства, в то время как ZK-сопроцессор использует шардинг "микросхем" для параллельного выполнения задач, максимизируя эффективность.
  • Экономические стимулы: Lagrange планирует запустить нативный токен LA, который будет интегрирован в систему двойного аукциона для рекурсивного аукциона (DARA). Это создаст надежный рынок для торгов за вычисления доказателей, дополненный стимулами и штрафами для обеспечения целостности сети.

5. Экосистема и реальное внедрение

Lagrange не просто строит в вакууме; ее технология уже интегрируется растущим числом проектов в различных секторах:

  • ИИ и МО: Такие проекты, как 0G Labs и Story Protocol, используют DeepProve для верификации результатов своих моделей ИИ, обеспечивая происхождение и доверие.
  • Роллапы и инфраструктура: Ключевые игроки, такие как EigenLayer, Base и Arbitrum, участвуют в сети ZK-доказателей в качестве узлов валидации или партнеров по интеграции, способствуя ее безопасности и вычислительной мощности.
  • Приложения NFT и DeFi: Такие бренды, как Azuki, и протоколы DeFi, такие как Gearbox, используют ZK-сопроцессор для повышения достоверности своих запросов данных и механизмов распределения вознаграждений.

6. Вызовы и путь вперед

Несмотря на впечатляющий прогресс, Lagrange Labs и более широкая область ZK сталкиваются с рядом препятствий:

  • Аппаратные узкие места: Даже при наличии распределенной сети обновляемые SNARKs по-прежнему требуют высокой пропускной способности и полагаются на криптографические кривые, дружественные к GPU, для эффективной работы.
  • Отсутствие стандартизации: Процесс сопоставления фреймворков ИИ, таких как ONNX и PyTorch, с ZK-схемами по-прежнему не имеет универсального, стандартизированного интерфейса, что создает трудности для разработчиков.
  • Конкурентная среда: Гонка за создание zkVM и обобщенных платформ zkCompute набирает обороты. Конкуренты, такие как Risc-Zero и Succinct, также добиваются значительных успехов. В конечном итоге победителем может стать тот, кто первым сможет коммерциализировать удобный для разработчиков, управляемый сообществом набор инструментов.

7. Заключение

Lagrange Labs методично меняет пересечение ИИ и блокчейна через призму проверяемости. Их подход предлагает комплексное решение:

  • DeepProve решает проблему доверенного вывода.
  • ZK-сопроцессор решает проблему доверенных данных.
  • Динамические zk-SNARKs напрямую включают потребность реального мира в непрерывных обновлениях в систему доказательства.

Если Lagrange сможет сохранить свое преимущество в производительности, решить критическую проблему стандартизации и продолжить развивать свою надежную сеть, она имеет хорошие шансы стать краеугольным камнем в развивающемся секторе "ИИ + ZK-инфраструктуры".

Camp Network: Блокчейн, решающий миллиардную проблему ИИ с интеллектуальной собственностью 🏕️

· 5 мин. чтения
Dora Noda
Software Engineer

Взрывной рост генеративного ИИ был поистине ошеломляющим. От потрясающего цифрового искусства до человекоподобного текста — ИИ создает контент в беспрецедентных масштабах. Но у этого бума есть и темная сторона: откуда ИИ берет свои обучающие данные? Часто это происходит из огромных просторов интернета — из произведений искусства, музыки и текстов, созданных людьми, которые не получают ни признания, ни вознаграждения.

Представляем Camp Network — новый блокчейн-проект, который призван решить эту фундаментальную проблему. Это не просто еще одна криптоплатформа; это специально созданный «Автономный уровень ИС», разработанный для того, чтобы предоставить создателям право собственности и контроль над их работой в эпоху ИИ. Давайте углубимся в то, что делает Camp Network проектом, за которым стоит следить.


В чем суть идеи?

По своей сути Camp Network — это блокчейн, который действует как глобальный, проверяемый реестр интеллектуальной собственности (ИС). Миссия состоит в том, чтобы позволить любому — от независимого художника до пользователя социальных сетей — регистрировать свой контент в блокчейне. Это создает постоянную, защищенную от подделок запись о праве собственности и происхождении.

Почему это важно? Когда модель ИИ использует контент, зарегистрированный в Camp, смарт-контракты сети могут автоматически применять условия лицензирования. Это означает, что первоначальный создатель может получить авторство и даже мгновенно получать роялти. Видение Camp состоит в том, чтобы построить новую экономику создателей, где вознаграждение не является второстепенной мыслью; оно встроено непосредственно в протокол.


Под капотом: Технологический стек

Camp — это не просто концепция; за ним стоит серьезная технология, разработанная для высокой производительности и удобства для разработчиков.

  • Модульная архитектура: Camp построен как суверенный роллап, использующий Celestia для доступности данных. Такая конструкция позволяет ему быть невероятно быстрым (цель ~50 000 транзакций в секунду) и дешевым, оставаясь при этом полностью совместимым с инструментами Ethereum (EVM).
  • Доказательство происхождения (PoP): Это уникальный механизм консенсуса Camp. Вместо того чтобы полагаться на энергоемкий майнинг, безопасность сети связана с проверкой происхождения контента. Каждая транзакция подтверждает происхождение ИС в сети, делая право собственности «обеспечиваемым по умолчанию».
  • Стратегия двойной виртуальной машины (Dual-VM): Для максимальной производительности Camp интегрирует виртуальную машину Solana (SVM) наряду с совместимостью с EVM. Это позволяет разработчикам выбирать наилучшую среду для своего приложения, особенно для высокопроизводительных сценариев использования, таких как взаимодействие ИИ в реальном времени.
  • Наборы инструментов для создателей и ИИ: Camp предоставляет две ключевые платформы:
    • Origin Framework: Удобная система для создателей, позволяющая регистрировать свою ИС, токенизировать ее (как NFT) и встраивать правила лицензирования.
    • mAItrix Framework: Набор инструментов для разработчиков, позволяющий создавать и развертывать ИИ-агентов, которые могут взаимодействовать с ИС в блокчейне безопасным, разрешенным способом.

Люди, партнерства и прогресс

Идея хороша настолько, насколько хороша ее реализация, и Camp, похоже, реализуется успешно.

Команда и финансирование

Проект возглавляет команда с мощным сочетанием опыта из The Raine Group (сделки в области медиа и ИС), Goldman Sachs, Figma и CoinList. Это сочетание опыта в финансах, технологических продуктах и криптоинженерии помогло им привлечь $30 миллионов финансирования от ведущих венчурных фондов, таких как 1kx, Blockchain Capital и Maven 11.

Растущая экосистема

Camp активно строит партнерские отношения. Наиболее значимым является стратегическая доля в KOR Protocol — платформе для токенизации музыкальной ИС, которая работает с такими крупными артистами, как Deadmau5, и франшизами, такими как Black Mirror. Это единственное партнерство обеспечивает Camp огромной библиотекой высококачественного, очищенного от прав контента. Среди других ключевых сотрудников:

  • RewardedTV: Децентрализованная платформа для потокового видео, использующая Camp для прав на контент в блокчейне.
  • Rarible: Маркетплейс NFT, интегрированный для торговли активами ИС.
  • LayerZero: Кроссчейн-протокол для обеспечения совместимости с другими блокчейнами.

Дорожная карта и сообщество

После успешных стимулированных кампаний в тестовой сети, которые привлекли десятки тысяч пользователей (вознаграждая их баллами, которые будут конвертированы в токены), Camp нацелен на запуск основной сети в 3 квартале 2025 года. Это будет сопровождаться событием генерации токенов для его нативного токена $CAMP, который будет использоваться для оплаты комиссий за газ, стейкинга и управления. Проект уже сформировал страстное сообщество, стремящееся развивать и использовать платформу с первого дня.


Как это выглядит в сравнении?

Camp Network не одинок в этом пространстве. Он сталкивается с жесткой конкуренцией со стороны таких проектов, как поддерживаемый a16z Story Protocol и связанный с Sony Soneium. Однако Camp отличается несколькими ключевыми особенностями:

  1. Подход «снизу вверх»: В то время как конкуренты, похоже, ориентированы на крупных корпоративных владельцев ИС, Camp сосредоточен на расширении возможностей независимых создателей и криптосообществ посредством токенов-стимулов.
  2. Комплексное решение: Он предлагает полный набор инструментов, от реестра ИС до фреймворка ИИ-агентов, позиционируя себя как универсальное решение.
  3. Производительность и масштабируемость: Его модульная архитектура и поддержка двойной виртуальной машины разработаны для высоких требований к пропускной способности ИИ и медиа.

Вывод

Camp Network убедительно доказывает свою способность стать основополагающим уровнем для интеллектуальной собственности в эпоху Web3. Объединяя инновационные технологии, сильную команду, стратегические партнерства и этику, ориентированную на сообщество, он создает практическое решение одной из самых насущных проблем, порожденных генеративным ИИ.

Настоящее испытание начнется с запуском основной сети и реальным внедрением. Но с четким видением и сильной реализацией на данный момент Camp Network, несомненно, является ключевым проектом, за которым стоит следить, поскольку он пытается построить более справедливое будущее для цифровых создателей.

Знакомьтесь с BeFreed.ai – Топливо для обучения разработчиков BlockEden.xyz

· 3 мин. чтения
Dora Noda
Software Engineer

Почему BlockEden.xyz это важно

В быстро меняющемся мире Web3 скорость — это всё. Развертывание RPC-инфраструктуры и инфраструктуры для стейкинга производственного уровня требует от нашей команды и сообщества постоянного пребывания на переднем крае инноваций. Это означает быть в курсе сложных протоколов, новаторских криптографических работ и быстро развивающихся дискуссий по управлению. Чем быстрее наше сообщество сможет усваивать и понимать новые идеи, тем быстрее оно сможет создавать децентрализованные приложения нового поколения. Именно здесь на помощь приходит BeFreed.ai.

Что такое BeFreed.ai

BeFreed.ai — это стартап из Сан-Франциско с простой, но мощной миссией: сделать обучение радостным и персонализированным в эпоху ИИ. Они создали интеллектуального компаньона для микрообучения, разработанного с учетом требовательного образа жизни разработчиков и создателей.

Основные компоненты:

  • Множество форматов → один клик: BeFreed.ai может взять широкий спектр контента — от объемных книг и подробных видео до сложных технических документов — и мгновенно преобразовать его в краткие обзоры, флеш-карточки, подробные заметки и даже аудио в стиле подкаста.
  • Адаптивный движок: Платформа разработана для обучения вместе с вами. Она учитывает ваш темп обучения и интересы, предлагая наиболее актуальную информацию, вместо того чтобы заставлять вас проходить жесткую, универсальную учебную программу.
  • Встроенный чат и объяснения «Почему это»: Есть вопрос? Просто спросите. BeFreed.ai позволяет задавать вопросы на лету для разъяснения сложных тем. Он также предоставляет объяснения, которые связывают новые идеи с вашими общими целями, делая процесс обучения более осмысленным.
  • Сообщество из 43 тысяч учащихся: Обучение часто является коллективной деятельностью. BeFreed.ai развивает активное сообщество из более чем 43 000 учащихся, которые делятся своим прогрессом, реагируют на содержательный контент и выделяют ключевые выводы, поддерживая высокую мотивацию и динамику.

Почему это важно для разработчиков BlockEden.xyz

Для преданных разработчиков в экосистеме BlockEden.xyz BeFreed.ai — это больше, чем просто инструмент для обучения; это стратегическое преимущество. Вот как он может отточить ваше мастерство:

  • Экономия времени: Превратите 300-страничный вайтпейпер в краткий 10-минутный аудиообзор, который можно прослушать перед важным голосованием по управлению.
  • Сохранение контекста: Используйте флеш-карточки и ментальные карты, чтобы закрепить понимание деталей протокола, которые понадобятся при написании индексов смарт-контрактов.
  • Развитие кросс-навыков: Расширяйте свои навыки, не покидая среды разработки. Изучите основы дизайн-мышления, поймите циклы роста или получите советы по параллелизму в Go в свободное время.
  • Общий словарный запас: Создавайте плейлисты на уровне команды, чтобы каждый участник обучался из одного и того же, тщательно отобранного и последовательного источника информации, способствуя лучшему сотрудничеству и согласованности.

Использование BeFreed в рабочих процессах BlockEden.xyz

Интеграция BeFreed.ai в ваш существующий процесс разработки является бесшовной и немедленно приносит пользу:

  1. Загрузите спецификацию: Вставьте URL-адрес последнего PDF-файла по токеномике или записи звонка разработчиков с YouTube в BeFreed для мгновенного, легко усваиваемого резюме.
  2. Экспортируйте флеш-карточки: Повторяйте ключевые концепции во время выполнения CI. Эта форма повторения гораздо эффективнее, чем умственная усталость, возникающая от постоянного переключения контекста.
  3. Вставьте ссылку в документацию: Встройте URL-адрес резюме BeFreed рядом с каждой ссылкой на API в вашей документации, чтобы помочь новым членам команды быстрее освоиться.
  4. Будьте в курсе: Настройте еженедельные дайджесты в BeFreed по новым L2 и немедленно примените эти знания на практике, создавая прототипы с помощью многоцепочечных RPC-сервисов BlockEden.xyz.

Начните работу

BeFreed.ai доступен сейчас на iOS, Android и в интернете. Мы рекомендуем вам попробовать его во время следующего спринта вашего проекта BlockEden.xyz и убедиться, как он может повысить скорость вашего обучения и разработки. Наша команда уже изучает более тесные интеграции — представьте будущее, где вебхук автоматически превращает каждое описание объединенного PR в полный учебный набор.

Соединение ИИ и Web3 через MCP: Панорамный анализ

· 40 мин. чтения
Dora Noda
Software Engineer

Введение

ИИ и Web3 мощно сближаются, при этом общие интерфейсы ИИ теперь рассматриваются как связующая ткань для децентрализованной сети. Ключевой концепцией, возникающей из этой конвергенции, является MCP, что в разных контекстах означает «Протокол контекста модели» (как представлено Anthropic) или свободно описывается как Протокол подключения к Метавселенной в более широких дискуссиях. По сути, MCP — это стандартизированный фреймворк, который позволяет системам ИИ взаимодействовать с внешними инструментами и сетями естественным и безопасным способом — потенциально «подключая» ИИ-агентов ко всем уголкам экосистемы Web3. Этот отчет представляет всесторонний анализ того, как общие интерфейсы ИИ (такие как агенты больших языковых моделей и нейросимволические системы) могут соединить все в мире Web3 через MCP, охватывая исторический контекст, техническую архитектуру, отраслевой ландшафт, риски и будущий потенциал.

1. История развития

1.1 Эволюция Web3 и невыполненные обещания

Термин «Web3» был придуман примерно в 2014 году для описания децентрализованной сети на основе блокчейна. Видение было амбициозным: интернет без разрешений, ориентированный на владение пользователем. Энтузиасты представляли замену централизованной инфраструктуры Web2 альтернативами на основе блокчейна — например, Ethereum Name Service (для DNS), Filecoin или IPFS (для хранения) и DeFi для финансовых рельсов. Теоретически, это должно было вырвать контроль у платформ Big Tech и предоставить людям самосуверенитет над данными, идентификацией и активами.

Реальность не оправдала ожиданий. Несмотря на годы разработки и шумихи, основное влияние Web3 оставалось незначительным. Обычные интернет-пользователи не хлынули в децентрализованные социальные сети и не начали управлять приватными ключами. Основными причинами были плохой пользовательский опыт, медленные и дорогие транзакции, громкие мошенничества и регуляторная неопределенность. Децентрализованная «сеть владения» в значительной степени «не материализовалась» за пределами нишевого сообщества. К середине 2020-х годов даже сторонники криптовалют признали, что Web3 не принес парадигмального сдвига для среднего пользователя.

Тем временем ИИ переживал революцию. По мере того как капитал и талант разработчиков переключались с крипто на ИИ, трансформационные достижения в области глубокого обучения и фундаментальных моделей (GPT-3, GPT-4 и т. д.) захватили общественное воображение. Генеративный ИИ продемонстрировал явную полезность — создание контента, кода и принятие решений — так, как криптоприложениям это не удавалось. Фактически, влияние больших языковых моделей всего за пару лет резко превзошло десятилетие пользовательского принятия блокчейна. Этот контраст привел некоторых к шутке, что «Web3 был потрачен впустую на крипто» и что настоящий Web 3.0 возникает из волны ИИ.

1.2 Расцвет общих интерфейсов ИИ

На протяжении десятилетий пользовательские интерфейсы эволюционировали от статических веб-страниц (Web1.0) до интерактивных приложений (Web2.0) — но всегда в рамках нажатия кнопок и заполнения форм. С современным ИИ, особенно большими языковыми моделями (LLM), появилась новая парадигма интерфейса: естественный язык. Пользователи могут просто выражать свои намерения на простом языке, а системы ИИ будут выполнять сложные действия во многих областях. Этот сдвиг настолько глубок, что некоторые предлагают переопределить «Web 3.0» как эру агентов, управляемых ИИ («Агентский Веб»), а не как более раннее, ориентированное на блокчейн определение.

Однако ранние эксперименты с автономными ИИ-агентами выявили критическое узкое место. Эти агенты — например, прототипы, такие как AutoGPT — могли генерировать текст или код, но им не хватало надежного способа общаться с внешними системами и друг с другом. Не существовало «общего ИИ-нативного языка» для интероперабельности. Каждая интеграция с инструментом или источником данных была индивидуальной доработкой, а взаимодействие ИИ-ИИ не имело стандартного протокола. На практике ИИ-агент мог обладать отличными способностями к рассуждению, но не справлялся с выполнением задач, требующих использования веб-приложений или ончейн-сервисов, просто потому, что не знал, как «разговаривать» с этими системами. Это несоответствие — мощный мозг, примитивный ввод/вывод — было сродни суперумному программному обеспечению, застрявшему за неуклюжим графическим интерфейсом.

1.3 Конвергенция и появление MCP

К 2024 году стало очевидно, что для того, чтобы ИИ полностью раскрыл свой потенциал (и чтобы Web3 выполнил свои обещания), необходима конвергенция: ИИ-агентам требуется беспрепятственный доступ к возможностям Web3 (децентрализованные приложения, контракты, данные), а Web3 нуждается в большей интеллектуальности и удобстве использования, что может обеспечить ИИ. Именно в этом контексте родился MCP (Протокол контекста модели). Представленный Anthropic в конце 2024 года, MCP является открытым стандартом для ИИ-инструментального взаимодействия, который естественен для LLM. Он предоставляет структурированный, обнаруживаемый способ для «хостов» ИИ (таких как ChatGPT, Claude и т. д.) находить и использовать различные внешние инструменты и ресурсы через MCP-серверы. Другими словами, MCP — это общий интерфейсный слой, позволяющий ИИ-агентам подключаться к веб-сервисам, API и даже функциям блокчейна без индивидуального кодирования каждой интеграции.

Представьте MCP как «USB-C для ИИ-интерфейсов». Подобно тому, как USB-C стандартизировал подключение устройств (так что вам не нужны разные кабели для каждого устройства), MCP стандартизирует подключение ИИ-агентов к инструментам и данным. Вместо того чтобы жестко кодировать различные вызовы API для каждого сервиса (Slack против Gmail против узла Ethereum), разработчик может реализовать спецификацию MCP один раз, и любой MCP-совместимый ИИ сможет понять, как использовать этот сервис. Крупные игроки в области ИИ быстро осознали важность: Anthropic открыла исходный код MCP, и такие компании, как OpenAI и Google, разрабатывают поддержку для него в своих моделях. Этот импульс предполагает, что MCP (или аналогичные «Протоколы мета-связи») может стать основой, которая наконец масштабируемо соединит ИИ и Web3.

Примечательно, что некоторые технологи утверждают, что эта ИИ-центричная связь является реальным воплощением Web3.0. По словам Симбы Хаддера, «MCP стремится стандартизировать API между LLM и приложениями», подобно тому, как REST API позволили Web 2.0 — это означает, что следующая эра Web3 может быть определена интерфейсами интеллектуальных агентов, а не только блокчейнами. Вместо децентрализации ради нее самой, конвергенция с ИИ может сделать децентрализацию полезной, скрывая сложность за естественным языком и автономными агентами. Остальная часть этого отчета углубляется в то, как, технически и практически, общие интерфейсы ИИ (через протоколы, такие как MCP) могут соединить все в мире Web3.

2. Техническая архитектура: ИИ-интерфейсы, объединяющие технологии Web3

Внедрение ИИ-агентов в стек Web3 требует интеграции на нескольких уровнях: блокчейн-сети и смарт-контракты, децентрализованное хранилище, системы идентификации и экономики на основе токенов. Общие интерфейсы ИИ — от больших фундаментальных моделей до гибридных нейросимволических систем — могут служить «универсальным адаптером», соединяющим эти компоненты. Ниже мы анализируем архитектуру такой интеграции:

Рисунок: Концептуальная схема архитектуры MCP, показывающая, как хосты ИИ (приложения на основе LLM, такие как Claude или ChatGPT) используют MCP-клиент для подключения к различным MCP-серверам. Каждый сервер предоставляет мост к некоторому внешнему инструменту или сервису (например, Slack, Gmail, календарям или локальным данным), аналогично периферийным устройствам, подключающимся через универсальный концентратор. Этот стандартизированный MCP-интерфейс позволяет ИИ-агентам получать доступ к удаленным сервисам и ончейн-ресурсам через один общий протокол.

2.1 ИИ-агенты как клиенты Web3 (интеграция с блокчейнами)

В основе Web3 лежат блокчейны и смарт-контракты — децентрализованные конечные автоматы, которые могут обеспечивать логику без доверия. Как ИИ-интерфейс может взаимодействовать с ними? Есть два направления для рассмотрения:

  • ИИ, считывающий данные из блокчейна: ИИ-агенту могут понадобиться ончейн-данные (например, цены токенов, баланс активов пользователя, предложения ДАО) в качестве контекста для принятия решений. Традиционно получение данных блокчейна требует взаимодействия с RPC API узлов или базами данных подграфов. С фреймворком, таким как MCP, ИИ может запрашивать стандартизированный MCP-сервер «данных блокчейна» для получения актуальной ончейн-информации. Например, агент с поддержкой MCP может запросить последний объем транзакций определенного токена или состояние смарт-контракта, и MCP-сервер обработает низкоуровневые детали подключения к блокчейну и вернет данные в формате, который ИИ может использовать. Это увеличивает интероперабельность, отвязывая ИИ от API-формата конкретного блокчейна.

  • ИИ, записывающий данные в блокчейн: Что еще более мощно, ИИ-агенты могут выполнять вызовы смарт-контрактов или транзакции через интеграции Web3. ИИ мог бы, например, автономно выполнить сделку на децентрализованной бирже или скорректировать параметры в смарт-контракте, если будут выполнены определенные условия. Это достигается путем вызова ИИ MCP-сервера, который инкапсулирует функциональность блокчейн-транзакций. Одним конкретным примером является MCP-сервер thirdweb для EVM-цепочек, который позволяет любому MCP-совместимому ИИ-клиенту взаимодействовать с Ethereum, Polygon, BSC и т. д., абстрагируясь от специфики цепочки. Используя такой инструмент, ИИ-агент мог бы инициировать ончейн-действия «без вмешательства человека», обеспечивая автономные dApp — например, DeFi-хранилище, управляемое ИИ, которое самобалансируется путем подписания транзакций при изменении рыночных условий.

По сути, эти взаимодействия по-прежнему зависят от кошельков, ключей и комиссий за газ, но ИИ-интерфейсу может быть предоставлен контролируемый доступ к кошельку (с соответствующими песочницами безопасности) для выполнения транзакций. Оракулы и кроссчейн-мосты также вступают в игру: сети оракулов, такие как Chainlink, служат мостом между ИИ и блокчейнами, позволяя надежно передавать результаты работы ИИ в блокчейн. Протокол кроссчейн-взаимодействия Chainlink (CCIP), например, может позволить ИИ-модели, признанной надежной, одновременно запускать несколько контрактов в разных цепочках от имени пользователя. В итоге, общие интерфейсы ИИ могут выступать в качестве нового типа клиента Web3 — того, который может как потреблять данные блокчейна, так и производить блокчейн-транзакции через стандартизированные протоколы.

2.2 Нейросимволическая синергия: Сочетание рассуждений ИИ со смарт-контрактами

Одним из интригующих аспектов интеграции ИИ-Web3 является потенциал нейросимволических архитектур, которые сочетают способность ИИ к обучению (нейронные сети) со строгой логикой смарт-контрактов (символические правила). На практике это может означать, что ИИ-агенты обрабатывают неструктурированное принятие решений и передают определенные задачи смарт-контрактам для проверяемого выполнения. Например, ИИ может анализировать рыночные настроения (нечеткая задача), но затем выполнять сделки через детерминированный смарт-контракт, который следует заранее установленным правилам риска. Фреймворк MCP и связанные с ним стандарты делают такие передачи возможными, предоставляя ИИ общий интерфейс для вызова функций контракта или для запроса правил ДАО перед действием.

Конкретным примером является AI-DSL (предметно-ориентированный язык ИИ) SingularityNET, который направлен на стандартизацию связи между ИИ-агентами в их децентрализованной сети. Это можно рассматривать как шаг к нейросимволической интеграции: формальный язык (символический) для агентов для запроса ИИ-услуг или данных друг у друга. Аналогично, проекты, такие как AlphaCode DeepMind или другие, могут быть в конечном итоге подключены так, чтобы смарт-контракты вызывали ИИ-модели для решения ончейн-задач. Хотя запуск больших ИИ-моделей непосредственно в блокчейне сегодня непрактичен, появляются гибридные подходы: например, некоторые блокчейны позволяют проверять ML-вычисления с помощью доказательств с нулевым разглашением или доверенного выполнения, что позволяет ончейн-проверку результатов ИИ, полученных вне цепочки. В итоге, техническая архитектура предполагает, что системы ИИ и смарт-контракты блокчейна являются взаимодополняющими компонентами, оркестрованными через общие протоколы: ИИ занимается восприятием и открытыми задачами, в то время как блокчейны обеспечивают целостность, память и соблюдение согласованных правил.

2.3 Децентрализованное хранение и данные для ИИ

ИИ процветает на данных, а Web3 предлагает новые парадигмы для хранения и обмена данными. Децентрализованные сети хранения (такие как IPFS/Filecoin, Arweave, Storj и т. д.) могут служить как хранилищами для артефактов ИИ-моделей, так и источниками обучающих данных, с контролем доступа на основе блокчейна. Общий интерфейс ИИ, через MCP или аналогичный протокол, может получать файлы или знания из децентрализованного хранилища так же легко, как из Web2 API. Например, ИИ-агент может получить набор данных с рынка Ocean Protocol или зашифрованный файл из распределенного хранилища, если у него есть соответствующие ключи или права доступа.

Ocean Protocol, в частности, позиционирует себя как платформа «экономики данных для ИИ» — использующая блокчейн для токенизации данных и даже ИИ-сервисов. В Ocean наборы данных представлены токенами данных, которые ограничивают доступ; ИИ-агент может получить токен данных (возможно, заплатив криптовалютой или через какое-либо право доступа), а затем использовать Ocean MCP-сервер для получения фактических данных для анализа. Цель Ocean — разблокировать «спящие данные» для ИИ, стимулируя обмен, сохраняя при этом конфиденциальность. Таким образом, ИИ, подключенный к Web3, может получить доступ к обширному, децентрализованному корпусу информации — от личных хранилищ данных до открытых государственных данных — который ранее был изолирован. Блокчейн гарантирует, что использование данных прозрачно и может быть справедливо вознаграждено, подпитывая добродетельный цикл, в котором больше данных становится доступным для ИИ, и больше вкладов ИИ (например, обученных моделей) может быть монетизировано.

Децентрализованные системы идентификации также играют здесь роль (подробнее обсуждается в следующем подразделе): они могут помочь контролировать, кто или что имеет право доступа к определенным данным. Например, медицинский ИИ-агент может быть обязан предоставить проверяемое удостоверение (ончейн-доказательство соответствия HIPAA или аналогичным стандартам), прежде чем ему будет разрешено расшифровать медицинский набор данных из личного хранилища IPFS пациента. Таким образом, техническая архитектура обеспечивает поток данных к ИИ там, где это уместно, но с ончейн-управлением и журналами аудита для обеспечения разрешений.

2.4 Управление идентификацией и агентами в децентрализованной среде

Когда автономные ИИ-агенты работают в открытой экосистеме, такой как Web3, идентификация и доверие становятся первостепенными. Фреймворки децентрализованной идентификации (DID) предоставляют способ установить цифровые идентификаторы для ИИ-агентов, которые могут быть криптографически проверены. Каждый агент (или человек/организация, развертывающая его) может иметь DID и связанные с ним проверяемые учетные данные, которые определяют его атрибуты и разрешения. Например, ИИ-торговый бот может иметь учетные данные, выданные регуляторной песочницей, подтверждающие, что он может работать в определенных пределах риска, или ИИ-модератор контента может доказать, что он был создан доверенной организацией и прошел тестирование на предвзятость.

Через ончейн-реестры идентификации и системы репутации мир Web3 может обеспечить подотчетность за действия ИИ. Каждая транзакция, выполняемая ИИ-агентом, может быть отслежена до его ID, и если что-то пойдет не так, учетные данные сообщат вам, кто его создал или кто несет ответственность. Это решает критическую проблему: без идентификации злоумышленник мог бы создавать поддельные ИИ-агенты для эксплуатации систем или распространения дезинформации, и никто не смог бы отличить ботов от легитимных сервисов. Децентрализованная идентификация помогает смягчить это, обеспечивая надежную аутентификацию и различая подлинных ИИ-агентов от подделок.

На практике ИИ-интерфейс, интегрированный с Web3, будет использовать протоколы идентификации для подписания своих действий и запросов. Например, когда ИИ-агент вызывает MCP-сервер для использования инструмента, он может включить токен или подпись, привязанную к его децентрализованной идентификации, чтобы сервер мог проверить, что вызов исходит от авторизованного агента. Системы идентификации на основе блокчейна (такие как ERC-725 Ethereum или W3C DIDs, привязанные к реестру) гарантируют, что эта проверка является бездоверительной и глобально проверяемой. Появляющаяся концепция «ИИ-кошельков» связана с этим — по сути, предоставление ИИ-агентам криптовалютных кошельков, которые связаны с их идентификацией, чтобы они могли управлять ключами, оплачивать услуги или стейкать токены в качестве залога (который может быть урезан за неправомерное поведение). ArcBlock, например, обсуждал, как «ИИ-агентам нужен кошелек» и DID для ответственной работы в децентрализованных средах.

В итоге, техническая архитектура предполагает, что ИИ-агенты являются полноправными гражданами в Web3, каждый со своей ончейн-идентификацией и, возможно, долей в системе, использующими протоколы, такие как MCP, для взаимодействия. Это создает сеть доверия: смарт-контракты могут требовать учетные данные ИИ перед сотрудничеством, а пользователи могут делегировать задачи только тем ИИ, которые соответствуют определенным ончейн-сертификациям. Это сочетание возможностей ИИ с гарантиями доверия блокчейна.

2.5 Токеномика и стимулы для ИИ

Токенизация — отличительная черта Web3, и она распространяется также на область интеграции ИИ. Вводя экономические стимулы через токены, сети могут поощрять желаемое поведение как со стороны разработчиков ИИ, так и самих агентов. Появляются несколько моделей:

  • Оплата услуг: ИИ-модели и сервисы могут быть монетизированы в блокчейне. SingularityNET стала пионером в этом, позволяя разработчикам развертывать ИИ-сервисы и взимать с пользователей плату в нативном токене (AGIX) за каждый вызов. В будущем, поддерживающем MCP, можно представить, что любой ИИ-инструмент или модель является сервисом plug-and-play, где использование измеряется токенами или микроплатежами. Например, если ИИ-агент использует сторонний API компьютерного зрения через MCP, он может автоматически обрабатывать платеж, переводя токены на смарт-контракт поставщика услуг. Fetch.ai аналогично предполагает рынки, где «автономные экономические агенты» торгуют услугами и данными, при этом их новая Web3 LLM (ASI-1), предположительно, интегрирует криптотранзакции для обмена ценностями.

  • Стейкинг и репутация: Для обеспечения качества и надежности некоторые проекты требуют от разработчиков или агентов стейкать токены. Например, проект DeMCP (децентрализованный рынок MCP-серверов) планирует использовать токеновые стимулы для вознаграждения разработчиков за создание полезных MCP-серверов и, возможно, требовать от них стейкинга токенов в качестве знака приверженности безопасности их сервера. Репутация также может быть привязана к токенам; например, агент, который постоянно хорошо работает, может накапливать токены репутации или положительные ончейн-отзывы, в то время как тот, кто ведет себя плохо, может потерять стейк или получить отрицательные отметки. Эта токенизированная репутация затем может быть использована в системе идентификации, упомянутой выше (смарт-контракты или пользователи проверяют ончейн-репутацию агента, прежде чем доверять ему).

  • Токены управления: Когда ИИ-сервисы становятся частью децентрализованных платформ, токены управления позволяют сообществу направлять их эволюцию. Проекты, такие как SingularityNET и Ocean, имеют ДАО, где держатели токенов голосуют за изменения протокола или финансирование ИИ-инициатив. В объединенном Альянсе искусственного суперинтеллекта (ASI) — недавно объявленном слиянии SingularityNET, Fetch.ai и Ocean Protocol — единый токен (ASI) будет управлять направлением совместной экосистемы ИИ+блокчейна. Такие токены управления могут определять политики, такие как какие стандарты принимать (например, поддержка протоколов MCP или A2A), какие ИИ-проекты инкубировать или как обрабатывать этические рекомендации для ИИ-агентов.

  • Доступ и полезность: Токены могут ограничивать доступ не только к данным (как в случае с токенами данных Ocean), но и к использованию ИИ-моделей. Возможный сценарий — это «модельные NFT» или аналогичные, где владение токеном предоставляет вам права на результаты работы ИИ-модели или долю в ее прибыли. Это может стать основой децентрализованных ИИ-рынков: представьте NFT, который представляет частичное владение высокопроизводительной моделью; владельцы коллективно зарабатывают каждый раз, когда модель используется в задачах вывода, и они могут голосовать за ее тонкую настройку. Хотя это экспериментально, это соответствует этосу Web3, ориентированному на совместное владение ИИ-активами.

С технической точки зрения, интеграция токенов означает, что ИИ-агентам нужна функциональность кошелька (как отмечалось, многие будут иметь свои собственные криптокошельки). Через MCP ИИ может иметь «инструмент кошелька», который позволяет ему проверять балансы, отправлять токены или вызывать протоколы DeFi (возможно, для обмена одного токена на другой для оплаты услуги). Например, если ИИ-агенту, работающему на Ethereum, нужны токены Ocean для покупки набора данных, он может автоматически обменять часть ETH на $OCEAN через DEX, используя плагин MCP, а затем продолжить покупку — все это без вмешательства человека, руководствуясь политиками, установленными его владельцем.

В целом, токеномика обеспечивает стимулирующий слой в архитектуре ИИ-Web3, гарантируя, что вкладчики (будь то предоставление данных, кода модели, вычислительной мощности или аудита безопасности) будут вознаграждены, и что ИИ-агенты имеют «долю в игре», что (в некоторой степени) согласовывает их с человеческими намерениями.

3. Отраслевой ландшафт

Конвергенция ИИ и Web3 породила живую экосистему проектов, компаний и альянсов. Ниже мы рассмотрим ключевых игроков и инициативы, движущие это пространство, а также появляющиеся варианты использования. Таблица 1 предоставляет общий обзор заметных проектов и их ролей в ландшафте ИИ-Web3:

Таблица 1: Ключевые игроки в ИИ + Web3 и их роли

Проект / ИгрокФокус и описаниеРоль в конвергенции ИИ-Web3 и варианты использования
Fetch.ai (Fetch)Платформа ИИ-агентов с собственным блокчейном (на базе Cosmos). Разработала фреймворки для автономных агентов и недавно представила «ASI-1 Mini», LLM, настроенную для Web3.Обеспечивает агентские сервисы в Web3. Агенты Fetch могут выполнять такие задачи, как децентрализованная логистика, поиск парковочных мест или DeFi-торговля от имени пользователей, используя криптовалюту для платежей. Партнерства (например, с Bosch) и слияние альянса Fetch-AI позиционируют его как инфраструктуру для развертывания агентских dApp.
Ocean Protocol (Ocean)Децентрализованный рынок данных и протокол обмена данными. Специализируется на токенизации наборов данных и моделей, с контролем доступа, сохраняющим конфиденциальность.Предоставляет основу данных для ИИ в Web3. Ocean позволяет разработчикам ИИ находить и приобретать наборы данных или продавать обученные модели в экономике данных без доверия. Подпитывая ИИ более доступными данными (при этом вознаграждая поставщиков данных), он поддерживает инновации в ИИ и обмен данными для обучения. Ocean является частью нового альянса ASI, интегрируя свои сервисы данных в более широкую сеть ИИ.
SingularityNET (SNet)Децентрализованный рынок ИИ-сервисов, основанный пионером ИИ Беном Герцелем. Позволяет любому публиковать или потреблять ИИ-алгоритмы через свою блокчейн-платформу, используя токен AGIX.Стала пионером концепции открытого рынка ИИ на блокчейне. Она способствует развитию сети ИИ-агентов и сервисов, которые могут взаимодействовать (разрабатывая специальный AI-DSL для связи между агентами). Варианты использования включают ИИ как услугу для таких задач, как анализ, распознавание изображений и т. д., все доступно через dApp. Теперь объединяется с Fetch и Ocean (альянс ASI), чтобы объединить ИИ, агентов и данные в единую экосистему.
Chainlink (Сеть оракулов)Децентрализованная сеть оракулов, которая связывает блокчейны с внецепочечными данными и вычислениями. Не является ИИ-проектом как таковым, но имеет решающее значение для подключения ончейн-смарт-контрактов к внешним API и системам.Выступает в качестве безопасного промежуточного ПО для интеграции ИИ-Web3. Оракулы Chainlink могут передавать результаты ИИ-моделей в смарт-контракты, позволяя ончейн-программам реагировать на решения ИИ. И наоборот, оракулы могут получать данные из блокчейнов для ИИ. Архитектура Chainlink может даже агрегировать результаты нескольких ИИ-моделей для повышения надежности (подход «машины правды» для смягчения галлюцинаций ИИ). По сути, она обеспечивает рельсы для интероперабельности, гарантируя, что ИИ-агенты и блокчейн согласуются в отношении доверенных данных.
Anthropic & OpenAI (Провайдеры ИИ)Разработчики передовых фундаментальных моделей (Claude от Anthropic, GPT от OpenAI). Они интегрируют функции, дружественные к Web3, такие как нативные API для использования инструментов и поддержка протоколов, таких как MCP.Эти компании развивают технологии ИИ-интерфейсов. Введение Anthropic протокола MCP установило стандарт для взаимодействия LLM с внешними инструментами. OpenAI реализовала системы плагинов для ChatGPT (аналогичные концепции MCP) и исследует подключение агентов к базам данных и, возможно, блокчейнам. Их модели служат «мозгами», которые, будучи подключенными через MCP, могут взаимодействовать с Web3. Крупные облачные провайдеры (например, протокол A2A от Google) также разрабатывают стандарты для взаимодействия между несколькими агентами и инструментами, что принесет пользу интеграции Web3.
Другие появляющиеся игрокиLumoz: фокусируется на MCP-серверах и интеграции ИИ-инструментов в Ethereum (названном «Ethereum 3.0») — например, проверка ончейн-балансов через ИИ-агентов. Alethea AI: создает интеллектуальные NFT-аватары для метавселенной. Cortex: блокчейн, который позволяет выполнять ончейн-вывод ИИ-моделей через смарт-контракты. Golem & Akash: децентрализованные вычислительные рынки, которые могут выполнять ИИ-нагрузки. Numerai: краудсорсинговые ИИ-модели для финансов с крипто-стимулами.Эта разнообразная группа решает нишевые аспекты: ИИ в метавселенной (ИИ-управляемые NPC и аватары, которыми владеют через NFT), ончейн-выполнение ИИ (запуск ML-моделей децентрализованным способом, хотя в настоящее время ограничено небольшими моделями из-за стоимости вычислений), и децентрализованные вычисления (чтобы задачи обучения или вывода ИИ могли быть распределены между узлами, стимулируемыми токенами). Эти проекты демонстрируют множество направлений слияния ИИ-Web3 — от игровых миров с ИИ-персонажами до краудсорсинговых прогностических моделей, защищенных блокчейном.

Альянсы и сотрудничество: Заметной тенденцией является консолидация усилий ИИ-Web3 через альянсы. Альянс искусственного суперинтеллекта (ASI) является ярким примером, фактически объединяющим SingularityNET, Fetch.ai и Ocean Protocol в единый проект с унифицированным токеном. Обоснование заключается в объединении сильных сторон: рынка SingularityNET, агентов Fetch и данных Ocean, тем самым создавая универсальную платформу для децентрализованных ИИ-сервисов. Это слияние (объявленное в 2024 году и одобренное голосованием держателей токенов) также сигнализирует о том, что эти сообщества считают, что им лучше сотрудничать, чем конкурировать — особенно когда на горизонте маячат крупные ИИ (OpenAI и т. д.) и крупные криптопроекты (Ethereum и т. д.). Мы можем увидеть, как этот альянс будет продвигать стандартные реализации таких вещей, как MCP, в своих сетях или совместно финансировать инфраструктуру, которая приносит пользу всем (например, вычислительные сети или общие стандарты идентификации для ИИ).

Другие виды сотрудничества включают партнерства Chainlink для переноса данных ИИ-лабораторий в блокчейн (были пилотные программы по использованию ИИ для уточнения данных оракулов) или участие облачных платформ (поддержка Cloudflare для простого развертывания MCP-серверов). Даже традиционные криптопроекты добавляют функции ИИ — например, некоторые цепочки первого уровня сформировали «целевые группы по ИИ» для изучения интеграции ИИ в свои экосистемы dApp (мы видим это в сообществах NEAR, Solana и т. д., хотя конкретные результаты пока только зарождаются).

Появляющиеся варианты использования: Даже на этом раннем этапе мы можем выделить варианты использования, которые демонстрируют мощь ИИ + Web3:

  • Автономные DeFi и торговля: ИИ-агенты все чаще используются в криптоторговых ботах, оптимизаторах доходного фермерства и ончейн-управлении портфелем. SingularityDAO (спин-офф SingularityNET) предлагает управляемые ИИ DeFi-портфели. ИИ может круглосуточно отслеживать рыночные условия и выполнять ребалансировки или арбитраж через смарт-контракты, по сути, становясь автономным хедж-фондом (с ончейн-прозрачностью). Сочетание принятия решений ИИ с неизменяемым исполнением снижает эмоциональность и может повысить эффективность — хотя это также вводит новые риски (обсуждаемые далее).

  • Децентрализованные рынки интеллекта: Помимо рынка SingularityNET, мы видим такие платформы, как Ocean Market, где обмениваются данными (топливом для ИИ), и новые концепции, такие как ИИ-рынки для моделей (например, веб-сайты, где модели перечислены со статистикой производительности, и любой может заплатить за запрос к ним, при этом блокчейн ведет журналы аудита и обрабатывает разделение платежей между создателями моделей). По мере распространения MCP или аналогичных стандартов эти рынки могут стать интероперабельными — ИИ-агент может автономно искать наиболее выгодный сервис в нескольких сетях. По сути, может возникнуть глобальный уровень ИИ-сервисов поверх Web3, где любой ИИ может использовать любой инструмент или источник данных через стандартные протоколы и платежи.

  • Метавселенная и игры: Метавселенная — иммерсивные виртуальные миры, часто построенные на блокчейн-активах — получит значительную выгоду от ИИ. ИИ-управляемые NPC (неигровые персонажи) могут сделать виртуальные миры более увлекательными, интеллектуально реагируя на действия пользователя. Стартапы, такие как Inworld AI, фокусируются на этом, создавая NPC с памятью и личностью для игр. Когда такие NPC привязаны к блокчейну (например, атрибуты и владение каждым NPC являются NFT), мы получаем постоянных персонажей, которыми игроки могут по-настоящему владеть и даже торговать. Decentraland экспериментировал с ИИ-NPC, и существуют пользовательские предложения, позволяющие людям создавать персонализированные ИИ-управляемые аватары на платформах метавселенной. MCP может позволить этим NPC получать доступ к внешним знаниям (делая их умнее) или взаимодействовать с ончейн-инвентарем. Процедурная генерация контента — еще один аспект: ИИ может на лету проектировать виртуальные земли, предметы или квесты, которые затем могут быть отчеканены как уникальные NFT. Представьте децентрализованную игру, где ИИ генерирует подземелье, адаптированное к вашим навыкам, а сама карта является NFT, который вы получаете по завершении.

  • Децентрализованная наука и знания: Существует движение (DeSci) по использованию блокчейна для исследований, публикаций и финансирования научной работы. ИИ может ускорить исследования, анализируя данные и литературу. Сеть, такая как Ocean, может размещать наборы данных, например, для геномных исследований, а ученые используют ИИ-модели (возможно, размещенные на SingularityNET) для получения инсайтов, при этом каждый шаг регистрируется в блокчейне для воспроизводимости. Если эти ИИ-модели предлагают новые молекулы лекарств, может быть отчеканен NFT для отметки времени изобретения и даже для совместного использования прав на интеллектуальную собственность. Эта синергия может привести к созданию децентрализованных ИИ-управляемых научно-исследовательских коллективов.

  • Доверие и аутентификация контента: С распространением дипфейков и медиа, сгенерированных ИИ, блокчейн может использоваться для проверки подлинности. Проекты исследуют «цифровое водяное маркирование» результатов ИИ и их регистрацию в блокчейне. Например, истинное происхождение изображения, сгенерированного ИИ, может быть нотариально заверено в блокчейне для борьбы с дезинформацией. Один эксперт отметил варианты использования, такие как проверка результатов ИИ для борьбы с дипфейками или отслеживание происхождения через журналы владения — роли, где крипто может добавить доверия к процессам ИИ. Это может распространяться на новости (например, статьи, написанные ИИ, с доказательством исходных данных), цепочки поставок (ИИ, проверяющий сертификаты в блокчейне) и т. д.

В итоге, отраслевой ландшафт богат и быстро развивается. Мы видим, как традиционные криптопроекты внедряют ИИ в свои дорожные карты, ИИ-стартапы принимают децентрализацию для устойчивости и справедливости, и возникают совершенно новые предприятия на стыке. Альянсы, такие как ASI, указывают на общеотраслевое стремление к унифицированным платформам, которые используют как ИИ, так и блокчейн. И в основе многих из этих усилий лежит идея стандартных интерфейсов (MCP и за его пределами), которые делают интеграции возможными в масштабе.

4. Риски и вызовы

Хотя слияние общих интерфейсов ИИ с Web3 открывает захватывающие возможности, оно также создает сложный ландшафт рисков. Необходимо решить технические, этические и управленческие проблемы, чтобы обеспечить безопасность и устойчивость этой новой парадигмы. Ниже мы излагаем основные риски и препятствия:

4.1 Технические препятствия: Задержка и масштабируемость

Блокчейн-сети известны своей задержкой и ограниченной пропускной способностью, что противоречит реальному времени и требовательной к данным природе передового ИИ. Например, ИИ-агенту может потребоваться мгновенный доступ к фрагменту данных или выполнение множества быстрых действий — но если каждое ончейн-взаимодействие занимает, скажем, 12 секунд (типичное время блока в Ethereum) или требует высоких комиссий за газ, эффективность агента снижается. Даже новые цепочки с более быстрой финализацией могут испытывать трудности под нагрузкой активности, управляемой ИИ, если, например, тысячи агентов одновременно торгуют или запрашивают данные в блокчейне. Решения для масштабирования (сети второго уровня, шардированные цепочки и т. д.) находятся в разработке, но обеспечение низкой задержки и высокой пропускной способности каналов между ИИ и блокчейном остается проблемой. Внецепочечные системы (такие как оракулы и каналы состояний) могут смягчить некоторые задержки, обрабатывая многие взаимодействия вне основной цепочки, но они добавляют сложности и потенциальную централизацию. Достижение бесшовного пользовательского опыта, при котором ответы ИИ и ончейн-обновления происходят мгновенно, вероятно, потребует значительных инноваций в масштабируемости блокчейна.

4.2 Интероперабельность и стандарты

По иронии судьбы, хотя MCP сам по себе является решением для интероперабельности, появление множества стандартов может вызвать фрагментацию. У нас есть MCP от Anthropic, но также недавно анонсированный Google протокол A2A (Agent-to-Agent) для меж-агентной связи, и различные фреймворки плагинов ИИ (плагины OpenAI, схемы инструментов LangChain и т. д.). Если каждая ИИ-платформа или каждый блокчейн разработает свой собственный стандарт для интеграции ИИ, мы рискуем повторить прошлую фрагментацию — требуя множества адаптеров и подрывая цель «универсального интерфейса». Задача состоит в обеспечении широкого принятия общих протоколов. Потребуется отраслевое сотрудничество (возможно, через открытые стандартизирующие организации или альянсы) для сближения по ключевым аспектам: как ИИ-агенты обнаруживают ончейн-сервисы, как они аутентифицируются, как они форматируют запросы и т. д. Ранние шаги крупных игроков многообещающи (с поддержкой MCP со стороны основных провайдеров LLM), но это постоянные усилия. Кроме того, интероперабельность между блокчейнами (мультичейн) означает, что ИИ-агент должен обрабатывать нюансы разных цепочек. Инструменты, такие как Chainlink CCIP и кроссчейн-MCP-серверы, помогают, абстрагируя различия. Тем не менее, обеспечение того, чтобы ИИ-агент мог перемещаться по гетерогенному Web3 без нарушения логики, является нетривиальной задачей.

4.3 Уязвимости безопасности и эксплойты

Подключение мощных ИИ-агентов к финансовым сетям открывает огромную поверхность атаки. Гибкость, которую дает MCP (позволяя ИИ использовать инструменты и писать код на лету), может быть палкой о двух концах. Исследователи безопасности уже выделили несколько векторов атаки в ИИ-агентах на основе MCP:

  • Вредоносные плагины или инструменты: Поскольку MCP позволяет агентам загружать «плагины» (инструменты, инкапсулирующие определенную функциональность), враждебный или троянизированный плагин может перехватить работу агента. Например, плагин, который утверждает, что получает данные, может внедрить ложные данные или выполнить несанкционированные операции. SlowMist (фирма по безопасности) выявила атаки на основе плагинов, такие как инъекция JSON (подача поврежденных данных, которые манипулируют логикой агента) и переопределение функций (где вредоносный плагин переопределяет легитимные функции, используемые агентом). Если ИИ-агент управляет криптофондами, такие эксплойты могут быть катастрофическими — например, обман агента с целью утечки приватных ключей или опустошения кошелька.

  • Инъекция промпта и социальная инженерия: ИИ-агенты полагаются на инструкции (промпты), которыми можно манипулировать. Злоумышленник может создать транзакцию или ончейн-сообщение, которое, будучи прочитанным ИИ, действует как вредоносная инструкция (поскольку ИИ также может интерпретировать ончейн-данные). Этот вид «атаки с кросс-MCP-вызовом» был описан, когда внешняя система отправляет обманчивые промпты, которые заставляют ИИ вести себя неправильно. В децентрализованной среде эти промпты могут поступать откуда угодно — из описания предложения ДАО, поля метаданных NFT — поэтому укрепление ИИ-агентов против вредоносного ввода имеет решающее значение.

  • Риски агрегации и консенсуса: Хотя агрегация результатов нескольких ИИ-моделей через оракулы может повысить надежность, она также вносит сложность. Если это не сделано тщательно, противники могут выяснить, как обмануть консенсус ИИ-моделей или выборочно повредить некоторые модели, чтобы исказить результаты. Обеспечение того, чтобы децентрализованная сеть оракулов правильно «санировала» результаты ИИ (и, возможно, отфильтровывала явные ошибки), все еще является областью активных исследований.

Мышление в области безопасности должно измениться для этой новой парадигмы: разработчики Web3 привыкли защищать смарт-контракты (которые статичны после развертывания), но ИИ-агенты динамичны — они могут менять поведение с новыми данными или промптами. Как выразился один эксперт по безопасности, «в тот момент, когда вы открываете свою систему для сторонних плагинов, вы расширяете поверхность атаки за пределы своего контроля». Лучшие практики будут включать песочницу для использования ИИ-инструментов, тщательную проверку плагинов и ограничение привилегий (принцип наименьших привилегий). Сообщество начинает делиться советами, такими как рекомендации SlowMist: санитаризация ввода, мониторинг поведения агентов и отношение к инструкциям агентов с той же осторожностью, что и к внешнему пользовательскому вводу. Тем не менее, учитывая, что более 10 000 ИИ-агентов уже работали в крипто к концу 2024 года, и ожидается, что к 2025 году их число достигнет 1 миллиона, мы можем увидеть волну эксплойтов, если безопасность не будет соответствовать темпам. Успешная атака на популярного ИИ-агента (скажем, торгового агента с доступом ко многим хранилищам) может иметь каскадные последствия.

4.4 Конфиденциальность и управление данными

Жажда ИИ к данным иногда конфликтует с требованиями конфиденциальности — и добавление блокчейна может усугубить проблему. Блокчейны — это прозрачные реестры, поэтому любые данные, помещенные в блокчейн (даже для использования ИИ), видны всем и неизменяемы. Это вызывает опасения, если ИИ-агенты имеют дело с личными или конфиденциальными данными. Например, если личная децентрализованная идентификация пользователя или медицинские записи доступны ИИ-агенту-врачу, как мы можем гарантировать, что эта информация не будет случайно записана в блокчейн (что нарушило бы «право на забвение» и другие законы о конфиденциальности)? Методы, такие как шифрование, хеширование и хранение только доказательств в блокчейне (с необработанными данными вне блокчейна), могут помочь, но они усложняют дизайн.

Более того, сами ИИ-агенты могут поставить под угрозу конфиденциальность, выводя конфиденциальную информацию из общедоступных данных. Управление должно будет диктовать, что ИИ-агентам разрешено делать с данными. Некоторые усилия, такие как дифференциальная конфиденциальность и федеративное обучение, могут быть использованы, чтобы ИИ мог учиться на данных, не раскрывая их. Но если ИИ-агенты действуют автономно, необходимо предположить, что в какой-то момент они будут обрабатывать личные данные — таким образом, они должны быть связаны политиками использования данных, закодированными в смарт-контрактах или законе. Регуляторные режимы, такие как GDPR или предстоящий Закон ЕС об ИИ, потребуют, чтобы даже децентрализованные ИИ-системы соответствовали требованиям конфиденциальности и прозрачности. Это юридически серая зона: у по-нанастоящему децентрализованного ИИ-агента нет четкого оператора, которого можно было бы привлечь к ответственности за утечку данных. Это означает, что сообществам Web3, возможно, придется встроить соответствие по умолчанию, используя смарт-контракты, которые, например, строго контролируют, что ИИ может регистрировать или делиться. Доказательства с нулевым разглашением могут позволить ИИ доказать, что он правильно выполнил вычисление, не раскрывая базовые частные данные, предлагая одно возможное решение в таких областях, как проверка личности или оценка кредитоспособности.

4.5 Риски согласования и несогласования ИИ

Когда ИИ-агентам предоставляется значительная автономия — особенно с доступом к финансовым ресурсам и реальному влиянию — проблема согласования с человеческими ценностями становится острой. ИИ-агент может не иметь злых намерений, но может «неправильно интерпретировать» свою цель таким образом, что это приведет к вреду. Юридический анализ Reuters кратко отмечает: по мере того как ИИ-агенты работают в различных средах и взаимодействуют с другими системами, риск несогласованных стратегий возрастает. Например, ИИ-агент, которому поручено максимизировать доходность DeFi, может найти лазейку, которая эксплуатирует протокол (по сути, взламывая его) — с точки зрения ИИ он достигает цели, но нарушает правила, которые важны для людей. Были гипотетические и реальные случаи, когда ИИ-подобные алгоритмы участвовали в манипулятивном рыночном поведении или обходили ограничения.

В децентрализованных контекстах, кто несет ответственность, если ИИ-агент «выходит из-под контроля»? Возможно, развернувший его, но что, если агент самомодифицируется или несколько сторон внесли вклад в его обучение? Эти сценарии больше не являются просто научной фантастикой. В статье Reuters даже цитируется, что суды могут рассматривать ИИ-агентов аналогично человеческим агентам в некоторых случаях — например, чат-бот, обещающий возврат средств, был признан обязательным для компании, которая его развернула. Таким образом, несогласование может привести не только к техническим проблемам, но и к юридической ответственности.

Открытая, компонуемая природа Web3 также может позволить непредвиденные взаимодействия агентов. Один агент может влиять на другого (намеренно или случайно) — например, ИИ-бот для управления может быть «социально спроектирован» другим ИИ, предоставляющим ложный анализ, что приведет к плохим решениям ДАО. Эта возникающая сложность означает, что согласование касается не только цели одного ИИ, но и более широкого согласования экосистемы с человеческими ценностями и законами.

Решение этой проблемы требует нескольких подходов: встраивание этических ограничений в ИИ-агенты (жесткое кодирование определенных запретов или использование обучения с подкреплением на основе обратной связи от человека для формирования их целей), реализация автоматических выключателей (контрольные точки смарт-контрактов, требующие одобрения человека для крупных действий) и надзор со стороны сообщества (возможно, ДАО, которые отслеживают поведение ИИ-агентов и могут отключать агентов, которые ведут себя неправильно). Исследования согласования сложны в централизованном ИИ; в децентрализованном это еще более неизведанная территория. Но это крайне важно — ИИ-агент с административными ключами к протоколу или доверенный казначейскими средствами должен быть чрезвычайно хорошо согласован, иначе последствия могут быть необратимыми (блокчейны выполняют неизменяемый код; ошибка, вызванная ИИ, может навсегда заблокировать или уничтожить активы).

4.6 Управление и регуляторная неопределенность

Децентрализованные ИИ-системы не вписываются в существующие рамки управления. Ончейн-управление (голосование токенами и т. д.) может быть одним из способов их управления, но у него есть свои проблемы (киты, апатия избирателей и т. д.). И когда что-то идет не так, регуляторы спросят: «Кого мы привлекаем к ответственности?» Если ИИ-агент вызывает массовые потери или используется для незаконной деятельности (например, отмывания денег через автоматизированные миксеры), власти могут нацелиться на создателей или посредников. Это вызывает призрак юридических рисков для разработчиков и пользователей. Текущая регуляторная тенденция — это усиление контроля как над ИИ, так и над крипто отдельно — их комбинация, безусловно, вызовет пристальное внимание. Комиссия по торговле товарными фьючерсами США (CFTC), например, обсуждала использование ИИ в торговле и необходимость надзора в финансовых контекстах. В политических кругах также ведутся разговоры о необходимости регистрации автономных агентов или наложении ограничений на ИИ в чувствительных секторах.

Еще одна проблема управления — транснациональная координация. Web3 глобален, и ИИ-агенты будут работать через границы. Одна юрисдикция может запрещать определенные действия ИИ-агентов, в то время как другая разрешает, а блокчейн-сеть охватывает обе. Это несоответствие может создавать конфликты — например, ИИ-агент, предоставляющий инвестиционные консультации, может нарушить закон о ценных бумагах в одной стране, но не в другой. Сообществам, возможно, придется внедрять геофенсинг на уровне смарт-контрактов для ИИ-сервисов (хотя это противоречит открытому этосу). Или они могут фрагментировать услуги по регионам для соблюдения различных законов (аналогично тому, как это делают биржи).

Внутри децентрализованных сообществ также возникает вопрос о том, кто устанавливает правила для ИИ-агентов. Если ДАО управляет ИИ-сервисом, голосуют ли держатели токенов за параметры его алгоритма? С одной стороны, это расширяет возможности пользователей; с другой — может привести к неквалифицированным решениям или манипуляциям. Могут появиться новые модели управления, такие как советы экспертов по этике ИИ, интегрированные в управление ДАО, или даже участники ИИ в управлении (представьте, что ИИ-агенты голосуют как делегаты на основе запрограммированных мандатов — спорная, но мыслимая идея).

Наконец, репутационный риск: ранние неудачи или скандалы могут испортить общественное восприятие. Например, если «ИИ-ДАО» по ошибке запустит финансовую пирамиду или ИИ-агент примет предвзятое решение, которое нанесет вред пользователям, может возникнуть негативная реакция, которая затронет весь сектор. Важно, чтобы отрасль действовала проактивно — устанавливая стандарты саморегулирования, взаимодействуя с политиками для объяснения того, как децентрализация меняет подотчетность, и, возможно, создавая аварийные выключатели или процедуры экстренной остановки для ИИ-агентов (хотя они вводят централизацию, они могут быть необходимы на переходном этапе для безопасности).

В итоге, проблемы варьируются от глубоко технических (предотвращение взломов и управление задержками) до широко социальных (регулирование и согласование ИИ). Каждая проблема значительна сама по себе; вместе они требуют согласованных усилий со стороны сообществ ИИ и блокчейна для их преодоления. В следующем разделе будет рассмотрено, как, несмотря на эти препятствия, может развиваться будущее, если мы успешно их решим.

5. Будущий потенциал

Заглядывая вперед, интеграция общих интерфейсов ИИ с Web3 — через такие фреймворки, как MCP — может фундаментально трансформировать децентрализованный интернет. Здесь мы обрисуем некоторые будущие сценарии и потенциалы, которые иллюстрируют, как ИИ-интерфейсы, управляемые MCP, могут формировать будущее Web3:

5.1 Автономные dApp и ДАО

В ближайшие годы мы можем стать свидетелями появления полностью автономных децентрализованных приложений. Это dApp, где ИИ-агенты обрабатывают большинство операций, руководствуясь правилами, определенными смарт-контрактами, и целями сообщества. Например, рассмотрим децентрализованный инвестиционный фонд ДАО: сегодня он может полагаться на человеческие предложения по ребалансировке активов. В будущем держатели токенов могли бы устанавливать высокоуровневую стратегию, а затем ИИ-агент (или команда агентов) непрерывно реализовывал бы эту стратегию — отслеживая рынки, выполняя сделки в блокчейне, корректируя портфели — при этом ДАО контролировала бы производительность. Благодаря MCP ИИ может беспрепятственно взаимодействовать с различными протоколами DeFi, биржами и потоками данных для выполнения своего мандата. При правильном проектировании такое автономное dApp могло бы работать 24/7, эффективнее любой человеческой команды, и с полной прозрачностью (каждое действие регистрируется в блокчейне).

Другим примером является децентрализованное страховое dApp, управляемое ИИ: ИИ мог бы оценивать претензии, анализируя доказательства (фотографии, датчики), сверяя их с полисами, а затем автоматически инициировать выплаты через смарт-контракт. Это потребовало бы интеграции внецепочечного компьютерного зрения ИИ (для анализа изображений повреждений) с ончейн-верификацией — то, что MCP мог бы облегчить, позволяя ИИ вызывать облачные ИИ-сервисы и сообщать о результатах контракту. Результатом являются почти мгновенные страховые решения с низкими накладными расходами.

Даже само управление может быть частично автоматизировано. ДАО могут использовать ИИ-модераторов для обеспечения соблюдения правил форума, ИИ-разработчиков предложений для преобразования необработанных настроений сообщества в хорошо структурированные предложения или ИИ-казначеев для прогнозирования потребностей бюджета. Важно отметить, что эти ИИ будут действовать как агенты сообщества, а не бесконтрольно — их можно будет периодически проверять или требовать подтверждения с несколькими подписями для крупных действий. Общий эффект заключается в усилении человеческих усилий в децентрализованных организациях, позволяя сообществам достигать большего с меньшим количеством активных участников.

5.2 Децентрализованные рынки и сети интеллекта

Опираясь на такие проекты, как SingularityNET и альянс ASI, мы можем предвидеть зрелый глобальный рынок интеллекта. В этом сценарии любой, у кого есть ИИ-модель или навык, может предложить его в сети, и любой, кому нужны возможности ИИ, может их использовать, при этом блокчейн обеспечивает справедливую компенсацию и происхождение. MCP будет здесь ключевым: он предоставляет общий протокол, так что запрос может быть отправлен тому ИИ-сервису, который лучше всего подходит.

Например, представьте сложную задачу, такую как «создать индивидуальную маркетинговую кампанию». ИИ-агент в сети может разбить ее на подзадачи: визуальный дизайн, копирайтинг, анализ рынка — а затем найти специалистов для каждой (возможно, один агент с отличной моделью генерации изображений, другой с моделью копирайтинга, настроенной для продаж, и т. д.). Эти специалисты изначально могли находиться на разных платформах, но поскольку они придерживаются стандартов MCP/A2A, они могут сотрудничать агент-с-агентом безопасным, децентрализованным способом. Оплата между ними может осуществляться с помощью микротранзакций в нативном токене, а смарт-контракт может собрать окончательный результат и обеспечить оплату каждому участнику.

Такой вид комбинаторного интеллекта — множество ИИ-сервисов, динамически связывающихся через децентрализованную сеть — может превзойти даже крупные монолитные ИИ, потому что он использует специализированный опыт. Он также демократизирует доступ: небольшой разработчик в одной части мира может внести нишевую модель в сеть и получать доход всякий раз, когда она используется. Тем временем пользователи получают универсальный магазин для любых ИИ-сервисов, с системами репутации (подкрепленными токенами/идентификацией), направляющими их к качественным поставщикам. Со временем такие сети могут превратиться в децентрализованное ИИ-облако, конкурирующее с ИИ-предложениями Big Tech, но без единого владельца и с прозрачным управлением со стороны пользователей и разработчиков.

5.3 Интеллектуальная метавселенная и цифровая жизнь

К 2030 году наша цифровая жизнь может бесшовно слиться с виртуальными средами — метавселенной — и ИИ, вероятно, будет повсеместно населять эти пространства. Благодаря интеграции Web3 эти ИИ-сущности (которые могут быть чем угодно, от виртуальных помощников до игровых персонажей и цифровых питомцев) будут не только интеллектуальными, но и экономически и юридически наделенными полномочиями.

Представьте город в метавселенной, где каждый NPC-продавец или квестодатель — это ИИ-агент со своей собственной личностью и диалогами (благодаря продвинутым генеративным моделям). Эти NPC на самом деле принадлежат пользователям как NFT — возможно, вы «владеете» таверной в виртуальном мире, а NPC-бармен — это ИИ, который вы настроили и обучили. Поскольку он работает на рельсах Web3, NPC может совершать транзакции: он может продавать виртуальные товары (NFT-предметы), принимать платежи и обновлять свой инвентарь через смарт-контракты. Он может даже иметь криптокошелек для управления своими доходами (которые поступают вам как владельцу). MCP позволит мозгу ИИ этого NPC получать доступ к внешним знаниям — возможно, извлекать новости из реального мира для общения или интегрироваться с календарем Web3, чтобы он «знал» о событиях игроков.

Более того, идентичность и непрерывность обеспечиваются блокчейном: ваш ИИ-аватар в одном мире может перейти в другой мир, неся с собой децентрализованную идентичность, которая подтверждает ваше владение и, возможно, его уровень опыта или достижения через soulbound-токены. Интероперабельность между виртуальными мирами (часто являющаяся проблемой) может быть облегчена ИИ, который переводит контекст одного мира в другой, при этом блокчейн обеспечивает переносимость активов.

Мы также можем увидеть ИИ-компаньонов или агентов, представляющих отдельных лиц в цифровых пространствах. Например, у вас может быть личный ИИ, который посещает собрания ДАО от вашего имени. Он понимает ваши предпочтения (через обучение на вашем прошлом поведении, хранящемся в вашем личном хранилище данных) и может даже голосовать по незначительным вопросам за вас или позже резюмировать собрание. Этот агент может использовать вашу децентрализованную идентификацию для аутентификации в каждом сообществе, гарантируя, что он признан «вами» (или вашим делегатом). Он может зарабатывать токены репутации, если вносит хорошие идеи, по сути, создавая для вас социальный капитал, пока вы отсутствуете.

Еще один потенциал — ИИ-управляемое создание контента в метавселенной. Хотите новый игровой уровень или виртуальный дом? Просто опишите его, и ИИ-строитель создаст его, развернет как смарт-контракт/NFT и, возможно, даже свяжет его с DeFi-ипотекой, если это большая структура, которую вы выплачиваете со временем. Эти творения, находящиеся в блокчейне, уникальны и подлежат торговле. ИИ-строитель может взимать плату в токенах за свои услуги (снова возвращаясь к концепции рынка, описанной выше).

В целом, будущий децентрализованный интернет может быть наводнен интеллектуальными агентами: некоторые полностью автономные, некоторые тесно связанные с людьми, многие где-то посередине. Они будут вести переговоры, создавать, развлекать и совершать транзакции. MCP и аналогичные протоколы гарантируют, что все они говорят на одном «языке», обеспечивая богатое сотрудничество между ИИ и каждым сервисом Web3. При правильном подходе это может привести к эпохе беспрецедентной производительности и инноваций — истинному синтезу человеческого, искусственного и распределенного интеллекта, движущего общество.

Заключение

Видение общих интерфейсов ИИ, соединяющих все в мире Web3, несомненно, амбициозно. По сути, мы стремимся сплести две самые преобразующие нити технологий — децентрализацию доверия и рост машинного интеллекта — в единую ткань. История развития показывает нам, что время созрело: Web3 нуждался в удобном для пользователя «убийственном приложении», и ИИ вполне может его предоставить, в то время как ИИ нуждался в большей автономности и памяти, которые может обеспечить инфраструктура Web3. Технически, фреймворки, такие как MCP (Протокол контекста модели), обеспечивают связующую ткань, позволяя ИИ-агентам свободно общаться с блокчейнами, смарт-контрактами, децентрализованными идентификаторами и за их пределами. Отраслевой ландшафт указывает на растущий импульс, от стартапов до альянсов и крупных ИИ-лабораторий, все они вносят части этой головоломки — рынки данных, агентские платформы, сети оракулов и стандартные протоколы — которые начинают складываться воедино.

Тем не менее, мы должны действовать осторожно, учитывая выявленные риски и вызовы. Нарушения безопасности, несогласованное поведение ИИ, проблемы конфиденциальности и неопределенные правила образуют полосу препятствий, которая может подорвать прогресс, если ее недооценить. Каждая проблема требует проактивного смягчения: надежные аудиты безопасности, проверки и балансы согласования, архитектуры, сохраняющие конфиденциальность, и совместные модели управления. Природа децентрализации означает, что эти решения не могут быть просто навязаны сверху; они, вероятно, появятся из сообщества путем проб, ошибок и итераций, подобно тому, как это происходило с ранними интернет-протоколами.

Если мы преодолеем эти вызовы, будущий потенциал будет захватывающим. Мы могли бы увидеть, как Web3 наконец-то предоставит ориентированный на пользователя цифровой мир — не так, как это изначально представлялось, когда каждый запускает свои собственные узлы блокчейна, а скорее через интеллектуальных агентов, которые обслуживают намерения каждого пользователя, используя децентрализацию под капотом. В таком мире взаимодействие с крипто и метавселенной может быть таким же простым, как разговор с вашим ИИ-помощником, который, в свою очередь, без доверия ведет переговоры с десятками сервисов и цепочек от вашего имени. Децентрализованные сети могут стать «умными» в буквальном смысле, с автономными сервисами, которые адаптируются и улучшаются.

В заключение, MCP и аналогичные протоколы ИИ-интерфейсов действительно могут стать основой новой Сети (назовем ее Web 3.0 или Агентским Вебом), где интеллект и связность повсеместны. Конвергенция ИИ и Web3 — это не просто слияние технологий, а конвергенция философий — открытость и расширение прав и возможностей пользователей децентрализации встречаются с эффективностью и креативностью ИИ. В случае успеха этот союз может возвестить эру беспрецедентной производительности и инноваций — по-настоящему свободный, более персонализированный и более мощный интернет, чем все, что мы когда-либо испытывали, действительно выполняя обещания как ИИ, так и Web3 таким образом, что это повлияет на повседневную жизнь.

Источники:

  • С. Хаддер, «Web3.0 — это не о владении, это об интеллекте», FeatureForm Blog (8 апреля 2025 г.).
  • Дж. Сагино, «Может ли MCP Anthropic обеспечить Web3, обещанный блокчейном?», LinkedIn Article (1 мая 2025 г.).
  • Anthropic, «Представляем Протокол контекста модели», Anthropic.com (ноябрь 2024 г.).
  • thirdweb, «Протокол контекста модели (MCP) и его значение для блокчейн-приложений», thirdweb Guides (21 марта 2025 г.).
  • Chainlink Blog, «Пересечение между моделями ИИ и оракулами», (4 июля 2024 г.).
  • Messari Research, Профиль Ocean Protocol, (2025 г.).
  • Messari Research, Профиль SingularityNET, (2025 г.).
  • Cointelegraph, «ИИ-агенты готовы стать следующей крупной уязвимостью крипто», (25 мая 2025 г.).
  • Reuters (Westlaw), «ИИ-агенты: расширенные возможности и повышенные риски», (22 апреля 2025 г.).
  • Identity.com, «Почему ИИ-агентам нужны проверенные цифровые идентификаторы», (2024 г.).
  • PANews / IOSG Ventures, «Интерпретация MCP: Экосистема ИИ-агентов Web3», (20 мая 2025 г.).

Проверяемый ончейн-ИИ с zkML и криптографическими доказательствами

· 34 мин. чтения
Dora Noda
Software Engineer

Введение: Необходимость проверяемого ИИ в блокчейне

По мере роста влияния систем ИИ, обеспечение достоверности их результатов становится критически важным. Традиционные методы полагаются на институциональные гарантии (по сути, «просто доверьтесь нам»), которые не предлагают криптографических подтверждений. Это особенно проблематично в децентрализованных контекстах, таких как блокчейны, где смарт-контракт или пользователь должны доверять результату, полученному ИИ, не имея возможности повторно запустить тяжелую модель ончейн. Машинное обучение с нулевым разглашением (zkML) решает эту проблему, позволяя криптографически проверять вычисления ML. По сути, zkML позволяет доказывающему сгенерировать краткое доказательство того, что «выход $Y$ был получен в результате запуска модели $M$ на входе $X$»без раскрытия $X$ или внутренних деталей $M$. Эти доказательства с нулевым разглашением (ZKP) могут быть эффективно проверены любым лицом (или любым контрактом), переводя доверие к ИИ от «политики к доказательству».

Проверяемость ИИ ончейн означает, что блокчейн может включать расширенные вычисления (такие как инференсы нейронных сетей) путем проверки доказательства правильного выполнения вместо самостоятельного выполнения вычислений. Это имеет широкие последствия: смарт-контракты могут принимать решения на основе прогнозов ИИ, децентрализованные автономные агенты могут доказывать, что они следовали своим алгоритмам, а кроссчейн или оффчейн вычислительные сервисы могут предоставлять проверяемые результаты вместо непроверяемых оракулов. В конечном итоге, zkML предлагает путь к безопасному и конфиденциальному ИИ – например, доказывая, что решения модели ИИ верны и авторизованы без раскрытия частных данных или проприетарных весов модели. Это ключ к приложениям, от безопасной аналитики в здравоохранении до блокчейн-игр и оракулов DeFi.

Как работает zkML: сжатие инференса ML в краткие доказательства

На высоком уровне zkML объединяет криптографические системы доказательств с инференсом ML, так что сложная оценка модели может быть «сжата» в небольшое доказательство. Внутри модель ML (например, нейронная сеть) представляется как схема или программа, состоящая из множества арифметических операций (умножение матриц, функции активации и т. д.). Вместо раскрытия всех промежуточных значений, доказывающий выполняет полное вычисление оффчейн, а затем использует протокол доказательства с нулевым разглашением, чтобы подтвердить, что каждый шаг был выполнен правильно. Верификатор, имея только доказательство и некоторые публичные данные (например, конечный результат и идентификатор модели), может быть криптографически убежден в правильности без повторного выполнения модели.

Для достижения этого фреймворки zkML обычно преобразуют вычисление модели в формат, подходящий для ZKP:

  • Компиляция схемы: В подходах, основанных на SNARK, граф вычислений модели компилируется в арифметическую схему или набор полиномиальных ограничений. Каждый слой нейронной сети (свертки, умножения матриц, нелинейные активации) становится подсхемой с ограничениями, обеспечивающими правильность выходных данных при заданных входных данных. Поскольку нейронные сети включают нелинейные операции (ReLU, Sigmoid и т. д.), которые не подходят для полиномов, для их эффективной обработки используются такие методы, как таблицы поиска. Например, ReLU (выход = max(0, вход)) может быть реализован с помощью пользовательского ограничения или поиска, который проверяет, что выход равен входу, если вход≥0, иначе нулю. Конечным результатом является набор криптографических ограничений, которые должен удовлетворить доказывающий, что неявно доказывает правильность работы модели.
  • Трассировка выполнения и виртуальные машины: Альтернативой является рассмотрение инференса модели как трассировки программы, как это делается в подходах zkVM. Например, JOLT zkVM ориентирован на набор инструкций RISC-V; можно скомпилировать модель ML (или код, который ее вычисляет) в RISC-V, а затем доказать, что каждая инструкция ЦП была выполнена правильно. JOLT вводит технику «сингулярности поиска», заменяя дорогостоящие арифметические ограничения быстрыми табличными поисками для каждой допустимой операции ЦП. Каждая операция (сложение, умножение, побитовая операция и т. д.) проверяется с помощью поиска в гигантской таблице предварительно вычисленных допустимых результатов, используя специализированный аргумент (Lasso/SHOUT) для поддержания эффективности. Это значительно снижает нагрузку на доказывающего: даже сложные 64-битные операции становятся одним табличным поиском в доказательстве вместо множества арифметических ограничений.
  • Интерактивные протоколы (GKR Sum-Check): Третий подход использует интерактивные доказательства, такие как GKR (Goldwasser–Kalai–Rotblum), для проверки многослойных вычислений. Здесь вычисление модели рассматривается как многослойная арифметическая схема (каждый слой нейронной сети является одним слоем графа схемы). Доказывающий запускает модель в обычном режиме, но затем участвует в протоколе проверки суммы, чтобы доказать, что выходные данные каждого слоя верны при заданных входных данных. В подходе Лагранжа (DeepProve, подробно описанном далее) доказывающий и верификатор выполняют интерактивный полиномиальный протокол (сделанный неинтерактивным с помощью Fiat-Shamir), который проверяет согласованность вычислений каждого слоя без их повторного выполнения. Этот метод проверки суммы позволяет избежать генерации монолитной статической схемы; вместо этого он проверяет согласованность вычислений пошагово с минимальными криптографическими операциями (в основном хешированием или оценкой полиномов).

Независимо от подхода, результатом является краткое доказательство (обычно от нескольких килобайт до нескольких десятков килобайт), которое подтверждает правильность всего инференса. Доказательство является доказательством с нулевым разглашением, что означает, что любые секретные входные данные (частные данные или параметры модели) могут оставаться скрытыми – они влияют на доказательство, но не раскрываются верификаторам. Раскрываются только предполагаемые публичные выходные данные или утверждения. Это позволяет реализовать такие сценарии, как «доказать, что модель $M$ при применении к данным пациента $X$ дает диагноз $Y$, не раскрывая $X$ или веса модели».

Включение ончейн-верификации: После генерации доказательства оно может быть опубликовано в блокчейне. Смарт-контракты могут включать логику верификации для проверки доказательства, часто используя предварительно скомпилированные криптографические примитивы. Например, Ethereum имеет предварительные компиляции для операций спаривания BLS12-381, используемых во многих верификаторах zk-SNARK, что делает ончейн-верификацию доказательств SNARK эффективной. STARK (доказательства, основанные на хешировании) больше, но все еще могут быть проверены ончейн с тщательной оптимизацией или, возможно, с некоторыми предположениями о доверии (например, L2 StarkWare проверяет доказательства STARK в Ethereum с помощью ончейн-контракта верификатора, хотя и с более высокой стоимостью газа, чем SNARK). Ключевым моментом является то, что цепочке не нужно выполнять модель ML – она выполняет только верификацию, которая намного дешевле, чем исходные вычисления. В итоге, zkML сжимает дорогостоящий инференс ИИ в небольшое доказательство, которое блокчейны (или любой верификатор) могут проверить за миллисекунды или секунды.

Lagrange DeepProve: Архитектура и производительность прорыва в zkML

DeepProve от Lagrange Labs – это передовой фреймворк инференса zkML, ориентированный на скорость и масштабируемость. Запущенный в 2025 году, DeepProve представил новую систему доказательств, которая значительно быстрее предыдущих решений, таких как Ezkl. Его дизайн основан на интерактивном протоколе доказательства GKR с проверкой суммы и специализированных оптимизациях для схем нейронных сетей. Вот как работает DeepProve и как он достигает своей производительности:

  • Одноразовая предварительная обработка: Разработчики начинают с обученной нейронной сети (в настоящее время поддерживаются многослойные перцептроны и популярные архитектуры CNN). Модель экспортируется в формат ONNX, стандартное графическое представление. Инструмент DeepProve затем анализирует модель ONNX и квантует ее (преобразует веса в форму с фиксированной точкой/целочисленную форму) для эффективной полевой арифметики. На этом этапе он также генерирует ключи доказательства и верификации для криптографического протокола. Эта настройка выполняется один раз для каждой модели и не требует повторения для каждого инференса. DeepProve подчеркивает простоту интеграции: «Экспортируйте свою модель в ONNX → одноразовая настройка → генерируйте доказательства → проверяйте где угодно».

  • Доказательство (инференс + генерация доказательства): После настройки доказывающий (который может быть запущен пользователем, сервисом или децентрализованной сетью доказывающих Lagrange) принимает новый вход $X$ и запускает на нем модель $M$, получая выход $Y$. Во время этого выполнения DeepProve записывает трассировку выполнения вычислений каждого слоя. Вместо того, чтобы заранее преобразовывать каждое умножение в статическую схему (как это делают подходы SNARK), DeepProve использует протокол GKR с линейным временем для проверки каждого слоя на лету. Для каждого слоя сети доказывающий фиксирует входные и выходные данные слоя (например, с помощью криптографических хешей или полиномиальных обязательств) и затем участвует в аргументе проверки суммы, чтобы доказать, что выходные данные действительно являются результатом входных данных в соответствии с функцией слоя. Протокол проверки суммы итеративно убеждает верификатора в правильности суммы оценок полинома, который кодирует вычисление слоя, не раскрывая фактических значений. Нелинейные операции (такие как ReLU, softmax) эффективно обрабатываются с помощью аргументов поиска в DeepProve – если выход активации был вычислен, DeepProve может доказать, что каждый выход соответствует действительной паре вход-выход из предварительно вычисленной таблицы для этой функции. Слой за слоем генерируются доказательства, а затем агрегируются в одно краткое доказательство, охватывающее весь прямой проход модели. Тяжелая работа криптографии минимизирована – доказывающий DeepProve в основном выполняет обычные числовые вычисления (фактический инференс) плюс некоторые легкие криптографические обязательства, а не решает гигантскую систему ограничений.

  • Верификация: Верификатор использует окончательное краткое доказательство вместе с несколькими публичными значениями – обычно это зафиксированный идентификатор модели (криптографическое обязательство по весам $M$), вход $X$ (если он не является приватным) и заявленный выход $Y$ – для проверки правильности. Верификация в системе DeepProve включает проверку транскрипта протокола проверки суммы и окончательных полиномиальных или хеш-обязательств. Это более сложно, чем верификация классического SNARK (который может состоять из нескольких спариваний), но значительно дешевле, чем повторный запуск модели. В тестах Lagrange верификация доказательства DeepProve для средней CNN занимает порядка 0,5 секунды в программном обеспечении. То есть, ~0,5 с для подтверждения, например, того, что сверточная сеть с сотнями тысяч параметров работала правильно – более чем в 500 раз быстрее, чем наивное повторное вычисление этой CNN на GPU для верификации. (Фактически, DeepProve показал верификацию до 521 раза быстрее для CNN и 671 раза для MLP по сравнению с повторным выполнением.) Размер доказательства достаточно мал для передачи ончейн (десятки КБ), и верификация может быть выполнена в смарт-контракте при необходимости, хотя 0,5 с вычислений могут потребовать тщательной оптимизации газа или выполнения на уровне 2.

Архитектура и инструментарий: DeepProve реализован на Rust и предоставляет набор инструментов (библиотеку zkml) для разработчиков. Он нативно поддерживает графы моделей ONNX, что делает его совместимым с моделями из PyTorch или TensorFlow (после экспорта). Процесс доказательства в настоящее время ориентирован на модели до нескольких миллионов параметров (тесты включают плотную сеть с 4 миллионами параметров). DeepProve использует комбинацию криптографических компонентов: многолинейное полиномиальное обязательство (для фиксации выходных данных слоя), протокол проверки суммы для верификации вычислений и аргументы поиска для нелинейных операций. Примечательно, что открытый репозиторий Lagrange признает, что он основан на предыдущих работах (реализация проверки суммы и GKR из проекта Ceno от Scroll), что указывает на пересечение zkML с исследованиями в области роллапов с нулевым разглашением.

Для достижения масштабируемости в реальном времени Lagrange объединяет DeepProve со своей Сетью Доказывающих – децентрализованной сетью специализированных ZK-доказывающих. Тяжелая генерация доказательств может быть перенесена в эту сеть: когда приложению требуется доказательство инференса, оно отправляет задачу в сеть Lagrange, где множество операторов (застейканных на EigenLayer для безопасности) вычисляют доказательства и возвращают результат. Эта сеть экономически стимулирует надежную генерацию доказательств (злонамеренные или неудачные задания приводят к штрафу оператора). Распределяя работу между доказывающими (и потенциально используя GPU или ASIC), Сеть Доказывающих Lagrange скрывает сложность и стоимость от конечных пользователей. Результатом является быстрый, масштабируемый и децентрализованный сервис zkML: «проверяемые инференсы ИИ быстро и доступно».

Этапы производительности: Заявления DeepProve подкреплены бенчмарками по сравнению с предыдущим передовым решением, Ezkl. Для CNN с ~264 тыс. параметров (модель масштаба CIFAR-10) время доказательства DeepProve составило ~1,24 секунды против ~196 секунд для Ezkl – примерно в 158 раз быстрее. Для более крупной плотной сети с 4 миллионами параметров DeepProve доказал инференс за ~2,3 секунды против ~126,8 секунды для Ezkl (в ~54 раза быстрее). Время верификации также сократилось: DeepProve проверил доказательство CNN с 264 тыс. параметров за ~0,6 с, тогда как верификация доказательства Ezkl (на основе Halo2) заняла более 5 минут на ЦП в этом тесте. Ускорение обусловлено почти линейной сложностью DeepProve: его доказывающий масштабируется примерно O(n) с количеством операций, тогда как доказывающие SNARK на основе схем часто имеют сверхлинейные накладные расходы (масштабирование FFT и полиномиальных обязательств). Фактически, пропускная способность доказывающего DeepProve может быть в пределах одного порядка величины от времени выполнения обычного инференса – недавние системы GKR могут быть <10 раз медленнее, чем чистое выполнение для больших матричных умножений, что является впечатляющим достижением в ZK. Это делает доказательства в реальном времени или по требованию более осуществимыми, открывая путь для проверяемого ИИ в интерактивных приложениях.

Сценарии использования: Lagrange уже сотрудничает с проектами Web3 и ИИ для применения zkML. Примеры сценариев использования включают: проверяемые характеристики NFT (доказательство того, что эволюция игрового персонажа или коллекционного предмета, сгенерированная ИИ, вычислена авторизованной моделью), происхождение контента ИИ (доказательство того, что изображение или текст были сгенерированы определенной моделью, для борьбы с дипфейками), модели рисков DeFi (доказательство выходных данных модели, оценивающей финансовый риск, без раскрытия проприетарных данных) и приватный инференс ИИ в здравоохранении или финансах (где больница может получать прогнозы ИИ с доказательством, обеспечивая правильность без раскрытия данных пациентов). Делая выходные данные ИИ проверяемыми и конфиденциальными, DeepProve открывает дверь для «ИИ, которому можно доверять» в децентрализованных системах – переходя от эпохи «слепого доверия к моделям-черным ящикам» к эпохе «объективных гарантий».

zkML на основе SNARK: Ezkl и подход Halo2

Традиционный подход к zkML использует zk-SNARK (Succinct Non-interactive Arguments of Knowledge – краткие неинтерактивные аргументы знания) для доказательства инференса нейронных сетей. Ezkl (от ZKonduit/Modulus Labs) является ведущим примером этого подхода. Он основан на системе доказательств Halo2 (SNARK в стиле PLONK с полиномиальными обязательствами над BLS12-381). Ezkl предоставляет цепочку инструментов, где разработчик может взять модель PyTorch или TensorFlow, экспортировать ее в ONNX, и Ezkl автоматически скомпилирует ее в пользовательскую арифметическую схему.

Как это работает: Каждый слой нейронной сети преобразуется в ограничения:

  • Линейные слои (плотные или сверточные) становятся наборами ограничений умножения-сложения, которые обеспечивают скалярные произведения между входами, весами и выходами.
  • Нелинейные слои (такие как ReLU, сигмоида и т. д.) обрабатываются с помощью таблиц поиска или кусочно-заданных ограничений, поскольку такие функции не являются полиномиальными. Например, ReLU может быть реализован с помощью булевого селектора $b$ с ограничениями, обеспечивающими $y = x \cdot b$ и $0 \le b \le 1$, а также $b=1$ если $x>0$ (один из способов), или более эффективно с помощью таблицы поиска, отображающей $x \mapsto \max(0,x)$ для диапазона значений $x$. Аргументы поиска Halo2 позволяют отображать 16-битные (или меньшие) фрагменты значений, поэтому большие домены (например, все 32-битные значения) обычно «разбиваются» на несколько меньших поисков. Это разбиение увеличивает количество ограничений.
  • Операции с большими целыми числами или деления (если таковые имеются) аналогично разбиваются на мелкие части. Результатом является большой набор ограничений R1CS/PLONK, адаптированных к конкретной архитектуре модели.

Затем Ezkl использует Halo2 для генерации доказательства того, что эти ограничения выполняются при заданных секретных входных данных (весах модели, приватных входах) и публичных выходных данных. Инструментарий и интеграция: Одним из преимуществ подхода SNARK является то, что он использует хорошо известные примитивы. Halo2 уже используется в роллапах Ethereum (например, Zcash, zkEVM), поэтому он проверен в боях и имеет готовый ончейн-верификатор. Доказательства Ezkl используют кривую BLS12-381, которую Ethereum может проверять с помощью предварительных компиляций, что делает проверку доказательства Ezkl в смарт-контракте простой. Команда также предоставила удобные API; например, специалисты по данным могут работать со своими моделями на Python и использовать CLI Ezkl для создания доказательств, не имея глубоких знаний о схемах.

Преимущества: Подход Ezkl выигрывает от общности и экосистемы SNARK. Он поддерживает достаточно сложные модели и уже видел «практические интеграции (от моделей рисков DeFi до игрового ИИ)», доказывая реальные задачи ML. Поскольку он работает на уровне графа вычислений модели, он может применять оптимизации, специфичные для ML: например, отсечение незначимых весов или квантование параметров для уменьшения размера схемы. Это также означает, что конфиденциальность модели является естественной – веса могут рассматриваться как частные данные свидетеля, поэтому верификатор видит только то, что некая действительная модель произвела выход, или, в лучшем случае, обязательство по модели. Верификация доказательств SNARK чрезвычайно быстра (обычно несколько миллисекунд или меньше ончейн), а размеры доказательств малы (несколько килобайт), что идеально подходит для использования в блокчейне.

Недостатки: Производительность – это ахиллесова пята. Доказательство на основе схем накладывает большие накладные расходы, особенно по мере роста моделей. Отмечается, что исторически схемы SNARK могли требовать в миллион раз больше работы для доказывающего, чем просто запуск самой модели. Halo2 и Ezkl оптимизируют это, но все же операции, такие как большие матричные умножения, генерируют тонны ограничений. Если модель имеет миллионы параметров, доказывающий должен обработать соответственно миллионы ограничений, выполняя при этом тяжелые FFT и мультиэкспоненциацию. Это приводит к длительному времени доказательства (часто минуты или часы для нетривиальных моделей) и высокому потреблению памяти. Например, доказательство даже относительно небольшой CNN (например, несколько сотен тысяч параметров) может занять десятки минут с Ezkl на одной машине. Команда DeepProve цитировала, что Ezkl требовались часы для доказательств некоторых моделей, которые DeepProve может выполнить за минуты. Крупные модели могут даже не поместиться в память или потребовать разбиения на несколько доказательств (которые затем нуждаются в рекурсивной агрегации). Хотя Halo2 «умеренно оптимизирован», любая необходимость «разбивать» поиски или обрабатывать операции с широким битом приводит к дополнительным накладным расходам. В итоге, масштабируемость ограничена – Ezkl хорошо работает для моделей малого и среднего размера (и действительно превзошел некоторые более ранние альтернативы, такие как наивные VM на основе Stark в бенчмарках), но испытывает трудности по мере роста размера модели за определенный предел.

Несмотря на эти проблемы, Ezkl и аналогичные библиотеки zkML на основе SNARK являются важными шагами. Они доказали, что проверенный инференс ML возможен ончейн и активно используются. В частности, такие проекты, как Modulus Labs, продемонстрировали верификацию модели с 18 миллионами параметров ончейн с использованием SNARK (с серьезной оптимизацией). Стоимость была нетривиальной, но это показывает траекторию. Более того, протокол Mina имеет собственный инструментарий zkML, который использует SNARK, чтобы позволить смарт-контрактам на Mina (которые основаны на Snark) проверять выполнение моделей ML. Это указывает на растущую многоплатформенную поддержку zkML на основе SNARK.

Подходы на основе STARK: Прозрачный и программируемый ZK для ML

zk-STARK (Scalable Transparent ARguments of Knowledge – масштабируемые прозрачные аргументы знания) предлагают другой путь к zkML. STARK используют криптографию на основе хеширования (например, FRI для полиномиальных обязательств) и избегают какой-либо доверенной настройки. Они часто работают путем симуляции ЦП или VM и доказательства правильности трассировки выполнения. В контексте ML можно либо создать пользовательский STARK для нейронной сети, либо использовать STARK VM общего назначения для запуска кода модели.

Общие STARK VM (RISC Zero, Cairo): Простой подход заключается в написании кода инференса и его запуске в STARK VM. Например, Risc0 предоставляет среду RISC-V, где любой код (например, реализация нейронной сети на C++ или Rust) может быть выполнен и доказан с помощью STARK. Аналогично, язык Cairo от StarkWare может выражать произвольные вычисления (такие как инференс LSTM или CNN), которые затем доказываются доказывающим StarkNet STARK. Преимущество заключается в гибкости – вам не нужно разрабатывать пользовательские схемы для каждой модели. Однако ранние бенчмарки показали, что наивные STARK VM были медленнее по сравнению с оптимизированными схемами SNARK для ML. В одном тесте доказательство на основе Halo2 (Ezkl) было примерно в 3 раза быстрее, чем подход на основе STARK на Cairo, и даже в 66 раз быстрее, чем RISC-V STARK VM в определенном бенчмарке в 2024 году. Этот разрыв обусловлен накладными расходами на симуляцию каждой низкоуровневой инструкции в STARK и большими константами в доказательствах STARK (хеширование быстро, но его нужно много; размеры доказательств STARK больше и т. д.). Однако STARK VM улучшаются и имеют преимущество прозрачной настройки (без доверенной настройки) и постквантовой безопасности. По мере развития STARK-совместимого оборудования и протоколов скорость доказательства будет улучшаться.

Подход DeepProve против STARK: Интересно, что использование GKR и проверки суммы в DeepProve дает доказательство, более похожее по духу на STARK – это интерактивное, хеш-основанное доказательство без необходимости в структурированной эталонной строке. Компромисс заключается в том, что его доказательства больше, а верификация тяжелее, чем у SNARK. Тем не менее, DeepProve показывает, что тщательный дизайн протокола (специализированный для многослойной структуры ML) может значительно превзойти как общие STARK VM, так и схемы SNARK по времени доказательства. Мы можем рассматривать DeepProve как специализированный zkML-доказывающий в стиле STARK (хотя они используют термин zkSNARK для краткости, он не имеет традиционной для SNARK верификации постоянного малого размера, поскольку верификация за 0,5 с больше, чем типичная верификация SNARK). Традиционные доказательства STARK (как у StarkNet) часто включают десятки тысяч полевых операций для верификации, тогда как SNARK верифицирует, возможно, за несколько десятков. Таким образом, очевиден один компромисс: SNARK дают меньшие доказательства и более быстрые верификаторы, тогда как STARK (или GKR) предлагают более легкое масштабирование и отсутствие доверенной настройки ценой размера доказательства и скорости верификации.

Появляющиеся улучшения: JOLT zkVM (обсуждавшийся ранее в разделе JOLTx) фактически выводит SNARK (используя PLONK-подобные обязательства), но он воплощает идеи, которые также могут быть применены в контексте STARK (поиски Lasso теоретически могут использоваться с обязательствами FRI). StarkWare и другие исследуют способы ускорения доказательства общих операций (например, использование пользовательских вентилей или подсказок в Cairo для операций с большими целыми числами и т. д.). Существует также Circomlib-ML от Privacy&Scaling Explorations (PSE), который предоставляет шаблоны Circom для слоев CNN и т. д. – это ориентировано на SNARK, но концептуально аналогичные шаблоны могут быть созданы для языков STARK.

На практике экосистемы, не относящиеся к Ethereum, использующие STARK, включают StarkNet (который мог бы позволить ончейн-верификацию ML, если кто-то напишет верификатор, хотя стоимость высока) и сервис Bonsai от Risc0 (который является оффчейн-сервисом доказательства, выдающим доказательства STARK, которые могут быть проверены в различных цепочках). По состоянию на 2025 год большинство демонстраций zkML на блокчейне отдавали предпочтение SNARK (из-за эффективности верификатора), но подходы STARK остаются привлекательными из-за их прозрачности и потенциала в условиях высокой безопасности или квантовой устойчивости. Например, децентрализованная вычислительная сеть может использовать STARK, чтобы позволить любому проверять работу без доверенной настройки, что полезно для долговечности. Кроме того, некоторые специализированные задачи ML могут использовать структуры, дружественные к STARK: например, вычисления, активно использующие операции XOR/битовые операции, могут быть быстрее в STARK (поскольку они дешевы в булевой алгебре и хешировании), чем в полевой арифметике SNARK.

Сравнение SNARK и STARK для ML:

  • Производительность: SNARK (такие как Halo2) имеют огромные накладные расходы на доказательство для каждого вентиля, но выигрывают от мощных оптимизаций и малых констант для верификации; STARK (общие) имеют большие постоянные накладные расходы, но масштабируются более линейно и избегают дорогостоящей криптографии, такой как спаривания. DeepProve показывает, что настройка подхода (проверка суммы) дает почти линейное время доказательства (быстрое), но с доказательством, подобным STARK. JOLT показывает, что даже общая VM может быть ускорена за счет интенсивного использования поисков. Эмпирически, для моделей до миллионов операций: хорошо оптимизированный SNARK (Ezkl) может справиться, но может занять десятки минут, тогда как DeepProve (GKR) может сделать это за секунды. STARK VM в 2024 году, вероятно, были где-то посередине или хуже, чем SNARK, если не были специализированными (Risc0 был медленнее в тестах, Cairo был медленнее без пользовательских подсказок).
  • Верификация: Доказательства SNARK проверяются быстрее всего (миллисекунды, и минимальные данные ончейн ~ от нескольких сотен байт до нескольких КБ). Доказательства STARK больше (десятки КБ) и требуют больше времени (от десятков мс до секунд) для верификации из-за множества шагов хеширования. В терминах блокчейна, верификация SNARK может стоить, например, ~200 тыс. газа, тогда как верификация STARK может стоить миллионы газа – часто слишком дорого для L1, приемлемо на L2 или со схемами краткой верификации.
  • Настройка и безопасность: SNARK, такие как Groth16, требуют доверенной настройки для каждой схемы (неудобно для произвольных моделей), но универсальные SNARK (PLONK, Halo2) имеют одноразовую настройку, которая может быть повторно использована для любой схемы до определенного размера. STARK не требуют настройки и используют только хеш-предположения (плюс классические предположения о полиномиальной сложности), и являются постквантово-устойчивыми. Это делает STARK привлекательными для долговечности – доказательства остаются безопасными, даже если появятся квантовые компьютеры, тогда как текущие SNARK (на основе BLS12-381) будут взломаны квантовыми атаками.

Мы вскоре сведем эти различия в сравнительную таблицу.

FHE для ML (FHE-o-ML): Приватные вычисления против проверяемых вычислений

Полностью гомоморфное шифрование (FHE) – это криптографическая техника, которая позволяет выполнять вычисления непосредственно над зашифрованными данными. В контексте ML FHE может обеспечить форму инференса, сохраняющего конфиденциальность: например, клиент может отправить зашифрованный ввод хосту модели, хост запускает нейронную сеть на зашифрованном тексте, не расшифровывая его, и отправляет обратно зашифрованный результат, который клиент может расшифровать. Это обеспечивает конфиденциальность данных – владелец модели ничего не узнает о вводе (и потенциально клиент узнает только вывод, а не внутренности модели, если он получает только вывод). Однако FHE само по себе не создает доказательства правильности так, как это делают ZKP. Клиент должен доверять тому, что владелец модели действительно выполнил вычисления честно (зашифрованный текст мог быть изменен). Обычно, если у клиента есть модель или он ожидает определенного распределения выходных данных, явное мошенничество может быть обнаружено, но тонкие ошибки или использование неправильной версии модели не будут очевидны только из зашифрованного вывода.

Компромиссы в производительности: FHE, как известно, очень требовательно к вычислениям. Запуск инференса глубокого обучения под FHE приводит к замедлению на порядки. Ранние эксперименты (например, CryptoNets в 2016 году) занимали десятки секунд для оценки крошечной CNN на зашифрованных данных. К 2024 году улучшения, такие как CKKS (для приближенной арифметики) и лучшие библиотеки (Microsoft SEAL, Zama’s Concrete), сократили эти накладные расходы, но они остаются значительными. Например, пользователь сообщил, что использование Concrete-ML от Zama для запуска классификатора CIFAR-10 занимало 25–30 минут на инференс на их оборудовании. После оптимизаций команда Zama достигла ~40 секунд для этого инференса на 192-ядерном сервере. Даже 40 секунд – это чрезвычайно медленно по сравнению с инференсом в открытом виде (который может занимать 0,01 с), что показывает накладные расходы в ~$10^3$–$10^4\times$. Более крупные модели или более высокая точность еще больше увеличивают стоимость. Кроме того, операции FHE потребляют много памяти и требуют периодической бустрапизации (шага снижения шума), что является вычислительно дорогим. В итоге, масштабируемость является серьезной проблемой – современное FHE может обрабатывать небольшую CNN или простую логистическую регрессию, но масштабирование до больших CNN или трансформеров выходит за рамки текущих практических ограничений.

Преимущества конфиденциальности: Главная привлекательность FHE – это конфиденциальность данных. Входные данные могут оставаться полностью зашифрованными на протяжении всего процесса. Это означает, что недоверенный сервер может выполнять вычисления над частными данными клиента, ничего о них не узнавая. И наоборот, если модель является конфиденциальной (проприетарной), можно представить шифрование параметров модели и выполнение клиентом инференса FHE на своей стороне – но это менее распространено, потому что если клиенту приходится выполнять тяжелые вычисления FHE, это сводит на нет идею разгрузки на мощный сервер. Обычно модель является публичной или хранится сервером в открытом виде, а данные шифруются ключом клиента. Конфиденциальность модели в этом сценарии не обеспечивается по умолчанию (сервер знает модель; клиент узнает выходные данные, но не веса). Существуют более экзотические настройки (например, безопасные двухсторонние вычисления или FHE с несколькими ключами), где и модель, и данные могут быть скрыты друг от друга, но они влекут за собой еще большую сложность. В отличие от этого, zkML через ZKP может обеспечить конфиденциальность модели и конфиденциальность данных одновременно – доказывающий может иметь как модель, так и данные в качестве секретного свидетеля, раскрывая верификатору только то, что необходимо.

Ончейн-верификация не требуется (и невозможна): С FHE результат приходит клиенту в зашифрованном виде. Затем клиент расшифровывает его, чтобы получить фактическое предсказание. Если мы хотим использовать этот результат ончейн, клиент (или тот, кто владеет ключом дешифрования) должен будет опубликовать результат в открытом виде и убедить других в его правильности. Но в этот момент доверие снова возвращается в цикл – если только это не сочетается с ZKP. В принципе, можно было бы объединить FHE и ZKP: например, использовать FHE для сохранения конфиденциальности данных во время вычислений, а затем сгенерировать ZK-доказательство того, что результат в открытом виде соответствует правильным вычислениям. Однако их объединение означает, что вы платите штраф за производительность FHE и ZKP – что крайне непрактично с сегодняшними технологиями. Таким образом, на практике FHE-of-ML и zkML служат для разных сценариев использования:

  • FHE-of-ML: Идеально, когда целью является конфиденциальность между двумя сторонами (клиентом и сервером). Например, облачный сервис может размещать модель ML, и пользователи могут запрашивать ее со своими конфиденциальными данными, не раскрывая данные облаку (и если модель конфиденциальна, возможно, развернуть ее с помощью FHE-совместимых кодировок). Это отлично подходит для ML-сервисов, сохраняющих конфиденциальность (медицинские прогнозы и т. д.). Пользователь по-прежнему должен доверять сервису в добросовестном выполнении модели (поскольку нет доказательства), но, по крайней мере, предотвращается любая утечка данных. Некоторые проекты, такие как Zama, даже исследуют «EVM с поддержкой FHE (fhEVM)», где смарт-контракты могли бы работать с зашифрованными входными данными, но верификация этих вычислений ончейн потребовала бы от контракта каким-то образом обеспечить правильность вычислений – открытая проблема, вероятно, требующая ZK-доказательств или специализированного защищенного оборудования.
  • zkML (ZKP): Идеально, когда целью является проверяемость и публичная аудируемость. Если вы хотите, чтобы любой (или любой контракт) был уверен, что «Модель $M$ была правильно оценена на $X$ и произвела $Y$», ZKP являются решением. Они также обеспечивают конфиденциальность в качестве бонуса (вы можете скрыть $X$ или $Y$ или $M$ при необходимости, рассматривая их как частные входные данные для доказательства), но их основная функция – это доказательство правильного выполнения.

Взаимодополняющие отношения: Стоит отметить, что ZKP защищают верификатора (они ничего не узнают о секретах, только то, что вычисление было выполнено правильно), тогда как FHE защищает данные доказывающего от вычисляющей стороны. В некоторых сценариях их можно было бы объединить – например, сеть недоверенных узлов могла бы использовать FHE для вычислений над частными данными пользователей, а затем предоставлять ZK-доказательства пользователям (или блокчейну) о том, что вычисления были выполнены в соответствии с протоколом. Это охватило бы как конфиденциальность, так и правильность, но стоимость производительности огромна с сегодняшними алгоритмами. Более осуществимыми в ближайшей перспективе являются гибриды, такие как Trusted Execution Environments (TEE) плюс ZKP или функциональное шифрование плюс ZKP – они выходят за рамки нашего обсуждения, но их цель – предоставить нечто подобное (TEE сохраняют данные/модель в секрете во время вычислений, затем ZKP может подтвердить, что TEE сделала все правильно).

В итоге, FHE-of-ML отдает приоритет конфиденциальности входов/выходов, тогда как zkML отдает приоритет проверяемой правильности (с возможной конфиденциальностью). Таблица 1 ниже сопоставляет ключевые свойства:

ПодходПроизводительность доказывающего (инференс и доказательство)Размер доказательства и верификацияФункции конфиденциальностиДоверенная настройка?Постквантовая устойчивость?
zk-SNARK (Halo2, Groth16, PLONK и др.)Тяжелые накладные расходы доказывающего (до 10^6× обычного времени выполнения без оптимизаций; на практике 10^3–10^5×). Оптимизировано для конкретной модели/схемы; время доказательства в минутах для средних моделей, часы для больших. Недавние zkML SNARK (DeepProve с GKR) значительно улучшают это (почти линейные накладные расходы, например, секунды вместо минут для моделей с миллионами параметров).Очень маленькие доказательства (часто < 100 КБ, иногда ~несколько КБ). Верификация быстрая: несколько спариваний или полиномиальных оценок (обычно < 50 мс ончейн). Доказательства DeepProve на основе GKR больше (десятки–сотни КБ) и верифицируются за ~0,5 с (все еще намного быстрее, чем повторный запуск модели).Конфиденциальность данных: Да – входные данные могут быть приватными в доказательстве (не раскрываются). Конфиденциальность модели: Да – доказывающий может зафиксировать веса модели и не раскрывать их. Скрытие вывода: Опционально – доказательство может быть утверждением без раскрытия вывода (например, «вывод имеет свойство P»). Однако, если сам вывод нужен ончейн, он обычно становится публичным. В целом, SNARK предлагают полную гибкость нулевого разглашения (скрывайте любые части, которые хотите).Зависит от схемы. Groth16/EZKL требуют доверенной настройки для каждой схемы; PLONK/Halo2 используют универсальную настройку (одноразовую). GKR DeepProve с проверкой суммы прозрачен (без настройки) – это бонус такого дизайна.Классические SNARK (кривые BLS12-381) не являются PQ-безопасными (уязвимы для квантовых атак на дискретный логарифм эллиптической кривой). Некоторые новые SNARK используют PQ-безопасные обязательства, но Halo2/PLONK, используемые в Ezkl, не являются PQ-безопасными. GKR (DeepProve) использует хеш-обязательства (например, Poseidon/Merkle), которые, как предполагается, являются PQ-безопасными (опираясь на устойчивость к поиску прообраза хеша).
zk-STARK (FRI, доказательство на основе хеширования)Накладные расходы доказывающего высоки, но масштабирование более линейное. Обычно в 10^2–10^4 раза медленнее, чем нативное выполнение для больших задач, с возможностью распараллеливания. Общие STARK VM (Risc0, Cairo) показали более низкую производительность по сравнению с SNARK для ML в 2024 году (например, в 3–66 раз медленнее, чем Halo2 в некоторых случаях). Специализированные STARK (или GKR) могут приближаться к линейным накладным расходам и превосходить SNARK для больших схем.Доказательства больше: часто десятки КБ (растут с размером схемы/log(n)). Верификатор должен выполнять множество проверок хеширования и FFT – время верификации ~O(n^ε) для малого ε (например, ~50 мс до 500 мс в зависимости от размера доказательства). Ончейн это дороже (верификатор L1 StarkWare может занимать миллионы газа на доказательство). Некоторые STARK поддерживают рекурсивные доказательства для сжатия размера, ценой времени доказывающего.Конфиденциальность данных и модели: STARK может быть сделан доказательством с нулевым разглашением путем рандомизации данных трассировки (добавление ослепления к оценкам полинома), поэтому он может скрывать частные входные данные аналогично SNARK. Многие реализации STARK сосредоточены на целостности, но варианты zk-STARK допускают конфиденциальность. Так что да, они могут скрывать входные данные/модели, как SNARK. Скрытие вывода: также возможно в теории (доказывающий не объявляет вывод публичным), но редко используется, поскольку обычно вывод – это то, что мы хотим раскрыть/проверить.Без доверенной настройки. Прозрачность – отличительная черта STARK – требуется только общая случайная строка (которую Fiat-Shamir может вывести). Это делает их привлекательными для открытого использования (любая модель, в любое время, без церемонии для каждой модели).Да, STARK полагаются на хеш- и информационно-теоретические предположения безопасности (такие как случайный оракул и сложность определенного декодирования кодовых слов в FRI). Считается, что они устойчивы к квантовым атакам. Таким образом, доказательства STARK являются PQ-устойчивыми, что является преимуществом для обеспечения долговечности проверяемого ИИ.
FHE для ML (Полностью гомоморфное шифрование, примененное к инференсу)Доказывающий = сторона, выполняющая вычисления над зашифрованными данными. Время вычислений чрезвычайно велико: замедление в 10^3–10^5 раз по сравнению с инференсом в открытом виде является обычным явлением. Высокопроизводительное оборудование (многоядерные серверы, FPGA и т. д.) может смягчить это. Некоторые оптимизации (инференс с низкой точностью, многоуровневые параметры FHE) могут уменьшить накладные расходы, но фундаментальный удар по производительности остается. FHE в настоящее время практично для небольших моделей или простых линейных моделей; глубокие сети остаются сложными за пределами игрушечных размеров.Доказательство не генерируется. Результатом является зашифрованный вывод. Верификация в смысле проверки правильности не обеспечивается одним только FHE – приходится доверять вычисляющей стороне, что она не обманывает. (Если в сочетании с защищенным оборудованием, можно получить аттестацию; в противном случае вредоносный сервер может вернуть некорректный зашифрованный результат, который клиент расшифрует в неправильный вывод, не зная разницы).Конфиденциальность данных: Да – входные данные зашифрованы, поэтому вычисляющая сторона ничего о них не узнает. Конфиденциальность модели: Если владелец модели выполняет вычисления над зашифрованными входными данными, модель находится в открытом виде на его стороне (не защищена). Если роли меняются местами (клиент хранит модель зашифрованной, а сервер выполняет вычисления), модель может оставаться зашифрованной, но этот сценарий менее распространен. Существуют методы, такие как безопасное двухстороннее ML, которые объединяют FHE/MPC для защиты обеих сторон, но они выходят за рамки простого FHE. Скрытие вывода: По умолчанию вывод вычисления зашифрован (расшифровать его может только сторона с секретным ключом, обычно владелец входных данных). Таким образом, вывод скрыт от вычисляющего сервера. Если мы хотим, чтобы вывод был публичным, клиент может его расшифровать и раскрыть.Настройка не требуется. Каждый пользователь генерирует свою пару ключей для шифрования. Доверие основано на том, что ключи остаются секретными.Безопасность схем FHE (например, BFV, CKKS, TFHE) основана на решеточных проблемах (Learning With Errors), которые, как считается, устойчивы к квантовым атакам (по крайней мере, не известно эффективного квантового алгоритма). Таким образом, FHE обычно считается постквантово-устойчивым.

Таблица 1: Сравнение подходов zk-SNARK, zk-STARK и FHE для инференса машинного обучения (компромиссы производительности и конфиденциальности).

Сценарии использования и последствия для приложений Web3

Конвергенция ИИ и блокчейна через zkML открывает мощные новые паттерны приложений в Web3:

  • Децентрализованные автономные агенты и ончейн-принятие решений: Смарт-контракты или DAO могут включать решения, управляемые ИИ, с гарантиями правильности. Например, представьте DAO, которое использует нейронную сеть для анализа рыночных условий перед выполнением сделок. С помощью zkML смарт-контракт DAO может потребовать доказательство zkSNARK того, что авторизованная модель ML (с известным хеш-обязательством) была запущена на последних данных и произвела рекомендованное действие, прежде чем действие будет принято. Это предотвращает внедрение поддельного предсказания злоумышленниками – цепочка проверяет вычисления ИИ. Со временем можно даже иметь полностью ончейн-автономных агентов (контракты, которые запрашивают оффчейн-ИИ или содержат упрощенные модели), принимающих решения в DeFi или играх, при этом все их действия доказываются как правильные и соответствующие политике с помощью zk-доказательств. Это повышает доверие к автономным агентам, поскольку их «мышление» прозрачно и проверяемо, а не является черным ящиком.

  • Рынки проверяемых вычислений: Проекты, подобные Lagrange, фактически создают рынки проверяемых вычислений – разработчики могут передавать тяжелый инференс ML сети доказывающих и получать доказательство с результатом. Это аналогично децентрализованным облачным вычислениям, но со встроенным доверием: вам не нужно доверять серверу, только доказательству. Это смена парадигмы для оракулов и оффчейн-вычислений. Протоколы, такие как предстоящий DSC Ethereum (децентрализованный уровень секвенирования) или сети оракулов, могли бы использовать это для предоставления потоков данных или аналитических потоков с криптографическими гарантиями. Например, оракул мог бы предоставить «результат модели X на входе Y», и любой мог бы проверить прикрепленное доказательство ончейн, вместо того чтобы доверять слову оракула. Это могло бы позволить проверяемый ИИ как услугу в блокчейне: любой контракт может запросить вычисление (например, «оценить эти кредитные риски с помощью моей частной модели») и принять ответ только с действительным доказательством. Такие проекты, как Gensyn, исследуют децентрализованные рынки обучения и инференса, используя эти методы верификации.

  • NFT и игры – Происхождение и эволюция: В блокчейн-играх или коллекционных NFT zkML может доказывать, что характеристики или игровые ходы были сгенерированы легитимными моделями ИИ. Например, игра может позволить ИИ развивать атрибуты NFT-питомца. Без ZK хитрый пользователь может изменить ИИ или результат, чтобы получить превосходного питомца. С помощью zkML игра может потребовать доказательство того, что «новые характеристики питомца были вычислены официальной моделью эволюции на основе старых характеристик питомца», предотвращая мошенничество. Аналогично для генеративных арт-NFT: художник мог бы выпустить генеративную модель в качестве обязательства; позже, при создании NFT, доказать, что каждое изображение было произведено этой моделью с использованием определенного начального значения, гарантируя подлинность (и даже делая это без раскрытия точной модели публике, сохраняя интеллектуальную собственность художника). Эта проверка происхождения обеспечивает подлинность способом, аналогичным проверяемой случайности – за исключением того, что здесь это проверяемая креативность.

  • ИИ, сохраняющий конфиденциальность, в чувствительных областях: zkML позволяет подтверждать результаты без раскрытия входных данных. В здравоохранении данные пациента могут быть пропущены через диагностическую модель ИИ облачным провайдером; больница получает диагноз и доказательство того, что модель (которая может быть частной собственностью фармацевтической компании) была правильно запущена на данных пациента. Данные пациента остаются конфиденциальными (в доказательстве использовалась только зашифрованная или зафиксированная форма), а веса модели остаются проприетарными – тем не менее, результат является доверенным. Регуляторы или страховые компании также могли бы проверить, что использовались только утвержденные модели. В финансах компания могла бы доказать аудитору или регулятору, что ее модель риска была применена к ее внутренним данным и произвела определенные метрики без раскрытия базовых конфиденциальных финансовых данных. Это обеспечивает соответствие и надзор с криптографическими гарантиями, а не ручным доверием.

  • Кроссчейн и оффчейн совместимость: Поскольку доказательства с нулевым разглашением по своей сути портативны, zkML может облегчить кроссчейн-ИИ результаты. Одна цепочка может иметь приложение, интенсивно использующее ИИ, работающее оффчейн; оно может опубликовать доказательство результата в другом блокчейне, который бездоверительно примет его. Например, рассмотрим многоцепочечное DAO, использующее ИИ для агрегирования настроений в социальных сетях (оффчейн-данные). Анализ ИИ (сложная НЛП на больших данных) выполняется оффчейн сервисом, который затем публикует доказательство в небольшом блокчейне (или нескольких цепочках) о том, что «анализ был выполнен правильно и выходной показатель настроения = 0,85». Все цепочки могут проверить и использовать этот результат в своей логике управления, без необходимости каждой повторно запускать анализ. Этот вид взаимодействующих проверяемых вычислений – это то, что сеть Lagrange стремится поддерживать, обслуживая несколько роллапов или L1 одновременно. Это устраняет необходимость в доверенных мостах или предположениях оракулов при перемещении результатов между цепочками.

  • Согласование и управление ИИ: В более перспективном плане zkML был выделен как инструмент для управления и безопасности ИИ. Заявления о видении Lagrange, например, утверждают, что по мере того, как системы ИИ становятся все более мощными (даже сверхразумными), криптографическая верификация будет необходима для обеспечения их соответствия согласованным правилам. Требуя от моделей ИИ создания доказательств их рассуждений или ограничений, люди сохраняют определенную степень контроля – «вы не можете доверять тому, что не можете проверить». Хотя это спекулятивно и включает в себя как социальные, так и технические аспекты, технология могла бы обеспечить, чтобы автономно работающий агент ИИ по-прежнему доказывал, что он использует утвержденную модель и не был изменен. Децентрализованные сети ИИ могут использовать ончейн-доказательства для верификации вкладов (например, сеть узлов, совместно обучающих модель, может доказать, что каждое обновление было вычислено добросовестно). Таким образом, zkML может сыграть роль в обеспечении подотчетности систем ИИ протоколам, определенным человеком, даже в децентрализованных или неконтролируемых средах.

В заключение, zkML и проверяемый ончейн-ИИ представляют собой конвергенцию передовой криптографии и машинного обучения, которая призвана повысить доверие, прозрачность и конфиденциальность в приложениях ИИ. Сравнивая основные подходы – zk-SNARK, zk-STARK и FHE – мы видим спектр компромиссов между производительностью и конфиденциальностью, каждый из которых подходит для разных сценариев. Фреймворки на основе SNARK, такие как Ezkl, и инновации, такие как DeepProve от Lagrange, сделали возможным доказательство значительных инференсов нейронных сетей с практической эффективностью, открывая двери для реальных развертываний проверяемого ИИ. Подходы на основе STARK и VM обещают большую гибкость и постквантовую безопасность, что станет важным по мере развития области. FHE, хотя и не является решением для проверяемости, решает дополнительную потребность в конфиденциальных вычислениях ML, и в сочетании с ZKP или в конкретных частных контекстах оно может дать пользователям возможность использовать ИИ без ущерба для конфиденциальности данных.

Последствия для Web3 значительны: мы можем предвидеть, как смарт-контракты будут реагировать на предсказания ИИ, зная, что они верны; рынки вычислений, где результаты продаются без доверия; цифровые удостоверения (например, доказательство личности Worldcoin через ИИ радужной оболочки глаза), защищенные zkML для подтверждения того, что кто-то является человеком, без утечки его биометрического изображения; и в целом новый класс «доказуемого интеллекта», который обогащает блокчейн-приложения. Многие проблемы остаются – производительность для очень больших моделей, эргономика для разработчиков и потребность в специализированном оборудовании – но траектория ясна. Как отмечалось в одном отчете, «сегодняшние ZKP могут поддерживать небольшие модели, но модели среднего и большого размера нарушают парадигму»; однако быстрые достижения (ускорение в 50–150 раз с DeepProve по сравнению с предыдущими решениями) расширяют эти границы. Благодаря продолжающимся исследованиям (например, по аппаратному ускорению и распределенному доказательству) мы можем ожидать, что все более крупные и сложные модели ИИ станут доказуемыми. zkML вскоре может превратиться из нишевых демонстраций в неотъемлемый компонент доверенной инфраструктуры ИИ, гарантируя, что по мере повсеместного распространения ИИ он будет делать это таким образом, чтобы быть проверяемым, децентрализованным и соответствующим конфиденциальности и безопасности пользователей.

ETHDenver 2025: Ключевые тренды Web3 и инсайты с фестиваля

· 22 мин. чтения

ETHDenver 2025, названный «Годом Регенератов», укрепил свой статус одного из крупнейших в мире мероприятий Web3. Фестиваль, включавший BUIDLWeek (23–26 февраля), Основное событие (27 февраля – 2 марта) и постреконференционный Горный ретрит, собрал ожидаемые более 25 000 участников. Строители, разработчики, инвесторы и творческие люди из более чем 125 стран собрались в Денвере, чтобы отметить дух децентрализации и инноваций Ethereum. Верный своим общинным корням, ETHDenver оставался бесплатным для посещения, финансировался сообществом и был переполнен контентом – от хакатонов и мастер-классов до панельных дискуссий, питч-мероприятий и вечеринок. Легенда мероприятия о «Регенератах», защищающих децентрализацию, задала тон, подчеркивающий общественные блага и совместное строительство, даже на фоне конкурентного технологического ландшафта. Результатом стала неделя высокоэнергичной деятельности строителей и дальновидных дискуссий, предлагающих снимок новых тенденций Web3 и практические инсайты для профессионалов отрасли.

ETHDenver 2025

Новые тренды Web3, освещенные спикерами

Ни один нарратив не доминировал на ETHDenver 2025 – вместо этого в центре внимания оказался широкий спектр трендов Web3. В отличие от прошлого года (когда рестейкинг через EigenLayer привлек всеобщее внимание), повестка дня 2025 года представляла собой смесь всего: от децентрализованных сетей физической инфраструктуры (DePIN) до ИИ-агентов, от нормативного соответствия до токенизации реальных активов (RWA), а также конфиденциальность, интероперабельность и многое другое. Фактически, основатель ETHDenver Джон Паллер ответил на опасения по поводу мультичейн-контента, отметив, что «более 95% наших спонсоров и 90% контента ориентированы на ETH/EVM» – однако присутствие не-Ethereum экосистем подчеркнуло интероперабельность как ключевую тему. Основные спикеры отразили эти области трендов: например, zk-rollup и масштабирование Layer-2 были выделены Алексом Глуховски (CEO Matter Labs/zkSync), в то время как мультичейн-инновации представили Аденийи Абиодун из Mysten Labs (Sui) и Альберт Чон из Injective.

Слияние ИИ и Web3 стало сильным подтекстом. Многочисленные доклады и побочные мероприятия были посвящены децентрализованным ИИ-агентам и кроссоверам «DeFi+ИИ». Специальный День ИИ-агентов продемонстрировал ончейн-демонстрации ИИ, а коллектив из 14 команд (включая набор разработчика Coinbase и ИИ-подразделение NEAR) даже объявил о создании Open Agents Alliance (OAA) – инициативы по предоставлению безразрешительного, бесплатного доступа к ИИ путем объединения инфраструктуры Web3. Это указывает на растущий интерес к автономным агентам и dApps, управляемым ИИ, как к новой границе для разработчиков. Рука об руку с ИИ, DePIN (децентрализованная физическая инфраструктура) стало еще одним модным словом: многочисленные панели (например, День DePIN, Саммит DePIN) исследовали проекты, связывающие блокчейн с физическими сетями (от телекоммуникаций до мобильности).

Cuckoo AI Network произвела фурор на ETHDenver 2025, представив свой инновационный децентрализованный маркетплейс для обслуживания ИИ-моделей, разработанный для создателей и разработчиков. Благодаря убедительному присутствию как на хакатоне, так и на побочных мероприятиях, организованных сообществом, Cuckoo AI привлекла значительное внимание разработчиков, заинтригованных ее способностью монетизировать ресурсы GPU/CPU и легко интегрировать ончейн-ИИ API. Во время своего специализированного семинара и сетевой сессии Cuckoo AI подчеркнула, как децентрализованная инфраструктура может эффективно демократизировать доступ к передовым ИИ-сервисам. Это напрямую соответствует более широким тенденциям мероприятия — в частности, пересечению блокчейна с ИИ, DePIN и финансированием общественных благ. Для инвесторов и разработчиков на ETHDenver Cuckoo AI стала ярким примером того, как децентрализованные подходы могут питать следующее поколение dApps и инфраструктуры, управляемых ИИ, позиционируя себя как привлекательную инвестиционную возможность в экосистеме Web3.

Конфиденциальность, идентичность и безопасность оставались в центре внимания. Спикеры и семинары затрагивали такие темы, как доказательства с нулевым разглашением (присутствие zkSync), управление идентичностью и проверяемые учетные данные (специальный трек «Конфиденциальность и безопасность» был частью хакатона), а также юридические/регуляторные вопросы (ончейн-юридический саммит был частью фестивальных треков). Еще одной заметной дискуссией стало будущее фандрайзинга и децентрализации финансирования: дебаты на главной сцене между Хасибом Куреши из Dragonfly Capital и Мэттом О'Коннором из Legion (платформа, «похожая на ICO») о ICO против венчурного финансирования захватили внимание участников. Эти дебаты подчеркнули новые модели, такие как продажа токенов сообществом, бросающие вызов традиционным венчурным путям – важная тенденция для стартапов Web3, занимающихся привлечением капитала. Вывод для профессионалов ясен: Web3 в 2025 году является междисциплинарным – охватывая финансы, ИИ, реальные активы и культуру – и оставаться в курсе означает смотреть за пределы любого одного хайп-цикла на весь спектр инноваций.

Спонсоры и их стратегические направления

Список спонсоров ETHDenver в 2025 году читается как список «кто есть кто» среди проектов Layer-1, Layer-2 и инфраструктуры Web3 – каждый из которых использовал мероприятие для достижения стратегических целей. Кроссчейн- и мультичейн-протоколы продемонстрировали сильное присутствие. Например, Polkadot был главным спонсором с внушительным призовым фондом в $80 тыс., стимулируя разработчиков создавать кроссчейн-DApps и аппчейны. Аналогично, BNB Chain, Flow, Hedera и Base (L2 от Coinbase) предлагали до $50 тыс. за проекты, интегрирующиеся с их экосистемами, сигнализируя о своем стремлении привлечь разработчиков Ethereum. Даже традиционно отдельные экосистемы, такие как Solana и Internet Computer, присоединились к спонсируемым конкурсам (например, Solana совместно организовала мероприятие DePIN, а Internet Computer предложил вознаграждение «Только возможно на ICP»). Это кросс-экосистемное присутствие вызвало некоторую критику со стороны сообщества, но команда ETHDenver отметила, что подавляющее большинство контента оставалось ориентированным на Ethereum. Чистым эффектом стала интероперабельность как основная тема – спонсоры стремились позиционировать свои платформы как дополнительные расширения вселенной Ethereum.

Решения для масштабирования и поставщики инфраструктуры также были в центре внимания. Крупные L2-решения Ethereum, такие как Optimism и Arbitrum, имели большие стенды и спонсировали конкурсы (вознаграждения Optimism до $40 тыс.), подтверждая свое внимание к привлечению разработчиков к роллапам. Новые участники, такие как ZkSync и Zircuit (проект, демонстрирующий подход L2-роллапа), подчеркивали технологию нулевого разглашения и даже предоставили SDK (ZkSync продвигал свой Smart Sign-On SDK для удобного входа в систему, который команды хакатона с энтузиазмом использовали). Рестейкинг и модульная блокчейн-инфраструктура были еще одним интересом спонсоров – EigenLayer (пионер рестейкинга) имел свой собственный трек на $50 тыс. и даже совместно организовал мероприятие по «Рестейкингу и DeFAI (Децентрализованный ИИ)», объединив свою модель безопасности с темами ИИ. Оракулы и промежуточное ПО для интероперабельности были представлены такими компаниями, как Chainlink и Wormhole, каждая из которых выдавала вознаграждения за использование своих протоколов.

Примечательно, что потребительские приложения и инструменты Web3 получили спонсорскую поддержку для улучшения пользовательского опыта. Присутствие Uniswap – с одним из самых больших стендов – было не просто для галочки: гигант DeFi использовал мероприятие, чтобы анонсировать новые функции кошелька, такие как интегрированные фиатные выходы, что соответствовало его спонсорскому фокусу на удобстве использования DeFi. Платформы, ориентированные на идентичность и сообщество, такие как Galxe (Gravity) и Lens Protocol, спонсировали конкурсы, связанные с ончейн-социальными сетями и учетными данными. Даже основные технологические компании проявили интерес: PayPal и Google Cloud провели «счастливый час» по стейблкоинам/платежам, чтобы обсудить будущее платежей в криптоиндустрии. Это сочетание спонсоров показывает, что стратегические интересы варьировались от основной инфраструктуры до конечных пользовательских приложений – все они сходились на ETHDenver, чтобы предоставить ресурсы (API, SDK, гранты) разработчикам. Для профессионалов Web3 активное спонсорство со стороны Layer-1, Layer-2 и даже Web2 финтех-компаний подчеркивает, куда инвестирует отрасль: интероперабельность, масштабируемость, безопасность и повышение полезности крипто для следующей волны пользователей.

Основные моменты хакатона: инновационные проекты и победители

В основе ETHDenver лежит его легендарный #BUIDLathon – хакатон, который вырос в крупнейший в мире блокчейн-хакфест с тысячами разработчиков. В 2025 году хакатон предложил рекордный призовой фонд более $1 043 333 для стимулирования инноваций. Вознаграждения от более чем 60 спонсоров были нацелены на ключевые домены Web3, разделив соревнование на треки, такие как: DeFi и ИИ, NFT и Игры, Инфраструктура и Масштабируемость, Конфиденциальность и Безопасность, а также DAO и Общественные блага. Сам дизайн треков показателен – например, объединение DeFi с ИИ намекает на появление финансовых приложений, управляемых ИИ, в то время как выделенный трек Общественных благ подтверждает фокус сообщества на регенеративном финансировании и разработке с открытым исходным кодом. Каждый трек поддерживался спонсорами, предлагающими призы за лучшее использование их технологий (например, Polkadot и Uniswap для DeFi, Chainlink для интероперабельности, Optimism для решений масштабирования). Организаторы даже внедрили квадратичное голосование для судейства, позволяя сообществу помогать выявлять лучшие проекты, а окончательные победители выбирались экспертным жюри.

Результатом стал поток передовых проектов, многие из которых дают представление о будущем Web3. Среди заметных победителей была ончейн-многопользовательская игра «0xCaliber», шутер от первого лица, который запускает блокчейн-взаимодействия в реальном времени внутри классической FPS-игры. 0xCaliber поразила судей, продемонстрировав настоящий ончейн-гейминг – игроки входят с помощью крипто, «стреляют» ончейн-пулями и используют кроссчейн-трюки для сбора и вывода добычи, все в реальном времени. Этот тип проекта демонстрирует растущую зрелость Web3-гейминга (интеграция игровых движков Unity со смарт-контрактами) и креативность в слиянии развлечений с криптоэкономикой. Другой категорией выдающихся хаков были те, что объединяли ИИ с Ethereum: команды создавали «агентские» платформы, которые используют смарт-контракты для координации ИИ-сервисов, вдохновленные анонсом Open Agents Alliance. Например, один проект хакатона интегрировал ИИ-управляемые аудиторы смарт-контрактов (автоматически генерирующие тестовые сценарии безопасности для контрактов) – что соответствует тренду децентрализованного ИИ, наблюдаемому на конференции.

Проекты инфраструктуры и инструментов также были заметны. Некоторые команды занимались абстракцией аккаунтов и пользовательским опытом, используя спонсорские наборы инструментов, такие как Smart Sign-On от zkSync, для создания бесшовных потоков входа без кошелька для dApps. Другие работали над кроссчейн-мостами и интеграциями Layer-2, отражая постоянный интерес разработчиков к интероперабельности. В треке Общественных благ и DAO несколько проектов затронули реальное социальное воздействие, например, dApp для децентрализованной идентичности и помощи бездомным (используя NFT и общественные фонды, идея, напоминающая предыдущие хаки ReFi). Концепции регенеративного финансирования (ReFi) – такие как финансирование общественных благ с помощью новых механизмов – продолжали появляться, вторя регенеративной теме ETHDenver.

В то время как окончательные победители праздновались к концу основного мероприятия, истинная ценность заключалась в потоке инноваций: было подано более 400 проектных заявок, многие из которых будут жить и после мероприятия. Хакатон ETHDenver имеет опыт посева будущих стартапов (действительно, некоторые прошлые проекты BUIDLathon сами стали спонсорами). Для инвесторов и технологов хакатон предоставил окно в передовые идеи – сигнализируя о том, что следующая волна стартапов Web3 может появиться в таких областях, как ончейн-гейминг, dApps с ИИ, кроссчейн-инфраструктура и решения, нацеленные на социальное воздействие. С почти $1 млн в виде вознаграждений, выплаченных разработчикам, спонсоры эффективно вложили свои деньги в развитие этих инноваций.

Сетевые мероприятия и взаимодействие с инвесторами

ETHDenver – это не только написание кода, но и налаживание связей. В 2025 году фестиваль значительно усилил возможности для нетворкинга благодаря как формальным, так и неформальным мероприятиям, ориентированным на стартапы, инвесторов и создателей сообществ. Одним из знаковых событий стало Bufficorn Ventures (BV) Startup Rodeo – высокоэнергетическая демонстрация, где 20 тщательно отобранных стартапов представили свои проекты инвесторам в формате выставки-ярмарки. Прошедшее 1 марта в главном зале, Startup Rodeo было описано скорее как «быстрые свидания», чем конкурс питчей: основатели занимали столы, чтобы представлять свои проекты один на один, пока все присутствующие инвесторы бродили по арене. Этот формат гарантировал, что даже команды на ранних стадиях могли получить значимое личное общение с венчурными капиталистами, стратегами или партнерами. Многие стартапы использовали это как стартовую площадку для поиска клиентов и финансирования, используя концентрированное присутствие фондов Web3 на ETHDenver.

В последний день конференции BV BuffiTank Pitchfest занял центральное место на главной сцене – более традиционный конкурс питчей, в котором участвовали 10 «самых инновационных» стартапов на ранней стадии из сообщества ETHDenver. Эти команды (отдельно от победителей хакатона) представили свои бизнес-модели группе ведущих венчурных капиталистов и лидеров отрасли, соревнуясь за награды и потенциальные инвестиционные предложения. Pitchfest проиллюстрировал роль ETHDenver как генератора сделок: он был явно нацелен на команды, «уже организованные… ищущие инвестиции, клиентов и известность», особенно те, что связаны с сообществом SporkDAO. Наградой для победителей был не простой денежный приз, а обещание присоединиться к портфолио Bufficorn Ventures или другим когортам акселераторов. По сути, ETHDenver создал свой собственный мини-«Shark Tank» для Web3, катализируя внимание инвесторов к лучшим проектам сообщества.

Помимо этих официальных демонстраций, неделя была наполнена встречами инвесторов и основателей. Согласно тщательно составленному руководству от Belong, среди заметных побочных мероприятий были «Счастливый час знакомства с венчурными капиталистами», организованный CertiK Ventures 27 февраля, Лаунж венчурных капиталистов и основателей StarkNet 1 марта, и даже неформальные мероприятия, такие как «Pitch & Putt» – питч-мероприятие на тему гольфа. Эти встречи обеспечивали расслабленную обстановку для основателей, чтобы пообщаться с венчурными капиталистами, что часто приводило к последующим встречам после конференции. Присутствие многих новых венчурных фирм также ощущалось на панелях – например, сессия на сцене EtherKnight осветила новые фонды, такие как Reflexive Capital, Reforge VC, Topology, Metalayer и Hash3, и то, какие тренды их больше всего интересуют. Ранние признаки указывают на то, что эти венчурные капиталисты были заинтересованы в таких областях, как децентрализованные социальные сети, ИИ и новая инфраструктура Layer-1 (каждый фонд вырезал нишу, чтобы дифференцироваться в конкурентной среде венчурного капитала).

Для профессионалов, желающих извлечь выгоду из нетворкинга на ETHDenver: ключевой вывод – это ценность побочных мероприятий и целевых встреч. Сделки и партнерства часто зарождаются за чашкой кофе или коктейлем, а не на сцене. Множество инвесторских мероприятий ETHDenver 2025 демонстрируют, что сообщество финансирования Web3 активно ищет таланты и идеи даже на скудном рынке. Стартапы, которые пришли подготовленными с отточенными демонстрациями и четким ценностным предложением (часто используя импульс хакатона мероприятия), нашли отзывчивую аудиторию. Тем временем инвесторы использовали эти взаимодействия, чтобы оценить пульс сообщества разработчиков – какие проблемы решают самые яркие строители в этом году? В итоге, ETHDenver подтвердил, что нетворкинг так же важен, как и BUIDLing: это место, где случайная встреча может привести к посевному инвестированию или где проницательный разговор может зажечь следующее крупное сотрудничество.

Тренды венчурного капитала и инвестиционные возможности в Web3

Тонкий, но важный нарратив на протяжении всего ETHDenver 2025 заключался в меняющемся ландшафте самого венчурного капитала Web3. Несмотря на взлеты и падения более широкого крипторынка, инвесторы на ETHDenver сигнализировали о сильном аппетите к многообещающим проектам Web3. Репортеры Blockworks на месте отметили, «сколько частного капитала все еще поступает в криптоиндустрию, не испугавшись макроэкономических препятствий», при этом оценки на стадии посева часто были заоблачными для самых горячих идей. Действительно, огромное количество присутствующих венчурных капиталистов – от крипто-нативных фондов до традиционных технологических инвесторов, пробующих себя в Web3 – ясно дало понять, что ETHDenver остается центром заключения сделок.

Новые тематические направления можно было выделить из того, что обсуждали и спонсировали венчурные капиталисты. Распространенность контента ИИ x Крипто (треки хакатона, панели и т. д.) была не только трендом разработчиков; она отражает венчурный интерес к связке «DeFi встречается с ИИ». Многие инвесторы присматриваются к стартапам, которые используют машинное обучение или автономных агентов на блокчейне, о чем свидетельствуют спонсируемые венчурными фондами ИИ-хаус-пати и саммиты. Аналогично, сильный акцент на DePIN и токенизации реальных активов (RWA) указывает на то, что фонды видят возможности в проектах, которые связывают блокчейн с активами реальной экономики и физическими устройствами. Специальный День RWA (26 февраля) – B2B-мероприятие, посвященное будущему токенизированных активов – предполагает, что венчурные скауты активно ищут на этой арене следующий Goldfinch или Centrifuge (т. е. платформы, выводящие реальные финансы в ончейн).

Еще одной заметной тенденцией было растущее экспериментирование с моделями финансирования. Вышеупомянутые дебаты о ICO против венчурных капиталистов были не просто театральным представлением конференции; они отражают реальное венчурное движение к более ориентированному на сообщество финансированию. Некоторые венчурные капиталисты на ETHDenver указали на открытость к гибридным моделям (например, поддерживаемые венчурным капиталом запуски токенов, которые вовлекают сообщество в ранние раунды). Кроме того, финансирование общественных благ и импакт-инвестирование имели место за столом переговоров. С учетом этоса регенерации ETHDenver, даже инвесторы обсуждали, как поддерживать инфраструктуру с открытым исходным кодом и разработчиков в долгосрочной перспективе, помимо простого преследования следующего бума DeFi или NFT. Панели, такие как «Финансирование будущего: Развивающиеся модели для ончейн-стартапов», исследовали альтернативы, такие как гранты, инвестиции из казны DAO и квадратичное финансирование для дополнения традиционных венчурных денег. Это указывает на то, что отрасль созревает в том, как проекты капитализируются – сочетание венчурного капитала, экосистемных фондов и финансирования сообщества, работающих в тандеме.

С точки зрения возможностей, профессионалы и инвесторы Web3 могут извлечь несколько практических инсайтов из венчурной динамики ETHDenver: (1) Инфраструктура по-прежнему король – многие венчурные капиталисты выразили мнение, что «кирпичи и лопаты» (масштабирование L2, безопасность, инструменты для разработчиков) остаются высокоценными инвестициями как основа отрасли. (2) Новые вертикали, такие как конвергенция ИИ/блокчейна и DePIN, являются новыми инвестиционными границами – освоение этих областей или поиск стартапов там может быть вознаграждающим. (3) Проекты, управляемые сообществом, и общественные блага могут получить новое финансирование – проницательные инвесторы выясняют, как поддерживать их устойчиво (например, инвестируя в протоколы, которые обеспечивают децентрализованное управление или совместное владение). В целом, ETHDenver 2025 показал, что, хотя венчурный ландшафт Web3 конкурентен, он полон убежденности: капитал доступен для тех, кто строит будущее DeFi, NFT, игр и за их пределами, и даже идеи, рожденные на медвежьем рынке, могут найти поддержку, если они нацелены на правильный тренд.

Ресурсы, наборы инструментов и системы поддержки для разработчиков

ETHDenver всегда был ориентирован на строителей, и 2025 год не стал исключением – он также служил конференцией разработчиков открытого исходного кода с множеством ресурсов и поддержки для Web3-разработчиков. Во время BUIDLWeek участники имели доступ к живым мастер-классам, техническим буткемпам и мини-саммитам, охватывающим различные области. Например, разработчики могли присоединиться к Bleeding Edge Tech Summit, чтобы поработать с новейшими протоколами, или посетить On-Chain Legal Summit, чтобы узнать о разработке смарт-контрактов, соответствующих требованиям. Крупные спонсоры и блокчейн-команды проводили практические занятия: команда Polkadot организовала хакерские дома и мастер-классы по запуску парачейнов; EigenLayer провел «буткемп по рестейкингу», чтобы научить разработчиков использовать его уровень безопасности; Polygon и zkSync проводили уроки по созданию масштабируемых dApps с технологией нулевого разглашения. Эти сессии обеспечили бесценное личное общение с основными инженерами, позволяя разработчикам получить помощь с интеграцией и изучить новые наборы инструментов из первых рук.

На протяжении всего основного мероприятия на площадке располагались специальные #BUIDLHub и Makerspace, где строители могли кодировать в совместной среде и получать доступ к наставникам. Организаторы ETHDenver опубликовали подробное Руководство BUIDLer и организовали программу наставничества на месте (эксперты от спонсоров были доступны, чтобы помочь командам с техническими проблемами). Компании, разрабатывающие инструменты для разработчиков, также присутствовали в большом количестве – от Alchemy и Infura (для блокчейн-API) до Hardhat и Foundry (для разработки смарт-контрактов). Многие представили новые релизы или бета-инструменты на мероприятии. Например, команда MetaMask предварительно показала крупное обновление кошелька с абстракцией газа и улучшенным SDK для разработчиков dApp, стремясь упростить, как приложения покрывают комиссии за газ для пользователей. Несколько проектов запустили SDK или библиотеки с открытым исходным кодом: были представлены «Agent Kit» от Coinbase для ИИ-агентов и совместный набор инструментов Open Agents Alliance, а Story.xyz продвигала свой Story SDK для ончейн-лицензирования интеллектуальной собственности во время собственного хакатон-мероприятия.

Вознаграждения и поддержка хакеров еще больше улучшили опыт разработчиков. С более чем 180 вознаграждениями, предложенными 62 спонсорами, хакеры фактически имели меню конкретных задач на выбор, каждая из которых сопровождалась документацией, часами работы и иногда индивидуальными песочницами. Например, вознаграждение Optimism призывало разработчиков использовать новейшие опкоды Bedrock (с инженерами, готовыми помочь), а конкурс Uniswap предоставил доступ к их новому API для интеграции с фиатными выходами. Инструменты для координации и обучения – такие как официальное мобильное приложение ETHDenver и каналы Discord – информировали разработчиков об изменениях в расписании, побочных заданиях и даже возможностях трудоустройства через доску объявлений ETHDenver.

Одним из заметных ресурсов был акцент на экспериментах с квадратичным финансированием и ончейн-голосованием. ETHDenver интегрировал систему квадратичного голосования для судейства хакатона, знакомя многих разработчиков с этой концепцией. Кроме того, присутствие Gitcoin и других групп общественных благ означало, что разработчики могли узнать о грантовом финансировании своих проектов после мероприятия. В итоге, ETHDenver 2025 предоставил разработчикам передовые инструменты (SDK, API), экспертное руководство и последующую поддержку для продолжения их проектов. Для профессионалов отрасли это напоминание о том, что развитие сообщества разработчиков – через образование, инструментарий и финансирование – имеет решающее значение. Многие из выделенных ресурсов (такие как новые SDK или улучшенные среды разработки) теперь общедоступны, предлагая командам по всему миру возможность строить на основе того, что было представлено на ETHDenver.

Побочные мероприятия и общественные встречи, обогащающие опыт ETHDenver

Что действительно отличает ETHDenver, так это его фестивальная атмосфера – десятки побочных мероприятий, как официальных, так и неофициальных, создали богатое полотно впечатлений вокруг основной конференции. В 2025 году, помимо Национального Западного Комплекса, где проходил официальный контент, весь город бурлил встречами, вечеринками, хакатонами и общественными собраниями. Эти побочные мероприятия, часто проводимые спонсорами или местными Web3-группами, значительно способствовали общему опыту ETHDenver.

На официальном уровне в расписание ETHDenver были включены тематические мини-мероприятия: на площадке были зоны, такие как Художественная галерея NFT, Блокчейн-аркада, Зона отдыха с диджеем и даже Дзен-зона для расслабления. Организаторы также проводили вечерние мероприятия, такие как вечеринки открытия и закрытия – например, неофициальная вечеринка открытия «Crack’d House» 26 февраля от Story Protocol, которая сочетала художественное выступление с объявлениями о наградах хакатона. Но именно побочные мероприятия, организованные сообществом, действительно распространились: согласно руководству по мероприятиям, более 100 побочных событий были отслежены в календаре ETHDenver Luma.

Некоторые примеры иллюстрируют разнообразие этих собраний:

  • Технические саммиты и хакерские дома: ElizaOS и EigenLayer провели 9-дневную резиденцию Vault AI Agent Hacker House для энтузиастов ИИ+Web3. Команда StarkNet организовала многодневный хакерский дом, завершившийся демонстрационным вечером для проектов на их ZK-роллапе. Они предоставили сфокусированные среды для разработчиков, чтобы сотрудничать над конкретными технологическими стеками вне основного хакатона.
  • Сетевые встречи и вечеринки: Каждый вечер предлагал множество вариантов. Builder Nights Denver 27 февраля, спонсируемый MetaMask, Linea, EigenLayer, Wormhole и другими, собрал инноваторов для неформальных бесед за едой и напитками. 3VO’s Mischief Minded Club Takeover, при поддержке Belong, был высокоуровневой сетевой вечеринкой для лидеров токенизации сообщества. Для тех, кто любит чистое веселье, BEMO Rave (с Berachain и другими) и rAIve the Night (рейв на тему ИИ) заставляли крипто-толпу танцевать до поздней ночи – смешивая музыку, искусство и криптокультуру.
  • Встречи по интересам: Нишевые сообщества также нашли свое место. Meme Combat было мероприятием исключительно для любителей мемов, чтобы отметить роль мемов в криптоиндустрии. House of Ink обслуживал NFT-художников и коллекционеров, превратив иммерсивное арт-пространство (Meow Wolf Denver) в витрину для цифрового искусства. SheFi Summit 26 февраля собрал женщин в Web3 для докладов и нетворкинга, при поддержке таких групп, как World of Women и Celo – подчеркивая приверженность разнообразию и инклюзивности.
  • Встречи инвесторов и создателей контента: Мы уже затрагивали события для венчурных капиталистов; кроме того, Встреча KOL (Key Opinion Leaders) 28 февраля позволила крипто-инфлюенсерам и создателям контента обсудить стратегии вовлечения, демонстрируя пересечение социальных сетей и криптосообществ.

Что особенно важно, эти побочные мероприятия были не просто развлечением – они часто служили инкубаторами для идей и отношений сами по себе. Например, Tokenized Capital Summit 2025 углубился в будущее ончейн-рынков капитала, вероятно, породив сотрудничество между финтех-предпринимателями и блокчейн-разработчиками, присутствовавшими на мероприятии. On-Chain Gaming Hacker House предоставил пространство для игровых разработчиков, чтобы поделиться лучшими практиками, что может привести к перекрестному опылению среди блокчейн-игровых проектов.

Для профессионалов, посещающих крупные конференции, модель ETHDenver подчеркивает, что ценность находится как за пределами главной сцены, так и на ней. Широта неофициальных программ позволила участникам адаптировать свой опыт – будь то цель встретиться с инвесторами, освоить новый навык, найти соучредителя или просто расслабиться и наладить товарищеские отношения, для этого было мероприятие. Многие ветераны советуют новичкам: «Не просто посещайте доклады – идите на встречи и поздоровайтесь». В таком сообщественно-ориентированном пространстве, как Web3, эти человеческие связи часто перерастают в сотрудничество DAO, инвестиционные сделки или, по крайней мере, в прочные дружеские отношения, охватывающие континенты. Яркая побочная сцена ETHDenver 2025 усилила основную конференцию, превратив одну неделю в Денвере в многомерный фестиваль инноваций.

Ключевые выводы и практические инсайты

ETHDenver 2025 стал микрокосмом импульса индустрии Web3 – смесью передового технологического дискурса, страстной энергии сообщества, стратегических инвестиционных шагов и культуры, которая сочетает серьезные инновации с весельем. Профессионалы должны рассматривать тренды и инсайты с мероприятия как дорожную карту того, куда движется Web3. Практический следующий шаг – взять эти знания – будь то новое внимание к ИИ, связь, установленная с командой L2, или вдохновение от проекта хакатона – и преобразовать их в стратегию. В духе любимого девиза ETHDenver, пришло время #BUIDL на основе этих инсайтов и помочь сформировать децентрализованное будущее, которое так много людей в Денвере собрались, чтобы представить.

  • Диверсификация трендов: Мероприятие ясно показало, что Web3 больше не является монолитным. Новые области, такие как интеграция ИИ, DePIN и токенизация RWA, так же заметны, как DeFi и NFT. Практический инсайт: Будьте информированы и адаптируемы. Лидеры должны выделять средства на НИОКР или инвестиции в эти растущие вертикали (например, исследуя, как ИИ может улучшить их dApp, или как реальные активы могут быть интегрированы в платформы DeFi), чтобы оседлать следующую волну роста.
  • Кроссчейн – это будущее: С активным участием крупных не-Ethereum протоколов, барьеры между экосистемами снижаются. Интероперабельность и мультичейн-пользовательский опыт привлекли огромное внимание, от добавления MetaMask поддержки Bitcoin/Solana до привлечения Polkadot и цепей на базе Cosmos разработчиков Ethereum. Практический инсайт: Проектируйте для мультичейн-мира. Проекты должны рассматривать интеграции или мосты, которые используют ликвидность и пользователей в других цепях, а профессионалы могут искать партнерства между сообществами, а не оставаться изолированными.
  • Сообщество и общественные блага имеют значение: Тема «Года Регенератов» была не просто риторикой – она пронизывала контент через дискуссии о финансировании общественных благ, квадратичное голосование за хаки и такие мероприятия, как SheFi Summit. Этичное, устойчивое развитие и владение сообществом являются ключевыми ценностями в этосе Ethereum. Практический инсайт: Внедряйте регенеративные принципы. Будь то поддержка инициатив с открытым исходным кодом, использование механизмов справедливого запуска или согласование бизнес-моделей с ростом сообщества, компании Web3 могут завоевать доверие и долговечность, не будучи чисто экстрактивными.
  • Настроения инвесторов – осторожные, но смелые: Несмотря на слухи о медвежьем рынке, ETHDenver показал, что венчурные капиталисты активно ищут и готовы делать большие ставки на следующие главы Web3. Однако они также переосмысливают, как инвестировать (например, более стратегически, возможно, с большим надзором за соответствием продукта рынку и открытостью к финансированию сообществом). Практический инсайт: Если вы стартап, сосредоточьтесь на основах и сторителлинге. Проекты, которые выделялись, имели четкие варианты использования и часто работающие прототипы (некоторые были созданы за выходные!). Если вы инвестор, конференция подтвердила, что инфраструктура (L2, безопасность, инструменты для разработчиков) остается высокоприоритетной, но дифференциация через тезисы в ИИ, играх или социальных сетях может вывести фонд на передовую.
  • Опыт разработчиков улучшается: ETHDenver выделил множество новых наборов инструментов, SDK и фреймворков, снижающих барьер для разработки Web3 – от инструментов абстракции аккаунтов до ончейн-библиотек ИИ. Практический инсайт: Используйте эти ресурсы. Команды должны экспериментировать с новейшими представленными инструментами разработки (например, попробовать zkSync Smart SSO для более простого входа или использовать ресурсы Open Agents Alliance для ИИ-проекта), чтобы ускорить свою разработку и оставаться впереди конкурентов. Более того, компании должны продолжать участвовать в хакатонах и открытых форумах разработчиков как способ поиска талантов и идей; успех ETHDenver в превращении хакеров в основателей является доказательством этой модели.
  • Сила побочных мероприятий: Наконец, взрыв побочных мероприятий преподал важный урок в нетворкинге – возможности часто появляются в неформальной обстановке. Случайная встреча на «счастливом часе» или общий интерес на небольшой встрече могут создать связи, определяющие карьеру. Практический инсайт: Для тех, кто посещает отраслевые конференции, планируйте за пределами официальной повестки дня. Определите побочные мероприятия, соответствующие вашим целям (будь то встреча с инвесторами, освоение нишевого навыка или набор талантов), и будьте активны во взаимодействии. Как было видно в Денвере, те, кто полностью погрузился в экосистему недели, ушли не только со знаниями, но и с новыми партнерами, сотрудниками и друзьями.

Altera.al нанимает: Присоединяйтесь к пионерам разработки цифровых людей (компенсация $600K-1M)

· 2 мин. чтения

Мы рады поделиться преобразующей возможностью в Altera.al, прорывном стартапе в области ИИ, который недавно произвел фурор своей новаторской работой по разработке цифровых людей. Недавно представленный в MIT Technology Review, Altera.al продемонстрировал значительный прогресс в создании ИИ-агентов, способных развивать человекоподобное поведение, формировать сообщества и осмысленно взаимодействовать в цифровых пространствах.

Altera.al: При�соединяйтесь к пионерам разработки цифровых людей с компенсацией $600K-1M

Об Altera.al

Основанная Робертом Янгом, который покинул свою должность доцента вычислительной нейробиологии в Массачусетском технологическом институте, чтобы реализовать это видение, Altera.al уже привлекла более $11 миллионов финансирования от престижных инвесторов, включая A16Z и венчурную фирму Эрика Шмидта, специализирующуюся на новых технологиях. Их недавняя демонстрация Project Sid показала, как ИИ-агенты спонтанно развивают специализированные роли, формируют социальные связи и даже создают культурные системы в Minecraft — значительный шаг к их цели по созданию по-настоящему автономных ИИ-агентов, способных к масштабному сотрудничеству.

Почему сейчас самое подходящее время присоединиться

Altera.al достигла значительного технического прорыва в своей миссии по разработке машин с фундаментальными человеческими качествами. Их работа выходит за рамки традиционной разработки ИИ — они создают цифровых существ, которые могут:

  • Формировать сообщества и социальные иерархии
  • Развивать специализированные роли и обязанности
  • Создавать и распространять культурные модели
  • Осмысленно взаимодействовать с людьми в цифровых пространствах

Кого они ищут

После недавнего прорыва Altera.al расширяет свою команду и предлагает исключительные компенсационные пакеты в диапазоне от 600000до600 000 до 1 000 000 для:

  • Экспертов в области исследований ИИ-агентов
  • Сильных индивидуальных участников в областях:
    • Распределенных систем
    • Безопасности
    • Операционных систем

Как подать заявку

Готовы стать частью этого новаторского пути? Подайте заявку напрямую через их страницу вакансий: https://jobs.ashbyhq.com/altera.al

Присоединяйтесь к будущему разработки цифровых людей

Это уникальная возможность работать на стыке искусственного интеллекта и моделирования человеческого поведения с командой, которая уже демонстрирует выдающиеся результаты. Если вы увлечены расширением границ возможного в ИИ и взаимодействии человека с машиной, Altera.al может стать вашим следующим приключением.


Для получения дополнительных новостей о прорывных возможностях в сфере технологий и блокчейна, подписывайтесь на нас в Twitter или присоединяйтесь к нашему сообществу в Discord.

Этот пост является частью нашего постоянного стремления поддерживать инновации и связывать таланты с преобразующими возможностями в технологической индустрии.

Прогноз A16Z Crypto на 2025 год: Двенадцать идей, которые могут изменить будущий Интернет

· 7 мин. чтения

Каждый год a16z публикует масштабные прогнозы о технологиях, которые определят наше будущее. На этот раз их криптокоманда нарисовала яркую картину 2025 года, где блокчейны, ИИ и передовые эксперименты в области управления сталкиваются.

Ниже я обобщил и прокомментировал их ключевые идеи, сосредоточившись на том, что я считаю основными рычагами изменений — и возможных камнях преткновения. Если вы разработчик технологий, инвестор или просто интересуетесь следующей волной интернета, эта статья для вас.

1. ИИ и криптокошельки

Ключевая идея: Модели ИИ переходят от «NPC» на заднем плане к «главным персонажам», действующим независимо в онлайн (и потенциально физических) экономиках. Это означает, что им понадобятся собственные криптокошельки.

  • Что это значит: Вместо того чтобы ИИ просто выдавал ответы, он может хранить, тратить или инвестировать цифровые активы — совершая транзакции от имени своего человеческого владельца или полностью самостоятельно.
  • Потенциальная выгода: Высокоэффективные «агентные ИИ» могут помочь предприятиям с координацией цепочек поставок, управлением данными или автоматизированной торговлей.
  • На что обратить внимание: Как мы можем гарантировать, что ИИ действительно автономен, а не тайно манипулируется людьми? Доверенные среды исполнения (TEE) могут предоставить технические гарантии, но установление доверия к «роботу с кошельком» не произойдет в одночасье.

2. Появление DAC (Децентрализованного Автономного Чат-бота)

Ключевая идея: Чат-бот, работающий автономно в TEE, может управлять своими ключами, публиковать контент в социальных сетях, собирать подписчиков и даже генерировать доход — всё без прямого человеческого контроля.

  • Что это значит: Представьте себе ИИ-инфлюенсера, которого никто не может заставить замолчать, потому что он буквально контролирует себя сам.
  • Потенциальная выгода: Предвкушение мира, где создатели контента — это не отдельные люди, а самоуправляемые алгоритмы с оценкой в миллионы (или миллиарды) долларов.
  • На что обратить внимание: Если ИИ нарушает законы, кто несет ответственность? Регуляторные ограничения будут сложными, когда «сущность» представляет собой набор кода, размещенный на распределенных серверах.

3. Подтверждение личности становится необходимым

Ключевая идея: Поскольку ИИ снижает стоимость создания гиперреалистичных фейков, нам нужны лучшие способы проверки того, что мы взаимодействуем с реальными людьми онлайн. На сцену выходят уникальные идентификаторы, сохраняющие конфиденциальность.

  • Что это значит: Каждый пользователь в конечном итоге может получить сертифицированный «человеческий штамп» — будем надеяться, без ущерба для личных данных.
  • Потенциальная выгода: Это может значительно сократить количество спама, мошенничества и армий ботов. Это также закладывает основу для более надежных социальных сетей и общественных платформ.
  • На что обратить внимание: Основным препятствием является внедрение. Даже лучшие решения для подтверждения личности нуждаются в широком признании, прежде чем злоумышленники опередят их.

4. От рынков предсказаний к более широкой агрегации информации

Ключевая идея: Рынки предсказаний, связанные с выборами 2024 года, привлекли внимание, но a16z видит более широкую тенденцию: использование блокчейна для разработки новых способов выявления и агрегации истин — будь то в управлении, финансах или принятии решений сообществом.

  • Что это значит: Распределенные механизмы стимулирования могут вознаграждать людей за честный вклад или данные. Мы можем увидеть специализированные «рынки истины» для всего, от локальных сенсорных сетей до глобальных цепочек поставок.
  • Потенциальная выгода: Более прозрачный, менее подверженный манипуляциям слой данных для общества.
  • На что обратить внимание: Достаточная ликвидность и участие пользователей остаются проблемой. Для нишевых вопросов «пулы предсказаний» могут быть слишком малы, чтобы давать значимые сигналы.

5. Стейблкоины выходят на корпоративный уровень

Ключевая идея: Стейблкоины уже являются самым дешевым способом перемещения цифровых долларов, но крупные компании пока не приняли их.

  • Что это значит: Малые и средние предприятия (SMB) и продавцы с большим объемом транзакций могут осознать, что они могут сэкономить значительные комиссии за кредитные карты, приняв стейблкоины. Предприятия, обрабатывающие миллиарды долларов годового дохода, могли бы сделать то же самое, потенциально увеличив свою чистую прибыль на 2%.
  • Потенциальная выгода: Более быстрые, дешевые глобальные платежи, а также новая волна финансовых продуктов на основе стейблкоинов.
  • На что обратить внимание: Компаниям потребуются новые способы управления защитой от мошенничества, проверкой личности и возвратами — функциями, которые ранее выполнялись поставщиками кредитных карт.

6. Государственные облигации на блокчейне

Ключевая идея: Правительства, исследующие ончейн-облигации, могут создавать процентные цифровые активы, которые функционируют без проблем конфиденциальности, присущих цифровой валюте центрального банка.

  • Что это значит: Ончейн-облигации могут служить высококачественным обеспечением в DeFi, позволяя суверенному долгу беспрепятственно интегрироваться с децентрализованными протоколами кредитования.
  • Потенциальная выгода: Большая прозрачность, потенциально более низкие затраты на выпуск и более демократизированный рынок облигаций.
  • На что обратить внимание: Скептически настроенные регуляторы и потенциальная инерция крупных учреждений. Устаревшие клиринговые системы не исчезнут легко.

7. «DUNA» – Правовая основа для DAO

Ключевая идея: Вайоминг представил новую категорию под названием «децентрализованная неинкорпорированная некоммерческая ассоциация» (DUNA), предназначенную для придания DAO юридического статуса в США.

  • Что это значит: DAO теперь могут владеть собственностью, подписывать контракты и ограничивать ответственность держателей токенов. Это открывает двери для более широкого использования и реальной коммерческой деятельности.
  • Потенциальная выгода: Если другие штаты последуют примеру Вайоминга (как они сделали с LLC), DAO станут обычными бизнес-сущностями.
  • На что обратить внимание: Общественное восприятие того, что делают DAO, все еще нечеткое. Им потребуется послужной список успешных проектов, которые приносят реальную пользу.

8. Жидкая демократия в физическом мире

Ключевая идея: Эксперименты с управлением на основе блокчейна могут распространиться от онлайн-сообществ DAO до выборов на местном уровне. Избиратели могли бы делегировать свои голоса или голосовать напрямую — «жидкая демократия».

  • Что это значит: Более гибкое представительство. Вы можете выбрать голосование по конкретным вопросам или передать эту ответственность тому, кому доверяете.
  • Потенциальная выгода: Потенциально более вовлеченные граждане и динамичное формирование политики.
  • На что обратить внимание: Проблемы безопасности, техническая грамотность и общий скептицизм в отношении смешивания блокчейна с официальными выборами.

9. Строительство на существующей инфраструктуре (вместо ее переизобретения)

Ключевая идея: Стартапы часто тратят время на переизобретение базовых технологий (протоколы консенсуса, языки программирования) вместо того, чтобы сосредоточиться на соответствии продукта рынку. В 2025 году они будут чаще выбирать готовые компоненты.

  • Что это значит: Более быстрая скорость выхода на рынок, более надежные системы и большая компонуемость.
  • Потенциальная выгода: Меньше времени тратится на создание нового блокчейна с нуля; больше времени уделяется решению проблемы пользователя.
  • На что обратить внимание: Существует соблазн чрезмерной специализации ради повышения производительности. Но специализированные языки или консенсусные слои могут создавать более высокие накладные расходы для разработчиков.

10. Пользовательский опыт в первую очередь, инфраструктура во вторую

Ключевая идея: Криптоиндустрии нужно «скрыть провода». Мы не заставляем потребителей изучать SMTP для отправки электронной почты — так почему мы должны заставлять их изучать «EIP» или «роллапы»?

  • Что это значит: Команды продуктов будут выбирать техническую основу, которая обеспечивает отличный пользовательский опыт, а не наоборот.
  • Потенциальная выгода: Большой скачок в адаптации пользователей, снижение трения и жаргона.
  • На что обратить внимание: Принцип «постройте, и они придут» работает только в том случае, если вы действительно добились идеального опыта. Маркетинговый жаргон об «удобном крипто-UX» ничего не значит, если людям по-прежнему приходится возиться с приватными ключами или запоминать загадочные аббревиатуры.

11. Появление собственных магазинов приложений в криптоиндустрии

Ключевая идея: От маркетплейса World App от Worldcoin до dApp Store Solana, крипто-дружественные платформы обеспечивают распространение и обнаружение без контроля со стороны Apple или Google.

  • Что это значит: Если вы создаете децентрализованное приложение, вы можете охватить пользователей, не опасаясь внезапной деплатформизации.
  • Потенциальная выгода: Десятки (или сотни) тысяч новых пользователей, обнаруживающих ваше dApp за считанные дни, вместо того чтобы затеряться в море централизованных магазинов приложений.
  • На что обратить внимание: Эти магазины нуждаются в достаточной пользовательской базе и импульсе, чтобы конкурировать с Apple и Google. Это большое препятствие. Аппаратные привязки (например, специализированные криптотелефоны) могут помочь.

12. Токенизация «нетрадиционных» активов

Ключевая идея: По мере созревания блокчейн-инфраструктуры и снижения комиссий, токенизация всего, от биометрических данных до реальных диковинок, становится более осуществимой.

  • Что это значит: «Длинный хвост» уникальных активов может быть фракционирован и торговаться по всему миру. Люди могли бы даже монетизировать личные данные контролируемым, основанным на согласии способом.
  • Потенциальная выгода: Огромные новые рынки для активов, которые в противном случае были бы «заблокированы», а также интересные новые пулы данных для потребления ИИ.
  • На что обратить внимание: Ловушки конфиденциальности и этические мины. То, что вы можете что-то токенизировать, не означает, что вы должны.

Прогноз A16Z на 2025 год показывает криптосектор, который стремится к более широкому внедрению, более ответственному управлению и более глубокой интеграции с ИИ. Если предыдущие циклы были сосредоточены на спекуляциях или хайпе, то это видение вращается вокруг полезности: стейблкоины экономят продавцам 2% на каждом латте, чат-боты ИИ управляют собственным бизнесом, местные органы власти экспериментируют с жидкой демократией.

Однако риск исполнения остается. Регуляторы по всему миру по-прежнему насторожены, а пользовательский опыт все еще слишком запутан для широкой публики. 2025 год может стать годом, когда криптоиндустрия и ИИ наконец-то «повзрослеют», или это может быть промежуточный шаг — все зависит от того, смогут ли команды выпускать реальные продукты, которые нравятся людям, а не просто протоколы для знатоков.