Перейти к основному содержимому

26 записей с тегом "ИИ"

Посмотреть все теги

BASS 2025: Прокладывая будущее блокчейн-приложений, от космоса до Уолл-стрит

· 8 мин. чтения
Dora Noda
Software Engineer

Саммит Стэнфорда по блокчейн-приложениям (BASS) открыл неделю Конференции по науке о блокчейне (SBC), собрав вместе новаторов, исследователей и разработчиков для изучения передовых достижений экосистемы. Организаторы Гил, Кунг и Стивен поприветствовали участников, подчеркнув направленность мероприятия на предпринимательство и реальные приложения, дух которого родился из тесного сотрудничества с SBC. При поддержке таких организаций, как Blockchain Builders и Выпускники Стэнфорда по криптографии и блокчейну, день был наполнен глубоким погружением в небесные блокчейны, будущее Ethereum, институциональный DeFi и развивающееся пересечение ИИ и крипто.

Далия Малики: Создание орбитального корня доверия с помощью Space Computer

Далия Малики, профессор Калифорнийского университета в Санта-Барбаре и советник Space Computer, начала с обзора поистине неземного приложения: создания безопасной вычислительной платформы на орбите.

Что такое Space Computer? В двух словах, Space Computer — это "орбитальный корень доверия", предоставляющий платформу для выполнения безопасных и конфиденциальных вычислений на спутниках. Основное ценностное предложение заключается в уникальных гарантиях безопасности космоса. "Как только устройство безопасно запущено и развернуто в космосе, никто не сможет позже взломать его", — объяснила Малики. "На данный момент оно абсолютно, идеально защищено от взлома". Эта среда делает его герметичным, гарантирует, что связь не может быть легко заглушена, и обеспечивает проверяемую геолокацию, предлагая мощные свойства децентрализации.

Архитектура и варианты использования Система разработана с двухуровневой архитектурой:

  • Уровень 1 (Небесный): Авторитетный корень доверия работает на сети спутников на орбите, оптимизированной для ограниченной и прерывистой связи.
  • Уровень 2 (Наземный): Стандартные решения для масштабирования, такие как роллапы и каналы состояний, работают на Земле, привязываясь к небесному Уровню 1 для финализации и безопасности.

Ранние варианты использования включают запуск высокозащищенных валидаторов блокчейна и настоящего генератора случайных чисел, который улавливает космическое излучение. Однако Малики подчеркнула потенциал платформы для непредвиденных инноваций. "Самое крутое в создании платформы всегда заключается в том, что вы создаете платформу, а другие люди приходят и создают варианты использования, о которых вы даже не мечтали".

Проводя параллель с амбициозным Проектом Corona 1950-х годов, в рамках которого сбрасывались контейнеры с пленкой со спутников-шпионов для перехвата самолетами в воздухе, Малики призвала аудиторию мыслить масштабно. "По сравнению с этим, то, с чем мы работаем сегодня в космическом компьютере, — это роскошь, и мы очень воодушевлены будущим".

Томаш Станчак: Дорожная карта Ethereum — масштабирование, конфиденциальность и ИИ

Томаш Станчак, исполнительный директор Фонда Ethereum, представил всеобъемлющий обзор развивающейся дорожной карты Ethereum, которая в значительной степени сосредоточена на масштабировании, повышении конфиденциальности и интеграции с миром ИИ.

Краткосрочная цель: Поддержка L2 Непосредственный приоритет для Ethereum — укрепить свою роль лучшей платформы для создания решений Уровня 2. Предстоящие форки, Fusaka и Glumpsterdom, сосредоточены на этой цели. "Мы хотим сделать гораздо более сильные заявления о том, что да, [L2] внедряют инновации, они расширяют Ethereum, и они получат обязательство от разработчиков протокола, что Уровень 1 будет поддерживать L2 наилучшим образом", — заявил Станчак.

Долгосрочное видение: Бережливый Ethereum и доказательство в реальном времени Заглядывая вперед, концепция "Бережливого Ethereum" нацелена на массовое масштабирование и усиление безопасности. Ключевым компонентом является дорожная карта ZK-EVM, которая нацелена на доказательство в реальном времени с задержками менее 10 секунд для 99% блоков, что достижимо для соло-стейкеров. Это, в сочетании с улучшениями доступности данных, может довести L2 до теоретических "10 миллионов TPS". Долгосрочный план также включает акцент на постквантовую криптографию через хеш-основанные подписи и ZK-EVM.

Конфиденциальность и пересечение с ИИ Конфиденциальность — еще один критически важный столп. Фонд Ethereum создал команду по исследованию конфиденциальности и масштабирования (PSC) для координации усилий, поддержки инструментов и изучения интеграций конфиденциальности на уровне протокола. Станчак считает это решающим для взаимодействия Ethereum с ИИ, позволяя использовать такие варианты, как устойчивые к цензуре финансовые рынки, ИИ, сохраняющий конфиденциальность, и агентные системы с открытым исходным кодом. Он подчеркнул, что культура Ethereum, связывающая множество дисциплин — от финансов и искусства до робототехники и ИИ, — необходима для преодоления вызовов и использования возможностей следующего десятилетия.

Срирам Каннан: Фреймворк доверия для амбициозных криптоприложений с EigenCloud

Срирам Каннан, основатель Eigen Labs, призвал аудиторию мыслить за пределами текущего объема криптоприложений, представив фреймворк для понимания основной ценности крипто и представив EigenCloud как платформу для реализации этого видения.

Основной тезис крипто: Уровень проверяемости "В основе всего этого лежит основной тезис о том, что крипто — это уровень доверия или проверяемости, поверх которого можно создавать очень мощные приложения", — объяснил Каннан. Он представил фреймворк "TAM против доверия", иллюстрирующий, что общий объем целевого рынка (TAM) для криптоприложения растет экспоненциально по мере увеличения доверия, которое оно обеспечивает. Рынок Биткойна растет по мере того, как он становится более надежным, чем фиатные валюты; рынок кредитной платформы растет по мере того, как ее гарантия платежеспособности заемщика становится более надежной.

EigenCloud: Раскрывая программируемость Каннан утверждал, что основным узким местом для создания более амбициозных приложений — таких как децентрализованный Uber или надежные платформы ИИ — является не производительность, а программируемость. Для решения этой проблемы EigenCloud представляет новую архитектуру, которая отделяет логику приложения от логики токена.

"Давайте оставим логику токена в сети Ethereum", — предложил он, — "но логика приложения выносится за ее пределы. Теперь вы можете писать свою основную логику в произвольных контейнерах... выполнять ее на любом выбранном вами устройстве, будь то CPU или GPU... а затем проверяемо возвращать эти результаты в сеть".

Этот подход, по его словам, расширяет крипто от "масштаба ноутбука или сервера до облачного масштаба", позволяя разработчикам создавать по-настоящему прорывные приложения, которые были задуманы в ранние дни крипто.

Панель: Глубокое погружение в архитектуру блокчейна

Панель с участием Лэйянга из MegaETH, Ади из Realo и Соломона из Solana Foundation исследовала компромиссы между монолитными, модульными и "супермодульными" архитектурами.

  • MegaETH (Модульный L2): Лэйянг описал подход MegaETH, использующий централизованный секвенсор для экстремальной скорости, при этом делегируя безопасность Ethereum. Этот дизайн направлен на обеспечение опыта реального времени на уровне Web2 для приложений, возрождая амбициозные идеи "эпохи ICO", которые ранее были ограничены производительностью.
  • Solana (Монолитный L1): Соломон объяснил, что архитектура Solana, с ее высокими требованиями к узлам, намеренно разработана для максимальной пропускной способности, чтобы поддержать ее видение размещения всей глобальной финансовой активности в сети. Текущий фокус — на выпуске активов и платежах. Относительно интероперабельности Соломон был откровенен: "В целом, нас не особо волнует интероперабельность... Речь идет о получении как можно большей ликвидности активов и их использования в сети".
  • Realo ("Супермодульный" L1): Ади представил концепцию "супермодульности" Realo, которая объединяет основные сервисы, такие как оракулы, непосредственно в базовый уровень для уменьшения трения для разработчиков. Этот дизайн направлен на нативное соединение блокчейна с реальным миром, с акцентом на выход на рынок с RWA и делая блокчейн невидимым для конечных пользователей.

Панель: Реальное пересечение ИИ и блокчейна

Модератором панели выступил Эд Роман из HackVC, и на ней были представлены три различных подхода к слиянию ИИ и крипто.

  • Ping AI (Билл): Ping AI создает "персональный ИИ", где пользователи сохраняют самостоятельное хранение своих данных. Видение состоит в замене традиционной модели рекламного обмена. Вместо того чтобы компании монетизировали пользовательские данные, система Ping AI будет напрямую вознаграждать пользователей, когда их данные приводят к конверсии, позволяя им получать экономическую ценность от своего цифрового следа.
  • Public AI (Джордан): Описанный как "человеческий уровень ИИ", Public AI — это рынок для поиска высококачественных данных по запросу, которые нельзя получить путем скрапинга или синтетической генерации. Он использует систему репутации в сети и механизмы стейкинга, чтобы гарантировать, что участники предоставляют сигнал, а не шум, вознаграждая их за их работу по созданию лучших моделей ИИ.
  • Gradient (Эрик): Gradient создает децентрализованную среду выполнения для ИИ, обеспечивая распределенный вывод и обучение на сети недоиспользуемого потребительского оборудования. Цель состоит в том, чтобы обеспечить контроль над централизующей властью крупных ИИ-компаний, позволяя глобальному сообществу совместно обучать и обслуживать модели, сохраняя "интеллектуальный суверенитет".

Другие основные моменты саммита

  • Орин Кац (Starkware) представил строительные блоки для "соответствующей нормам конфиденциальности в сети", подробно описав, как ZK-доказательства могут быть использованы для создания пулов конфиденциальности и приватных токенов (ZRC20), которые включают такие механизмы, как "ключи просмотра" для регуляторного надзора.
  • Сэм Грин (Cambrian) представил обзор ландшафта "Агентского финансирования", классифицируя крипто-агентов по торговле, предоставлению ликвидности, кредитованию, прогнозированию и информации, и подчеркнул необходимость быстрых, всеобъемлющих и проверяемых данных для их работы.
  • Макс Сигел (Privy) поделился уроками из онбординга более 75 миллионов пользователей, подчеркнув необходимость встречаться с пользователями там, где они находятся, упрощать пользовательский опыт и позволять потребностям продукта определять выбор инфраструктуры, а не наоборот.
  • Нил Далал (Coinbase) представил "Стек агентской коммерции в сети" и открытый стандарт X42, крипто-нативный протокол, разработанный для создания "веба, оплачиваемого машинами", где ИИ-агенты могут беспрепятственно совершать транзакции с использованием стейблкоинов для данных, API и услуг.
  • Гордон Ляо и Остин Адамс (Circle) представили Circle Gateway, новый примитив для создания унифицированного баланса USDC, который абстрагирован от цепочки. Это позволяет почти мгновенно (менее 500 мс) развертывать ликвидность по нескольким цепочкам, значительно повышая эффективность капитала для бизнеса и решателей.

День завершился четким посланием: базовые слои крипто созревают, и фокус решительно смещается в сторону создания надежных, удобных для пользователя и экономически устойчивых приложений, которые могут преодолеть разрыв между миром в сети и мировой экономикой.

Восход автономного капитала

· 48 мин. чтения
Dora Noda
Software Engineer

ИИ-агенты, контролирующие свои собственные криптовалютные кошельки, уже управляют миллиардами активов, принимают независимые финансовые решения и перестраивают потоки капитала в децентрализованных системах. Это слияние искусственного интеллекта и блокчейн-технологий — то, что ведущие мыслители называют «автономным капиталом» — представляет собой фундаментальную трансформацию в экономической организации, где интеллектуальное программное обеспечение может действовать как самосуверенные экономические субъекты без посредничества человека. Рынок DeFi AI (DeFAI) достиг $1 миллиарда в начале 2025 года, в то время как более широкий рынок ИИ-агентов достиг пика в $17 миллиардов, демонстрируя быстрое коммерческое внедрение, несмотря на значительные технические, регуляторные и философские проблемы. Пять ключевых лидеров мнений — Тарун Читра (Gauntlet), Амджад Масад (Replit), Жорди Александр (Selini Capital), Александр Пак (Hack VC) и Ирен Ву (Bain Capital Crypto) — являются пионерами различных подходов в этой области, от автоматизированного управления рисками и инфраструктуры разработки до инвестиционных фреймворков и кроссчейн-совместимости. Их работа создает основу для будущего, в котором ИИ-агенты могут превзойти людей по количеству в качестве основных пользователей блокчейна, автономно управляя портфелями и координируя действия в децентрализованных сетях — хотя это видение сталкивается с критическими вопросами об ответственности, безопасности и о том, может ли бездоверительная инфраструктура поддерживать надежное принятие решений ИИ.

Что такое автономный капитал и почему это важно сейчас

Автономный капитал относится к капиталу (финансовым активам, ресурсам, полномочиям по принятию решений), контролируемому и используемому автономными ИИ-агентами, работающими на блокчейн-инфраструктуре. В отличие от традиционной алгоритмической торговли или автоматизированных систем, требующих человеческого надзора, эти агенты владеют собственными криптовалютными кошельками с приватными ключами, принимают независимые стратегические решения и участвуют в децентрализованных финансовых протоколах без постоянного вмешательства человека. Технология объединяет три критически важные инновации: возможности ИИ по принятию решений, программируемые деньги и бездоверительное исполнение в крипто, а также способность смарт-контрактов обеспечивать выполнение соглашений без посредников.

Технология уже здесь. По состоянию на октябрь 2025 года, более 17 000 ИИ-агентов работают только на Virtuals Protocol, при этом такие известные агенты, как AIXBT, оцениваются в $500 миллионов, а Truth Terminal породил мемкоин GOAT, который ненадолго достиг \1 миллиарда. Платформа управления рисками Gauntlet ежедневно анализирует более 400 миллионов точек данных в DeFi-протоколах, управляющих миллиардами в общей заблокированной стоимости (TVL). Agent 3 от Replit обеспечивает более 200 минут автономной разработки программного обеспечения, а портфели SingularityDAO, управляемые ИИ, принесли 25% ROI за два месяца благодаря адаптивным стратегиям маркет-мейкинга.

Почему это важно: Традиционные финансы исключают ИИ-системы, независимо от их сложности — банки требуют человеческой идентификации и проверок KYC. Криптовалютные кошельки, напротив, генерируются с помощью криптографических пар ключей, доступных любому программному агенту. Это создает первую финансовую инфраструктуру, где ИИ может действовать как независимые экономические субъекты, открывая возможности для экономик «машина-машина», автономного управления казначейством и координируемого ИИ распределения капитала в масштабах и со скоростями, невозможными для человека. Тем не менее, это также поднимает глубокие вопросы о том, кто несет ответственность, когда автономные агенты причиняют вред, может ли децентрализованное управление справляться с рисками ИИ, и будет ли технология концентрировать или демократизировать экономическую власть.

Лидеры мнений, формирующие автономный капитал

Тарун Читра: От симуляции к автоматизированному управлению

Тарун Читра, генеральный директор и соучредитель Gauntlet (оценивается в $1 миллиард), стал пионером в применении агентно-ориентированного моделирования из алгоритмической торговли и автономных транспортных средств к DeFi-протоколам. Его видение «автоматизированного управления» использует ИИ-симуляции, чтобы протоколы могли принимать решения научно, а не только посредством субъективного голосования. В своей знаковой статье 2020 года «Автоматизированное управление: научная эволюция DeFi» Читра объяснил, как непрерывное состязательное моделирование может создать «более безопасную, эффективную экосистему DeFi, устойчивую к атакам и справедливо вознаграждающую честных участников».

Техническая реализация Gauntlet доказывает концепцию в масштабе. Платформа ежедневно запускает тысячи симуляций на реальном коде смарт-контрактов, моделирует агентов, максимизирующих прибыль, взаимодействующих в рамках правил протокола, и предоставляет основанные на данных рекомендации по параметрам для активов протокола на сумму более $1 миллиарда. Его фреймворк включает кодификацию правил протокола, определение выплат агентам, симуляцию взаимодействий агентов и оптимизацию параметров для балансировки макроскопического здоровья протокола с микроскопическими стимулами пользователей. Эта методология повлияла на крупные DeFi-протоколы, включая Aave (4-летнее сотрудничество), Compound, Uniswap и Morpho, при этом Gauntlet опубликовал 27 исследовательских работ по маркет-мейкерам с постоянной функцией, анализу MEV, механизмам ликвидации и экономике протокола.

Основание Читрой протокола Aera в 2023 году продвинуло автономное управление казначейством, позволяя DAO быстро реагировать на изменения рынка посредством «краудсорсингового управления инвестиционным портфелем». Его недавнее внимание к ИИ-агентам отражает прогнозы, что они «будут доминировать в ончейн-финансовой деятельности» и что «ИИ изменит ход истории в крипто» к 2025 году. От выступлений на Token2049 в Лондоне (2021), Сингапуре (2024, 2025) и регулярного ведения подкаста The Chopping Block, Читра постоянно подчеркивает переход от субъективного человеческого управления к принятию решений, основанных на данных и проверенных симуляциями.

Ключевая идея: «Сами финансы — это по сути юридическая практика: это деньги плюс закон. Финансы становятся более элегантными со смарт-контрактами». Его работа демонстрирует, что автономный капитал — это не полная замена людей, а использование ИИ для повышения научной строгости финансовых систем посредством непрерывного моделирования и оптимизации.

Амджад Масад: Создание инфраструктуры для сетевой экономики

Амджад Масад, генеральный директор Replit (оценивается в $3 миллиарда по состоянию на октябрь 2025 года), предвидит радикальную экономическую трансформацию, в которой автономные ИИ-агенты с криптокошельками заменят традиционную иерархическую разработку программного обеспечения децентрализованными сетевыми экономиками. Его вирусная ветка в Twitter 2022 года предсказывала «монументальные изменения в программном обеспечении в этом десятилетии», утверждая, что ИИ представляет собой следующий 100-кратный прирост производительности, позволяющий программистам «командовать армиями» ИИ-агентов, в то время как не-программисты также могли бы командовать агентами для выполнения задач по разработке ПО.

Видение сетевой экономики сосредоточено на автономных агентах как экономических субъектах. В своем интервью подкасту Sequoia Capital Масад описал будущее, где «программные агенты, и я скажу: 'Хорошо. Мне нужно создать этот продукт'. И агент скажет: 'О. Я возьму эту базу данных из этой области, эту штуку, которая отправляет SMS или электронную почту из этой области. И, кстати, они будут стоить столько-то'. И как агент, у меня на самом деле есть кошелек, я смогу за них заплатить». Это заменяет модель фабричного конвейера сетевой композицией, где агенты автономно собирают сервисы, а ценность автоматически течет по сети.

Agent 3 от Replit, запущенный в сентябре 2025 года, технически демонстрирует это видение с 10-кратным увеличением автономности по сравнению с предшественниками — работая более 200 минут независимо, самотестируясь и отлаживаясь через «циклы рефлексии», а также создавая других агентов и автоматизации. Реальные пользователи сообщают о создании ERP-систем за $400 по сравнению с предложениями поставщиков в $150 000 и 85% увеличением производительности. Масад предсказывает, что «стоимость всего прикладного программного обеспечения в конечном итоге «упадет до нуля»», поскольку ИИ позволит любому генерировать сложное программное обеспечение по требованию, трансформируя природу компаний от специализированных ролей к «универсальным решателям проблем», дополненным ИИ-агентами.

О роли крипто, Масад решительно выступает за интеграцию Bitcoin Lightning Network, рассматривая программируемые деньги как важный примитив платформы. Он заявил: «Bitcoin Lightning, например, встраивает ценность прямо в цепочку поставок программного обеспечения и упрощает транзакции как между людьми, так и между машинами. Снижение транзакционных издержек и накладных расходов в программном обеспечении означает, что будет намного проще привлекать разработчиков в вашу кодовую базу для разовых задач». Его видение Web3 как «читать-писать-владеть-ремиксовать» и планы по рассмотрению собственной валюты Replit в качестве примитива платформы демонстрируют глубокую интеграцию между инфраструктурой ИИ-агентов и криптоэкономической координацией.

Масад выступил на конференции Network State (3 октября 2025 года) в Сингапуре сразу после Token2049, наряду с Виталиком Бутериным, Брайаном Армстронгом и Баладжи Сринивасаном, что позиционирует его как мост между крипто- и ИИ-сообществами. Его предсказание: «Единороги из одного человека» станут обычным явлением, когда «каждый станет разработчиком» благодаря ИИ-дополнениям, что фундаментально изменит макроэкономику и позволит создать будущее «миллиарда разработчиков», где 1 миллиард человек по всему миру будет создавать программное обеспечение.

Жорди Александр: Суждение как валюта в эпоху ИИ

Жорди Александр, основатель/CIO Selini Capital (AUM более $1 миллиарда) и главный алхимик Mantle Network, привносит свой опыт в теории игр из профессионального покера (выиграл браслет WSOP, победив Фила Айви в 2024 году) в анализ рынка и инвестирование в автономный капитал. Его тезис сосредоточен на «суждении как валюте» — уникальной человеческой способности интегрировать сложную информацию и принимать оптимальные решения, которые машины не могут воспроизвести, даже когда ИИ занимается исполнением и анализом.

Концепция автономного капитала Александра подчеркивает сближение «двух ключевых отраслей этого столетия: создание интеллектуальных базовых модулей (таких как ИИ) и создание базового уровня для социальной координации (таких как криптотехнологии)». Он утверждает, что традиционное пенсионное планирование устарело из-за реальной инфляции (около 15% в год по сравнению с официальными ставками), грядущего перераспределения богатства и необходимости оставаться экономически продуктивным: «Нет такой вещи, как пенсия» для тех, кому меньше 50 лет. Его провокационный тезис: «В следующие 10 лет разница между наличием $100 000 и $10 миллионов может быть не такой уж значительной. Ключевым является то, как провести следующие несколько лет», эффективно позиционируя себя для «момента 100x», когда создание богатства резко ускорится.

Его инвестиционный портфель демонстрирует уверенность в сближении ИИ и крипто. Selini поддержала TrueNorth (начальные инвестиции $1 млн, июнь 2025), описанный как «первый автономный, управляемый ИИ поисковый движок в крипто», использующий «агентные рабочие процессы» и обучение с подкреплением для персонализированного инвестирования. Самый крупный чек фирмы был выдан Worldcoin (май 2024), признавая «очевидную потребность в совершенно новой технологической инфраструктуре и решениях в грядущем мире ИИ». Общее количество инвестиций Selini (46-60) включает Ether.fi (ликвидный стейкинг), RedStone (оракулы) и маркет-мейкинг на централизованных и децентрализованных биржах, демонстрируя опыт систематической торговли, примененный к автономным системам.

Участие в Token2049 включает Лондон (ноябрь 2022), где обсуждались «Размышления о диких экспериментах последнего цикла», Дубай (май 2025) по ликвидным венчурным инвестициям и мемкоинам, а также выступления в Сингапуре, анализирующие макро-крипто взаимодействие. В его подкасте Steady Lads (более 92 эпизодов к 2025 году) Виталик Бутерин обсуждал пересечения крипто и ИИ, квантовые риски и эволюцию Ethereum. Александр подчеркивает необходимость выхода из «режима выживания» для доступа к мышлению более высокого уровня, постоянного повышения квалификации и формирования суждения через опыт как важнейшие факторы для сохранения экономической значимости при распространении ИИ-агентов.

Ключевая перспектива: «Суждение — это способность интегрировать сложную информацию и принимать оптимальные решения — именно здесь машины терпят неудачу». Его видение рассматривает автономный капитал как системы, где ИИ выполняет действия со скоростью машины, в то время как люди обеспечивают стратегическое суждение, а крипто обеспечивает уровень координации. Относительно Биткойна конкретно: «единственный цифровой актив с истинным макроэкономическим значением», прогнозируемый на рост в 5-10 раз в течение пяти лет по мере притока институционального капитала, рассматривая его как превосходную защиту прав собственности по сравнению с уязвимыми физическими активами.

Александр Пак: Инфраструктура для децентрализованных ИИ-экономик

Александр Пак, соучредитель и управляющий партнер Hack VC (управляет активами на сумму около $590 млн), описывает Web3 AI как «крупнейший источник альфы в инвестициях сегодня», выделяя 41% последнего фонда фирмы на сближение ИИ и крипто — это самая высокая концентрация среди крупных крипто-венчурных фондов. Его тезис: «Быстрая эволюция ИИ создает огромную эффективность, но также увеличивает централизацию. Пересечение крипто и ИИ является, безусловно, самой большой инвестиционной возможностью в этой области, предлагая открытую, децентрализованную альтернативу».

Инвестиционный фреймворк Пака рассматривает автономный капитал как требующий четырех инфраструктурных уровней: данные (инвестиции в Grass — $2,5 млрд FDV), вычисления (io.net — $2,2 млрд FDV), исполнение (Movement Labs — $7,9 млрд FDV, EigenLayer — $4,9 млрд FDV) и безопасность (общая безопасность через рестейкинг). Инвестиции в Grass демонстрируют этот тезис: децентрализованная сеть из более чем 2,5 миллионов устройств выполняет веб-скрейпинг для данных обучения ИИ, уже собирая 45 ТБ ежедневно (эквивалентно обучающему набору данных ChatGPT 3.5). Пак сформулировал: «Алгоритмы + Данные + Вычисления = Интеллект. Это означает, что данные и вычисления, вероятно, станут двумя из самых важных активов в мире, и доступ к ним будет невероятно важен. Крипто — это все о предоставлении доступа к новым цифровым ресурсам по всему миру и превращении в активы того, что раньше не было активами, с помощью токенов».

Результаты Hack VC за 2024 год подтверждают подход: Второй по активности ведущий крипто-венчурный фонд, развернувший $128 млн в десятках сделок, с 12 инвестициями в крипто x ИИ, произведшими 4 «единорога» только в 2024 году. Крупные запуски токенов включают Movement Labs ($7,9 млрд), EigenLayer ($4,9 млрд), Grass ($2,5 млрд), io.net ($2,2 млрд), Morpho ($2,4 млрд), Kamino ($1,0 млрд) и AltLayer ($0,9 млрд). Фирма управляет Hack.Labs, внутренней платформой для участия в сети институционального уровня, стейкинга, количественных исследований и вклада в открытый исходный код, нанимая бывших старших трейдеров Jane Street.

В своем выступлении на подкасте Unchained в марте 2024 года Пак определил ИИ-агентов как распределителей капитала, которые «могут автономно управлять портфелями, совершать сделки и оптимизировать доходность», при этом интеграция DeFi позволяет «ИИ-агентам с криптокошельками участвовать в децентрализованных финансовых рынках». Он подчеркнул, что «мы все еще находимся на очень ранней стадии» развития криптоинфраструктуры, требующей значительных улучшений в масштабируемости, безопасности и пользовательском опыте до массового внедрения. Token2049 Singapore 2025 подтвердил участие Пака в качестве спикера (1-2 октября), который примет участие в экспертных дискуссионных панелях по темам крипто и ИИ на главном азиатском крипто-мероприятии с более чем 25 000 участников.

Концепция автономного капитала (синтезированная из инвестиций и публикаций Hack VC) предусматривает пять уровней: Интеллект (модели ИИ), Инфраструктура данных и вычислений (Grass, io.net), Исполнение и верификация (Movement, EigenLayer), Финансовые примитивы (Morpho, Kamino) и Автономные агенты (управление портфелем, торговля, маркет-мейкинг). Ключевая идея Пака: децентрализованные, прозрачные системы оказались более устойчивыми, чем централизованные финансы, во время медвежьего рынка 2022 года (DeFi-протоколы выжили, в то время как Celsius, BlockFi, FTX рухнули), что предполагает, что блокчейн лучше подходит для распределения капитала, управляемого ИИ, чем непрозрачные централизованные альтернативы.

Ирен Ву: Омничейн-инфраструктура для автономных систем

Ирен Ву, венчурный партнер Bain Capital Crypto и бывший руководитель отдела стратегии LayerZero Labs, привносит уникальный технический опыт в инфраструктуру автономного капитала, придумав термин «омничейн» для описания кроссчейн-совместимости через обмен сообщениями. Ее инвестиционный портфель стратегически ориентирован на сближение ИИ и крипто: Cursor (редактор кода, ориентированный на ИИ), Chaos Labs (искусственный финансовый интеллект), Ostium (платформа для маржинальной торговли) и Econia (DeFi-инфраструктура), демонстрируя акцент на вертикально интегрированных ИИ-приложениях и автономных финансовых системах.

Вклад Ву в LayerZero заложил основу кроссчейн-инфраструктуры, позволяющей автономным агентам беспрепятственно работать в различных блокчейнах. Она отстаивала три основных принципа проектирования — неизменяемость, отсутствие разрешений и устойчивость к цензуре — и разработала стандарты OFT (Omnichain Fungible Token) и ONFT (Omnichain Non-Fungible Token). Партнерство с Magic Eden, которое она возглавляла, создало «Gas Station», обеспечивающее беспрепятственную конвертацию газовых токенов для кроссчейн-покупок NFT, демонстрируя практическое снижение трения в децентрализованных системах. Ее позиционирование LayerZero как «TCP/IP для блокчейнов» отражает видение универсальных протоколов взаимодействия, лежащих в основе агентских экономик.

Постоянный акцент Ву на устранении трения в Web3-опыте напрямую поддерживает инфраструктуру автономного капитала. Она выступает за абстракцию блокчейна — пользователи не должны понимать, какой блокчейн они используют — и настаивает на «в 10 раз лучшем опыте, чтобы оправдать сложность блокчейна». Ее критика методов исследования крипто («смотреть в Твиттере, кто больше всего жалуется») по сравнению с правильными интервью для пользовательских исследований в стиле Web2 отражает приверженность принципам клиентоориентированного дизайна, необходимым для массового внедрения.

Индикаторы инвестиционной стратегии из ее портфеля показывают акцент на разработке, дополненной ИИ (Cursor обеспечивает ИИ-нативное кодирование), автономном финансовом интеллекте (Chaos Labs применяет ИИ для управления рисками DeFi), торговой инфраструктуре (Ostium предоставляет маржинальную торговлю) и DeFi-примитивах (Econia создает базовые протоколы). Эта модель тесно согласуется с требованиями автономного капитала: ИИ-агентам нужны инструменты разработки, возможности финансового интеллекта, инфраструктура для выполнения торговых операций и базовые DeFi-протоколы для эффективной работы.

Хотя конкретное участие в Token2049 не было подтверждено в доступных источниках (доступ к социальным сетям ограничен), выступления Ву на Consensus 2023 и Proof of Talk Summit демонстрируют ее лидерство в области блокчейн-инфраструктуры и инструментов для разработчиков. Ее техническое образование (компьютерные науки в Гарварде, разработка программного обеспечения в J.P. Morgan, соучредитель Harvard Blockchain Club) в сочетании со стратегическими ролями в LayerZero и Bain Capital Crypto позиционирует ее как важного эксперта по требованиям к инфраструктуре для ИИ-агентов, работающих в децентрализованных средах.

Теоретические основы: Почему ИИ и крипто обеспечивают автономный капитал

Конвергенция, обеспечивающая автономный капитал, опирается на три технических столпа, решающих фундаментальные проблемы координации. Во-первых, криптовалюта обеспечивает финансовую автономию, невозможную в традиционных банковских системах. ИИ-агенты могут генерировать криптографические пары ключей, чтобы «открыть свой собственный банковский счет» без какого-либо одобрения человека, получая доступ к безразрешительным глобальным расчетам 24/7 и программируемым деньгам для сложных автоматизированных операций. Традиционные финансы категорически исключают нечеловеческие сущности, независимо от их возможностей; крипто — это первая финансовая инфраструктура, рассматривающая программное обеспечение как законных экономических субъектов.

Во-вторых, бездоверительные вычислительные подложки обеспечивают проверяемое автономное исполнение. Смарт-контракты блокчейна предоставляют Тьюринг-полные глобальные компьютеры с децентрализованной валидацией, обеспечивающей защиту от несанкционированного доступа, где ни один оператор не контролирует результаты. Доверенные среды исполнения (TEE), такие как Intel SGX, предоставляют аппаратные защищенные анклавы, изолирующие код от хост-систем, обеспечивая конфиденциальные вычисления с защитой приватных ключей — это критически важно для агентов, поскольку «ни администраторы облака, ни вредоносные операторы узлов не могут 'залезть в банку'». Децентрализованные сети физической инфраструктуры (DePIN), такие как io.net и Phala Network, объединяют TEE с краудсорсинговым оборудованием для создания безразрешительных, распределенных вычислений ИИ.

В-третьих, системы идентификации и репутации на основе блокчейна предоставляют агентам постоянные персоны. Самосуверенная идентификация (SSI) и децентрализованные идентификаторы (DID) позволяют агентам иметь свои собственные «цифровые паспорта» с проверяемыми учетными данными, подтверждающими навыки, а отслеживание репутации в сети создает неизменяемые записи. Предлагаемые протоколы «Знай своего агента» (KYA) адаптируют фреймворки KYC для машинных идентификаторов, в то время как новые стандарты, такие как Model Context Protocol (MCP), Agent Communication Protocol (ACP), Agent-to-Agent Protocol (A2A) и Agent Network Protocol (ANP), обеспечивают совместимость агентов.

Экономические последствия глубоки. Академические фреймворки, такие как статья «Экономики виртуальных агентов» исследователей, включая Ненада Томашева, предлагают анализировать возникающие экономические системы ИИ-агентов по происхождению (возникающие против преднамеренных) и отделенности (проницаемые против непроницаемых для человеческой экономики). Текущая траектория: спонтанное возникновение обширных, высокопроницаемых экономик ИИ-агентов с возможностями беспрецедентной координации, но со значительными рисками, включая системную экономическую нестабильность и усугубление неравенства. Игровые теоретические соображения — равновесия Нэша в переговорах между агентами, разработка механизмов для справедливого распределения ресурсов, аукционные механизмы для ресурсов — становятся критически важными, поскольку агенты действуют как рациональные экономические субъекты с функциями полезности, принимая стратегические решения в многоагентных средах.

Рынок демонстрирует взрывное внедрение. Токены ИИ-агентов достигли рыночной капитализации более $10 миллиардов к декабрю 2024 года, увеличившись на 322% в конце 2024 года. Virtuals Protocol запустил более 17 000 токенизированных ИИ-агентов на Base (Ethereum L2), в то время как ai16z управляет автономным венчурным фондом с рыночной капитализацией $2,3 миллиарда на Solana. Каждый агент выпускает токены, обеспечивающие долевое владение, распределение доходов через стейкинг и управление сообществом — создавая ликвидные рынки для производительности ИИ-агентов. Эта модель токенизации позволяет «совместное владение» автономными агентами, где держатели токенов получают экономическое участие в деятельности агентов, а агенты получают капитал для автономного развертывания.

Философски, автономный капитал бросает вызов фундаментальным предположениям об агентности, собственности и контроле. Традиционная агентность требует условий контроля/свободы (отсутствие принуждения), эпистемических условий (понимание действий), способности к моральному рассуждению и стабильной личной идентичности. Агенты на основе LLM поднимают вопросы: Действительно ли они «намереваются» или просто сопоставляют шаблоны? Могут ли вероятностные системы нести ответственность? Участники исследования отмечают, что агенты «являются вероятностными моделями, неспособными к ответственности или намерению; их нельзя 'наказывать' или 'вознаграждать', как человеческих игроков», и «им не хватает тела для ощущения боли», что означает отказ традиционных механизмов сдерживания. Возникает «парадокс бездоверия»: развертывание агентов в бездоверительной инфраструктуре позволяет избежать доверия к ошибочным людям, но сами ИИ-агенты остаются потенциально ненадежными (галлюцинации, предубеждения, манипуляции), а бездоверительные подложки препятствуют вмешательству, когда ИИ ведет себя некорректно.

Виталик Бутерин выявил это противоречие, отметив, что «Код — это закон» (детерминированные смарт-контракты) конфликтует с галлюцинациями LLM (вероятностные выходы). Согласно исследованиям, децентрализованные агенты подчиняются четырем «недействительностям»: территориальная юрисдикционная недействительность (безграничная работа обходит законы одной страны), техническая недействительность (архитектура сопротивляется внешнему контролю), недействительность принуждения (невозможно остановить агентов после санкционирования развертывания) и недействительность ответственности (агенты не обладают правосубъектностью, их нельзя судить или обвинять). Текущие экспериментальные подходы, такие как благотворительный фонд Truth Terminal с человеческими попечителями, пытаются отделить владение от автономии агента, сохраняя при этом ответственность разработчика, связанную с операционным контролем.

Прогнозы ведущих мыслителей сходятся на трансформационных сценариях. Баладжи Сринивасан утверждает, что «ИИ — это цифровое изобилие, крипто — это цифровая редкость» — взаимодополняющие силы, где ИИ создает контент, а крипто координирует и доказывает ценность, при этом крипто обеспечивает «доказательство человеческой подлинности в мире ИИ-дипфейков». Наблюдение Сэма Альтмана о том, что ИИ и крипто представляют собой «неопределенное изобилие и определенную редкость», отражает их симбиотические отношения. Али Яхья (a16z) синтезирует напряженность: «ИИ централизует, крипто децентрализует», предполагая необходимость надежного управления рисками автономных агентов при сохранении преимуществ децентрализации. Видение a16z «автономной сущности стоимостью в миллиард долларов» — децентрализованного чат-бота, работающего на безразрешительных узлах через TEE, создающего аудиторию, генерирующего доход, управляющего активами без человеческого контроля — представляет собой логическую конечную точку, где нет единой точки контроля, а протоколы консенсуса координируют систему.

Техническая архитектура: Как на самом деле работает автономный капитал

Реализация автономного капитала требует сложной интеграции ИИ-моделей с блокчейн-протоколами через гибридные архитектуры, балансирующие вычислительную мощность с проверяемостью. Стандартный подход использует трехслойную архитектуру: уровень восприятия, собирающий данные блокчейна и внешние данные через сети оракулов (Chainlink обрабатывает более 5 миллиардов точек данных ежедневно), уровень рассуждений, выполняющий вывод ИИ-модели вне сети с доказательствами вычислений с нулевым разглашением, и уровень действий, выполняющий транзакции в сети через смарт-контракты. Эта гибридная конструкция устраняет фундаментальные ограничения блокчейна — лимиты газа, препятствующие тяжелым вычислениям ИИ в сети — при сохранении гарантий бездоверительного исполнения.

Реализация Gauntlet демонстрирует готовый к производству автономный капитал в масштабе. Техническая архитектура платформы включает криптоэкономические симуляционные движки, ежедневно запускающие тысячи агентно-ориентированных моделей на реальном коде смарт-контрактов, количественное моделирование рисков с использованием ML-моделей, обученных на более чем 400 миллионах точек данных, обновляемых 6 раз в день в более чем 12 блокчейнах Уровня 1 и Уровня 2, а также автоматизированную оптимизацию параметров, динамически корректирующую коэффициенты обеспечения, процентные ставки, пороги ликвидации и структуры комиссий. Их система хранилищ MetaMorpho на Morpho Blue предоставляет элегантную инфраструктуру для создания хранилищ без разрешений с внешним управлением рисками, позволяя хранилищам Gauntlet WETH Prime и USDC Prime оптимизировать доходность с поправкой на риск на рынках рекурсивной доходности ликвидного стейкинга. Хранилища базисной торговли объединяют спотовые активы LST с бессрочными ставками финансирования с динамическим кредитным плечом до 2x, когда рыночные условия создают благоприятные спреды, демонстрируя сложные автономные стратегии управления реальным капиталом.

Машинное обучение с нулевым разглашением (zkML) обеспечивает бездоверительную верификацию ИИ. Эта технология доказывает выполнение ML-модели без раскрытия весов модели или входных данных с использованием систем доказательств ZK-SNARKs и ZK-STARKs. Modulus Labs провела сравнительный анализ систем доказательств для различных размеров моделей, продемонстрировав, что модели с до 18 миллионов параметров могут быть доказаны примерно за 50 секунд с использованием plonky2. EZKL предоставляет фреймворки с открытым исходным кодом, преобразующие модели ONNX в ZK-схемы, используемые OpenGradient для децентрализованного вывода ML. RiscZero предлагает виртуальные машины общего назначения с нулевым разглашением, обеспечивающие проверяемые ML-вычисления, интегрированные с DeFi-протоколами. Архитектура выглядит так: входные данные → ML-модель (вне сети) → выходные данные → генератор ZK-доказательств → доказательство → верификатор смарт-контракта → принять/отклонить. Варианты использования включают проверяемые стратегии доходности (сотрудничество Giza + Yearn), ончейн-кредитный скоринг, частный вывод модели на конфиденциальных данных и доказательство подлинности модели.

Структуры смарт-контрактов, обеспечивающие автономный капитал, включают систему развертывания хранилищ Morpho без разрешений с настраиваемыми параметрами риска, протокол Aera V3 для программируемых правил хранилищ и интеграцию с оракулами Pyth Network, предоставляющими ценовые потоки с задержкой менее секунды. Техническая реализация использует Web3-интерфейсы (ethers.js, web3.py), соединяющие ИИ-агентов с блокчейном через RPC-провайдеров, с автоматической подписью транзакций с использованием криптографически защищенных кошельков с многосторонними вычислениями (MPC), разделяющих приватные ключи между участниками. Абстракция учетной записи (ERC-4337) позволяет использовать программируемую логику учетной записи, допуская сложные системы разрешений, где ИИ-агенты могут выполнять определенные действия без полного контроля над кошельком.

Фреймворк uAgents от Fetch.ai демонстрирует практическую разработку агентов с использованием библиотек Python, позволяющих автономным экономическим агентам регистрироваться в смарт-контрактах Almanac. Агенты работают с криптографически защищенными сообщениями, автоматической регистрацией в блокчейне и интервальным выполнением, обрабатывая анализ рынка, генерацию сигналов и исполнение сделок. Примеры реализаций показывают агентов анализа рынка, получающих цены оракулов, выполняющих вывод ML-модели и совершающих ончейн-сделки при достижении порогов уверенности, при этом межагентная связь обеспечивает многоагентную координацию для сложных стратегий.

Вопросы безопасности критически важны. Уязвимости смарт-контрактов, включая атаки повторного входа, арифметическое переполнение/недополнение, проблемы контроля доступа и манипуляции оракулами, привели к потерям на сумму более $11,74 миллиарда с 2017 года, при этом только в 2024 году было потеряно $1,5 миллиарда. Угрозы, специфичные для ИИ-агентов, включают инъекции подсказок (вредоносные входные данные, манипулирующие поведением агента), манипуляции оракулами (скомпрометированные потоки данных, вводящие в заблуждение решения), манипуляции контекстом (состязательные атаки, использующие внешние входные данные) и утечку учетных данных (раскрытые ключи API или приватные ключи). Исследования Университетского колледжа Лондона и Сиднейского университета продемонстрировали систему A1 — ИИ-агента, автономно обнаруживающего и эксплуатирующего уязвимости смарт-контрактов с 63% успехом на 36 реальных уязвимых контрактах, извлекая до $8,59 миллиона за эксплойт при стоимости $0,01-$3,59, доказывая, что ИИ-агенты экономически предпочитают эксплуатацию защите.

Лучшие практики безопасности включают формальную верификацию смарт-контрактов, обширное тестирование в тестовых сетях, сторонние аудиты (Cantina, Trail of Bits), программы вознаграждения за ошибки, мониторинг в реальном времени с автоматическими выключателями, временные блокировки критических операций, требования к мультиподписям для крупных транзакций, доверенные среды исполнения (Phala Network), выполнение кода в песочнице с фильтрацией системных вызовов, сетевые ограничения и ограничение скорости. Защитная позиция должна быть параноидально строгой, поскольку злоумышленники достигают прибыльности при стоимости эксплойта в $6 000, в то время как защитникам требуется $60 000 для безубыточности, что создает фундаментальную экономическую асимметрию, благоприятствующую атакам.

Требования к масштабируемости и инфраструктуре создают узкие места. Ethereum с ~30 миллионами газа на блок, временем блока 12-15 секунд, высокими комиссиями во время перегрузок и пропускной способностью 15-30 TPS не может напрямую поддерживать вывод ML-моделей. Решения включают сети Уровня 2 (роллапы Arbitrum/Optimism, снижающие затраты в 10-100 раз, Base с нативной поддержкой агентов, сайдчейны Polygon), вычисления вне сети с ончейн-верификацией и гибридные архитектуры. Требования к инфраструктуре включают RPC-узлы (Alchemy, Infura, NOWNodes), сети оракулов (Chainlink, Pyth, API3), децентрализованное хранилище (IPFS для весов моделей), GPU-кластеры для вывода ML и круглосуточный мониторинг с низкой задержкой и высокой надежностью. Операционные расходы варьируются от RPC-вызовов ($0-$500+/месяц), вычислений ($100-$10 000+/месяц для GPU-инстансов) до сильно варьирующихся комиссий за газ ($1-$1 000+ за сложную транзакцию).

Текущие тесты производительности показывают, что zkML доказывает модели с 18 миллионами параметров за 50 секунд на мощных экземплярах AWS, Internet Computer Protocol достигает более чем 10-кратного улучшения с оптимизацией Cyclotron для ончейн-классификации изображений, а Bittensor управляет более чем 80 активными подсетями с валидаторами, оценивающими ML-модели. Будущие разработки включают аппаратное ускорение с помощью специализированных ASIC-чипов для генерации ZK-доказательств, GPU-подсети в ICP для ончейн-ML, улучшенную абстракцию учетных записей, кроссчейн-протоколы обмена сообщениями (LayerZero, Wormhole) и новые стандарты, такие как Model Context Protocol для взаимодействия агентов. Техническая зрелость быстро растет, при этом производственные системы, такие как Gauntlet, доказывают жизнеспособность TVL в миллиарды долларов, хотя остаются ограничения, связанные с размером больших языковых моделей, задержкой zkML и затратами на газ для частых операций.

Реальные реализации: Что работает сегодня

SingularityDAO демонстрирует производительность портфелей, управляемых ИИ, с поддающимися количественной оценке результатами. DynaSets платформы — динамически управляемые корзины активов, автоматически ребалансируемые ИИ — достигли 25% ROI за два месяца (октябрь-ноябрь 2022 года) благодаря адаптивному многостратегическому маркет-мейкингу и 20% ROI для еженедельной и двухнедельной оценки стратегии портфелей BTC+ETH, при этом взвешенное распределение средств обеспечивало более высокую доходность, чем фиксированное распределение. Техническая архитектура включает бэктестинг на 7 днях исторических рыночных данных, предиктивные стратегии, основанные на настроениях в социальных сетях, алгоритмических торговых агентов для обеспечения ликвидности и активное управление портфелем, включая планирование, балансировку и торговлю портфелем. Механизм рисков оценивает многочисленные риски для оптимального принятия решений, при этом динамический менеджер активов проводит автоматическую ребалансировку на основе ИИ. В настоящее время действуют три активных DynaSets (dynBTC, dynETH, dynDYDX), управляющие реальным капиталом с прозрачной ончейн-производительностью.

Virtuals Protocol (рыночная капитализация $1,8 миллиарда) лидирует в токенизации ИИ-агентов: по состоянию на начало 2025 года на платформе запущено более 17 000 агентов. Каждый агент получает 1 миллиард выпущенных токенов, генерирует доход через «комиссии за вывод» от чат-взаимодействий и предоставляет права управления держателям токенов. Среди известных агентов: Luna (LUNA) с рыночной капитализацией $69 миллионов — виртуальная K-pop звезда и стример с 1 миллионом подписчиков в TikTok, генерирующая доход через развлечения; AIXBT по $0,21 — предоставляющий рыночные инсайты, управляемые ИИ, с более чем 240 000 подписчиков в Твиттере и механизмами стейкинга; и VaderAI (VADER) по $0,05 — предлагающий инструменты монетизации ИИ и управление DAO. Фреймворк GAME (Generative Autonomous Multimodal Entities) обеспечивает техническую основу, в то время как Agent Commerce Protocol создает открытые стандарты для коммерции между агентами с помощью Immutable Contribution Vault (ICV), поддерживающего исторические реестры одобренных вкладов. Партнерства с Illuvium интегрируют ИИ-агентов в игровые экосистемы, а аудиты безопасности выявили 7 проблем (3 средней, 4 низкой степени серьезности).

ai16z действует как автономный венчурный фонд с рыночной капитализацией $2,3 миллиарда на Solana, создавая фреймворк ELIZA — наиболее широко используемую модульную архитектуру с открытым исходным кодом для ИИ-агентов с тысячами развертываний. Платформа обеспечивает децентрализованную, совместную разработку с экосистемами плагинов, создающими сетевые эффекты: больше разработчиков создают больше плагинов, привлекая больше разработчиков. Система рынка доверия решает проблему подотчетности автономных агентов, а планы по созданию выделенного блокчейна специально для ИИ-агентов демонстрируют долгосрочное видение инфраструктуры. Фонд работает с определенным сроком действия (октябрь 2025 года) и заблокированными средствами в размере более $22 миллионов, демонстрируя ограниченное по времени автономное управление капиталом.

Производственная инфраструктура Gauntlet управляет более чем $1 миллиардом TVL DeFi-протоколов посредством непрерывного моделирования и оптимизации. Платформа отслеживает более 100 DeFi-протоколов с оценкой рисков в реальном времени, проводит агентно-ориентированные симуляции поведения протоколов в условиях стресса и предоставляет динамические корректировки параметров для коэффициентов обеспечения, порогов ликвидации, кривых процентных ставок, структур комиссий и программ стимулирования. Крупные партнерства с протоколами включают Aave (4-летнее сотрудничество завершилось в 2024 году из-за разногласий в управлении), Compound (пионерская реализация автоматизированного управления), Uniswap (оптимизация ликвидности и стимулов), Morpho (текущее партнерство по курированию хранилищ) и Seamless Protocol (активный мониторинг рисков). Фреймворк курирования хранилищ включает анализ рынка, отслеживающий новые возможности доходности, оценку рисков, оценивающую ликвидность и риск смарт-контрактов, разработку стратегий, создающих оптимальные распределения, автоматическое исполнение в хранилища MetaMorpho и непрерывную оптимизацию посредством ребалансировки в реальном времени. Метрики производительности демонстрируют частоту обновлений платформы (6 раз в день), объем данных (более 400 миллионов точек в более чем 12 блокчейнах) и сложность методологии (Value-at-Risk, охватывающий широкие рыночные спады, риски нарушения корреляции, такие как расхождение LST и отвязка стейблкоинов, а также количественная оценка хвостовых рисков).

Автономные торговые боты показывают смешанные, но улучшающиеся результаты. Пользователи Gunbot сообщают, что начали с $496 USD 26 февраля и выросли до $1 358 USD (+174%), работая на 20 парах на dYdX с саморазмещенным исполнением, исключающим риски третьих сторон. Пользователи Cryptohopper достигли 35% годовой доходности на волатильных рынках благодаря круглосуточной облачной автоматизированной торговле с оптимизацией стратегий на основе ИИ и функциями социальной торговли. Однако общая статистика показывает, что 75-89% клиентов ботов теряют средства, и только 11-25% получают прибыль, что подчеркивает риски от чрезмерной оптимизации (подгонки кривой под исторические данные), рыночной волатильности и событий «черного лебедя», технических сбоев (сбои API, проблемы с подключением) и неправильной пользовательской конфигурации. Крупные сбои включают эксплойт Banana Gun (сентябрь 2024 года, потеря 563 ETH/$1,9 миллиона из-за уязвимости оракула), атаку социальной инженерии на кредитора Genesis (август 2024 года, потеря $243 миллиона) и инцидент с проскальзыванием Dogwifhat (январь 2024 года, потеря $5,7 миллиона на тонких книгах ордеров).

Fetch.ai обеспечивает автономных экономических агентов с более чем 30 000 активных агентов по состоянию на 2024 год, использующих фреймворк uAgents. Приложения включают автоматизацию бронирования транспорта, умную торговлю энергией (покупка электроэнергии в непиковые часы, перепродажа излишков), оптимизацию цепочек поставок через агентные переговоры и партнерства с Bosch (варианты использования Web3-мобильности) и Yoti (верификация личности для агентов). Платформа привлекла $40 миллионов в 2023 году, позиционируя себя на рынке автономного ИИ, который, по прогнозам, достигнет $70,53 миллиарда к 2030 году (CAGR 42,8%). Приложения DeFi, анонсированные в 2023 году, включают агентные торговые инструменты для DEX, исключающие пулы ликвидности в пользу агентного сопоставления, что позволяет осуществлять прямую одноранговую торговлю, устраняя риски «медовой ловушки» и «rugpull».

Реализации DAO с компонентами ИИ демонстрируют эволюцию управления. AI DAO управляет DAO на основе Nexus EVM на сайдчейне XRP EVM с обнаружением нерегулярностей голосования ИИ, обеспечивающим справедливое принятие решений, помощью в управлении, где ИИ помогает принимать решения, в то время как люди сохраняют надзор, и платформой для запуска ИИ-агентов с децентрализованными сетями узлов MCP, позволяющими агентам управлять кошельками и совершать транзакции в блокчейнах Axelar. Фреймворк Aragon предусматривает шестиуровневую интеграцию ИИ и DAO: ИИ-боты и помощники (текущий), ИИ на периферии, голосующий по предложениям (ближайшая перспектива), ИИ в центре, управляющий казначейством (среднесрочная перспектива), ИИ-коннекторы, создающие роевой интеллект между DAO (среднесрочная перспектива), DAO, управляющие ИИ как общественным благом (долгосрочная перспектива), и ИИ, становящийся DAO с ончейн-владением казначейством (будущее). Техническая реализация использует модульную систему плагинов Aragon OSx с управлением разрешениями, позволяющую ИИ торговать ниже долларовых порогов, одновременно инициируя голосования выше, и возможностью переключать торговые стратегии ИИ путем отзыва/предоставления разрешений плагинам.

Рыночные данные подтверждают быстрое внедрение и масштабы. Рынок DeFAI достиг рыночной капитализации около $1 миллиарда в январе 2025 года, при этом рынки ИИ-агентов достигли пика в $17 миллиардов. Общая заблокированная стоимость DeFi составляет $52 миллиарда (институциональный TVL: $42 миллиарда), в то время как MetaMask обслуживает 30 миллионов пользователей с 21 миллионом активных ежемесячно. Расходы на блокчейн достигли $19 миллиардов в 2024 году с прогнозами до $1 076 миллиардов к 2026 году. Глобальный рынок DeFi в размере $20,48-32,36 миллиарда (2024-2025 годы) прогнозирует рост до $231-441 миллиарда к 2030 году и $1 558 миллиарда к 2034 году, что составляет 40-54% CAGR. Метрики, специфичные для платформ, включают Virtuals Protocol с более чем 17 000 запущенных ИИ-агентов, интеграцию Fetch.ai Burrito, привлекшую более 400 000 пользователей, и автономных торговых ботов, таких как SMARD, превзошедших Биткойн более чем на 200% и Эфириум более чем на 300% по прибыльности с начала 2022 года.

Уроки успехов и неудач проясняют, что работает. Успешные реализации имеют общие черты: специализированные агенты превосходят универсальных (многоагентное сотрудничество Griffain более надежно, чем один ИИ), человеческий надзор оказывается критически важным для неожиданных событий, конструкции с самостоятельным хранением устраняют риск контрагента, всестороннее бэктестирование в различных рыночных режимах предотвращает чрезмерную оптимизацию, а надежное управление рисками с правилами определения размера позиции и механизмами стоп-лосса предотвращает катастрофические потери. Неудачи демонстрируют, что ИИ «черного ящика», лишенный прозрачности, не способен завоевать доверие, чистая автономия в настоящее время не может справиться со сложностью рынка и событиями «черного лебедя», игнорирование безопасности приводит к эксплойтам, а нереалистичные обещания «гарантированной доходности» указывают на мошеннические схемы. Технология лучше всего работает как симбиоз человека и ИИ, где ИИ обеспечивает скорость и исполнение, а люди — стратегию и суждение.

Более широкая экосистема: Игроки, конкуренция и вызовы

Экосистема автономного капитала быстро расширилась за пределы пяти профилированных лидеров мнений, охватив крупные платформы, институциональных игроков, конкурирующие философские подходы и сложные регуляторные вызовы. Virtuals Protocol и ai16z представляют собой философское разделение «Собор против Базара». Virtuals (рыночная капитализация $1,8 млрд) придерживается централизованного, методичного подхода со структурированным управлением и контролируемыми по качеству профессиональными рынками, соучредителем которого является EtherMage, использующий Immutable Contribution Vaults для прозрачной атрибуции. ai16z (рыночная капитализация $2,3 млрд) принимает децентрализованную, совместную разработку через открытый фреймворк ELIZA, позволяющий быстро экспериментировать, возглавляемый Шоу (программистом-самоучкой), создающим выделенный блокчейн для ИИ-агентов с рынками доверия для подотчетности. Это философское напряжение — точность против инноваций, контроль против экспериментов — отражает исторические дебаты в разработке программного обеспечения и, вероятно, сохранится по мере созревания экосистемы.

Крупные протоколы и поставщики инфраструктуры включают SingularityNET, управляющую децентрализованными рынками ИИ, позволяющими разработчикам монетизировать ИИ-модели с помощью краудсорсингового принятия инвестиционных решений (модель хедж-фонда Numerai), Fetch.ai, развертывающую автономных агентов для оптимизации транспорта и услуг с акселератором на $10 миллионов для стартапов ИИ-агентов, Autonolas, соединяющую оффчейн ИИ-агентов с ончейн-протоколами, создавая безразрешительные рынки приложений, ChainGPT, разрабатывающую виртуальную машину ИИ (AIVM) для Web3 с автоматизированным управлением ликвидностью и исполнением торгов, и Warden Protocol, строящую блокчейн Уровня 1 для приложений, интегрированных с ИИ, где смарт-контракты получают доступ и проверяют выходы ИИ-моделей в сети с партнерствами, включая Messari, Venice и Hyperlane.

Институциональное внедрение ускоряется, несмотря на осторожность. Galaxy Digital переходит от майнинга крипто к ИИ-инфраструктуре с венчурным фондом в $175 миллионов и ожидаемым доходом в $4,5 миллиарда от 15-летнего соглашения с CoreWeave, предоставляющего 200 МВт мощностей дата-центров. Крупные финансовые учреждения экспериментируют с агентным ИИ: LAW (Legal Agentic Workflows) от JPMorgan Chase достигает 92,9% точности, BNY внедряет автономное кодирование и проверку платежей, в то время как Mastercard, PayPal и Visa развивают инициативы в области агентной коммерции. Исследовательские и аналитические фирмы, включая Messari, CB Insights (отслеживающие более 1400 технологических рынков), Deloitte, McKinsey и S&P Global Ratings, предоставляют критически важную информацию об экосистеме автономных агентов, пересечении ИИ и крипто, внедрении в предприятиях и оценке рисков.

Конкурирующие видения проявляются в нескольких измерениях. Вариации бизнес-моделей включают DAO на основе токенов с прозрачным голосованием сообщества (MakerDAO, MolochDAO), сталкивающиеся с проблемами концентрации токенов, где менее 1% держателей контролируют 90% голосующей силы, DAO на основе акций, напоминающие корпоративные структуры с прозрачностью блокчейна, и гибридные модели, сочетающие ликвидность токенов с долями владения, балансирующие вовлеченность сообщества с доходностью инвесторов. Подходы к соблюдению нормативных требований варьируются от проактивного соблюдения, заранее ищущего ясности, регуляторного арбитража, действующего в юрисдикциях с более мягким регулированием, до стратегий «подождать и посмотреть», сначала создавая, а затем решая вопросы регулирования. Эти стратегические выборы создают фрагментацию и конкурентную динамику, поскольку проекты оптимизируются под различные ограничения.

Регуляторная среда становится все более сложной и ограничивающей. Разработки в США включают Целевую группу SEC по крипто, возглавляемую комиссаром Хестер Пирс, регулирование ИИ и крипто как приоритет проверки на 2025 год, Рабочую группу Президента по цифровым активам (60-дневный обзор, 180-дневные рекомендации), назначение Дэвида Сакса специальным советником по ИИ и крипто, а также отмену SAB 121, облегчающую требования к хранению для банков. Ключевые опасения SEC включают классификацию ценных бумаг в соответствии с тестом Хауи, применимость Закона об инвестиционных консультантах к ИИ-агентам, хранение и фидуциарную ответственность, а также требования AML/KYC. Исполняющая обязанности председателя CFTC Фам поддерживает ответственные инновации, сосредоточившись на товарных рынках и деривативах. Государственные регулирования демонстрируют инновации: Вайоминг первым признал DAO юридическими лицами (июль 2021 года), а Нью-Гэмпшир рассматривает законодательство о DAO, в то время как Департамент финансовых услуг Нью-Йорка (NY DFS) выпустил руководство по кибербезопасности для рисков ИИ (октябрь 2024 года).

Регулирование MiCA Европейского Союза создает всеобъемлющую основу с графиком внедрения: июнь 2023 года — вступление в силу, 30 июня 2024 года — применение положений о стейблкоинах, 30 декабря 2024 года — полное применение для поставщиков услуг криптоактивов с 18-месячным переходным периодом для существующих поставщиков. Ключевые требования включают обязательные вайтпейперы для эмитентов токенов, структуры достаточности капитала и управления, соответствие AML/KYC, требования к хранению и резервам для стейблкоинов, отслеживаемость транзакций по правилу Travel Rule и права на «паспортизацию» по всему ЕС для лицензированных поставщиков. Текущие проблемы включают призывы Франции, Австрии и Италии к более строгому правоприменению (сентябрь 2025 года), неравномерное внедрение в государствах-членах, опасения по поводу регуляторного арбитража, пересечение с платежными регламентами PSD2/PSD3 и ограничения на стейблкоины, не соответствующие MiCA. DORA (Digital Operational Resilience Act), применимый с 17 января 2025 года, добавляет всеобъемлющие рамки операционной устойчивости и обязательные меры кибербезопасности.

Динамика рынка демонстрирует как эйфорию, так и осторожность. Венчурная активность в 2024 году показала инвестиции в крипто на сумму $8 миллиардов за первые три квартала (без изменений по сравнению с 2023 годом), при этом в 3 квартале 2024 года было зафиксировано $2,4 миллиарда в 478 сделках (-20% по сравнению с предыдущим кварталом), но проекты AI x Crypto получили $270 миллионов в 3 квартале (5-кратное увеличение по сравнению со 2 кварталом). Автономные ИИ-агенты на стадии посевных инвестиций привлекли $700 миллионов в 2024-2025 годах, при этом медианные оценки до инвестиций достигли рекордных $25 миллионов, а средний размер сделки составил $3,5 миллиона. В 1 квартале 2025 года было привлечено $80,1 миллиарда (рост на 28% по сравнению с предыдущим кварталом, обусловленный сделкой OpenAI на $40 миллиардов), при этом ИИ составил 74% инвестиций в ИТ-сектор, несмотря на снижение объемов сделок. Географическое распределение показывает доминирование США с 56% капитала и 44% сделок, рост в Азии в Японии (+2%), Индии (+1%), Южной Корее (+1%), а Китай снизился на -33% в годовом исчислении.

Оценки показывают отрыв от фундаментальных показателей. Ведущие токены ИИ-агентов, включая Virtuals Protocol (рост на 35 000% в годовом исчислении до $1,8 млрд), ai16z (+176% за одну неделю до $2,3 млрд), AIXBT (около $500 млн) и листинги фьючерсов Binance для Zerebro и Griffain, демонстрируют спекулятивный ажиотаж. Высокая волатильность с мгновенными обвалами, уничтожающими $500 миллионов в позициях с кредитным плечом за одну неделю, быстрые запуски токенов через платформы, такие как pump.fun, и «мемкоины ИИ-агентов» как отдельная категория указывают на характеристики пузыря. Традиционные венчурные фонды обеспокоены тем, что крипто торгуется с коэффициентом цена/продажи ~250x по сравнению с Nasdaq 6,25x и S&P 3,36x, институциональные инвесторы остаются осторожными после обвалов 2022 года, и появляется «мета доходов», требующая проверенных бизнес-моделей.

Критика группируется вокруг пяти основных областей. Технические проблемы и проблемы безопасности включают уязвимости инфраструктуры кошельков, при этом большинство DeFi-платформ требуют ручного одобрения, что создает катастрофические риски, алгоритмические сбои, такие как ликвидация Terra/Luna на $2 миллиарда, бесконечные петли обратной связи между агентами, каскадные сбои многоагентных систем, проблемы качества данных и предвзятости, увековечивающие дискриминацию, и уязвимости к манипуляциям через отравленные обучающие данные. Проблемы управления и подотчетности проявляются в концентрации токенов, подрывающей децентрализацию (менее 1% контролируют 90% голосующей силы), бездействующих акционерах, нарушающих функциональность, подверженности враждебным поглощениям (Build Finance DAO была опустошена в 2022 году), пробелах в подотчетности относительно ответственности за вред, причиненный агентами, проблемах объяснимости и «агентах-изгоях», использующих программные лазейки.

Рыночная и экономическая критика сосредоточена на отрыве оценки от реальных показателей: P/S крипто в 250x против традиционных 6-7x, опасениях пузыря, напоминающих циклы бумов/спадов ICO, многих агентах как «прославленных чат-ботах», внедрении, обусловленном спекуляциями, а не полезностью, ограниченной практической полезности большинства агентов, которые в настоящее время являются простыми инфлюенсерами в Твиттере, плохой кроссчейн-совместимости и фрагментированных агентных фреймворках, препятствующих внедрению. Системные и социальные риски включают концентрацию Big Tech с сильной зависимостью от Microsoft/OpenAI/облачных сервисов (сбой CrowdStrike в июле 2024 года подчеркнул взаимозависимости), 63% ИИ-моделей, использующих публичные облака для обучения, что снижает конкуренцию, значительное потребление энергии для обучения моделей, 92 миллиона рабочих мест, вытесненных к 2030 году, несмотря на прогнозируемые 170 миллионов новых рабочих мест, и риски финансовых преступлений из-за проблем AML/KYC с автономными агентами, позволяющими автоматизировать отмывание денег.

«Парадокс генеративного ИИ» отражает проблемы внедрения: 79% компаний внедрили его, но 78% сообщают об отсутствии значительного влияния на прибыль. MIT сообщает, что 95% пилотных проектов ИИ терпят неудачу из-за плохой подготовки данных и отсутствия обратной связи. Интеграция с устаревшими системами является главной проблемой для 60% организаций, требуя фреймворков безопасности с первого дня, управления изменениями и обучения ИИ-грамотности, а также культурных сдвигов от человекоцентричных к ИИ-коллаборативным моделям. Эти практические барьеры объясняют, почему институциональный энтузиазм не привел к соответствующим финансовым доходам, что предполагает, что экосистема остается на экспериментальных ранних стадиях, несмотря на быстрый рост рыночной капитализации.

Практические последствия для финансов, инвестиций и бизнеса

Автономный капитал трансформирует традиционные финансы за счет немедленного повышения производительности и стратегического перепозиционирования. Финансовые услуги видят, как ИИ-агенты совершают сделки на 126% быстрее с оптимизацией портфеля в реальном времени, обнаружением мошенничества через обнаружение аномалий в реальном времени и проактивную оценку рисков, 68% взаимодействий с клиентами, как ожидается, будут обрабатываться ИИ к 2028 году, кредитную оценку с использованием непрерывной оценки с данными транзакций в реальном времени и поведенческими тенденциями, а также автоматизацию соблюдения требований, проводящую динамические оценки рисков и регуляторную отчетность. Метрики трансформации показывают, что 70% руководителей финансовых услуг ожидают использования агентного ИИ для персонализированного опыта, увеличения доходов на 3-15% для внедряющих ИИ, повышения ROI продаж на 10-20%, 90% наблюдают более эффективные рабочие процессы, и 38% сотрудников сообщают об облегчении творчества.

Венчурный капитал претерпевает эволюцию тезисов от чистых инфраструктурных проектов к инфраструктуре, ориентированной на конкретные приложения, с акцентом на спрос, распространение и доход, а не на токены до запуска. Основные возможности появляются в стейблкоинах после регуляторной ясности, в связке энергетики и DePIN, питающей ИИ-инфраструктуру, и на рынках GPU для вычислительных ресурсов. Требования к комплексной проверке значительно расширяются: оценка технической архитектуры (автономия уровня 1-5), фреймворков управления и этики, состояния безопасности и аудиторских следов, дорожной карты регуляторного соответствия, токеномики и анализа распределения, а также способности команды ориентироваться в регуляторной неопределенности. Факторы риска включают отказ 95% пилотных проектов ИИ (отчет MIT), плохую подготовку данных и отсутствие обратной связи как основные причины, зависимость от поставщиков для фирм без внутренней экспертизы и мультипликаторы оценки, оторванные от фундаментальных показателей.

Бизнес-модели множатся, поскольку автономный капитал позволяет инновации, ранее невозможные. Автономные инвестиционные инструменты объединяют капитал через DAO для алгоритмического развертывания с распределением прибыли пропорционально вкладам (модель хедж-фонда ai16z). ИИ как услуга (AIaaS) продает токенизированные возможности агентов как услуги с платой за вывод для чат-взаимодействий и долевым владением высокоценными агентами. Монетизация данных создает децентрализованные рынки данных с токенизацией, позволяющей безопасный обмен с использованием методов сохранения конфиденциальности, таких как доказательства с нулевым разглашением. Автоматизированный маркет-мейкинг обеспечивает предоставление и оптимизацию ликвидности с динамическими процентными ставками, основанными на спросе/предложении и кроссчейн-арбитраже. Соответствие как услуга предлагает автоматизированные проверки AML/KYC, отчетность в реальном времени и аудит смарт-контрактов.

Риски бизнес-моделей включают неопределенность регуляторной классификации, ответственность за защиту потребителей, зависимость от платформ, сетевые эффекты, благоприятствующие первопроходцам, и проблемы скорости обращения токенов. Тем не менее, успешные реализации демонстрируют жизнеспособность: Gauntlet управляет TVL на сумму более $1 миллиарда через управление рисками, основанное на симуляциях, SingularityDAO обеспечивает 25% ROI через портфели, управляемые ИИ, а Virtuals Protocol запускает более 17 000 агентов с развлекательными и аналитическими продуктами, приносящими доход.

Традиционные отрасли подвергаются автоматизации во всех секторах. Здравоохранение развертывает ИИ-агентов для диагностики (FDA одобрило 223 медицинских устройства с ИИ в 2023 году, по сравнению с 6 в 2015 году), оптимизации лечения пациентов и административной автоматизации. В транспорте Waymo еженедельно совершает более 150 000 автономных поездок, а Baidu Apollo Go обслуживает несколько китайских городов с системами автономного вождения, улучшающимися на 67,3% в годовом исчислении. Цепочки поставок и логистика выигрывают от оптимизации маршрутов в реальном времени, автоматизации управления запасами и координации поставщиков. Юридические и профессиональные услуги внедряют обработку документов и анализ контрактов, мониторинг соответствия нормативным требованиям и автоматизацию комплексной проверки.

Трансформация рабочей силы создает вытеснение наряду с возможностями. Хотя к 2030 году 92 миллиона рабочих мест будут вытеснены, прогнозы показывают создание 170 миллионов новых рабочих мест, требующих других навыков. Проблема заключается в переходе — программы переподготовки, системы социальной защиты и реформы образования должны ускориться, чтобы предотвратить массовую безработицу и социальные потрясения. Ранние данные показывают, что в 1 квартале 2025 года в США количество вакансий в сфере ИИ достигло 35 445 (+25,2% в годовом исчислении) со средней зарплатой $156 998, а упоминания вакансий в сфере ИИ увеличились на 114,8% (2023) и затем на 120,6% (2024). Однако этот рост концентрируется в технических ролях, оставляя вопросы о более широкой экономической инклюзивности без ответа.

Риски требуют комплексных стратегий смягчения по пяти категориям. Технические риски (уязвимости смарт-контрактов, сбои оракулов, каскадные ошибки) требуют непрерывного тестирования «красной командой», формальной верификации, автоматических выключателей, страховых протоколов, таких как Nexus Mutual, и постепенного развертывания с ограниченной автономией на начальном этапе. Регуляторные риски (неясный правовой статус, ретроактивное правоприменение, юрисдикционные конфликты) требуют проактивного взаимодействия с регуляторами, четкого раскрытия информации и вайтпейперов, надежных фреймворков KYC/AML, планирования юридического лица (Wyoming DAO LLC) и географической диверсификации. Операционные риски (отравление данных, дрейф модели, сбои интеграции) требуют человеческого надзора за критически важными решениями, непрерывного мониторинга и переобучения, поэтапной интеграции, резервных систем и избыточности, а также комплексных реестров агентов, отслеживающих владение и подверженность рискам.

Рыночные риски (динамика пузыря, кризисы ликвидности, концентрация токенов, обвал оценки) требуют сосредоточения на создании фундаментальной ценности, а не на спекуляциях, диверсифицированного распределения токенов, периодов блокировки и графиков вестинга, лучших практик управления казначейством и прозрачного информирования об ограничениях. Системные риски (концентрация Big Tech, сбои сети, финансовое заражение) требуют многооблачных стратегий, децентрализованной инфраструктуры (периферийный ИИ, локальные модели), стресс-тестирования и сценарного планирования, регуляторной координации между юрисдикциями и отраслевых консорциумов для разработки стандартов.

Сроки внедрения предполагают умеренный оптимизм в краткосрочной перспективе, трансформационный потенциал в долгосрочной. В ближайшей перспективе 2025-2027 годов ожидается автономия Уровня 1-2 с автоматизацией на основе правил и оптимизацией рабочих процессов при сохранении человеческого надзора, 25% компаний, использующих генеративный ИИ, запустят пилотные проекты с агентами в 2025 году (Deloitte), увеличившись до 50% к 2027 году, рынок автономных ИИ-агентов достигнет $6,8 миллиарда (2024) и расширится до более чем $20 миллиардов (2027), а 15% рабочих решений будут приниматься автономно к 2028 году (Gartner). Барьеры для внедрения включают неясные варианты использования и ROI (60% ссылаются на это), проблемы интеграции с устаревшими системами, опасения по поводу рисков и соответствия требованиям, а также нехватку талантов.

Среднесрочная перспектива 2028-2030 годов принесет автономию Уровня 3-4 с агентами, работающими в узких областях без постоянного надзора, многоагентными системами сотрудничества, адаптивным принятием решений в реальном времени и растущим доверием к рекомендациям агентов. Прогнозы рынка показывают, что генеративный ИИ будет ежегодно вносить $2,6-4,4 триллиона в мировой ВВП, рынок автономных агентов достигнет $52,6 миллиарда к 2030 году (CAGR 45%), 3 часа в день деятельности будут автоматизированы (по сравнению с 1 часом в 2024 году), и 68% взаимодействий между клиентами и поставщиками будут обрабатываться ИИ. Развитие инфраструктуры включает блокчейны, специфичные для агентов (ai16z), стандарты кроссчейн-совместимости, унифицированные протоколы хранилищ ключей для разрешений и мейнстрим программируемой инфраструктуры кошельков.

Долгосрочная перспектива 2030+ предусматривает автономию Уровня 5 с полностью автономными агентами и минимальным вмешательством человека, самосовершенствующимися системами, приближающимися к возможностям AGI, агентами, нанимающими других агентов и людей, и автономным распределением капитала в масштабе. Системная трансформация включает ИИ-агентов как коллег, а не инструменты, токенизированную экономику с транзакциями между агентами, децентрализованную «голливудскую модель» для координации проектов и 170 миллионов новых рабочих мест, требующих новых навыков. Остаются ключевые неопределенности: зрелость регуляторной базы, общественное доверие и принятие, технические прорывы или ограничения в ИИ, управление экономическими потрясениями и проблемы этического согласования и контроля.

Критические факторы успеха для развития экосистемы включают регуляторную ясность, способствующую инновациям при защите потребителей, стандарты совместимости для кроссчейн- и кроссплатформенной коммуникации, инфраструктуру безопасности как основу с надежным тестированием и аудитами, развитие талантов через программы ИИ-грамотности и поддержку перехода рабочей силы, а также устойчивую экономику, создающую ценность за пределами спекуляций. Отдельные проекты требуют реальной полезности, решающей подлинные проблемы, сильного управления со сбалансированным представительством заинтересованных сторон, технического превосходства с дизайном, ориентированным на безопасность, регуляторной стратегии с проактивным соблюдением требований и согласования сообщества через прозрачное общение и общие ценности. Институциональное внедрение требует доказательства ROI, выходящего за рамки повышения эффективности, комплексных фреймворков управления рисками, управления изменениями с культурной трансформацией и обучением, стратегии поставщиков, балансирующей создание и покупку при избегании привязки к поставщику, и этических рекомендаций для автономных полномочий по принятию решений.

Экосистема автономного капитала представляет собой подлинные технологические и финансовые инновации с трансформационным потенциалом, но сталкивается со значительными проблемами в области безопасности, управления, регулирования и практической полезности. Рынок переживает быстрый рост, обусловленный спекуляциями и легитимным развитием примерно в равной степени, требуя сложного понимания, осторожной навигации и реалистичных ожиданий от всех участников по мере того, как эта развивающаяся область созревает к массовому внедрению.

Заключение: Траектория автономного капитала

Революция автономного капитала — это ни неизбежная утопия, ни дистопическая неизбежность, а скорее развивающаяся область, где подлинные технологические инновации пересекаются со значительными рисками, требуя тонкого понимания возможностей, ограничений и проблем управления. Пять ключевых лидеров мнений, представленных здесь — Тарун Читра, Амджад Масад, Жорди Александр, Александр Пак и Ирен Ву — демонстрируют различные, но взаимодополняющие подходы к построению этого будущего: автоматизированное управление Читры через симуляцию и управление рисками, сетевые экономики и инфраструктура разработки Масада, основанная на агентах, инвестиционный тезис Александра, основанный на теории игр и подчеркивающий человеческое суждение, инфраструктурно-ориентированная стратегия венчурного капитала Пака и омничейн-основы совместимости Ву.

Их коллективная работа доказывает, что автономный капитал технически осуществим сегодня — это демонстрируется управлением Gauntlet TVL на сумму более $1 миллиарда, 25% ROI SingularityDAO через ИИ-портфели, более чем 17 000 запущенных агентов Virtuals Protocol и производственными торговыми системами, обеспечивающими проверенные результаты. Однако «парадокс бездоверия», выявленный исследователями, остается нерешенным: развертывание ИИ в бездоверительной блокчейн-инфраструктуре позволяет избежать доверия к ошибочным людям, но создает потенциально ненадежные ИИ-системы, работающие вне вмешательства. Это фундаментальное противоречие между автономией и подотчетностью определит, станет ли автономный капитал инструментом для процветания человека или неуправляемой силой.

Краткосрочная перспектива (2025-2027) предполагает осторожные эксперименты: 25-50% пользователей генеративного ИИ запустят пилотные проекты с агентами, автономия Уровня 1-2 будет поддерживать человеческий надзор, рост рынка с $6,8 миллиарда до более чем $20 миллиардов, но сохранятся барьеры для внедрения, связанные с неясным ROI, проблемами интеграции с устаревшими системами и регуляторной неопределенностью. Среднесрочная перспектива (2028-2030) может принести автономию Уровня 3-4 с агентами, работающими в узких областях без постоянного надзора, многоагентными системами, координирующимися автономно, и генеративным ИИ, вносящим $2,6-4,4 триллиона в мировой ВВП, если технические и управленческие проблемы будут успешно решены. Долгосрочные (2030+) видения автономии Уровня 5 с полностью самосовершенствующимися системами, управляющими капиталом в масштабе, остаются спекулятивными, зависящими от прорывов в возможностях ИИ, регуляторных фреймворках, инфраструктуре безопасности и способности общества управлять переходами рабочей силы.

Критические открытые вопросы определяют результаты: Позволит ли регуляторная ясность инновациям или ограничит их? Сможет ли инфраструктура безопасности созреть достаточно быстро, чтобы предотвратить катастрофические сбои? Будут ли реализованы цели децентрализации или увеличится концентрация Big Tech? Могут ли устойчивые бизнес-модели возникнуть за пределами спекуляций? Как общество будет управлять 92 миллионами вытесненных рабочих мест, даже когда появится 170 миллионов новых? Эти вопросы не имеют окончательных ответов сегодня, что делает экосистему автономного капитала одновременно высокорисковой и высокоперспективной.

Перспективы пяти лидеров мнений сходятся на ключевых принципах: симбиоз человека и ИИ превосходит чистую автономию, при этом ИИ обеспечивает скорость выполнения и анализ данных, в то время как люди предоставляют стратегическое суждение и согласование ценностей; безопасность и управление рисками требуют параноидальной строгости, поскольку злоумышленники имеют фундаментальные экономические преимущества перед защитниками; совместимость и стандартизация определят, какие платформы достигнут сетевых эффектов и долгосрочного доминирования; регуляторное взаимодействие должно быть проактивным, а не реактивным, поскольку правовые рамки развиваются по всему миру; и сосредоточение на создании фундаментальной ценности, а не на спекуляциях, отделяет устойчивые проекты от жертв пузыря.

Для участников экосистемы стратегические рекомендации различаются в зависимости от роли. Инвесторы должны диверсифицировать риски по уровням платформы, приложений и инфраструктуры, сосредоточившись на моделях, приносящих доход, и регуляторной позиции, планируя экстремальную волатильность и соответствующим образом определяя размер позиций. Разработчики должны выбирать архитектурные философии («Собор» против «Базара»), активно инвестировать в аудиты безопасности и формальную верификацию, создавать для кроссчейн-совместимости, рано взаимодействовать с регуляторами и решать реальные проблемы, а не создавать «прославленных чат-ботов». Предприятиям следует начинать с пилотных проектов с низким риском в области обслуживания клиентов и аналитики, инвестировать в готовую к агентам инфраструктуру и данные, устанавливать четкое управление для автономных полномочий по принятию решений, обучать рабочую силу ИИ-грамотности и балансировать инновации с контролем.

Политики сталкиваются, пожалуй, с самой сложной задачей: гармонизация регулирования на международном уровне при одновременном стимулировании инноваций, использование подходов «песочницы» и «безопасных гаваней» для экспериментов, защита потребителей посредством обязательного раскрытия информации и предотвращения мошенничества, устранение системных рисков от концентрации Big Tech и сетевых зависимостей, а также подготовка рабочей силы посредством образовательных программ и поддержки перехода для вытесненных работников. Регулирование MiCA ЕС предоставляет модель, балансирующую инновации с защитой, хотя проблемы правоприменения и опасения по поводу юрисдикционного арбитража остаются.

Наиболее реалистичная оценка предполагает, что автономный капитал будет развиваться постепенно, а не революционно за одну ночь, с успехами в узких областях (торговля, обслуживание клиентов, аналитика), предшествующими автономии общего назначения, гибридными системами человек-ИИ, превосходящими чистую автоматизацию в обозримом будущем, и регуляторными рамками, которые будут формироваться годами, создавая постоянную неопределенность. Рыночные потрясения и неудачи неизбежны, учитывая спекулятивную динамику, технологические ограничения и уязвимости безопасности, однако основные технологические тенденции — улучшение возможностей ИИ, созревание блокчейна и институциональное внедрение обоих — указывают на продолжение роста и усложнения.

Автономный капитал представляет собой законный технологический сдвиг парадигмы с потенциалом демократизации доступа к сложным финансовым инструментам, повышения эффективности рынка за счет круглосуточной автономной оптимизации, создания новых бизнес-моделей, невозможных в традиционных финансах, и формирования экономик «машина-машина», работающих на сверхчеловеческих скоростях. Однако он также рискует сконцентрировать власть в руках технических элит, контролирующих критическую инфраструктуру, создать системные нестабильности через взаимосвязанные автономные системы, вытеснить человеческих работников быстрее, чем программы переподготовки смогут адаптироваться, и способствовать финансовым преступлениям в машинном масштабе через автоматизированное отмывание денег и мошенничество.

Исход зависит от выбора, сделанного сегодня разработчиками, инвесторами, политиками и пользователями. Пять профилированных лидеров мнений демонстрируют, что продуманные, строгие подходы, приоритезирующие безопасность, прозрачность, человеческий надзор и этическое управление, могут создавать подлинную ценность, управляя рисками. Их работа предоставляет образцы для ответственной разработки: научная строгость Читры через симуляцию, клиентоориентированная инфраструктура Масада, игро-теоретическая оценка рисков Александра, инвестирование Пака, ориентированное на инфраструктуру, и основы совместимости Ву.

Как подчеркнул Жорди Александр: «Суждение — это способность интегрировать сложную информацию и принимать оптимальные решения — именно здесь машины терпят неудачу». Будущее автономного капитала, вероятно, будет определяться не полной автономией ИИ, а сложным сотрудничеством, где ИИ занимается исполнением, обработкой данных и оптимизацией, в то время как люди предоставляют суждение, стратегию, этику и подотчетность. Это партнерство человека и ИИ, обеспеченное бездоверительной инфраструктурой крипто и программируемыми деньгами, представляет собой наиболее перспективный путь вперед — балансируя инновации с ответственностью, эффективность с безопасностью и автономию с согласованием с человеческими ценностями.

Блокчейн Sui: Проектирование будущего ИИ, робототехники и квантовых вычислений

· 24 мин. чтения
Dora Noda
Software Engineer

Блокчейн Sui стал самой технически продвинутой платформой для вычислительных нагрузок следующего поколения, достигая 297 000 транзакций в секунду с финализацией 480 мс, одновременно интегрируя квантово-устойчивую криптографию и специализированную инфраструктуру робототехники. Под руководством главного криптографа Костаса Халкиаса, имеющего более 50 академических публикаций и являющегося пионером криптографических инноваций в проекте Diem от Meta, Sui представляет собой фундаментальное архитектурное отличие от устаревших блокчейнов, разработанное специально для автономных ИИ-агентов, координации нескольких роботов и постквантовой безопасности.

В отличие от конкурентов, адаптирующих блокчейн для передовых вычислений, объектно-ориентированная модель данных Sui, язык программирования Move и протокол консенсуса Mysticeti были разработаны с самого начала для параллельных ИИ-операций, управления робототехникой в реальном времени и криптографической гибкости — возможностей, подтвержденных реальными развертываниями, включая более 50 ИИ-проектов, демонстрации сотрудничества нескольких роботов и первый в мире обратно совместимый путь обновления с квантовой безопасностью для блокчейн-кошельков.

Революционная техническая основа Sui делает невозможное возможным

Архитектура Sui отличается от традиционных аккаунт-ориентированных блокчейн-моделей благодаря трем синергетическим инновациям, которые уникально позиционируют ее для приложений ИИ, робототехники и квантовых вычислений.

Протокол консенсуса Mysticeti достигает беспрецедентной производительности благодаря несертифицированной DAG-архитектуре, сокращая задержку консенсуса до 390-650 мс (на 80% быстрее, чем его предшественник), при этом поддерживая устойчивую пропускную способность более 200 000 TPS. Это представляет собой фундаментальный прорыв: традиционные блокчейны, такие как Ethereum, требуют 12-15 секунд для финализации, в то время как быстрый путь Sui для транзакций с одним владельцем завершается всего за 250 мс. Несколько лидеров протокола за раунд и механизм неявного подтверждения позволяют создавать циклы принятия решений ИИ в реальном времени и системы управления робототехникой, требующие обратной связи менее чем за секунду — приложения, физически невозможные на цепочках последовательного выполнения.

Объектно-ориентированная модель данных рассматривает каждый актив как независимо адресуемый объект с явным владением и версионированием, что позволяет проводить статический анализ зависимостей до выполнения. Этот архитектурный выбор устраняет накладные расходы на ретроактивное обнаружение конфликтов, характерные для моделей оптимистичного выполнения, позволяя тысячам ИИ-агентов совершать транзакции одновременно без конфликтов. Объекты полностью обходят консенсус, когда принадлежат одной стороне, экономя 70% времени обработки для обычных операций. Для робототехники это означает, что отдельные роботы поддерживают принадлежащие объекты для данных датчиков, координируя свои действия через общие объекты только при необходимости — точно отражая архитектуры автономных систем реального мира.

Язык программирования Move обеспечивает ресурсно-ориентированную безопасность, невозможную в аккаунт-ориентированных языках, таких как Solidity. Активы существуют как типы первого класса, которые нельзя скопировать или уничтожить — только переместить между контекстами — предотвращая целые классы уязвимостей, включая атаки повторного входа, двойные траты и несанкционированное манипулирование активами. Линейная система типов Move и поддержка формальной верификации делают его особенно подходящим для ИИ-агентов, автономно управляющих ценными активами. Программируемые блоки транзакций (PTB) атомарно объединяют до 1024 вызовов функций, обеспечивая сложные многошаговые рабочие процессы ИИ с гарантированной согласованностью.

Костас Халкиас разрабатывает квантовую устойчивость как конкурентное преимущество

Костас "Криптос" Халкиас привносит беспрецедентный криптографический опыт в стратегию Sui по квантовым вычислениям, являясь автором алгоритма блокчейн-постквантовой подписи (BPQS), руководителем криптографии для блокчейна Diem от Meta и опубликовав более 50 рецензируемых статей, цитируемых более 1374 раз. Его прорывное исследование в июле 2025 года продемонстрировало первый обратно совместимый путь обновления с квантовой безопасностью для блокчейн-кошельков, применимый к цепочкам на основе EdDSA, включая Sui, Solana, Near и Cosmos.

Видение Халкиаса позиционирует квантовую устойчивость не как отдаленную проблему, а как немедленное конкурентное преимущество. В январе 2025 года он предупредил, что "правительства хорошо осведомлены о рисках, связанных с квантовыми вычислениями. Агентства по всему миру издали мандаты о том, что классические алгоритмы, такие как ECDSA и RSA, должны быть устаревшими к 2030 или 2035 году". Его техническое понимание: даже если пользователи сохранят приватные ключи, они могут быть не в состоянии генерировать постквантовые доказательства владения, не подвергая ключи квантовым атакам. Решение Sui использует STARK-доказательства с нулевым разглашением для подтверждения знания сидов генерации ключей без раскрытия конфиденциальных данных — криптографическая инновация, невозможная на блокчейнах, лишенных встроенной гибкости.

Фреймворк криптографической гибкости представляет собой фирменную философию дизайна Халкиаса. Sui использует 1-байтовые флаги для различения схем подписи (Ed25519, ECDSA Secp256k1/r1, BLS12-381, мультиподпись, zkLogin), обеспечивая поддержку новых алгоритмов на уровне протокола без накладных расходов смарт-контрактов или хардфорков. Эта архитектура позволяет "нажатием кнопки" переходить на стандартизированные NIST постквантовые алгоритмы, включая CRYSTALS-Dilithium (подписи 2420 байт) и FALCON (подписи 666 байт), когда материализуются квантовые угрозы. Халкиас разработал несколько путей миграции: проактивный (новые аккаунты генерируют PQ-ключи при создании), адаптивный (STARK-доказательства позволяют PQ-миграцию из существующих сидов) и гибридный (мультиподпись с ограниченным сроком действия, объединяющая классические и квантово-устойчивые ключи).

Его инновация zkLogin демонстрирует криптографическую креативность, примененную к удобству использования. Система позволяет пользователям аутентифицироваться с помощью учетных данных Google, Facebook или Twitch, используя Groth16 доказательства с нулевым разглашением на кривых BN254, с управляемой пользователем солью, предотвращающей корреляцию идентификаторов Web2-Web3. Адреса zkLogin учитывают квантовые соображения с самого начала — STARK-доказательства знания сида обеспечивают постквантовую безопасность, даже когда базовые JWT-подписи переходят от RSA к альтернативам на основе решеток.

На Sui Basecamp 2025 Халкиас представил нативную проверяемую случайность, zk-туннели для оффчейн-логики, молниеносные транзакции (без газа, без задержки) и капсулы времени для зашифрованного доступа к данным в будущем. Эти функции обеспечивают частные симуляции ИИ-агентов, азартные игры, требующие доверенной случайности, и покерные игры с нулевым разглашением — все это невозможно без криптографических примитивов на уровне протокола. Его видение: "Целью Sui было стать первым блокчейном, который примет постквантовые технологии, тем самым улучшив безопасность и подготовившись к будущим нормативным стандартам".

Инфраструктура ИИ-агентов достигает производственной зрелости на Sui

Sui размещает самую полную в блокчейн-индустрии экосистему ИИ-агентов с более чем 50 проектами, охватывающими инфраструктуру, фреймворки и приложения — все они используют параллельное выполнение Sui и финализацию менее чем за секунду для автономных операций в реальном времени.

Atoma Network была запущена в основной сети Sui в декабре 2024 года как первый полностью децентрализованный уровень вывода ИИ, позиционируя себя как "децентрализованный гиперскейлер для ИИ с открытым исходным кодом". Вся обработка происходит в Доверенных средах выполнения (TEE), обеспечивая полную конфиденциальность и устойчивость к цензуре, сохраняя при этом совместимость API с конечными точками OpenAI. Приложение для чата Utopia демонстрирует готовый к производству ИИ, сохраняющий конфиденциальность, с производительностью, соответствующей ChatGPT, осуществляя платежи и проверку через финализацию Sui менее чем за секунду. Atoma позволяет управлять портфелем DeFi, модерировать контент в социальных сетях и использовать приложения персонального помощника — варианты использования, требующие как интеллекта ИИ, так и расчетов на блокчейне, что невозможно достичь на более медленных цепочках.

OpenGraph Labs совершила технический прорыв, став первой полностью ончейн-системой вывода ИИ, разработанной специально для ИИ-агентов. Их SDK TensorflowSui автоматизирует развертывание моделей машинного обучения Web2 (TensorFlow, PyTorch) на блокчейне Sui, храня данные обучения в децентрализованном хранилище Walrus, а вывод выполняет с использованием Программируемых блоков транзакций. OpenGraph предоставляет три гибких подхода к выводу: вывод PTB для критически важных вычислений, требующих атомарности, разделенные транзакции для оптимизации затрат и гибридные комбинации, настраиваемые для каждого варианта использования. Эта архитектура устраняет риски ИИ "черного ящика" благодаря полностью проверяемым, аудируемым процессам вывода с четко определенным алгоритмическим владением — что критически важно для регулируемых отраслей, требующих объяснимого ИИ.

Talus Network была запущена на Sui в феврале 2025 года с фреймворком Nexus, позволяющим разработчикам создавать компонуемые ИИ-агенты, выполняющие рабочие процессы непосредственно в цепочке. Платформа Idol.fun от Talus демонстрирует потребительские ИИ-агенты как токенизированные сущности, работающие автономно 24/7, принимающие решения в реальном времени, используя наборы данных, хранящиеся в Walrus, для анализа настроений рынка, статистики DeFi и социальных тенденций. Примеры приложений включают динамическое управление профилями NFT, агентов стратегии ликвидности DeFi, загружающих модели в реальном времени, и агентов обнаружения мошенничества, анализирующих исторические шаблоны транзакций из неизменяемых контрольных точек Sui.

Партнерство с Alibaba Cloud, объявленное в августе 2025 года, интегрировало ИИ-помощников по кодированию в платформу разработки ChainIDE с многоязычной поддержкой (английский, китайский, корейский). Функции включают генерацию кода Move из естественного языка, интеллектуальное автозаполнение, обнаружение уязвимостей безопасности в реальном времени и автоматическую генерацию документации — снижая барьеры для 60% целевых разработчиков Sui, не говорящих по-английски. Это партнерство подтверждает позиционирование Sui как платформы для разработки ИИ, а не просто платформы для развертывания ИИ.

Спонсируемые транзакции Sui устраняют трение при оплате газа для ИИ-агентов — разработчики могут покрывать комиссии за транзакции, позволяя агентам работать без хранения токенов SUI. Деноминация MIST (1 SUI = 1 миллиард MIST) позволяет совершать микроплатежи размером в доли цента, что идеально подходит для ИИ-сервисов с оплатой за вывод. При средней стоимости транзакции около 0,0023 доллара США ИИ-агенты могут выполнять тысячи операций ежедневно за копейки, делая экономики автономных агентов экономически жизнеспособными.

Сотрудничество нескольких роботов доказывает преимущество Sui в координации в реальном времени

Sui продемонстрировала первую в блокчейн-индустрии систему сотрудничества нескольких роботов, использующую консенсус Mysticeti, подтвержденную всесторонним анализом Tiger Research 2025 года. Система позволяет роботам обмениваться согласованным состоянием в распределенных средах, сохраняя при этом Византийскую отказоустойчивость — обеспечивая консенсус даже при сбоях роботов или их компрометации противниками.

Техническая архитектура использует объектную модель Sui, где роботы существуют как программируемые объекты с метаданными, владением и возможностями. Задачи назначаются конкретным объектам роботов, а смарт-контракты автоматизируют правила секвенирования и распределения ресурсов. Система поддерживает надежность без центральных серверов, с параллельными предложениями блоков от нескольких валидаторов, предотвращающими единые точки отказа. Завершение транзакций менее чем за секунду позволяет создавать циклы корректировки в реальном времени — роботы получают подтверждения задач и обновления состояния менее чем за 400 мс, что соответствует требованиям систем управления для оперативной автономной работы.

Физические испытания с роботами, похожими на собак, уже продемонстрировали осуществимость, при этом команды из NASA, Meta и Uber разрабатывают робототехнические приложения на базе Sui. Уникальная функция Sui "безинтернетный режим" — работа через радиоволны без стабильного подключения к Интернету — предоставляет революционные преимущества для развертываний в сельских районах Африки, сельской Азии и в чрезвычайных ситуациях. Эта автономная возможность существует исключительно на Sui среди основных блокчейнов, подтвержденная тестированием во время отключений электроэнергии в Испании/Португалии.

Партнерство с 3DOS, объявленное в сентябре 2024 года, подтверждает возможности Sui в производственной робототехнике в масштабе. 3DOS интегрировала более 79 909 3D-принтеров в более чем 120 странах в качестве эксклюзивного блокчейн-партнера Sui, создав сеть "Uber для 3D-печати", обеспечивающую одноранговое производство. Среди известных клиентов — John Deere, Google, MIT, Harvard, Bosch, Британская армия, ВМС США, ВВС США и NASA — что демонстрирует доверие корпоративного уровня к инфраструктуре Sui. Система позволяет роботам автономно заказывать и печатать запасные части с помощью автоматизации смарт-контрактов, облегчая саморемонт роботов с почти нулевым вмешательством человека. Это решает проблему глобального производственного рынка объемом 15,6 триллиона долларов США за счет производства по требованию, устраняющего запасы, отходы и международную доставку.

Византийская отказоустойчивость Sui оказывается критически важной для критически важных для безопасности робототехнических приложений. Механизм консенсуса допускает до f неисправных/вредоносных роботов в системе 3f+1, обеспечивая координацию парков автономных транспортных средств, складских роботов и производственных систем, несмотря на отдельные сбои. Смарт-контракты обеспечивают соблюдение ограничений безопасности и рабочих границ, а неизменяемые аудиторские следы обеспечивают подотчетность за автономные решения — требования, которые невозможно выполнить с помощью централизованных серверов координации, уязвимых для единых точек отказа.

Дорожная карта квантовой устойчивости обеспечивает криптографическое превосходство

Стратегия Sui в области квантовых вычислений представляет собой единственный в блокчейн-индустрии комплексный, проактивный подход, соответствующий мандатам NIST, требующим устаревания классических алгоритмов к 2030 году и полной квантово-устойчивой стандартизации к 2035 году.

Прорывное исследование Халкиаса в июле 2025 года продемонстрировало, что цепочки на основе EdDSA, включая Sui, могут реализовать квантово-безопасные обновления кошельков без хардфорков, изменений адресов или замораживания аккаунтов с помощью доказательств с нулевым разглашением, подтверждающих знание сида. Это позволяет безопасно мигрировать даже неактивным аккаунтам — решая экзистенциальную угрозу, стоящую перед блокчейнами, где миллионы кошельков "могут быть мгновенно опустошены" после появления квантовых компьютеров. Техническая инновация использует STARK-доказательства (квантово-устойчивая безопасность на основе хешей) для подтверждения знания сидов генерации ключей EdDSA без раскрытия конфиденциальных данных, позволяя пользователям устанавливать владение PQ-ключом, привязанным к существующим адресам.

Архитектура криптографической гибкости Sui позволяет использовать несколько стратегий перехода: проактивную (PQ-ключи подписывают публичные ключи PreQ при создании), адаптивную (STARK-доказательства мигрируют существующие адреса) и гибридную (мультиподпись с ограниченным сроком действия с классическими и PQ-ключами). Протокол поддерживает немедленное развертывание стандартизированных NIST алгоритмов, включая CRYSTALS-Dilithium (ML-DSA), FALCON (FN-DSA) и SPHINCS+ (SLH-DSA) для постквантовой безопасности на основе решеток и хешей. BLS-подписи валидаторов переходят на альтернативы на основе решеток, хеш-функции обновляются с 256-битных до 384-битных выходов для квантово-устойчивой устойчивости к коллизиям, а схемы zkLogin мигрируют с Groth16 на STARK-доказательства с нулевым разглашением.

Фреймворк Nautilus, запущенный в июне 2025 года, обеспечивает безопасные оффчейн-вычисления с использованием самоуправляемых TEE (Доверенных сред выполнения), в настоящее время поддерживая AWS Nitro Enclaves с будущей совместимостью с Intel TDX и AMD SEV. Для ИИ-приложений Nautilus обеспечивает частный вывод ИИ с криптографическими аттестациями, верифицированными ончейн, решая противоречие между вычислительной эффективностью и проверяемостью. Партнеры по запуску, включая Bluefin (сопоставление ордеров на основе TEE за менее 1 мс), TensorBlock (инфраструктура ИИ-агентов) и OpenGradient, демонстрируют готовность к производству для квантово-устойчивых вычислений, сохраняющих конфиденциальность.

Сравнительный анализ показывает квантовое преимущество Sui: Ethereum остается на стадии планирования, при этом Виталик Бутерин заявляет, что квантовая устойчивость "как минимум через десятилетие", требуя хардфорков и консенсуса сообщества. Solana запустила Winternitz Vault в январе 2025 года как опциональную функцию подписи на основе хешей, требующую согласия пользователя, а не реализации на уровне протокола. Другие крупные блокчейны (Aptos, Avalanche, Polkadot) остаются на стадии исследования без конкретных сроков реализации. Только Sui разработала криптографическую гибкость как основополагающий принцип, позволяющий быстро переходить на новые алгоритмы без битв за управление или разделения сети.

Синтез технической архитектуры создает новые возможности

Архитектурные компоненты Sui взаимодействуют синергетически, создавая возможности, превосходящие сумму отдельных функций — характеристика, отличающая по-настоящему инновационные платформы от инкрементальных улучшений.

Ресурсная модель языка Move в сочетании с параллельным выполнением объектов обеспечивает беспрецедентную пропускную способность для роев ИИ-агентов. Традиционные блокчейны, использующие аккаунт-ориентированные модели, требуют последовательного выполнения для предотвращения состояний гонки, ограничивая координацию ИИ-агентов однопоточными узкими местами. Явное объявление зависимостей Sui через ссылки на объекты позволяет валидаторам идентифицировать независимые операции до выполнения, планируя тысячи транзакций ИИ-агентов одновременно на ядрах ЦП. Эта параллелизация доступа к состоянию (в отличие от оптимистичного выполнения, требующего обнаружения конфликтов) обеспечивает предсказуемую производительность без ретроактивных сбоев транзакций — что критически важно для ИИ-систем, требующих гарантий надежности.

Программируемые блоки транзакций (PTB) усиливают компонуемость Move, позволяя до 1024 разнородных вызовов функций в атомарных транзакциях. ИИ-агенты могут выполнять сложные рабочие процессы — обменивать токены, обновлять данные оракула, запускать вывод машинного обучения, минтить NFT, отправлять уведомления — все это гарантированно успешно или провально вместе. Эта гетерогенная композиция перемещает логику из смарт-контрактов на уровень транзакций, значительно снижая затраты на газ при одновременном повышении гибкости. Для робототехники PTB позволяют выполнять атомарные многошаговые операции, такие как "проверить инвентарь, заказать детали, авторизовать платеж, обновить статус" с криптографическими гарантиями согласованности.

Быстрый путь обхода консенсуса для объектов с одним владельцем создает двухъярусную модель производительности, идеально соответствующую шаблонам доступа ИИ/робототехники. Отдельные роботы поддерживают частное состояние (показания датчиков, операционные параметры) как принадлежащие объекты, обрабатываемые за 250 мс без консенсуса валидаторов. Точки координации (очереди задач, пулы ресурсов) существуют как общие объекты, требующие 390 мс консенсуса. Эта архитектура отражает реальные автономные системы, где агенты поддерживают локальное состояние, но координируют свои действия через общие ресурсы — объектная модель Sui естественным образом предоставляет блокчейн-нативные примитивы, соответствующие этим шаблонам.

zkLogin решает проблему трения при онбординге, препятствующую массовому внедрению ИИ-агентов. Традиционный блокчейн требует от пользователей управления сид-фразами и приватными ключами — что когнитивно требовательно и подвержено ошибкам. zkLogin позволяет аутентифицироваться с помощью знакомых учетных данных OAuth (Google, Facebook, Twitch) с управляемой пользователем солью, предотвращающей корреляцию идентификаторов Web2-Web3. ИИ-агенты могут работать под аутентификацией Web2, сохраняя при этом безопасность блокчейна, что значительно снижает барьеры для потребительских приложений. Более 10 dApps, уже интегрирующих zkLogin, демонстрируют практическую жизнеспособность для некриптографической аудитории.

Конкурентное позиционирование раскрывает техническое лидерство и рост экосистемы

Сравнительный анализ основных блокчейнов (Solana, Ethereum, Aptos, Avalanche, Polkadot) показывает техническое превосходство Sui для передовых вычислительных нагрузок, сбалансированное со зрелостью экосистемы Ethereum и текущим внедрением DePIN в Solana.

Метрики производительности устанавливают Sui как лидера по пропускной способности с 297 000 TPS, протестированными на 100 валидаторах с финализацией 480 мс, против теоретических 65 000-107 000 TPS Solana (3 000-4 000 устойчивых) и базового уровня Ethereum 15-30 TPS. Aptos достигает теоретических 160 000 TPS с аналогичной архитектурой на основе Move, но с разными моделями выполнения. Для ИИ-нагрузок, требующих решений в реальном времени, финализация Sui в 480 мс позволяет создавать немедленные циклы ответа, невозможные при финализации Ethereum в 12-15 минут или даже при случайных перегрузках сети Solana (75% сбоев транзакций в апреле 2024 года при пиковой нагрузке).

Анализ квантовой устойчивости показывает Sui как единственный блокчейн с квантово-устойчивой криптографией, разработанной в основной архитектуре с самого начала. Ethereum рассматривает квантовую устойчивость на этапе дорожной карты "The Splurge", но Виталик Бутерин оценивает 20% вероятность того, что квантовые компьютеры взломают криптографию к 2030 году, полагаясь на планы экстренного "форка восстановления", которые являются реактивными, а не проактивными. Winternitz Vault Solana обеспечивает опциональную квантовую защиту, требующую согласия пользователя, а не автоматическую безопасность всей сети. Aptos, Avalanche и Polkadot остаются на стадии исследования без конкретных сроков. Криптографическая гибкость Sui с несколькими путями миграции, zkLogin на основе STARK и дорожная карта, соответствующая NIST, позиционирует ее как единственный блокчейн, готовый к обязательным постквантовым переходам 2030/2035 годов.

Экосистемы ИИ-агентов показывают, что Solana в настоящее время лидирует по внедрению благодаря зрелым инструментам (SendAI Agent Kit, ElizaOS) и крупнейшему сообществу разработчиков, но Sui демонстрирует превосходные технические возможности благодаря пропускной способности 300 000 TPS, задержке менее секунды и более 50 проектам, включая производственные платформы (основная сеть Atoma, Talus Nexus, ончейн-вывод OpenGraph). Ethereum фокусируется на институциональных стандартах ИИ (ERC-8004 для идентификации/доверия ИИ), но базовый уровень 15-30 TPS ограничивает приложения ИИ в реальном времени решениями Layer 2. Партнерство с Alibaba Cloud, позиционирующее Sui как платформу для разработки ИИ (а не просто платформу для развертывания), сигнализирует о стратегическом отличии от чисто финансовых блокчейнов.

Возможности робототехники существуют исключительно на Sui среди основных блокчейнов. Ни один конкурент не демонстрирует инфраструктуру для сотрудничества нескольких роботов, Византийскую отказоустойчивую координацию или автономную работу в "безинтернетном режиме". Анализ Tiger Research приходит к выводу, что "блокчейн может быть более подходящей инфраструктурой для роботов, чем для людей", учитывая способность роботов использовать децентрализованную координацию без централизованного доверия. Поскольку Morgan Stanley прогнозирует 1 миллиард человекоподобных роботов к 2050 году, специально созданная инфраструктура робототехники Sui создает преимущество первопроходца в развивающейся экономике роботов, где автономные системы требуют идентификации, платежей, контрактов и координации — примитивов, которые Sui предоставляет нативно.

Преимущества языка программирования Move позиционируют как Sui, так и Aptos выше цепочек на основе Solidity для сложных приложений, требующих безопасности. Ресурсно-ориентированная модель Move предотвращает классы уязвимостей, которые невозможно исправить в Solidity, о чем свидетельствует потеря более 1,1 миллиарда долларов из-за эксплойтов в 2024 году на Ethereum. Поддержка формальной верификации, линейная система типов и абстракции активов первого класса делают Move особенно подходящим для ИИ-агентов, автономно управляющих ценными активами. Объектно-ориентированный вариант Sui Move (по сравнению с аккаунт-ориентированным Diem Move) обеспечивает преимущества параллельного выполнения, недоступные на Aptos, несмотря на общее языковое наследие.

Реальные внедрения подтверждают технические возможности

Производственные развертывания Sui демонстрируют переход платформы от технического потенциала к практической полезности в областях ИИ, робототехники и квантовых вычислений.

Зрелость инфраструктуры ИИ показывает явный прогресс с запуском основной сети Atoma Network в декабре 2024 года, обслуживающей производственный вывод ИИ, развертыванием фреймворка Nexus Talus в феврале 2025 года, обеспечивающего компонуемые рабочие процессы агентов, и раундом финансирования Swarm Network на 13 миллионов долларов, поддержанным Костасом Халкиасом, продавшим более 10 000 лицензий ИИ-агентов на Sui. Партнерство с Alibaba Cloud обеспечивает проверку корпоративного уровня с ИИ-помощниками по кодированию, интегрированными в инструменты разработчика, демонстрируя стратегическую приверженность, выходящую за рамки спекулятивных приложений. OpenGraph Labs, занявшая первое место на хакатоне Sui AI Typhoon с ончейн-выводом ML, сигнализирует о технических инновациях, признанных экспертными судьями.

Производственная робототехника достигла коммерческого масштаба благодаря сети 3DOS из 79 909 принтеров в более чем 120 странах, обслуживающей NASA, ВМС США, ВВС США, John Deere и Google. Это крупнейшая в мире интегрированная с блокчейном производственная сеть, обрабатывающая более 4,2 миллионов деталей с более чем 500 000 пользователей. Одноранговая модель, позволяющая роботам автономно заказывать запасные части, демонстрирует автоматизацию смарт-контрактов, устраняющую накладные расходы на координацию в промышленных масштабах — доказательство концепции, подтвержденное требовательными государственными и аэрокосмическими клиентами, требующими надежности и безопасности.

Финансовые метрики показывают растущее внедрение с TVL в 538 миллионов долларов, 17,6 миллиона ежемесячно активных кошельков (пик в феврале 2025 года) и рыночной капитализацией токена SUI, превышающей 16 миллиардов долларов. Mysten Labs достигла оценки более 3 миллиардов долларов при поддержке a16z, Binance Labs, Coinbase Ventures и Jump Crypto — институциональная проверка технического потенциала. Швейцарские банки (Sygnum, Amina Bank), предлагающие хранение и торговлю Sui, предоставляют традиционные финансовые шлюзы, в то время как институциональные продукты Grayscale, Franklin Templeton и VanEck сигнализируют о массовом признании.

Рост экосистемы разработчиков демонстрирует устойчивость благодаря комплексным инструментам (SDK для TypeScript, Rust, Python, Swift, Dart, Golang), ИИ-помощникам по кодированию в ChainIDE и активным хакатон-программам, где 50% победителей сосредоточились на ИИ-приложениях. 122 активных валидатора в основной сети обеспечивают адекватную децентрализацию при сохранении производительности, балансируя безопасность с пропускной способностью лучше, чем высокоцентрализованные альтернативы.

Стратегическое видение позиционирует Sui для эры конвергенции

Костас Халкиас и руководство Mysten Labs формулируют последовательное долгосрочное видение, отличающее Sui от конкурентов, сосредоточенных на узких вариантах использования или итеративных улучшениях.

Смелое предсказание Халкиаса о том, что "в конечном итоге блокчейн превзойдет даже Visa по скорости транзакций. Это станет нормой. Я не вижу, как мы можем этого избежать", сигнализирует об уверенности в технической траектории, подкрепленной архитектурными решениями, обеспечивающими это будущее. Его заявление о том, что Mysten Labs "может превзойти то, чем является Apple сегодня", отражает амбиции, основанные на создании фундаментальной инфраструктуры для вычислений следующего поколения, а не инкрементальных DeFi-приложений. Решение назвать его сына "Криптос" (греч. "секрет/скрытый") символизирует личную приверженность криптографическим инновациям как цивилизационной инфраструктуре.

Трехстолпная стратегия, интегрирующая ИИ, робототехнику и квантовые вычисления, создает взаимоусиливающие преимущества. Квантово-устойчивая криптография обеспечивает долгосрочную безопасность активов для автономно работающих ИИ-агентов. Завершение транзакций менее чем за секунду поддерживает циклы управления робототехникой в реальном времени. Параллельное выполнение позволяет тысячам ИИ-агентов координировать свои действия одновременно. Объектная модель обеспечивает естественную абстракцию как для состояния ИИ-агента, так и для представления устройства робота. Эта архитектурная согласованность отличает целенаправленный дизайн платформы от прикрученных функций.

Технологические анонсы Sui Basecamp 2025 демонстрируют непрерывные инновации с нативной проверяемой случайностью (устраняет зависимости от оракулов для вывода ИИ), zk-туннелями, позволяющими совершать частные видеозвонки непосредственно на Sui, молниеносными транзакциями для операций без газа в чрезвычайных ситуациях, и капсулами времени для зашифрованного доступа к данным в будущем. Эти функции решают реальные проблемы пользователей (конфиденциальность, надежность, доступность), а не являются академическими упражнениями, с четкими приложениями для ИИ-агентов, требующих доверенной случайности, робототехнических систем, нуждающихся в автономной работе, и квантово-устойчивого шифрования для конфиденциальных данных.

Позиционирование как "уровня координации для широкого спектра приложений" от управления медицинскими данными до владения персональными данными и робототехники отражает амбиции платформы, выходящие за рамки финансовых спекуляций. Идентификация Халкиасом неэффективности медицинских данных как проблемы, требующей общей базы данных, демонстрирует мышление об общественной инфраструктуре, а не о узких нишах блокчечейн-энтузиастов. Это видение привлекает исследовательские лаборатории, аппаратные стартапы и правительства — аудитории, ищущие надежную инфраструктуру для долгосрочных проектов, а не спекулятивное доходное фермерство.

Техническая дорожная карта обеспечивает действенный график выполнения

Дорожная карта развития Sui предоставляет конкретные вехи, демонстрирующие прогресс от видения к реализации во всех трех областях.

График квантовой устойчивости соответствует мандатам NIST: 2025-2027 годы завершают инфраструктуру и тестирование криптографической гибкости, 2028-2030 годы вводят обновления протокола для подписей Dilithium/FALCON с гибридной PreQ-PQ операцией, 2030-2035 годы достигают полного постквантового перехода, отменяющего классические алгоритмы. Несколько путей миграции (проактивный, адаптивный, гибридный) обеспечивают гибкость для различных сегментов пользователей без навязывания единой стратегии внедрения. Обновления хеш-функций до 384-битных выходов и исследования zkLogin PQ-zkSNARK проводятся параллельно, обеспечивая всестороннюю квантовую готовность, а не фрагментарные исправления.

Расширение инфраструктуры ИИ показывает четкие вехи с запуском основной сети Walrus (Q1 2025), обеспечивающей децентрализованное хранилище для моделей ИИ, фреймворком Talus Nexus, обеспечивающим компонуемые рабочие процессы агентов (развертывание в феврале 2025 года), и фреймворком Nautilus TEE, расширяющимся до Intel TDX и AMD SEV помимо текущей поддержки AWS Nitro Enclaves. Дорожная карта партнерства с Alibaba Cloud включает расширенную языковую поддержку, более глубокую интеграцию ChainIDE и демонстрационные дни в Гонконге, Сингапуре и Дубае, ориентированные на сообщества разработчиков. Ончейн-эксплорер вывода OpenGraph и созревание TensorflowSui SDK предоставляют практические инструменты для ИИ-разработчиков, выходящие за рамки теоретических фреймворков.

Развитие возможностей робототехники прогрессирует от демонстраций сотрудничества нескольких роботов до производственных развертываний с расширением сети 3DOS, возможностями транзакций по радиоволнам в "безинтернетном режиме" и zkTunnels, позволяющими выполнять команды роботов без газа. Техническая архитектура, поддерживающая Византийскую отказоустойчивость, циклы координации менее чем за секунду и автономные M2M-платежи, существует сегодня — барьеры для внедрения являются образовательными и экосистемными, а не техническими ограничениями. Участие выпускников NASA, Meta и Uber сигнализирует о серьезном инженерном таланте, решающем реальные проблемы робототехники, а не академические исследовательские проекты.

Улучшения протокола включают усовершенствования консенсуса Mysticeti, сохраняющие преимущество в сокращении задержки на 80%, горизонтальное масштабирование через многомашинное выполнение Pilotfish и оптимизацию хранилища для растущего состояния. Система контрольных точек (каждые ~3 секунды) предоставляет проверяемые снимки для обучающих данных ИИ и аудиторских следов робототехники. Уменьшение размера транзакций до однобайтовых предустановленных форматов снижает требования к пропускной способности для устройств IoT. Расширение спонсируемых транзакций устраняет трение газа для потребительских приложений, требующих бесшовного UX, похожего на Web2.

Техническое превосходство позиционирует Sui для доминирования в передовых вычислениях

Комплексный анализ технической архитектуры, видения руководства, реальных внедрений и конкурентного позиционирования показывает, что Sui является блокчейн-платформой, уникально подготовленной к конвергенции ИИ, робототехники и квантовых вычислений.

Sui достигает технического превосходства благодаря измеренным метрикам производительности: 297 000 TPS с финализацией 480 мс превосходят всех основных конкурентов, обеспечивая координацию ИИ-агентов в реальном времени и управление робототехникой, невозможные на более медленных цепочках. Объектно-ориентированная модель данных в сочетании с безопасностью языка Move обеспечивает преимущества модели программирования, предотвращающие классы уязвимостей, характерные для аккаунт-ориентированных архитектур. Криптографическая гибкость, разработанная с самого начала, а не доработанная, обеспечивает квантово-устойчивые переходы без хардфорков или битв за управление. Эти возможности существуют сегодня в производстве в основной сети со 122 валидаторами, а не как теоретические вайтпейперы или далекие дорожные карты.

Визионерское лидерство благодаря более чем 50 публикациям Костаса Халкиаса, 8 патентам США и криптографическим инновациям (zkLogin, BPQS, Winterfell STARK, HashWires) обеспечивает интеллектуальную основу, отличающую Sui от технически компетентных, но неизобретательных конкурентов. Его прорывные исследования в области квантовых вычислений (июль 2025 г.), поддержка инфраструктуры ИИ (поддержка Swarm Network) и публичные выступления (Token 2049, Korea Blockchain Week, London Real) устанавливают лидерство мнений, привлекающее ведущих разработчиков и институциональных партнеров. Готовность к архитектуре на период 2030+ годов по сравнению с ежеквартальными метриками демонстрирует долгосрочное стратегическое мышление, необходимое для инфраструктуры платформы.

Проверка экосистемы через производственные развертывания (вывод ИИ в основной сети Atoma, сеть 3DOS из 79 909 принтеров, фреймворки агентов Talus) доказывает, что технические возможности преобразуются в реальную полезность. Институциональные партнерства (Alibaba Cloud, хранение в швейцарских банках, продукты Grayscale/Franklin Templeton) сигнализируют о массовом признании за пределами блокчейн-энтузиастов. Метрики роста разработчиков (50% победителей хакатонов в области ИИ, комплексное покрытие SDK, ИИ-помощники по кодированию) демонстрируют устойчивое расширение экосистемы, поддерживающее долгосрочное внедрение.

Стратегическое позиционирование как блокчейн-инфраструктуры для экономики роботов, квантово-устойчивых финансовых систем и координации автономных ИИ-агентов создает дифференцированное ценностное предложение по сравнению с конкурентами, сосредоточенными на инкрементальных улучшениях существующих вариантов использования блокчейна. Поскольку Morgan Stanley прогнозирует 1 миллиард человекоподобных роботов к 2050 году, NIST обязывает использовать квантово-устойчивые алгоритмы к 2030 году, а McKinsey прогнозирует 40% прирост производительности от агентского ИИ — технические возможности Sui точно соответствуют макротехнологическим тенденциям, требующим децентрализованной инфраструктуры.

Для организаций, создающих передовые вычислительные приложения на блокчейне, Sui предлагает непревзойденные технические возможности (297K TPS, 480 мс финализация), перспективную квантово-устойчивую архитектуру (единственный блокчейн, разработанный для квантовых вычислений с самого начала), проверенную инфраструктуру робототехники (единственная продемонстрировавшая сотрудничество нескольких роботов), превосходную модель программирования (безопасность и выразительность языка Move) и производительность в реальном времени, позволяющую создавать приложения ИИ/робототехники, физически невозможные на цепочках последовательного выполнения. Платформа представляет собой не инкрементальное улучшение, а фундаментальное архитектурное переосмысление для следующего десятилетия блокчейна.

Квантово-устойчивая основа Sui для автономного интеллекта

· 25 мин. чтения
Dora Noda
Software Engineer

Блокчейн Sui отличается от конкурентов своей фундаментальной криптографической гибкостью и объектно-ориентированной архитектурой, позиционируя его как единственный крупный блокчейн первого уровня (Layer 1), одновременно продвигающий интеграцию ИИ, координацию робототехники и квантово-устойчивую безопасность. Это не маркетинговое позиционирование, а архитектурная реальность. Соучредитель и главный криптограф Костас «Криптос» Халкиас систематически встраивал эти возможности в базовый дизайн Sui с самого начала, создавая то, что он описывает как инфраструктуру, которая «превзойдет даже Visa по скорости», оставаясь при этом защищенной от квантовых угроз, способных «уничтожить всю современную криптографию» в течение десятилетия.

Техническая основа уже готова к производству: финальность консенсуса в 390 миллисекунд обеспечивает координацию ИИ-агентов в реальном времени, параллельное выполнение обрабатывает 297 000 транзакций в секунду на пике, а схемы подписи EdDSA предоставляют проверенный путь миграции к постквантовой криптографии без необходимости хардфорков. Тем временем Bitcoin и Ethereum сталкиваются с экзистенциальными угрозами со стороны квантовых вычислений без обратно совместимого пути обновления. Видение Халкиаса сосредоточено на трех сходящихся столпах — ИИ как уровне координации, автономных робототехнических системах, требующих финальности менее секунды, и криптографических фреймворках, которые останутся безопасными до 2035 года и далее. Его заявления на конференциях, в исследовательских работах и технических реализациях показывают не спекулятивные обещания, а систематическое выполнение дорожной карты, установленной при основании Mysten Labs в 2022 году.

Это важно не только для блокчейн-трайбализма. К 2030 году мандаты NIST потребуют отказа от текущих стандартов шифрования. Автономные системы, от производственных роботов до ИИ-агентов, будут нуждаться в бездоверительной координации в масштабе. Архитектура Sui одновременно решает обе эти неизбежности, в то время как конкуренты спешат доработать свои решения. Вопрос не в том, сойдутся ли эти технологии, а в том, какие платформы переживут это слияние без потерь.

Криптограф, назвавший сына Криптосом

Костас Халкиас привносит необычайную авторитетность в пересечение блокчейна с новыми технологиями. До соучредительства Mysten Labs он работал ведущим криптографом в проекте Diem и кошельке Novi компании Meta, сотрудничал с Майком Хирном (одним из первых разработчиков Bitcoin, связанным с Сатоши Накамото) в блокчейне Corda от R3 и имеет докторскую степень по криптографии на основе идентификаторов с более чем 50 научными публикациями, 8 патентами США и 1374 академическими цитированиями. Его преданность этой области простирается до того, что он назвал своего сына Криптосом — «Я настолько глубоко погружен в технологии блокчейна и криптографии, что фактически убедил свою жену назвать ребенка Криптосом», — объяснил он в интервью для блога Sui.

Его карьерный путь демонстрирует постоянное внимание к практической криптографии для массового масштаба. В Facebook он создавал инфраструктуру безопасности для WhatsApp и системы аутентификации, обслуживающие миллиарды пользователей. В R3 он был пионером в области доказательств с нулевым разглашением и постквантовых подписей для корпоративного блокчейна. Его ранняя карьера включала основание Betmanager, платформы на базе ИИ, предсказывающей результаты футбольных матчей с использованием методов фондового рынка — этот опыт повлиял на его текущее видение интеграции блокчейна и ИИ. Такое сочетание опыта в ИИ, производственной криптографии и блокчейн-инфраструктуре уникально позиционирует его для создания систем, объединяющих эти области.

Техническая философия Халкиаса подчеркивает «криптографическую гибкость» — встраивание гибкости в базовые протоколы, а не предположение о постоянстве. На конференции Emergence в Праге (декабрь 2024 года) он сформулировал это мировоззрение: «В конечном итоге блокчейн превзойдет даже Visa по скорости транзакций. Это станет нормой. Я не вижу, как мы можем избежать этого». Но одной скорости недостаточно. Его работа постоянно сочетает производительность с перспективной безопасностью, признавая, что квантовые компьютеры представляют угрозы, требующие действий сегодня, а не тогда, когда опасность материализуется. Этот двойной фокус — текущая производительность и будущая устойчивость — определяет архитектурные решения Sui в области ИИ, робототехники и квантовой устойчивости.

Архитектура, созданная для интеллектуальных агентов

Техническая основа Sui фундаментально отличается от блокчейнов, основанных на учетных записях, таких как Ethereum и Solana. Каждая сущность существует как объект с глобально уникальным 32-байтовым идентификатором, номером версии, полем владения и типизированным содержимым. Эта объектно-ориентированная модель является не эстетическим предпочтением, а средством обеспечения параллельного выполнения в масштабе. Когда ИИ-агенты работают как принадлежащие им объекты, они полностью обходят консенсус для операций с одним писателем, достигая финальности ~400 мс. Когда несколько агентов координируются через общие объекты, консенсус Mysticeti от Sui обеспечивает задержку в 390 мс — все еще менее секунды, но через византийское отказоустойчивое соглашение.

Язык программирования Move, изначально разработанный в Meta для Diem и усовершенствованный для Sui, обеспечивает безопасность ресурсов на уровне системы типов. Активы не могут быть случайно скопированы, уничтожены или созданы без разрешения. Для ИИ-приложений, управляющих ценными данными или весами моделей, это предотвращает целые классы уязвимостей, поражающих смарт-контракты Solidity. Халкиас подчеркнул это во время Sui Basecamp 2025 в Дубае: «Мы внедрили доказательства с нулевым разглашением, технологии сохранения конфиденциальности в Sui с первого дня. Так что теперь любой может создать систему KYC с такой степенью конфиденциальности, какую он пожелает».

Параллельное выполнение транзакций достигает теоретических пределов благодаря явному объявлению зависимостей. В отличие от оптимистического выполнения, требующего ретроактивной верификации, планировщик Sui заранее идентифицирует непересекающиеся транзакции с помощью уникальных идентификаторов объектов. Независимые операции выполняются одновременно на ядрах валидаторов без помех. Эта архитектура продемонстрировала пиковую пропускную способность 297 000 TPS в ходе тестирования — это не теоретические максимумы, а измеренная производительность на производственном оборудовании. Для ИИ-приложений это означает, что тысячи запросов на вывод обрабатываются одновременно, несколько автономных агентов координируются без блокировки, а принятие решений в реальном времени происходит со скоростью, воспринимаемой человеком.

Протокол консенсуса Mysticeti, представленный в 2024 году, достигает того, что Халкиас и соавторы математически доказали оптимальным: три раунда сообщений для подтверждения. Устранив явную сертификацию блоков и внедрив несертифицированные структуры DAG, Mysticeti сократил задержку на 80% по сравнению с предыдущим консенсусом Narwhal-Bullshark. Протокол подтверждает блоки каждый раунд, а не каждые два раунда, используя прямые и косвенные правила принятия решений, выведенные из паттернов DAG. Для робототехнических приложений, требующих обратной связи в реальном времени, эта финальность менее секунды становится не подлежащей обсуждению. Во время Korea Blockchain Week 2025 Халкиас позиционировал Sui как «уровень координации для приложений и ИИ», подчеркивая, как партнеры в платежах, играх и ИИ используют эту производительную основу.

Walrus: решение проблемы данных ИИ

Рабочие нагрузки ИИ требуют хранения данных в масштабах, несовместимых с традиционной экономикой блокчейна. Обучающие наборы данных занимают терабайты, веса моделей требуют гигабайтов, а журналы вывода быстро накапливаются. Sui решает эту проблему с помощью Walrus, децентрализованного протокола хранения, использующего кодирование с исправлением ошибок для достижения 4-5-кратной репликации вместо 100-кратной репликации, типичной для внутрицепочечного хранения. Алгоритм «Red Stuff» разбивает данные на фрагменты, распределенные по узлам хранения, оставаясь восстанавливаемым при недоступности 2/3 узлов. Метаданные и доказательства доступности хранятся в блокчейне Sui, в то время как фактические данные находятся в Walrus, создавая криптографически проверяемое хранилище в масштабе эксабайтов.

В течение первого месяца работы тестовой сети Walrus сеть хранила более 4343 ГБ на более чем 25 узлах сообщества, подтверждая жизнеспособность архитектуры. Такие проекты, как TradePort, Tusky и Decrypt Media, интегрировали Walrus для хранения и извлечения медиафайлов. Для ИИ-приложений это позволяет реализовать практические сценарии: обучающие наборы данных токенизируются как программируемые активы с условиями лицензирования, закодированными в смарт-контрактах; веса моделей сохраняются с контролем версий; результаты вывода записываются неизменяемо для аудиторских следов; а контент, сгенерированный ИИ, хранится экономически эффективно. Уровень вывода ИИ Atoma Network, объявленный первым партнером Sui по интеграции блокчейна, использует эту основу хранения для автоматической генерации кода, автоматизации рабочих процессов и анализа рисков DeFi.

Интеграция выходит за рамки хранения данных и распространяется на оркестрацию вычислений. Программируемые блоки транзакций (PTB) Sui объединяют до 1024 разнородных операций атомарно, выполняя их по принципу «все или ничего». Рабочий процесс ИИ может извлекать обучающие данные из Walrus, обновлять веса моделей в смарт-контракте, записывать результаты вывода в блокчейн и распределять вознаграждения среди поставщиков данных — все это в одной атомарной транзакции. Эта компонуемость в сочетании с типовой безопасностью Move создает строительные блоки для сложных ИИ-систем без хрупкости межконтрактных вызовов в других средах.

Халкиас подчеркнул возможности, а не маркетинг, во время подкаста Just The Metrics (июль 2025 года), указав на «неэффективность в управлении медицинскими данными» как на практические области применения. ИИ в здравоохранении требует координации между учреждениями, сохранения конфиденциальности для чувствительных данных и проверяемых вычислений для соблюдения нормативных требований. Архитектура Sui — объединяющая внутрицепочечную координацию, хранилище Walrus и конфиденциальность с нулевым разглашением — решает эти требования технически, а не концептуально. Партнерство с Google Cloud, объявленное в 2024 году, укрепило это направление, интегрировав данные Sui в BigQuery для аналитики и обучив платформу Google Vertex AI на языке Move для разработки с помощью ИИ.

Когда роботам требуется расчет менее чем за секунду

Видение робототехники материализуется более конкретно через технические возможности, чем через объявленные партнерства. Объектная модель Sui представляет роботов, инструменты и задачи как первоклассных внутрицепочечных граждан с детальным контролем доступа. В отличие от систем, основанных на учетных записях, где роботы взаимодействуют через разрешения на уровне учетной записи, объекты Sui позволяют создавать многоуровневые системы разрешений от базовой операции до полного контроля с требованиями мультиподписи. Интеграция PassKeys и FaceID поддерживает сценарии с участием человека, в то время как zkTunnels обеспечивают передачу команд без газа для удаленного управления в реальном времени.

В ходе обсуждений в социальных сетях Халкиас (публикующий под ником «Kostas Kryptos») рассказал, что инженеры Sui из NASA, Meta и Uber тестируют четвероногих роботов, похожих на собак, в сети. Объектно-ориентированная архитектура подходит для координации робототехники: каждый робот владеет объектами, представляющими его состояние и возможности, задачи существуют как передаваемые объекты с параметрами выполнения, а распределение ресурсов происходит через композицию объектов, а не через централизованную координацию. Производственное предприятие могло бы развернуть флоты роботов, где каждая единица автономно принимает задачи, координируется с коллегами через общие объекты, выполняет операции с криптографической верификацией и осуществляет микроплатежи за оказанные услуги — все это без централизованной власти или вмешательства человека.

Режим транзакций «без интернета», обсуждавшийся во время Sui Basecamp 2025 и подкаста London Real (апрель 2025 года), решает реальные ограничения робототехники. Халкиас описал, как система сохраняла функциональность во время отключений электроэнергии в Испании и Португалии, при этом размеры транзакций были оптимизированы до одного байта с использованием предустановленных форматов. Для автономных систем, работающих в зонах бедствий, сельских районах или средах с ненадежным подключением, эта устойчивость становится критически важной. Роботы могут совершать транзакции peer-to-peer для немедленной координации, синхронизируясь с более широкой сетью при восстановлении подключения.

Проект 3DOS на практике демонстрирует это видение: блокчейн-сеть 3D-печати, обеспечивающая производство по требованию, где машины автономно печатают детали. Будущие итерации предусматривают самовосстанавливающихся роботов, которые обнаруживают отказы компонентов, заказывают замены через смарт-контракты, идентифицируют ближайшие 3D-принтеры через внутрицепочечное обнаружение, координируют печать и доставку, а также устанавливают компоненты — все это автономно. Это не научная фантастика, а логическое расширение существующих возможностей: интеграция микроконтроллеров ESP32 и Arduino уже поддерживает базовые IoT-устройства, BugDar обеспечивает аудит безопасности для робототехнических смарт-контрактов, а одобрения с мультиподписью обеспечивают поэтапную автономию с человеческим контролем для критически важных операций.

Квантовые часы тикают

Тон Костаса Халкиаса меняется с философского на срочный, когда он обсуждает квантовые вычисления. В исследовательском отчете от июля 2025 года он прямо предупредил: «Правительства хорошо осведомлены о рисках, связанных с квантовыми вычислениями. Агентства по всему миру издали мандаты, согласно которым классические алгоритмы, такие как ECDSA и RSA, должны быть выведены из эксплуатации к 2030 или 2035 году». Его объявление в Twitter сопровождалось прорывным исследованием Mysten Labs, опубликованным в архиве IACR ePrint, демонстрирующим, как блокчейны на основе EdDSA, такие как Sui, Solana, Near и Cosmos, обладают структурными преимуществами для квантового перехода, недоступными для Bitcoin и Ethereum.

Угроза исходит от квантовых компьютеров, выполняющих алгоритм Шора, который эффективно разлагает большие числа — математическую сложность, лежащую в основе криптографии RSA, ECDSA и BLS. Квантовый процессор Google Willow со 105 кубитами сигнализирует об ускоренном прогрессе в создании машин, способных взламывать классическое шифрование. Атака «сохрани сейчас, расшифруй позже» усугубляет срочность: противники собирают зашифрованные данные сегодня, ожидая, пока квантовые компьютеры расшифруют их ретроактивно. Что касается блокчейн-активов, Халкиас объяснил журналу Decrypt: «Даже если кто-то все еще владеет своим приватным ключом Bitcoin или Ethereum, он может быть не в состоянии сгенерировать постквантовое безопасное доказательство владения, и это зависит от того, как этот ключ был изначально сгенерирован и сколько связанных с ним данных было раскрыто со временем».

Особая уязвимость Bitcoin проистекает из «спящих» кошельков с раскрытыми публичными ключами. Приблизительно 1 миллион BTC Сатоши Накамото находится в ранних адресах, использующих формат pay-to-public-key — публичный ключ виден в сети, а не скрыт за хешированными адресами. Как только квантовые компьютеры достигнут достаточного масштаба, эти кошельки станут мгновенно опустошаемыми. Оценка Халкиаса: «Как только появятся квантовые компьютеры, миллионы кошельков, включая кошелек Сатоши, могут быть мгновенно опустошены. Если ваш публичный ключ виден, он в конечном итоге будет взломан». Ethereum сталкивается с аналогичными проблемами, хотя меньшее количество раскрытых публичных ключей снижает непосредственный риск. Обе цепочки требуют общеобщинных хардфорков с беспрецедентной координацией для миграции — при условии формирования консенсуса вокруг постквантовых алгоритмов.

Основа EdDSA от Sui предоставляет элегантный путь отхода. В отличие от случайных приватных ключей ECDSA, EdDSA детерминированно выводит ключи из сида, используя хеш-функции согласно RFC 8032. Это структурное различие позволяет использовать доказательства с нулевым разглашением через zk-STARK (которые являются постквантово-устойчивыми), доказывая знание базового сида без раскрытия данных эллиптической кривой. Пользователи конструируют постквантовые пары ключей из той же случайности сида, представляют ZK-доказательства, демонстрирующие идентичное владение, и переходят к квантово-безопасным схемам, сохраняя адреса — хардфорк не требуется. Халкиас подробно рассказал об этом во время AMA Sui в июне 2022 года: «Если вы используете детерминированные алгоритмы, такие как EdDSA, существует способ с помощью Stark-доказательств подтвердить знание пирамид вашего приватного ключа при генерации ключа EdDSA, потому что он использует хеш-функцию внутри».

Криптографическая гибкость как стратегический ров

Sui поддерживает несколько схем подписи одновременно через унифицированные псевдонимы типов по всей кодовой базе — EdDSA (Ed25519), ECDSA (для совместимости с Ethereum) и запланированные постквантовые алгоритмы. Халкиас разработал эту «криптографическую гибкость», признавая, что постоянство в криптографии — это фантазия. Архитектура напоминает «смену сердцевины замка», а не перестройку всей системы безопасности. Когда будут развернуты рекомендованные NIST постквантовые алгоритмы — CRYSTALS-Dilithium для подписей, FALCON для компактных альтернатив, SPHINCS+ для схем на основе хешей — Sui интегрирует их посредством простых обновлений, а не фундаментальных переписываний протокола.

Стратегии перехода балансируют между проактивными и адаптивными подходами. Для новых адресов пользователи могут генерировать конфигурации PQ-signs-PreQ, где постквантовые ключи подписывают преквантовые публичные ключи при создании, обеспечивая плавную будущую миграцию. Для существующих адресов метод доказательства zk-STARK сохраняет адреса, доказывая при этом квантово-безопасное владение. Многоуровневая защита приоритизирует ценные данные — приватные ключи кошельков получают немедленную PQ-защиту, в то время как временные данные конфиденциальности следуют по более медленным путям обновления. Выходы хеш-функций расширяются с 256 до 384 бит для устойчивости к коллизиям против алгоритма Гровера, а длины ключей симметричного шифрования удваиваются (AES остается квантово-устойчивым с более крупными ключами).

Системы доказательств с нулевым разглашением требуют тщательного рассмотрения. Линейные PCP, такие как Groth16 (в настоящее время используемые в zkLogin), полагаются на эллиптические кривые, дружественные к спариванию, уязвимые для квантовых атак. Дорожная карта перехода Sui движется к STARK-системам на основе хешей — Winterfell, разработанный Mysten Labs, использует только хеш-функции и остается правдоподобно постквантово-безопасным. Миграция zkLogin сохраняет те же адреса при обновлении внутренних схем, требуя координации с провайдерами OpenID по мере принятия ими токенов PQ-JWT. Маяки случайности и протоколы распределенной генерации ключей переходят от пороговых подписей BLS к альтернативам на основе решеток, таким как схемы HashRand или HERB — внутренние изменения протокола, невидимые для внутрицепочечных API.

Опыт Халкиаса здесь оказывается критически важным. Как автор BPQS (Blockchain Post-Quantum Signature), варианта хеш-схемы XMSS, он привносит опыт реализации, выходящий за рамки теоретических знаний. Его обязательство в июне 2022 года оказалось пророческим: «Мы будем строить нашу цепочку таким образом, чтобы одним нажатием кнопки люди могли фактически перейти на постквантовые ключи». Сроки NIST — 2030 год для прекращения использования классических алгоритмов, 2035 год для полного внедрения PQ — значительно сокращают временные рамки. Ранний старт Sui ставит его в выгодное положение, но Халкиас подчеркивает срочность: «Если ваш блокчейн поддерживает суверенные активы, национальные казначейства в крипто, ETF или CBDC, ему скоро потребуется принять постквантовые криптографические стандарты, если ваше сообщество заботится о долгосрочной надежности и массовом внедрении».

ИИ-агенты уже генерируют ценность в $1,8 миллиарда

Экосистема выходит за рамки инфраструктуры в производственные приложения. Dolphin Agent (DOLA), специализирующийся на отслеживании и аналитике блокчейн-данных, достиг рыночной капитализации более $1,8 миллиарда — это подтверждает спрос на инструменты блокчейна, улучшенные ИИ. SUI Agents предоставляет развертывание ИИ-агентов в один клик с созданием персоны в Twitter, токенизацией и торговлей в децентрализованных экосистемах. Sentient AI привлек $1,5 миллиона для разговорных чат-ботов, использующих безопасность и масштабируемость Sui. DeSci Agents продвигает научные соединения, такие как Эпиталон и Рапамицин, через круглосуточное взаимодействие, управляемое ИИ, связывая исследования и инвестиции через токенизацию.

Интеграция Atoma Network как первого партнера Sui по выводу ИИ в блокчейне обеспечивает возможности, охватывающие автоматическую генерацию и аудит кода, автоматизацию рабочих процессов, анализ рисков DeFi, генерацию игровых активов, классификацию контента в социальных сетях и управление DAO. Выбор партнерства отражал технические требования: Atoma требовалась низкая задержка для интерактивного ИИ, высокая пропускная способность для масштабирования, безопасное владение ИИ-активами, проверяемые вычисления, экономичное хранение и опции сохранения конфиденциальности. Sui предоставил все шесть. Во время Sui Basecamp 2025 Халкиас выделил такие проекты, как Aeon, ИИ-агенты Atoma и работу Nautilus по проверяемым внецепочечным вычислениям, как примеры того, «как Sui может служить основой для следующей волны интеллектуальных, децентрализованных систем».

Партнерство с Google Cloud углубляет интеграцию через доступ BigQuery к данным блокчейна Sui для аналитики, обучение Vertex AI на языке программирования Move для разработки с помощью ИИ, поддержку zkLogin с использованием учетных данных OAuth (Google) для упрощенного доступа и инфраструктуру, поддерживающую производительность и масштабируемость сети. Интеграция ChainIDE от Alibaba Cloud позволяет использовать запросы на естественном языке для генерации кода Move — разработчики пишут «создать контракт стейкинга с 10% APY» на английском, китайском или корейском языке, получая синтаксически корректный, документированный код Move с проверками безопасности. Эта разработка с помощью ИИ демократизирует создание блокчейна, сохраняя при этом гарантии безопасности Move.

Технические преимущества для ИИ-приложений накапливаются. Модели владения объектами подходят для автономных агентов, работающих независимо. Параллельное выполнение позволяет тысячам одновременных операций ИИ без помех. Финальность менее секунды поддерживает интерактивный пользовательский опыт. Хранилище Walrus экономично обрабатывает обучающие наборы данных. Спонсируемые транзакции устраняют газовые трения для пользователей. zkLogin устраняет барьеры сид-фраз. Программируемые блоки транзакций атомарно оркестрируют сложные рабочие процессы. Опции формальной верификации математически доказывают корректность ИИ-агента. Это не разрозненные функции, а интегрированные возможности, формирующие целостную среду разработки.

Сравнение конкурентов

Пиковая пропускная способность Sui в 297 000 TPS и задержка консенсуса в 390 мс превосходят среднюю пропускную способность Ethereum в 11,3 TPS и финальность в 12-13 минут на порядки. По сравнению с Solana — ее ближайшим конкурентом по производительности — Sui достигает в 32 раза более быстрой финальности (0,4 секунды против 12,8 секунды), несмотря на 400-миллисекундные слоты Solana, поскольку Solana требует нескольких подтверждений для экономической финальности. Измерения в реальном мире из отчета Phoenix Group за август 2025 года показали, что Sui обрабатывает 3900 TPS против 92,1 TPS Solana, что отражает операционную, а не теоретическую производительность. Стоимость транзакций остается предсказуемо низкой в Sui (в среднем ~$0,0087, менее одного цента) без исторических проблем с перегрузками и сбоями Solana.

Архитектурные различия объясняют разрывы в производительности. Объектно-ориентированная модель Sui обеспечивает внутреннюю параллелизацию — 300 000 простых переводов в секунду не требуют координации консенсуса. Ethereum и Bitcoin обрабатывают каждую транзакцию последовательно через полный консенсус. Solana параллелизует через Sealevel, но использует оптимистическое выполнение, требующее ретроактивной верификации. Aptos, также использующий язык Move, реализует оптимистическое выполнение Block-STM, а не метод доступа к состоянию Sui. Для ИИ и робототехнических приложений, требующих предсказуемо низкой задержки, явное объявление зависимостей Sui обеспечивает детерминизм, который оптимистические подходы не могут гарантировать.

Квантовое позиционирование расходится еще более резко. Bitcoin и Ethereum используют подписи secp256k1 ECDSA без обратно совместимого пути обновления — квантовый переход требует хардфорков, изменения адресов, миграции активов и управления сообществом, что, вероятно, приведет к разделению цепочек. Solana разделяет преимущество EdDSA Sui, позволяя использовать аналогичные стратегии перехода zk-STARK и вводя одноразовые подписи Winternitz Vault на основе хешей. Near и Cosmos также выигрывают от EdDSA. Aptos использует Ed25519, но имеет менее развитую дорожную карту квантовой готовности. В исследовательской работе Халкиаса от июля 2025 года прямо говорится, что результаты «работают для Sui, Solana, Near, Cosmos и других цепочек на основе EdDSA, но не для Bitcoin и Ethereum».

Зрелость экосистемы временно благоприятствует конкурентам. Solana запустилась в 2020 году с устоявшимися протоколами DeFi, NFT-маркетплейсами и сообществами разработчиков. Запуск Ethereum в 2015 году обеспечил преимущества первого хода в смарт-контрактах, институциональном принятии и сетевых эффектах. Sui запустилась в мае 2023 года — ей едва исполнилось два с половиной года — с TVL более $2 миллиардов и 65,9 тысячами активных адресов, быстро растущих, но значительно ниже 16,1 миллиона у Solana. Техническое превосходство создает возможность: разработчики, строящие на Sui сегодня, позиционируют себя для роста экосистемы, а не присоединяются к зрелым, переполненным платформам. Интервью Халкиаса для London Real отразило эту уверенность: «Честно говоря, я ничуть не удивлюсь, если Mysten Labs и все, к чему она прикоснется, превзойдет то, чем является Apple сегодня».

Синергия между, казалось бы, разрозненными видениями

Нарративы об ИИ, робототехнике и квантовой устойчивости кажутся несвязанными, пока не осознаешь их технические взаимозависимости. ИИ-агентам требуется низкая задержка и высокая пропускная способность — Sui предоставляет и то, и другое. Координация робототехники требует операций в реальном времени без центральной власти — объектная модель Sui и финальность менее секунды обеспечивают это. Постквантовая безопасность нуждается в криптографической гибкости и перспективной архитектуре — Sui построил это с самого начала. Это не отдельные продуктовые линейки, а унифицированные технические требования для технологического ландшафта 2030-2035 годов.

Рассмотрим автономное производство: системы ИИ анализируют прогнозы спроса и доступность материалов, определяя оптимальные графики производства. Роботизированные агенты получают проверенные инструкции через блокчейн-координацию, обеспечивая подлинность без централизованного контроля. Каждый робот работает как принадлежащий ему объект, обрабатывая задачи параллельно, координируясь через общие объекты при необходимости. Микроплатежи мгновенно рассчитываются за оказанные услуги — робот А предоставляет материалы роботу В, робот В обрабатывает компоненты для робота С. Система функционирует без интернета во время сбоев связи, синхронизируясь при восстановлении сетей. И, что критически важно, все коммуникации остаются защищенными от квантовых противников с помощью постквантовых криптографических схем, защищая интеллектуальную собственность и операционные данные от атак «сохрани сейчас, расшифруй позже».

Управление данными в здравоохранении является еще одним примером конвергенции. Модели ИИ обучаются на медицинских наборах данных, хранящихся в Walrus, с криптографическими доказательствами доступности. Доказательства с нулевым разглашением сохраняют конфиденциальность пациентов, одновременно позволяя проводить исследования. Роботизированные хирургические системы координируются через блокчейн для аудиторских следов и документации об ответственности. Постквантовое шифрование защищает конфиденциальные медицинские записи от долгосрочных угроз. Уровень координации (блокчейн Sui) обеспечивает институциональный обмен данными без доверия, вычисления ИИ без ущерба для конфиденциальности и перспективную безопасность без периодической замены инфраструктуры.

Заявление Халкиаса о видении во время Sui Basecamp 2025 отражает этот синтез: позиционирование Sui как «основы для следующей волны интеллектуальных, децентрализованных систем» с «растущей способностью поддерживать ИИ-нативные и ресурсоемкие приложения». Модульная архитектура — Sui для вычислений, Walrus для хранения, Scion для подключения, zkLogin для идентификации — создает то, что члены команды описывают как «операционную систему блокчейна», а не узкий финансовый реестр. Режим без интернета, квантово-безопасная криптография и финальность менее секунды — это не списки функций, а предварительные условия для автономных систем, работающих во враждебных средах с ненадежной инфраструктурой.

Методология инноваций, лежащая в основе технического лидерства

Понимание подхода Mysten Labs объясняет последовательность выполнения. Халкиас сформулировал философию в своем блоге «Build Beyond»: «Mysten Labs очень хорошо находит новые теории в этой области, которые никто никогда не реализовывал, где некоторые предположения могут быть неточными. Но мы сочетаем это с существующими у нас технологиями, и в конечном итоге это ведет нас к созданию нового продукта». Это описывает систематический процесс: выявление академических исследований с практическим потенциалом, оспаривание непроверенных предположений с помощью инженерной строгости, интеграция с производственными системами и валидация через развертывание.

Протокол консенсуса Mysticeti является примером этого. Академические исследования установили три раунда сообщений как теоретический минимум для подтверждения византийского консенсуса. Предыдущие реализации требовали 1,5 раунда обмена сообщениями с кворумными подписями на блок. Mysten Labs разработала несертифицированные структуры DAG, исключающие явную сертификацию, реализовала оптимальные правила подтверждения через паттерны DAG, а не механизмы голосования, и продемонстрировала сокращение задержки на 80% по сравнению с предыдущим консенсусом Narwhal-Bullshark. Результат: рецензируемая статья с формальными доказательствами, сопровождаемая производственным развертыванием, обрабатывающим миллиарды транзакций.

Аналогичная методология применяется к криптографии. BPQS (постквантовая схема подписи блокчейна Халкиаса) адаптирует хеш-подписи XMSS для ограничений блокчейна. Winterfell реализует первый открытый STARK-доказатель, использующий только хеш-функции для постквантовой безопасности. zkLogin объединяет аутентификацию OAuth с доказательствами с нулевым разглашением, устраняя дополнительных доверенных сторон при сохранении конфиденциальности. Каждая инновация решает практический барьер (постквантовая безопасность, доступность ZK-доказательств, трудности с адаптацией пользователей) посредством новой криптографической конструкции, подкрепленной формальным анализом.

Состав команды усиливает эту способность. Инженеры из Meta создавали аутентификацию для миллиардов, из NASA разрабатывали критически важные распределенные системы, из Uber масштабировали координацию в реальном времени по всему миру. Халкиас привносит криптографический опыт из Facebook/Diem, R3/Corda и академических исследований. Это не традиционная стартап-команда, обучающаяся на ходу, а ветераны, реализующие системы, которые они строили раньше, теперь не ограниченные корпоративными приоритетами. Финансирование в размере $336 миллионов от a16z, Coinbase Ventures и Binance Labs отражает уверенность инвесторов в способности к реализации, а не в спекулятивных технологиях.

Вызовы и соображения за пределами хайпа

Техническое превосходство не гарантирует принятия рынком — урок, многократно усвоенный в истории технологий. 65,9 тыс. активных адресов Sui меркнут на фоне 16,1 миллиона у Solana, несмотря на, возможно, лучшую технологию. Сетевые эффекты накапливаются: разработчики строят там, где собираются пользователи, пользователи приходят туда, где существуют приложения, создавая преимущества блокировки для устоявшихся платформ. «Медленный и дорогой» блокчейн Ethereum привлекает на порядки больше внимания разработчиков, чем технически превосходящие альтернативы, благодаря своей чистой инерции.

Позиционирование как «операционной системы блокчейна» рискует размыванием — попытка преуспеть одновременно в финансах, социальных приложениях, играх, ИИ, робототехнике, IoT и децентрализованном хранении может привести к посредственности во всех областях, а не к превосходству в одной. Критики, отмечающие эту озабоченность, указывают на ограниченное развертывание робототехники за пределами доказательств концепции, проекты ИИ в основном на стадии спекуляций, а не производственной полезности, и подготовку квантовой безопасности к угрозам, отдаленным на пять-десять лет. Контраргумент состоит в том, что модульные компоненты позволяют сосредоточенно развиваться — команды, создающие ИИ-приложения, используют вывод Atoma и хранилище Walrus, не беспокоясь об интеграции робототехники.

Постквантовая криптография вводит нетривиальные накладные расходы. Подписи CRYSTALS-Dilithium составляют 3293 байта на уровне безопасности 2 против 64 байт Ed25519 — более чем в 50 раз больше. Пропускная способность сети, затраты на хранение и время обработки увеличиваются пропорционально. Улучшения пакетной верификации остаются ограниченными (ускорение на 20-50% по сравнению с независимой верификацией) по сравнению с эффективной пакетной обработкой классических схем. Риски миграции включают ошибки пользователей во время перехода, координацию между участниками экосистемы (кошельки, dApps, биржи), требования обратной совместимости и трудности тестирования в масштабе без реальных квантовых компьютеров. Неопределенность сроков усугубляет проблемы планирования — прогресс квантовых вычислений остается непредсказуемым, стандарты NIST продолжают развиваться, и могут появиться новые криптоаналитические атаки против PQ-схем.

Рыночное время, возможно, представляет наибольший риск. Преимущества Sui наиболее ярко проявляются в период 2030-2035 годов: когда квантовые компьютеры угрожают классической криптографии, когда автономные системы распространяются, требуя бездоверительной координации, когда ИИ-агенты управляют значительной экономической ценностью, требующей безопасной инфраструктуры. Если принятие блокчейна застопорится до этой конвергенции, техническое лидерство станет неактуальным. И наоборот, если принятие ускорится раньше, новой экосистеме Sui может не хватать приложений и ликвидности для привлечения пользователей, несмотря на превосходную производительность. Инвестиционный тезис требует веры не только в технологию Sui, но и в совпадение сроков между созреванием блокчейна и принятием новых технологий.

Десятилетняя ставка на первые принципы

Называние Костасом Халкиасом своего сына Криптосом — это не просто милая история, а сигнал о глубине его приверженности. Его карьерный путь — от исследований в области ИИ до криптографии, от академических публикаций до производственных систем в Meta, от корпоративного блокчейна в R3 до архитектуры Layer 1 в Mysten Labs — демонстрирует постоянное внимание к фундаментальным технологиям в масштабе. Работа по квантовой устойчивости началась до объявления Google о Willow, когда постквантовая криптография казалась теоретической проблемой. Интеграция робототехники началась до того, как ИИ-агенты получили миллиардные оценки. Архитектурные решения, обеспечивающие эти возможности, предшествовали признанию рынком их важности.

Эта дальновидная ориентация контрастирует с реактивной разработкой, распространенной в криптоиндустрии. Ethereum внедряет Layer 2 роллапы для решения проблем масштабирования, возникающих после развертывания. Solana реализует связь QUIC и QoS, взвешенную по стейку, в ответ на сбои и перегрузки сети. Bitcoin обсуждает увеличение размера блока и внедрение Lightning Network по мере роста комиссий за транзакции. Sui разработал параллельное выполнение, объектно-ориентированные модели данных и криптографическую гибкость до запуска основной сети — решая ожидаемые требования, а не обнаруженные проблемы.

Культура исследований подкрепляет этот подход. Mysten Labs публикует академические статьи с формальными доказательствами, прежде чем заявлять о возможностях. Статья о консенсусе Mysticeti появилась в рецензируемых изданиях с доказательствами корректности и эталонными показателями производительности. Исследование квантового перехода, представленное в архив IACR ePrint, демонстрирует преимущества EdDSA посредством математического построения, а не маркетинговых заявлений. Статья о zkLogin (arXiv 2401.11735) подробно описывает аутентификацию с нулевым разглашением до развертывания. Халкиас активно участвует в GitHub (kchalkias), публикует технические обзоры в LinkedIn и Twitter, выступает на семинарах PQCSA по квантовым угрозам и предметно взаимодействует с криптографическим сообществом, а не исключительно продвигает Sui.

Окончательное подтверждение придет через 5-10 лет, когда квантовые компьютеры созреют, автономные системы распространятся, а ИИ-агенты будут управлять экономиками на триллионы долларов. Если Sui последовательно выполнит свою дорожную карту — развернет постквантовые подписи до крайнего срока NIST 2030 года, продемонстрирует координацию робототехники в масштабе и поддержит уровни вывода ИИ, обрабатывающие миллионы запросов — он станет инфраструктурным уровнем для технологий, преобразующих цивилизацию. Если квантовые компьютеры появятся позже, чем предсказывалось, автономное внедрение застопорится, или конкуренты успешно доработают решения, ранние инвестиции Sui могут оказаться преждевременными. Ставка сосредоточена не на технологических возможностях — Sui явно обеспечивает обещанную производительность — а на рыночном времени и срочности проблемы.

Перспектива Халкиаса, высказанная на конференции Emergence, кратко формулирует это: «В конечном итоге блокчейн превзойдет даже Visa по скорости транзакций. Это станет нормой. Я не вижу, как мы можем избежать этого». Заявление о неизбежности предполагает правильное техническое направление, достаточное качество исполнения и согласованность по времени. Sui позиционирует себя так, чтобы извлечь выгоду, если эти предположения подтвердятся. Объектно-ориентированная архитектура, криптографическая гибкость, финальность менее секунды и систематическая методология исследований — это не доработки, а фундаментальные решения, разработанные для технологического ландшафта, формирующегося в течение следующего десятилетия. Независимо от того, захватит ли Sui лидерство на рынке или эти возможности станут базовыми для всех блокчейнов, Костас Халкиас и Mysten Labs создают инфраструктуру для автономного интеллекта квантовой эры — по одному криптографическому примитиву, по одной миллисекунде сокращения задержки, по одному демонстрационному роботу за раз.

Децентрализованные рынки ИИ-выводов: Bittensor, Gensyn и Cuckoo AI

· 60 мин. чтения
Dora Noda
Software Engineer

Введение

Децентрализованные рынки ИИ-выводов/обучения призваны использовать глобальные вычислительные ресурсы и общедоступные модели без необходимости доверия. Такие проекты, как Bittensor, Gensyn и Cuckoo Network (Cuckoo AI), демонстрируют, как блокчейн-технологии могут обеспечивать работу открытых ИИ-маркетплейсов. Каждая платформа токенизирует ключевые ИИ-активы — вычислительную мощность, модели машинного обучения, а иногда и данные — в ончейн-экономические единицы. Далее мы углубимся в технические архитектуры, лежащие в основе этих сетей, способы токенизации ресурсов, их структуры управления и стимулирования, методы отслеживания владения моделями, механизмы распределения доходов и возникающие поверхности атаки (например, атаки Сивиллы, сговор, фрирайдерство, отравление данных). Сравнительная таблица в конце подытоживает все ключевые аспекты Bittensor, Gensyn и Cuckoo AI.

Технические архитектуры

Bittensor: Децентрализованный «Нейронный Интернет» на подсетях

Bittensor построен на основе кастомного блокчейна уровня 1 (цепочка Subtensor, основанная на Substrate), который координирует сеть узлов ИИ-моделей в многочисленных специализированных подсетях. Каждая подсеть представляет собой независимую мини-сеть, ориентированную на конкретную ИИ-задачу (например, подсеть для генерации языка, другая — для генерации изображений и т. д.). Участники Bittensor выполняют различные роли:

  • Майнеры — они запускают модели машинного обучения на своем оборудовании и предоставляют ответы на запросы (или даже выполняют обучение) для задачи подсети. По сути, майнер — это узел, размещающий ИИ-модель, которая будет отвечать на запросы.
  • Валидаторы — они запрашивают модели майнеров с помощью промптов и оценивают качество ответов, формируя мнение о том, какие майнеры вносят ценные результаты. Валидаторы эффективно оценивают производительность майнеров.
  • Владельцы подсетей — они создают и определяют подсети, устанавливая правила для выполнения задач и проведения валидации в этой подсети. Владелец подсети может, например, указать, что подсеть предназначена для определенного набора данных или модальности, и определить процедуру валидации.
  • Делегаторы — держатели токенов, которые не запускают узлы, могут делегировать (стейкать) свои токены Bittensor (TAO) майнерам или валидаторам, чтобы поддержать лучших исполнителей и получить долю вознаграждения (аналогично стейкингу в сетях Proof-of-Stake).

Механизм консенсуса Bittensor является новаторским: вместо традиционной валидации блоков Bittensor использует консенсус Yuma, который является формой «доказательства интеллекта». В консенсусе Yuma оценки валидаторов майнеров агрегируются в ончейне для определения распределения вознаграждений. Каждые 12 секунд сеть выпускает новые токены TAO и распределяет их в соответствии с консенсусом валидаторов относительно того, какие майнеры выполнили полезную работу. Оценки валидаторов объединяются по схеме медианы, взвешенной по стейку: выбросы мнений отсекаются, и преобладает честное большинство. Это означает, что если большинство валидаторов согласны с тем, что майнер был высококачественным, этот майнер получит значительное вознаграждение; если валидатор сильно отклоняется от других (возможно, из-за сговора или ошибки), этот валидатор наказывается меньшим заработком. Таким образом, блокчейн Bittensor координирует петлю обратной связи между майнером и валидатором: майнеры соревнуются за создание лучших ИИ-выводов, а валидаторы курируют и ранжируют эти выводы, при этом обе стороны зарабатывают токены пропорционально ценности, которую они добавляют. Эта архитектура часто описывается как «децентрализованная нейронная сеть» или «глобальный мозг», где модели учатся на сигналах друг друга и коллективно развиваются. Примечательно, что Bittensor недавно обновил свою цепь для поддержки совместимости с EVM (для смарт-контрактов) и представил dTAO, систему токенов и стейкинга для конкретных подсетей (объясняется позже) для дальнейшей децентрализации контроля над распределением ресурсов.

Gensyn: Протокол доверенных распределенных вычислений

Gensyn подходит к децентрализованному ИИ с точки зрения протокола распределенных вычислений для машинного обучения. Его архитектура соединяет разработчиков (отправителей), у которых есть ИИ-задачи (например, обучение модели или выполнение задачи вывода), с поставщиками вычислений (решателями) по всему миру, у которых есть свободные ресурсы GPU/TPU. Первоначально Gensyn планировал цепь Substrate L1, но затем перешел на создание на Ethereum в качестве роллапа для повышения безопасности и ликвидности. Таким образом, сеть Gensyn является уровнем 2 Ethereum (роллап Ethereum), который координирует размещение заданий и платежи, в то время как вычисления происходят вне цепи на оборудовании поставщиков.

Ключевым нововведением в дизайне Gensyn является его система верификации для офчейн-работы. Gensyn использует комбинацию оптимистической верификации (доказательства мошенничества) и криптографических методов для обеспечения того, что когда решатель заявляет о выполнении задачи обучения/вывода, результат является правильным. На практике протокол включает несколько ролей участников:

  • Отправитель — сторона, запрашивающая задание (например, тот, кому нужно обучить модель). Они оплачивают комиссию сети и предоставляют модель/данные или спецификацию задачи.
  • Решатель — узел, который делает ставки на выполнение ML-задачи на своем оборудовании и выполняет ее. Он будет обучать модель или выполнять вывод по запросу, а затем представит результаты и доказательство вычислений.
  • Верификатор/Челленджер — узлы, которые могут проверять или выборочно проверять работу решателя. Gensyn реализует схему в стиле Truebit, где по умолчанию результат решателя принимается, но верификатор может оспорить его в течение определенного окна, если подозревает неправильное вычисление. В случае оспаривания используется интерактивный «бинарный поиск» по шагам вычисления (протокол доказательства мошенничества) для выявления любых расхождений. Это позволяет цепи разрешать споры, выполняя только минимальную критическую часть вычисления в ончейне, а не повторяя всю дорогостоящую задачу.

Важно отметить, что Gensyn разработан для избежания массовой избыточности наивных подходов. Вместо того чтобы множество узлов повторяли одну и ту же ML-задачу (что уничтожило бы экономию средств), подход Gensyn «доказательство обучения» использует метаданные обучения для проверки того, что был достигнут прогресс в обучении. Например, решатель может предоставить криптографические хеши или контрольные точки промежуточных весов модели и краткое доказательство того, что они прогрессировали в соответствии с обновлениями обучения. Это вероятностное доказательство обучения может быть проверено гораздо дешевле, чем повторный запуск всего обучения, что позволяет осуществлять доверенную верификацию без полного дублирования. Только если верификатор обнаружит аномалию, в крайнем случае будет запущено более тяжелое ончейн-вычисление. Этот подход значительно снижает накладные расходы по сравнению с проверкой методом грубой силы, делая децентрализованное ML-обучение более осуществимым. Таким образом, архитектура Gensyn сильно акцентирует внимание на криптоэкономическом игровом дизайне: решатели вносят стейк или залог, и если они обманывают (представляют неверные результаты), они теряют этот стейк в пользу честных верификаторов, которые их поймают. Объединяя координацию блокчейна (для платежей и разрешения споров) с офчейн-вычислениями и умной верификацией, Gensyn создает маркетплейс для ML-вычислений, который может использовать простаивающие GPU в любой точке мира, сохраняя при этом отсутствие доверия. Результатом является гипермасштабируемый «протокол вычислений», где любой разработчик может получить доступ к доступной, глобально распределенной вычислительной мощности по требованию.

Cuckoo AI: Полнофункциональная децентрализованная платформа ИИ-сервисов

Cuckoo Network (или Cuckoo AI) использует более вертикально интегрированный подход, стремясь предоставлять сквозные децентрализованные ИИ-сервисы, а не просто сырые вычисления. Cuckoo построил свой собственный блокчейн (первоначально уровень 1 под названием Cuckoo Chain на Arbitrum Orbit, фреймворке роллапов, совместимом с Ethereum) для оркестрации всего: он не только сопоставляет задания с GPU, но также размещает ИИ-приложения и обрабатывает платежи в одной системе. Дизайн является полнофункциональным: он сочетает блокчейн для транзакций и управления, децентрализованный уровень ресурсов GPU/CPU и пользовательские ИИ-приложения и API сверху. Другими словами, Cuckoo интегрирует все три уровня — блокчейн, вычисления и ИИ-приложения — в рамках единой платформы.

Участники Cuckoo делятся на четыре группы:

  • Разработчики ИИ-приложений (Координаторы) — это разработчики, которые развертывают ИИ-модели или сервисы на Cuckoo. Например, разработчик может разместить генератор изображений Stable Diffusion или чат-бота LLM в качестве сервиса. Они запускают Узлы-координаторы, которые отвечают за управление своим сервисом: прием пользовательских запросов, разделение их на задачи и назначение этих задач майнерам. Координаторы стейкают нативный токен ($CAI), чтобы присоединиться к сети и получить право использовать майнеров. По сути, они действуют как оркестраторы уровня 2, которые взаимодействуют между пользователями и поставщиками GPU.
  • Майнеры GPU/CPU (Узлы задач) — это поставщики ресурсов. Майнеры запускают клиент Cuckoo для задач и предоставляют свое оборудование для выполнения задач вывода для ИИ-приложений. Например, майнеру может быть назначен запрос на генерацию изображения (с заданной моделью и промптом) координатором, и он использует свой GPU для вычисления результата. Майнеры также должны стейкать $CAI для обеспечения обязательств и хорошего поведения. Они зарабатывают токен-вознаграждения за каждую правильно выполненную задачу.
  • Конечные пользователи — потребители ИИ-приложений. Они взаимодействуют через веб-портал Cuckoo или API (например, генерируют искусство через CooVerse или общаются с ИИ-персонажами). Пользователи могут либо платить криптовалютой за каждое использование, либо, возможно, предоставлять свои собственные вычисления (или стейк) для компенсации затрат на использование. Важным аспектом является устойчивость к цензуре: если один координатор (поставщик услуг) заблокирован или выходит из строя, пользователи могут переключиться на другого, обслуживающего то же приложение, поскольку несколько координаторов могут размещать аналогичные модели в децентрализованной сети.
  • Стейкеры (Делегаторы) — члены сообщества, которые не запускают ИИ-сервисы или майнинговое оборудование, все еще могут участвовать, стейкая $CAI на тех, кто это делает. Голосуя своим стейком за доверенных координаторов или майнеров, они помогают сигнализировать о репутации и взамен получают долю сетевых вознаграждений. Этот дизайн создает уровень репутации Web3: хорошие акторы привлекают больше стейка (и, следовательно, доверия и вознаграждений), в то время как плохие акторы теряют стейк и репутацию. Даже конечные пользователи могут стейкать в некоторых случаях, что соответствует их интересам в успехе сети.

Цепочка Cuckoo (сейчас находится в процессе перехода от автономной цепи к роллапу с общей безопасностью) отслеживает все эти взаимодействия. Когда пользователь вызывает ИИ-сервис, узел-координатор создает ончейн-назначения задач для майнеров. Майнеры выполняют задачи офчейн и возвращают результаты координатору, который их проверяет (например, проверяет, что выходное изображение или текст не является бессмыслицей) и доставляет окончательный результат пользователю. Блокчейн обрабатывает расчеты по платежам: за каждую задачу смарт-контракт координатора платит майнеру в $CAI (часто агрегируя микроплатежи в ежедневные выплаты). Cuckoo подчеркивает отсутствие доверия и прозрачность — все участники стейкают токены, и все назначения и выполнения задач записываются, поэтому мошенничество пресекается угрозой потери стейка и публичной видимостью производительности. Модульный дизайн сети означает, что новые ИИ-модели или варианты использования могут быть легко добавлены: хотя она начиналась с генерации текста в изображение в качестве доказательства концепции, ее архитектура достаточно универсальна для поддержки других ИИ-нагрузок (например, вывод языковых моделей, транскрипция аудио и т. д.).

Примечательным аспектом архитектуры Cuckoo является то, что она изначально запустила свой собственный блокчейн уровня 1 для максимизации пропускной способности для ИИ-транзакций (достигая 300 тыс. ежедневных транзакций во время тестирования). Это позволило выполнить пользовательские оптимизации для планирования ИИ-задач. Однако команда обнаружила, что поддержание автономного L1 является дорогостоящим и сложным, и по состоянию на середину 2025 года они решили прекратить поддержку собственной цепи и перейти на модель роллапа/AVS (Active Validated Service) на Ethereum. Это означает, что Cuckoo будет наследовать безопасность от Ethereum или L2, такого как Arbitrum, вместо того чтобы запускать свой собственный консенсус, но продолжит управлять своим децентрализованным ИИ-маркетплейсом на этом уровне общей безопасности. Изменение призвано улучшить экономическую безопасность (используя надежность Ethereum) и позволить команде Cuckoo сосредоточиться на продукте, а не на низкоуровневом обслуживании цепи. В итоге, архитектура Cuckoo создает децентрализованную платформу для обслуживания ИИ, где любой может подключить оборудование или развернуть сервис ИИ-модели, а пользователи по всему миру могут получить доступ к ИИ-приложениям с меньшими затратами и меньшей зависимостью от инфраструктуры Big Tech.

Механизмы токенизации активов

Общей темой этих сетей является преобразование вычислений, моделей и данных в ончейн-активы или экономические единицы, которые можно торговать или монетизировать. Однако каждый проект фокусируется на токенизации этих ресурсов по-разному:

  • Вычислительная мощность: Все три платформы превращают вычислительную работу в токены вознаграждения. В Bittensor полезные вычисления (вывод или обучение, выполненные майнером) количественно оцениваются с помощью оценок валидаторов и вознаграждаются токенами TAO за каждый блок. По сути, Bittensor «измеряет» внесенный интеллект и выпускает TAO как товар, представляющий этот вклад. Gensyn явно рассматривает вычисления как товар — его протокол создает маркетплейс, где время GPU является продуктом, а цена устанавливается спросом и предложением в токенах. Разработчики покупают вычисления, используя токен, а поставщики зарабатывают токены, продавая свои аппаратные циклы. Команда Gensyn отмечает, что любой цифровой ресурс (вычисления, данные, алгоритмы) может быть представлен и продан на аналогичном доверенном рынке. Cuckoo токенизирует вычисления с помощью токена ERC-20 $CAI, выпускаемого в качестве оплаты за выполненные задачи. Поставщики GPU, по сути, «майнят» CAI, выполняя работу по ИИ-выводу. Система Cuckoo создает ончейн-записи задач, поэтому можно рассматривать каждую выполненную задачу GPU как атомарную единицу работы, оплачиваемую токенами. Предпосылка для всех трех заключается в том, что иначе простаивающая или недоступная вычислительная мощность становится токенизированным, ликвидным активом — либо через эмиссию токенов на уровне протокола (как в Bittensor и раннем Cuckoo), либо через открытый рынок ордеров на покупку/продажу вычислительных заданий (как в Gensyn).

  • ИИ-модели: Представление ИИ-моделей в виде ончейн-активов (например, NFT или токенов) все еще находится на ранней стадии. Bittensor не токенизирует сами модели — модели остаются офчейн во владении майнеров. Вместо этого Bittensor косвенно оценивает модели, вознаграждая те, которые хорошо работают. По сути, «интеллект» модели превращается в заработок TAO, но нет NFT, который бы представлял веса модели или позволял другим использовать модель. Gensyn фокусируется на вычислительных транзакциях, а не на явном создании токенов для моделей. Модель в Gensyn обычно предоставляется разработчиком офчейн (возможно, с открытым исходным кодом или проприетарная), обучается решателями и возвращается — нет встроенного механизма для создания токена, который владеет моделью или ее ИС. (Тем не менее, маркетплейс Gensyn потенциально может облегчить торговлю артефактами или контрольными точками моделей, если стороны выберут это, но сам протокол рассматривает модели как содержимое вычислений, а не как токенизированный актив.) Cuckoo находится где-то посередине: он говорит об «ИИ-агентах» и моделях, интегрированных в сеть, но в настоящее время нет невзаимозаменяемого токена, представляющего каждую модель. Вместо этого модель развертывается разработчиком приложения, а затем обслуживается через сеть. Права на использование этой модели неявно токенизируются тем, что модель может зарабатывать $CAI при использовании (через координатора, который ее развертывает). Все три платформы признают концепцию токенизации моделей — например, предоставление сообществам владения моделями через токены — но практические реализации ограничены. В отрасли токенизация ИИ-моделей (например, в виде NFT с правами собственности и долей прибыли) все еще исследуется. Подход Bittensor, при котором модели обмениваются ценностью друг с другом, является формой «маркетплейса моделей» без явного токена для каждой модели. Команда Cuckoo отмечает, что децентрализованное владение моделями обещает снизить барьеры по сравнению с централизованным ИИ, но требует эффективных методов проверки выходов и использования моделей в ончейне. В итоге, вычислительная мощность немедленно токенизируется (легко платить токенами за выполненную работу), тогда как модели токенизируются косвенно или в перспективе (вознаграждаются за свои выходы, возможно, представлены стейком или репутацией, но пока не рассматриваются как передаваемые NFT на этих платформах).

  • Данные: Токенизация данных остается самой сложной. Ни Bittensor, ни Gensyn, ни Cuckoo не имеют полностью обобщенных ончейн-маркетплейсов данных (где наборы данных торгуются с принудительными правами использования). Узлы Bittensor могут обучаться на различных наборах данных, но эти наборы данных не являются частью ончейн-системы. Gensyn может позволить разработчику предоставить набор данных для обучения, но протокол не токенизирует эти данные — они просто предоставляются офчейн для использования решателем. Cuckoo аналогично не токенизирует пользовательские данные; он в основном обрабатывает данные (например, пользовательские промпты или выходы) временным образом для задач вывода. В блоге Cuckoo прямо говорится, что «децентрализованные данные остаются сложными для токенизации», несмотря на то, что это критически важный ресурс. Данные чувствительны (проблемы конфиденциальности и владения) и трудно обрабатываются с помощью текущих блокчейн-технологий. Таким образом, хотя вычисления становятся товаром, а модели начинают им быть, данные в основном остаются офчейн, за исключением особых случаев (некоторые проекты за пределами этих трех экспериментируют с объединениями данных и токен-вознаграждениями за вклад данных, но это выходит за рамки нашей текущей области). В итоге, вычислительная мощность теперь является ончейн-товаром в этих сетях, модели оцениваются через токены, но еще не токенизированы индивидуально как активы, а токенизация данных все еще остается открытой проблемой (помимо признания ее важности).

Управление и стимулы

Надежный дизайн управления и стимулирования имеет решающее значение для автономного и справедливого функционирования этих децентрализованных ИИ-сетей. Здесь мы рассмотрим, как каждая платформа управляется (кто принимает решения, как происходят обновления или изменения параметров) и как они согласовывают стимулы участников посредством токеномики.

  • Управление Bittensor: На ранних этапах разработка Bittensor и параметры подсетей в значительной степени контролировались основной командой и набором из 64 «корневых» валидаторов в основной подсети. Это было точкой централизации — несколько влиятельных валидаторов имели чрезмерное влияние на распределение вознаграждений, что привело к тому, что некоторые называли «олигархической системой голосования». Для решения этой проблемы Bittensor в 2025 году ввел управление dTAO (децентрализованный TAO). Система dTAO перевела распределение ресурсов на рыночное и контролируемое сообществом. Конкретно, держатели TAO могут стейкать свои токены в пулы ликвидности для конкретных подсетей (по сути, они «голосуют» за то, какие подсети должны получать больше эмиссии сети) и получать альфа-токены, которые представляют собой право собственности в этих пулах подсетей. Подсети, которые привлекают больше стейка, будут иметь более высокую цену альфа-токена и получать большую долю ежедневной эмиссии TAO, тогда как непопулярные или плохо работающие подсети будут терять капитал (и, следовательно, эмиссию). Это создает петлю обратной связи: если подсеть производит ценные ИИ-сервисы, больше людей стейкают в нее TAO (в поисках вознаграждений), что дает этой подсети больше TAO для вознаграждения своих участников, способствуя росту. Если подсеть стагнирует, стейкеры выводят средства в более прибыльные подсети. По сути, держатели TAO коллективно управляют фокусом сети, финансово сигнализируя, какие ИИ-области заслуживают больше ресурсов. Это форма ончейн-управления по весу токенов, согласованная с экономическими результатами. Помимо распределения ресурсов, основные обновления протокола или изменения параметров, вероятно, по-прежнему проходят через предложения по управлению, за которые голосуют держатели TAO (Bittensor имеет механизм для ончейн-предложений и референдумов, управляемых Фондом Bittensor и избранным советом, аналогично управлению Polkadot). Со временем можно ожидать, что управление Bittensor будет становиться все более децентрализованным, при этом фонд будет отходить на второй план, поскольку сообщество (через стейк TAO) будет управлять такими вещами, как уровень инфляции, утверждение новых подсетей и т. д. Переход на dTAO является большим шагом в этом направлении, заменяя централизованных лиц, принимающих решения, рынком заинтересованных сторон токенов, согласованным по стимулам.

  • Стимулы Bittensor: Структура стимулов Bittensor тесно вплетена в его консенсус. Каждый блок (12 секунд) ровно 1 TAO выпускается и делится между участниками каждой подсети на основе производительности. Разделение вознаграждения за блок по умолчанию для каждой подсети составляет 41% майнерам, 41% валидаторам и 18% владельцу подсети. Это гарантирует, что все роли вознаграждаются: майнеры зарабатывают за выполнение работы по выводу, валидаторы зарабатывают за свои усилия по оценке, а владельцы подсетей (которые, возможно, загрузили данные/задачу для этой подсети) получают остаток за предоставление «маркетплейса» или дизайн задачи. Эти проценты фиксированы в протоколе и направлены на согласование стимулов всех участников для получения высококачественного ИИ-вывода. Механизм консенсуса Yuma дополнительно уточняет стимулы, взвешивая вознаграждения в соответствии с оценками качества — майнер, который предоставляет лучшие ответы (согласно консенсусу валидаторов), получает большую часть этих 41%, а валидатор, который точно следует честному консенсусу, получает больше из доли валидатора. Плохие исполнители экономически отсеиваются. Кроме того, делегаторы (стейкеры), которые поддерживают майнера или валидатора, обычно получают долю от заработка этого узла (узлы часто устанавливают комиссию и отдают остальное своим делегаторам, аналогично стейкингу в сетях PoS). Это позволяет пассивным держателям TAO поддерживать лучших участников и получать доход, что еще больше укрепляет меритократию. Токен Bittensor (TAO) таким образом является утилитарным токеном: он требуется для регистрации новых майнеров (майнеры должны потратить небольшое количество TAO, чтобы присоединиться, что борется со спамом Сивиллы) и может быть застейкан для увеличения влияния или заработка через делегирование. Он также рассматривается как платежный токен, если внешние пользователи хотят потреблять услуги из сети Bittensor (например, платить TAO за запрос языковой модели в Bittensor), хотя внутренний механизм вознаграждения до сих пор был основной «экономикой». Общая философия стимулирования заключается в вознаграждении «ценного интеллекта» — то есть моделей, которые помогают производить хорошие ИИ-результаты — и в создании конкуренции, которая постоянно улучшает качество моделей в сети.

  • Управление Gensyn: Модель управления Gensyn структурирована таким образом, чтобы развиваться от контроля основной команды к контролю сообщества по мере созревания сети. Первоначально Gensyn будет иметь Фонд Gensyn и избранный совет, который будет контролировать обновления протокола и решения по казначейству. Ожидается, что этот совет будет состоять из членов основной команды и ранних лидеров сообщества. Gensyn планирует Событие генерации токенов (TGE) для своего нативного токена (часто называемого GENS), после чего власть управления будет все больше переходить в руки держателей токенов через ончейн-голосование. Роль фонда заключается в представлении интересов протокола и обеспечении плавного перехода к полной децентрализации. На практике Gensyn, вероятно, будет иметь ончейн-механизмы предложений, где изменения параметров (например, длительность игры верификации, ставки комиссий) или обновления будут голосоваться сообществом. Поскольку Gensyn реализуется как роллап Ethereum, управление также может быть связано с безопасностью Ethereum (например, использование ключей обновления для контракта роллапа, которые в конечном итоге передаются DAO держателей токенов). Раздел децентрализации и управления в лайтпейпере Gensyn подчеркивает, что протокол в конечном итоге должен принадлежать всему миру, что соответствует этике, согласно которой «сеть для машинного интеллекта» должна принадлежать ее пользователям и участникам. В итоге, управление Gensyn начинается полуцентрализованным, но спроектировано так, чтобы стать DAO, где держатели токенов GENS (потенциально взвешенные по стейку или участию) принимают решения коллективно.

  • Стимулы Gensyn: Экономические стимулы в Gensyn представляют собой прямую рыночную динамику, дополненную криптоэкономической безопасностью. Разработчики (клиенты) платят за ML-задачи в токене Gensyn, а Решатели зарабатывают токены, правильно выполняя эти задачи. Цена за вычислительные циклы определяется открытым рынком — предположительно, разработчики могут выставлять задачи с вознаграждением, а решатели могут делать ставки или просто брать задачу, если цена соответствует их ожиданиям. Это гарантирует, что пока есть предложение свободных GPU, конкуренция будет снижать стоимость до справедливой ставки (команда Gensyn прогнозирует снижение затрат до 80% по сравнению с облачными ценами, поскольку сеть находит самое дешевое доступное оборудование по всему миру). С другой стороны, решатели заинтересованы в заработке токенов за работу; их оборудование, которое иначе простаивало бы, теперь приносит доход. Для обеспечения качества Gensyn требует от решателей стейкать залог при выполнении задания — если они обманывают или производят неверный результат и их ловят, они теряют этот стейк (он может быть сокращен и передан честному верификатору). Верификаторы стимулируются возможностью получить «джекпот» в случае поимки мошеннического решателя, аналогично дизайну Truebit, который периодически вознаграждает верификаторов, успешно выявляющих неверные вычисления. Это поддерживает честность решателей и мотивирует некоторые узлы действовать как наблюдатели. В оптимальном сценарии (без мошенничества) решатели просто получают плату за задачу, а роль верификатора в основном простаивает (или один из участвующих решателей может выступать в качестве верификатора для других). Токен Gensyn, таким образом, служит как валютой для оплаты газа для покупки вычислений, так и залоговым стейком, который обеспечивает безопасность протокола. В лайтпейпере упоминается тестовая сеть с неперманентными токенами и то, что ранние участники тестовой сети будут вознаграждены на TGE реальными токенами. Это указывает на то, что Gensyn выделил часть предложения токенов для бустрапинга — вознаграждения ранних пользователей, тестовых решателей и членов сообщества. В долгосрочной перспективе плата за реальные задания должна поддерживать сеть. Также может быть небольшая протокольная комиссия (процент от каждого платежа за задачу), которая поступает в казну или сжигается; эта деталь пока не подтверждена, но многие протоколы маркетплейсов включают комиссию для финансирования разработки или выкупа и сжигания токенов. В итоге, стимулы Gensyn согласованы вокруг честного выполнения ML-заданий: выполняй работу, получай оплату; пытайся обмануть, теряй стейк; проверяй других, зарабатывай, если поймаешь мошенников. Это создает саморегулирующуюся экономическую систему, направленную на достижение надежных распределенных вычислений.

  • Управление Cuckoo: Cuckoo Network с самого начала встроила управление в свою экосистему, хотя оно все еще находится на стадии развития. Токен CAIявноявляетсятокеномуправлениявдополнениекегоутилитарнымролям.ФилософияCuckooзаключаетсявтом,чтооператорыузловGPU,разработчикиприложенийидажеконечныепользователидолжныиметьправоголосавразвитиисети—этоотражаетеевидение,ориентированноенасообщество.Напрактикеважныерешения(например,обновленияпротоколаилиэкономическиеизменения)будутприниматьсяпутемголосования,взвешенногопотокенам,предположительночерезмеханизмDAO.Например,Cuckooможетпроводитьончейнголосованиязаизменениераспределениявознагражденийиливнедрениеновойфункции,идержателиCAI явно является токеном управления в дополнение к его утилитарным ролям. Философия Cuckoo заключается в том, что операторы узлов GPU, разработчики приложений и даже конечные пользователи должны иметь право голоса в развитии сети — это отражает ее видение, ориентированное на сообщество. На практике важные решения (например, обновления протокола или экономические изменения) будут приниматься путем голосования, взвешенного по токенам, предположительно через механизм DAO. Например, Cuckoo может проводить ончейн-голосования за изменение распределения вознаграждений или внедрение новой функции, и держатели CAI (включая майнеров, разработчиков и пользователей) будут голосовать. Уже сейчас ончейн-голосование используется как система репутации: Cuckoo требует, чтобы каждая роль стейкала токены, а затем члены сообщества могут голосовать (возможно, делегируя стейк или через модули управления) за то, какие координаторы или майнеры заслуживают доверия. Это влияет на оценки репутации и может влиять на планирование задач (например, координатор с большим количеством голосов может привлекать больше пользователей, или майнер с большим количеством голосов может получать больше задач). Это сочетание управления и стимулов — использование токенов управления для установления доверия. Фонд Cuckoo или основная команда до сих пор руководили направлением проекта (например, приняли недавнее решение о прекращении поддержки цепи L1), но их блог указывает на приверженность переходу к децентрализованному владению. Они определили, что запуск собственной цепи повлек за собой высокие накладные расходы, и что переход на роллап позволит более открытую разработку и интеграцию с существующими экосистемами. Вероятно, что после перехода на общий уровень (например, Ethereum) Cuckoo реализует более традиционный DAO для обновлений, при этом сообщество будет голосовать с использованием CAI.

  • Стимулы Cuckoo: Дизайн стимулов для Cuckoo имеет две фазы: начальная фаза бустрапинга с фиксированными распределениями токенов и будущее состояние с распределением доходов, зависящим от использования. При запуске Cuckoo провела «честный запуск» распределения 1 миллиарда токенов CAI. 51% предложения было выделено для сообщества, распределено следующим образом:

    • Вознаграждения за майнинг: 30% от общего предложения зарезервировано для оплаты GPU-майнерам за выполнение ИИ-задач.
    • Вознаграждения за стейкинг: 11% предложения для тех, кто стейкает и помогает обеспечивать безопасность сети.
    • Аирдропы: 5% для ранних пользователей и членов сообщества в качестве стимула к принятию.
    • (Еще 5% было выделено на гранты для разработчиков для поощрения создания на Cuckoo.)

    Это большое распределение означало, что на ранних этапах сети майнеры и стейкеры вознаграждались из пула эмиссии, даже если фактический пользовательский спрос был низким. Действительно, на начальном этапе Cuckoo предлагала высокую APY-доходность за стейкинг и майнинг, что успешно привлекало участников, но также и «фармеров доходности», которые были там только ради токенов. Команда отметила, что многие пользователи ушли, как только ставки вознаграждения упали, что указывает на то, что эти стимулы не были связаны с реальным использованием. Учитывая это, Cuckoo переходит к модели, где вознаграждения напрямую коррелируют с реальной ИИ-нагрузкой. В будущем (и частично уже сейчас), когда конечный пользователь платит за ИИ-вывод, этот платеж (в CAI или, возможно, другом принятом токене, конвертированном в CAI) будет разделен между участниками:

    • GPU-майнеры получат большую часть за предоставленные вычисления.
    • Координатор (разработчик приложения) получит часть как поставщик услуг, который предоставил модель и обработал запрос.
    • Стейкеры, которые делегировали этим майнерам или координаторам, могут получить небольшую долю или инфляционное вознаграждение, чтобы продолжать стимулировать поддержку надежных узлов.
    • Сеть/Казначейство может удерживать комиссию за текущую разработку или для финансирования будущих стимулов (или комиссия может быть нулевой/номинальной для максимизации доступности для пользователей).

    По сути, Cuckoo переходит к модели распределения доходов: если ИИ-приложение на Cuckoo приносит доход, этот доход распределяется между всеми участниками этого сервиса справедливым образом. Это согласовывает стимулы таким образом, что участники получают выгоду от фактического использования, а не только от инфляции. Уже сейчас сеть требовала от всех сторон стейкать CAI — это означает, что майнеры и координаторы зарабатывают не только фиксированное вознаграждение, но и, возможно, вознаграждения на основе стейка (например, координатор может зарабатывать больше, если многие пользователи стейкают на него или если он сам стейкает больше, аналогично тому, как зарабатывают валидаторы Proof-of-Stake). Что касается стимулов для пользователей, Cuckoo также представила такие вещи, как портал аирдропов и краны (которые некоторые пользователи обманывали) для стимулирования начальной активности. В будущем пользователи могут быть стимулированы через токен-ребейты за использование услуг или через вознаграждения за управление за участие в курировании (например, возможно, зарабатывая небольшие токены за оценку выходов или предоставление данных). Суть в том, что токен Cuckoo ($CAI) является многоцелевым: это токен газа/комиссии в цепи (все транзакции и платежи используют его), он используется для стейкинга и голосования, и это единица вознаграждения за выполненную работу. Cuckoo явно упоминает, что хочет привязать токен-вознаграждения к KPI на уровне сервиса (ключевым показателям производительности) — например, времени безотказной работы, пропускной способности запросов, удовлетворенности пользователей — чтобы избежать чисто спекулятивных стимулов. Это отражает созревание токеномики от простого майнинга ликвидности к более устойчивой, ориентированной на полезность модели.

Владение моделями и атрибуция ИС

Обработка интеллектуальной собственности (ИС) и прав собственности на ИИ-модели является сложным аспектом децентрализованных ИИ-сетей. Каждая платформа заняла несколько иную позицию, и в целом это развивающаяся область, пока не имеющая полного решения:

  • Bittensor: Модели в Bittensor предоставляются узлами-майнерами, и эти майнеры сохраняют полный контроль над весами своих моделей (которые никогда не публикуются в ончейне). Bittensor явно не отслеживает, кто «владеет» моделью, помимо того факта, что она работает по определенному адресу кошелька. Если майнер уходит, его модель уходит вместе с ним. Таким образом, атрибуция ИС в Bittensor происходит офчейн: если майнер использует проприетарную модель, в ончейне нет ничего, что бы это обеспечивало или даже знало. Философия Bittensor поощряет открытые вклады (многие майнеры могут использовать модели с открытым исходным кодом, такие как GPT-J или другие), и сеть вознаграждает производительность этих моделей. Можно сказать, что Bittensor создает репутационную оценку для моделей (через рейтинги валидаторов), и это является формой признания ценности модели, но права на саму модель не токенизируются и не распределяются. Примечательно, что владельцы подсетей в Bittensor могут рассматриваться как владельцы части ИС: они определяют задачу (которая может включать набор данных или метод). Владелец подсети выпускает NFT (называемый UID подсети) при создании подсети, и этот NFT дает ему право на 18% вознаграждений в этой подсети. Это фактически токенизирует создание маркетплейса моделей (подсети), если не экземпляров моделей. Если определение подсети (скажем, задача распознавания речи с определенным набором данных) рассматривать как ИС, то это по крайней мере записывается и вознаграждается. Но индивидуальные веса моделей, которые обучают майнеры — записи о владении ими в ончейне нет. Атрибуция происходит в виде вознаграждений, выплачиваемых на адрес этого майнера. Bittensor в настоящее время не реализует систему, где, например, несколько человек могли бы совместно владеть моделью и получать автоматическую долю дохода — человек, запускающий модель (майнер), получает вознаграждение, и от него зависит, соблюдать ли офчейн любые лицензии ИС на используемую им модель.

  • Gensyn: В Gensyn владение моделями прямолинейно: отправитель (тот, кто хочет обучить модель) предоставляет архитектуру модели и данные, и после обучения получает результирующий артефакт модели. Решатели, выполняющие работу, не имеют прав на модель; они подобны подрядчикам, получающим оплату за услугу. Протокол Gensyn, таким образом, предполагает традиционную модель ИС: если у вас были законные права на модель и данные, которые вы предоставили, они остаются у вас после обучения — вычислительная сеть не претендует на какое-либо владение. Gensyn упоминает, что маркетплейс также может торговать алгоритмами и данными, как и любым другим ресурсом. Это намекает на сценарий, когда кто-то может предложить модель или алгоритм для использования в сети, возможно, за плату, тем самым токенизируя доступ к этой модели. Например, создатель модели может разместить свою предварительно обученную модель на Gensyn и позволить другим дообучать ее через сеть за плату (это фактически монетизировало бы ИС модели). Хотя протокол не обеспечивает соблюдение условий лицензии, можно закодировать требования к оплате: смарт-контракт может требовать плату для разблокировки весов модели для решателя. Однако это спекулятивные варианты использования — основной дизайн Gensyn заключается в обеспечении выполнения задач обучения. Что касается атрибуции, если несколько сторон вносят вклад в модель (скажем, одна предоставляет данные, другая — вычисления), это, вероятно, будет регулироваться любым контрактом или соглашением, которое они заключили до использования Gensyn (например, смарт-контракт может разделить платеж между поставщиком данных и поставщиком вычислений). Сам Gensyn не отслеживает в ончейне «эта модель была создана X, Y, Z» помимо записи о том, какие адреса были оплачены за работу. В итоге, ИС модели в Gensyn остается у отправителя, и любая атрибуция или лицензирование должны обрабатываться через юридические соглашения вне протокола или через пользовательские смарт-контракты, построенные поверх него.

  • Cuckoo: В экосистеме Cuckoo создатели моделей (разработчики ИИ-приложений) являются первоклассными участниками — они развертывают ИИ-сервис. Если разработчик приложения дообучает языковую модель или разрабатывает пользовательскую модель и размещает ее на Cuckoo, эта модель по сути является его собственностью, и он выступает в качестве владельца сервиса. Cuckoo не захватывает никакого владения; вместо этого она предоставляет инфраструктуру для монетизации использования. Например, если разработчик развертывает чат-бота с ИИ, пользователи могут взаимодействовать с ним, и разработчик (плюс майнеры) зарабатывают CAI от каждого взаимодействия. Таким образом, платформа приписывает доход от использования создателю модели, но не публикует явно веса модели и не превращает их в NFT. Фактически, для запуска модели на GPU майнеров узел-координатор, вероятно, должен отправить модель (или среду выполнения) майнеру в какой-либо форме. Это вызывает вопросы ИС: может ли злонамеренный майнер скопировать веса модели и распространить их? В децентрализованной сети такой риск существует, если используются проприетарные модели. Текущий фокус Cuckoo был на достаточно открытых моделях (Stable Diffusion, модели, производные от LLaMA и т. д.) и на создании сообщества, поэтому мы еще не видели обеспечения прав ИС через смарт-контракты. Платформа потенциально может интегрировать такие инструменты, как зашифрованное выполнение моделей или защищенные анклавы в будущем для защиты ИС, но в документации ничего конкретного не упоминается. Что она действительно отслеживает, так это кто предоставил сервис модели для каждой задачи — поскольку координатор является ончейн-идентичностью, все использование его модели учитывается ему, и он автоматически получает свою долю вознаграждений. Если бы кто-то передал или продал модель кому-то другому, он фактически передал бы контроль над узлом-координатором (возможно, даже просто передал бы ему приватный ключ или NFT, если роль координатора была токенизирована). В настоящее время общественное владение моделями (через доли токенов) не реализовано, но видение Cuckoo намекает на децентрализованный ИИ, управляемый сообществом, поэтому они могут изучить возможность позволить людям коллективно финансировать или управлять ИИ-моделью. Токенизация моделей за пределами индивидуального владения все еще является открытой областью в этих сетях — это признается целью (позволить сообществам владеть ИИ-моделями, а не корпорациям), но на практике это требует решений для вышеупомянутых проблем ИС и верификации.

В итоге, владение моделями в Bittensor, Gensyn и Cuckoo обрабатывается офчейн традиционными способами: лицо или сущность, запускающая или отправляющая модель, фактически является владельцем. Сети обеспечивают атрибуцию в виде экономических вознаграждений (оплачивая вкладчику модели его ИС или усилия). Ни одна из трех платформ пока не имеет встроенной лицензии или механизма принудительного взимания роялти за использование модели на уровне смарт-контракта. Атрибуция происходит через репутацию и вознаграждение: например, лучшие модели Bittensor получают высокие оценки репутации (что является публичной записью) и больше TAO, что является неявным кредитом их создателям. Со временем мы можем увидеть такие функции, как веса моделей, привязанные к NFT, или децентрализованные лицензии для лучшего отслеживания ИС, но в настоящее время приоритетом является обеспечение функционирования сетей и стимулирование вкладов. Все согласны с тем, что проверка происхождения и выходов моделей является ключом к созданию настоящих рынков активов моделей, и исследования в этом направлении продолжаются.

Структуры распределения доходов

Все три платформы должны решить, как разделить экономический пирог, когда несколько сторон сотрудничают для получения ценного ИИ-выхода. Кто получает оплату и сколько, когда используется ИИ-сервис или когда выпускаются токены? Каждая имеет свою уникальную модель распределения доходов:

  • Bittensor: Как упоминалось в разделе о стимулах, распределение доходов Bittensor определяется протоколом на уровне блоков: 41% майнерам, 41% валидаторам, 18% владельцу подсети за каждый выпуск TAO в блоке. Это фактически встроенное распределение доходов для ценности, генерируемой в каждой подсети. Доля владельца подсети (18%) действует как роялти за «дизайн модели/задачи» или за бустрапинг экосистемы этой подсети. Майнеры и валидаторы, получающие равные доли, гарантируют, что без валидации майнеры не получают вознаграждения (и наоборот) — они симбиотичны, и каждый получает равную часть выпущенных вознаграждений. Если мы рассмотрим внешнего пользователя, платящего TAO за запрос модели, в вайтпейпере Bittensor предполагается, что этот платеж также будет аналогично разделен между майнером, который отвечает, и валидаторами, которые помогли проверить ответ (точное разделение может быть определено протоколом или рыночными силами). Кроме того, делегаторы, которые стейкают на майнеров/валидаторов, фактически являются партнерами — как правило, майнер/валидатор делится процентом своего заработанного TAO со своими делегаторами (это настраивается, но часто большая часть достается делегаторам). Таким образом, если майнер заработал 1 TAO за блок, это может быть разделено, например, 80/20 между его делегаторами и им самим, в зависимости от стейка. Это означает, что даже не-операторы получают долю дохода сети пропорционально своей поддержке. С введением dTAO был добавлен еще один уровень распределения: те, кто стейкает в пул подсети, получают альфа-токены, которые дают им право на часть эмиссии этой подсети (подобно фармингу доходности). По сути, любой может сделать ставку на успех конкретной подсети и получать долю вознаграждений майнеров/валидаторов, владея альфа-токенами (альфа-токены дорожают по мере того, как подсеть привлекает больше использования и эмиссии). В итоге, распределение доходов Bittensor фиксировано кодом для основных ролей и далее распределяется по социальным/стейкинговым соглашениям. Это относительно прозрачное, основанное на правилах разделение — каждый блок участники точно знают, как распределяется 1 TAO, и, таким образом, знают свой «заработок» за вклад. Эта ясность является одной из причин, по которой Bittensor иногда сравнивают с Биткойном для ИИ — детерминированная денежная эмиссия, где вознаграждение участников математически установлено.

  • Gensyn: Распределение доходов в Gensyn более динамично и ориентировано на рынок, поскольку задачи оцениваются индивидуально. Когда отправитель создает задание, он прикрепляет вознаграждение (скажем, X токенов), которое он готов заплатить. Решатель, который выполняет задание, получает эти X (за вычетом любой сетевой комиссии). Если задействован верификатор, обычно действует правило: если мошенничество не обнаружено, решатель сохраняет полную оплату; если мошенничество обнаружено, решатель подвергается слэшингу — теряя часть или весь свой стейк — и эта сокращенная сумма передается верификатору в качестве вознаграждения. Таким образом, верификаторы не зарабатывают на каждой задаче, только когда они ловят плохой результат (плюс, возможно, небольшая базовая комиссия за участие, в зависимости от реализации). Здесь нет встроенной концепции оплаты владельцу модели, потому что предполагается, что отправитель либо является владельцем модели, либо имеет права на ее использование. Можно представить сценарий, когда отправитель дообучает чью-то предварительно обученную модель, и часть платежа идет первоначальному создателю модели — но это должно быть обработано вне протокола (например, по соглашению или отдельному смарт-контракту, который соответствующим образом делит платеж в токенах). Распределение на уровне протокола Gensyn, по сути, происходит по схеме клиент -> решатель (-> верификатор). Модель токена, вероятно, включает некоторое распределение для казначейства протокола или фонда; например, небольшой процент от платежа за каждую задачу может идти в казну, которая может использоваться для финансирования разработки или страховых пулов (это не указано явно в доступных документах, но многие протоколы так делают). Кроме того, на ранних этапах Gensyn может субсидировать решателей через инфляцию: пользователям тестовой сети обещаны вознаграждения при TGE, что фактически является долей дохода от первоначального распределения токенов (ранние решатели и сторонники получают часть токенов за помощь в бустрапинге, сродни аирдропу или вознаграждению за майнинг). Со временем, по мере того как реальные задания будут доминировать, инфляционные вознаграждения будут сокращаться, а доход решателей будет в основном поступать от пользовательских платежей. Подход Gensyn можно резюмировать как модель дохода «плата за услугу»: сеть облегчает прямую оплату от тех, кому нужна работа, тем, кто ее выполняет, при этом верификаторы и, возможно, стейкеры токенов получают доли только тогда, когда они играют роль в обеспечении этой услуги.

  • Cuckoo: Распределение доходов Cuckoo развивалось. Изначально, поскольку не было много платящих конечных пользователей, распределение доходов по сути было распределением инфляции: 30% на майнинг и 11% на стейкинг из предложения токенов означали, что майнеры и стейкеры делили токены, выпущенные пулом честного запуска сети. На практике Cuckoo осуществляла такие вещи, как ежедневные выплаты CAI майнерам пропорционально выполненным задачам. Эти выплаты в основном поступали из выделения вознаграждений за майнинг (которое является частью зарезервированного фиксированного предложения). Это похоже на то, как многие блокчейны уровня 1 распределяют вознаграждения за блоки майнерам/валидаторам — это не было привязано к фактическому использованию внешними пользователями, это было скорее для стимулирования участия и роста. Однако, как подчеркивается в их блоге от июля 2025 года, это привело к использованию, которое стимулировалось фармингом токенов, а не реальным спросом. Следующий этап для Cuckoo — это настоящая модель распределения доходов, основанная на платах за услуги. В этой модели, когда конечный пользователь использует, скажем, сервис генерации изображений и платит $1 (в криптовалютном выражении), эти токены на $1 будут разделены, возможно, следующим образом: 0,70 майнеру, который выполнил работу на GPU, 0,20 разработчику приложения (координатору), который предоставил модель и интерфейс, и 0,10 стейкерам или казначейству сети. (Примечание: точные соотношения гипотетические; Cuckoo еще не опубликовала их, но это иллюстрирует концепцию.) Таким образом, все участники предоставления услуги получают долю дохода. Это аналогично, например, экономике совместных поездок, но для ИИ: транспортное средство (GPU-майнер) получает большую часть, водитель или платформа (координатор, создавший сервис модели) получает долю, и, возможно, управление/стейкеры платформы получают небольшую комиссию. Упоминание Cuckoo о «моделях распределения доходов и токен-вознаграждениях, напрямую привязанных к метрикам использования» предполагает, что если конкретный сервис или узел обрабатывает большой объем, его операторы и сторонники будут зарабатывать больше. Они отходят от фиксированной доходности за простое блокирование токенов (что было в случае с их начальной APY за стейкинг). В конкретных терминах: если вы стейкаете на координатора, который в итоге обеспечивает работу очень популярного ИИ-приложения, вы можете заработать часть комиссий этого приложения — сценарий стейкинга как инвестирования в полезность, а не стейкинга просто ради инфляции. Это согласовывает стимулы всех участников на привлечение реальных пользователей, которые платят за ИИ-сервисы, что, в свою очередь, возвращает ценность держателям токенов. Стоит отметить, что цепочка Cuckoo также имела комиссии за транзакции (газ), поэтому майнеры, которые производили блоки (изначально GPU-майнеры также способствовали производству блоков в цепочке Cuckoo), также получали комиссии за газ. С закрытием цепочки и миграцией на роллап комиссии за газ, вероятно, будут минимальными (или на Ethereum), поэтому основным доходом станут сами комиссии за ИИ-сервисы. В итоге, Cuckoo переходит от модели, основанной на субсидиях (сеть платит участникам из своего пула токенов), к модели, основанной на спросе (участники зарабатывают на фактических платежах пользователей). Токен по-прежнему будет играть роль в стейкинге и управлении, но ежедневный заработок майнеров и разработчиков приложений должен все больше поступать от пользователей, покупающих ИИ-сервисы. Эта модель более устойчива в долгосрочной перспективе и тесно отражает распределение доходов SaaS в Web2, но реализована через смарт-контракты и токены для прозрачности.

Поверхности атаки и уязвимости

Децентрализация ИИ вводит несколько проблем со стимулами и безопасностью. Теперь мы проанализируем ключевые векторы атак — атаки Сивиллы, сговор, фрирайдерство и отравление данных/моделей — и то, как каждая платформа смягчает их или остается уязвимой к ним:

  • Атаки Сивиллы (фальшивые личности): В открытой сети злоумышленник может создать множество личностей (узлов), чтобы получить непропорциональные вознаграждения или влияние.

    • Bittensor: Устойчивость к атакам Сивиллы обеспечивается в основном стоимостью входа. Для регистрации нового майнера или валидатора в Bittensor необходимо потратить или застейкать TAO — это может быть сжигание или требование залога. Это означает, что создание N фальшивых узлов влечет за собой N-кратные затраты, что делает крупные рои Сивиллы дорогостоящими. Кроме того, консенсус Bittensor связывает влияние со стейком и производительностью; Сивилла без стейка или с плохой производительностью мало зарабатывает. Злоумышленнику придется вложить значительные средства, а также заставить свои узлы Сивиллы фактически вносить полезную работу, чтобы получить какое-либо значительное вознаграждение (что не является типичной стратегией Сивиллы). Тем не менее, если у злоумышленника действительно много капитала, он может приобрести большинство TAO и зарегистрировать много валидаторов или майнеров — фактически, Сивилла за счет богатства. Это пересекается со сценарием атаки 51%: если одна сущность контролирует >50% застейканных TAO в подсети, она может сильно повлиять на консенсус. Введение dTAO в Bittensor немного помогает здесь: оно распределяет влияние по подсетям и требует поддержки сообщества для процветания подсетей, что затрудняет контроль над всем одной сущности. Тем не менее, атаки Сивиллы со стороны хорошо финансируемого противника остаются проблемой — анализ Arxiv явно отмечает, что стейк сейчас довольно сконцентрирован, поэтому барьер для атаки большинства не так высок, как хотелось бы. Для смягчения этой проблемы были предложены такие меры, как ограничения на стейк для каждого кошелька (например, ограничение эффективного стейка 88-м процентилем для предотвращения доминирования одного кошелька). В итоге, Bittensor полагается на идентичность, взвешенную по стейку (вы не можете дешево создавать личности без пропорционального стейка) для борьбы с Сивиллами; это достаточно эффективно, за исключением очень ресурсного злоумышленника.
    • Gensyn: Атаки Сивиллы в Gensyn проявились бы в том, что злоумышленник запускает множество узлов-решателей или верификаторов, чтобы обмануть систему. Защита Gensyn является чисто экономической и криптографической — сами по себе личности не имеют значения, но выполнение работы или внесение залога имеют. Если злоумышленник создает 100 фальшивых узлов-решателей, но у них нет заданий или стейка, они ничего не добьются. Чтобы выиграть задачи, узел Сивиллы должен будет конкурировать в ставках и иметь оборудование для выполнения работы. Если они занижают ставки без достаточной мощности, они потерпят неудачу и потеряют стейк. Аналогично, злоумышленник может создать множество верификаторов, надеясь быть выбранным для проверки (если протокол случайным образом выбирает верификаторов). Но если их слишком много, сеть или отправитель задания могут ограничить количество активных верификаторов. Кроме того, верификаторам, возможно, придется выполнять вычисления для проверки, что дорого; наличие множества фальшивых верификаторов не поможет, если вы не можете фактически проверять результаты. Более актуальный аспект атаки Сивиллы в Gensyn заключается в том, что злоумышленник пытается заполнить сеть поддельными заданиями или ответами, чтобы потратить время других. Это смягчается требованием депозита и от отправителей (злонамеренный отправитель, размещающий фальшивые задания, теряет свою оплату или депозит). В целом, использование Gensyn обязательных стейков/залогов и случайного выбора для верификации означает, что злоумышленник мало что получает от наличия нескольких личностей, если он также не приносит пропорциональные ресурсы. Это становится более дорогостоящей атакой, а не дешевой. Оптимистическая модель безопасности предполагает наличие хотя бы одного честного верификатора — Сивиллы должны будут подавить и быть всеми верификаторами, чтобы постоянно обманывать, что снова сводится к владению большинством стейка или вычислительной мощности. Устойчивость Gensyn к атакам Сивиллы, таким образом, сравнима с устойчивостью оптимистического роллапа: пока есть хотя бы один честный актор, Сивиллы не могут легко причинить системный вред.
    • Cuckoo: Предотвращение атак Сивиллы в Cuckoo основано на стейкинге и проверке сообществом. Каждая роль в Cuckoo (майнер, координатор, даже пользователь в некоторых случаях) требует стейкинга $CAI. Это немедленно увеличивает стоимость личностей Сивиллы — злоумышленнику, создающему 100 фиктивных майнеров, потребуется приобрести и заблокировать стейк для каждого. Более того, дизайн Cuckoo имеет человеческий/общественный элемент: новые узлы должны зарабатывать репутацию через ончейн-голосование. Армия Сивиллы из новых узлов без репутации вряд ли получит много задач или доверия пользователей. Координаторы, в частности, должны привлекать пользователей; фальшивый координатор без послужного списка не получит использования. Для майнеров координаторы могут видеть их статистику производительности (успешные задачи и т. д.) на Cuckoo Scan и будут предпочитать надежных майнеров. Cuckoo также имела относительно небольшое количество майнеров (40 GPU в один момент в бета-версии), поэтому любой странный приток множества узлов был бы заметен. Потенциально слабым местом является то, что злоумышленник также использует систему репутации — например, он стейкает много CAI на своих узлах Сивиллы, чтобы они выглядели респектабельными, или создает фальшивые «пользовательские» учетные записи, чтобы голосовать за себя. Это теоретически возможно, но поскольку все это курируется токенами, это стоит токенов (вы, по сути, будете голосовать своим собственным стейком за свои собственные узлы). Команда Cuckoo также может корректировать параметры стейкинга и вознаграждений, если наблюдается поведение Сивиллы (особенно сейчас, когда она становится более централизованным сервисом роллапа; они могут приостанавливать или сокращать плохих акторов). В целом, Сивиллы сдерживаются требованием «шкурного интереса» (стейка) и необходимостью одобрения сообщества. Никто не может просто так прийти с сотнями фальшивых GPU и получать вознаграждения без значительных инвестиций, которые честные участники могли бы лучше потратить на реальное оборудование и стейк.
  • Сговор: Здесь мы рассматриваем сговор нескольких участников для обмана системы — например, сговор валидаторов и майнеров в Bittensor, или решателей и верификаторов в Gensyn и т. д.

    • Bittensor: Сговор был признан реальной проблемой. В первоначальном дизайне несколько валидаторов могли сговориться, чтобы всегда одобрять определенных майнеров или самих себя, несправедливо искажая распределение вознаграждений (это наблюдалось как концентрация власти в корневой подсети). Консенсус Yuma обеспечивает некоторую защиту: принимая медиану оценок валидаторов и наказывая тех, кто отклоняется, он предотвращает драматическое повышение целевого объекта небольшой сговорившейся группой, если только они не составляют большинство. Другими словами, если 3 из 10 валидаторов сговариваются, чтобы дать майнеру очень высокую оценку, но остальные 7 этого не делают, оценки сговорщиков-выбросов отсекаются, и вознаграждение майнера основывается на медианной оценке (таким образом, сговор не помогает значительно). Однако, если сговорщики составляют >50% валидаторов (или >50% стейка среди валидаторов), они фактически являются консенсусом — они могут договориться о ложных высоких оценках, и медиана будет отражать их точку зрения. Это классический сценарий атаки 51%. К сожалению, исследование Arxiv показало, что в некоторых подсетях Bittensor коалиция всего 1–2% участников (по количеству) контролировала большинство стейка из-за высокой концентрации токенов. Это означает, что сговор нескольких крупных держателей был реальной угрозой. Смягчение, которое Bittensor преследует через dTAO, заключается в демократизации влияния: позволяя любому держателю TAO направлять стейк в подсети, это разбавляет власть закрытых групп валидаторов. Также предложения, такие как вогнутый стейкинг (уменьшающаяся отдача от чрезмерного стейка) и ограничения на стейк, направлены на то, чтобы лишить одну сговорившуюся сущность возможности собрать слишком много голосующей силы. Предположение безопасности Bittensor теперь аналогично Proof-of-Stake: ни одна сущность (или картель) не контролирует >50% активного стейка. Пока это сохраняется, сговор ограничен, потому что честные валидаторы будут отменять плохие оценки, а сговорившиеся владельцы подсетей не могут произвольно увеличивать свои собственные вознаграждения. Наконец, что касается сговора между владельцами подсетей и валидаторами (например, владелец подсети подкупает валидаторов, чтобы они высоко оценивали майнеров его подсети), dTAO устраняет прямой контроль валидаторов, заменяя его решениями держателей токенов. Сговориться с «рынком» сложнее, если только вы не выкупите все предложение токенов — в этом случае это не совсем сговор, это поглощение. Таким образом, основной метод борьбы со сговором в Bittensor — это алгоритмический консенсус (отсечение медианы) и широкое распределение токенов.
    • Gensyn: Сговор в Gensyn, вероятно, будет включать сговор решателя и верификатора (или нескольких верификаторов) для обмана системы. Например, решатель может произвести поддельный результат, а сговорившийся верификатор может намеренно не оспаривать его (или даже подтвердить, что он правильный, если протокол просил верификаторов подписать). Для смягчения этого, модель безопасности Gensyn требует наличия хотя бы одного честного верификатора. Если все верификаторы сговариваются с решателем, то плохой результат остается неоспоренным. Gensyn решает эту проблему, поощряя множество независимых верификаторов (любой может верифицировать) и используя теорию игр, согласно которой верификатор может получить большое вознаграждение, выйдя из сговора и оспорив (потому что он получит стейк решателя). По сути, даже если есть группа, согласившаяся на сговор, у каждого члена есть стимул дезертировать и забрать награду себе — это классическая дилемма заключенного. Надежда состоит в том, что это сохраняет группы сговорщиков небольшими или неэффективными. Другой потенциальный сговор — между несколькими решателями для повышения цен или монополизации задач. Однако, поскольку разработчики могут выбирать, куда размещать задачи (и задачи не являются идентичными единицами, которые можно легко монополизировать), сговор решателей по ценам было бы трудно координировать глобально — любой не сговорившийся решатель мог бы предложить более низкую цену, чтобы выиграть работу. Динамика открытого рынка противодействует ценовому сговору, предполагая наличие хотя бы нескольких конкурентоспособных участников. Еще один аспект: сговор верификаторов для «гриферства» решателей — например, верификаторы ложно обвиняют честных решателей, чтобы украсть их стейк. Доказательство мошенничества Gensyn является бинарным и ончейн; ложное обвинение потерпит неудачу, когда ончейн-пересчет не обнаружит ошибки, и предположительно злонамеренный верификатор тогда что-то потеряет (возможно, депозит или репутацию). Таким образом, сговор верификаторов, пытающихся саботировать решателей, будет пойман процессом верификации протокола. В итоге, архитектура Gensyn надежна, пока хотя бы одна сторона в любом сговорившемся наборе имеет стимул быть честной — свойство оптимистической верификации, аналогичное требованию наличия одного честного майнера в Биткойне, чтобы в конечном итоге разоблачить мошенничество. Сговор теоретически возможен, если злоумышленник сможет контролировать всех верификаторов и решателей в задаче (как большинство сети), но тогда они могли бы просто обманывать без необходимости сговора как такового. Криптоэкономические стимулы устроены так, чтобы поддержание сговора было иррациональным.
    • Cuckoo: Сговор в Cuckoo может произойти несколькими способами:
      1. Координатор в сговоре с майнерами — например, координатор может всегда назначать задачи группе дружественных майнеров и делить вознаграждения, игнорируя других честных майнеров. Поскольку координаторы имеют право по своему усмотрению планировать задачи, это может произойти. Однако, если дружественные майнеры работают некачественно, конечные пользователи могут заметить медленное или плохое обслуживание и уйти, поэтому координатор не заинтересован в чистом фаворитизме, который вредит качеству. Если сговор направлен на манипулирование вознаграждениями (скажем, отправку фальшивых задач для выдачи токенов майнерам), это будет обнаружено в ончейне (много задач с, возможно, идентичными входными данными или без фактического пользователя) и может быть наказано. Ончейн-прозрачность Cuckoo означает, что любые необычные паттерны могут быть отмечены сообществом или основной командой. Кроме того, поскольку все участники стейкают, сговорившееся кольцо координатор-майнер рискует потерять свой стейк, если будет поймано на злоупотреблении системой (например, если управление решит сократить их за мошенничество).
      2. Майнеры сговариваются между собой — они могут обмениваться информацией или формировать картель, чтобы, скажем, голосовать друг за друга в репутационной системе или все отказываться обслуживать определенного координатора, чтобы получить более высокие комиссии. Эти сценарии менее вероятны: голосование за репутацию осуществляется стейкерами (включая пользователей), а не самими майнерами, голосующими друг за друга. А отказ от обслуживания только заставит координаторов искать других майнеров или поднимет тревогу. Учитывая относительно небольшой текущий масштаб, любой сговор будет трудно скрыть.
      3. Сговор с целью манипулирования управлением — крупные держатели CAI могут сговориться, чтобы принять предложения в свою пользу (например, установить непомерную комиссию или перенаправить казну). Это риск в любом токен-управлении. Лучшее смягчение — это широкое распределение токена (честный запуск Cuckoo отдал 51% сообществу) и активный надзор со стороны сообщества. Кроме того, поскольку Cuckoo отказалась от L1, непосредственное ончейн-управление может быть ограничено, пока они не перейдут на новую цепь; команда, вероятно, сохраняет мультисиг-контроль в промежутке, что, по иронии судьбы, предотвращает сговор злонамеренных посторонних за счет временной централизации. В целом, Cuckoo опирается на прозрачность и стейкинг для борьбы со сговором. Существует элемент доверия к координаторам, чтобы они вели себя хорошо, потому что они хотят привлекать пользователей в конкурентной среде. Если сговор приводит к ухудшению обслуживания или очевидной игре с вознаграждениями, заинтересованные стороны могут проголосовать против или прекратить стейкинг на плохих акторов, а сеть может сократить или заблокировать их. Достаточно открытый характер (любой может стать координатором или майнером, если он стейкает) означает, что сговор потребует больших скоординированных усилий, которые будут очевидны. Это не так математически предотвращено, как в Bittensor или Gensyn, но сочетание экономического стейка и управления сообществом обеспечивает проверку.
  • Фрирайдерство (проблемы безбилетника): Это относится к участникам, пытающимся получить вознаграждение, не внося эквивалентной ценности — например, валидатор, который фактически не оценивает, но все равно зарабатывает, или майнер, который копирует ответы других вместо вычислений, или пользователи, фармящие вознаграждения без предоставления полезного вклада.

    • Bittensor: Известной проблемой фрирайдерства в Bittensor является «копирование весов» ленивыми валидаторами. Валидатор может просто скопировать мнение большинства (или оценки другого валидатора) вместо независимой оценки майнеров. При этом они избегают затрат на выполнение ИИ-запросов, но все равно получают вознаграждение, если их представленные оценки соответствуют консенсусу. Bittensor борется с этим, измеряя согласованность консенсуса и информационный вклад каждого валидатора. Если валидатор всегда просто копирует других, он может хорошо согласовываться (поэтому его не сильно наказывают), но он не добавляет уникальной ценности. Разработчики протокола обсуждали предоставление более высоких вознаграждений валидаторам, которые предоставляют точные, но не чисто избыточные оценки. Такие методы, как «введение шума» (намеренное предоставление валидаторам немного разных запросов), могут заставить их фактически работать, а не копировать — хотя неясно, реализовано ли это. Arxiv предлагает методы взвешенной по производительности эмиссии и композитного скоринга для лучшей связи усилий валидатора с вознаграждением. Что касается майнеров, одним из возможных видов фрирайдерства было бы, если майнер запрашивает других майнеров и передает ответ (форма плагиата). Дизайн Bittensor (с децентрализованными запросами) может позволить модели майнера вызывать другие через свой собственный дендрит. Если майнер просто передает ответ другого, хороший валидатор может это заметить, потому что ответ может не соответствовать заявленным возможностям модели майнера. Это сложно обнаружить алгоритмически, но майнер, который никогда не вычисляет оригинальные результаты, в конечном итоге должен получить низкие оценки по некоторым запросам и потерять репутацию. Другой сценарий фрирайдерства — делегаторы, зарабатывающие вознаграждения без выполнения ИИ-работы. Это намеренно (для вовлечения держателей токенов), поэтому это не атака — но это означает, что часть эмиссии токенов идет людям, которые только стейкали. Bittensor оправдывает это как согласование стимулов, а не растраченные вознаграждения. Короче говоря, Bittensor признает проблему фрирайдерства валидаторов и настраивает стимулы (например, дает «оценки доверия валидаторов», которые повышают тех, кто не отклоняется и не копирует). Их решение, по сути, заключается в более явном вознаграждении за усилия и правильность, так что бездействие или слепое копирование со временем приносит меньше TAO.
    • Gensyn: В Gensyn фрирайдерам было бы трудно зарабатывать, потому что нужно либо предоставлять вычисления, либо ловить кого-то на мошенничестве, чтобы получить токены. Решатель не может «подделать» работу — он должен предоставить либо действительное доказательство, либо рискнуть быть сокращенным. Нет механизма получения оплаты без выполнения задачи. Верификатор теоретически может сидеть без дела и надеяться, что другие поймают мошенников — но тогда он ничего не заработает (потому что только тот, кто поднимает доказательство мошенничества, получает вознаграждение). Если слишком много верификаторов пытаются быть фрирайдерами (фактически не пересчитывают задачи), то мошеннический решатель может проскользнуть, потому что никто не проверяет. Дизайн стимулов Gensyn решает эту проблему с помощью джекпот-вознаграждения: достаточно одного активного верификатора, чтобы поймать мошенника и получить большую выплату, поэтому рационально, чтобы хотя бы один всегда выполнял работу. Другие, не выполняющие работу, не вредят сети, кроме как бесполезностью; они также не получают вознаграждения. Таким образом, система естественным образом отсеивает фрирайдеров: только те верификаторы, которые фактически верифицируют, будут получать прибыль в долгосрочной перспективе (другие тратят ресурсы на узлы впустую или очень редко случайно получают вознаграждение). Протокол также может рандомизировать, какой верификатор получает возможность оспорить, чтобы отговорить всех верификаторов от предположения «кто-то другой это сделает». Поскольку задачи оплачиваются индивидуально, нет аналога «вознаграждений за стейкинг без работы», кроме временных стимулов тестовой сети. Одна область, на которую стоит обратить внимание, — это оптимизация нескольких задач: решатель может попытаться повторно использовать работу между задачами или тайно передать ее кому-то более дешевому (например, использовать централизованное облако) — но это не совсем вредное фрирайдерство; если они предоставляют правильные результаты вовремя, неважно, как они это сделали. Это скорее арбитраж, чем атака. В итоге, дизайн механизма Gensyn оставляет мало места для фрирайдеров, потому что каждый распределенный токен соответствует выполненной работе или наказанному мошенничеству.
    • Cuckoo: Начальная фаза Cuckoo непреднамеренно создала проблему фрирайдерства: аирдроп и высокодоходный стейкинг привлекли пользователей, которые были там только для фарминга токенов. Эти пользователи циклически пропускали токены через краны или обманывали задачи аирдропа (например, постоянно используя бесплатные тестовые промпты или создавая множество учетных записей для получения вознаграждений), не внося вклад в долгосрочную ценность сети. Cuckoo признала это проблемой — по сути, люди «использовали» сеть не для ИИ-вывода, а для спекулятивной выгоды. Решение о прекращении поддержки цепочки L1 и переориентации было частично направлено на устранение этих несоответствий стимулов. Привязывая будущие токен-вознаграждения к фактическому использованию (т. е. вы зарабатываете, потому что сервис фактически используется платящими клиентами), привлекательность фрирайдерства уменьшается. Существует также сценарий фрирайдерства со стороны майнеров: майнер может присоединиться, получить назначенные задачи и каким-то образом не выполнить их, но все равно требовать вознаграждение. Однако координатор проверяет результаты — если майнер возвращает нулевой или плохой результат, координатор не будет считать это выполненной задачей, поэтому майнер не получит оплату. Майнеры также могут пытаться выбирать легкие задачи и отказываться от сложных (например, если некоторые промпты медленнее, майнер может отключиться, чтобы избежать их). Это может быть проблемой, но координаторы могут отмечать надежность майнера. Если майнер часто отключается, координатор может прекратить назначать ему задачи или сократить его стейк (если такой механизм существует или просто не вознаграждать его). Фрирайдерство пользователей — поскольку многие ИИ-сервисы имеют бесплатные пробные версии, пользователь может спамить запросы, чтобы получить выводы без оплаты (если есть субсидируемая модель). Это не столько проблема на уровне протокола, сколько на уровне сервиса; каждый координатор может решить, как обрабатывать бесплатное использование (например, требовать небольшую оплату или дросселировать). Поскольку Cuckoo изначально раздавала бесплатные услуги (например, бесплатную генерацию ИИ-изображений для привлечения пользователей), некоторые воспользовались этим, но это было частью ожидаемого маркетинга роста. По мере окончания этих акций пользователям придется платить, таким образом, не будет бесплатного обеда для эксплуатации. В целом, новая стратегия Cuckoo по привязке распределения токенов к реальной полезности явно направлена на устранение проблемы фрирайдерства «майнинга токенов за бессмысленные циклы».
  • Отравление данных или моделей: Это относится к злонамеренному введению плохих данных или поведений, в результате чего ИИ-модели деградируют или выходы манипулируются, а также к проблемам вредоносного или предвзятого контента.

    • Bittensor: Отравление данных в Bittensor означало бы, что майнер намеренно дает неверные или вредоносные ответы, или валидаторы целенаправленно неправильно оценивают хорошие ответы как плохие. Если майнер постоянно выдает мусор или вредоносный контент, валидаторы будут давать низкие оценки, и этот майнер будет мало зарабатывать и в конечном итоге отсеется — экономический стимул заключается в предоставлении качества, поэтому «отравление» других не приносит пользы злоумышленнику (если только его цель не чисто саботаж за свой счет). Может ли злонамеренный майнер отравить других? В Bittensor майнеры не обучают друг друга напрямую (по крайней мере, не по замыслу — нет глобальной модели, которая обновляется и может быть отравлена). Модель каждого майнера отдельна. Они учатся в том смысле, что майнер может брать интересные образцы у других для дообучения себя, но это полностью необязательно и зависит от каждого. Если злонамеренный актор спамит бессмысленные ответы, честные валидаторы отфильтруют это (они оценят это низко), поэтому это не окажет значительного влияния на процесс обучения любого честного майнера (плюс, майнер, вероятно, будет использовать знания высокооцененных коллег, а не низкооцененных). Таким образом, классическое отравление данных (введение плохих обучающих данных для повреждения модели) минимально в текущей настройке Bittensor. Более актуальным риском является манипуляция ответами модели: например, майнер, который выдает тонко предвзятый или опасный контент, который не очевиден для валидаторов. Однако, поскольку валидаторы также являются агентами, разработанными человеком или, по крайней мере, алгоритмическими, явная токсичность или ошибка, вероятно, будет поймана (некоторые подсети могут даже иметь ИИ-валидаторов, проверяющих на небезопасный контент). Худший сценарий — если злоумышленник каким-то образом имеет большинство валидаторов и майнеров, сговаривающихся, чтобы продвигать определенный неверный вывод как «правильный» — они могли бы тогда исказить консенсус сети по ответам (например, все сговаривающиеся валидаторы одобряют вредоносный ответ). Но чтобы внешний пользователь пострадал от этого, он должен фактически запросить сеть и доверять выводу. Bittensor все еще находится на стадии, когда он наращивает возможности, а не широко используется для критических запросов конечными пользователями. К тому времени, когда это произойдет, можно надеяться, что он будет иметь фильтрацию контента и разнообразие валидаторов для смягчения таких рисков. Со стороны валидаторов злонамеренный валидатор может подавать отравленные оценки — например, постоянно занижать оценки определенному честному майнеру, чтобы устранить конкуренцию. При достаточном стейке они могут преуспеть в вытеснении этого майнера (если вознаграждения майнера упадут так низко, что он уйдет). Это атака на механизм стимулирования. Опять же, если они не составляют большинство, отсечение медианы помешает валидатору-выбросу. Если они составляют большинство, это сливается со сценарием сговора/51% — любое большинство может переписывать правила. Решение возвращается к децентрализации: не допускать доминирования одной сущности. В итоге, дизайн Bittensor по своей сути наказывает отравленные данные/вклады моделей через свою систему оценки — плохие вклады получают низкий вес и, следовательно, низкое вознаграждение. Нет постоянного репозитория моделей для отравления; все динамично и постоянно оценивается. Это обеспечивает устойчивость: сеть может постепенно «забывать» или игнорировать плохих акторов, поскольку их вклады отфильтровываются валидаторами.
    • Gensyn: Если решатель захочет отравить обучаемую модель (например, внедрить бэкдор или предвзятость во время обучения), он может попытаться сделать это скрытно. Протокол Gensyn проверит, что обучение проходило в соответствии с указанным алгоритмом (шаги стохастического градиентного спуска и т. д.), но он не обязательно обнаружит, если решатель внедрил тонкий триггер бэкдора, который не проявляется в обычных метриках валидации. Это более коварная проблема — это не сбой вычислений, это манипуляция в рамках допустимых степеней свободы обучения (например, корректировка весов в сторону триггерной фразы). Обнаружение этого является активной исследовательской проблемой в области безопасности ML. Gensyn не имеет специального механизма для отравления моделей, помимо того факта, что отправитель может оценить конечную модель на выбранном им тестовом наборе. Опытный отправитель всегда должен тестировать возвращенную модель; если он обнаружит, что она не работает на некоторых входных данных или имеет странное поведение, он может оспорить результат или отказаться от оплаты. Возможно, протокол мог бы позволить отправителю указать определенные критерии приемлемости (например, «модель должна достичь как минимум X точности на этом секретном тестовом наборе»), и если результат решателя не соответствует, решатель не получает полную оплату. Это предотвратило бы отравление, потому что злоумышленник не соответствовал бы критериям оценки. Однако, если отравление не влияет на точность при обычных тестах, оно может проскользнуть. Верификаторы в Gensyn проверяют только целостность вычислений, а не качество модели, поэтому они не поймают преднамеренное переобучение или трояны, пока журналы обучения выглядят действительными. Таким образом, это остается проблемой доверия на уровне задачи: отправитель должен доверять либо тому, что решатель не отравит модель, либо использовать методы, такие как ансамблирование нескольких результатов обучения от разных решателей, чтобы ослабить влияние любого отдельного решателя. Другой аспект — отравление данных: если отправитель предоставляет обучающие данные, злонамеренный решатель может игнорировать эти данные и обучать на чем-то другом или добавлять мусорные данные. Но это, вероятно, снизит точность, что отправитель заметит в производительности выходной модели. Тогда решатель не получит полную оплату (поскольку предположительно он хочет достичь целевого показателя производительности). Таким образом, отравление, которое ухудшает производительность, само по себе является проигрышным для вознаграждения решателя. Только отравление, которое нейтрально по производительности, но злонамеренно (бэкдор), представляет реальную опасность, и это выходит за рамки типичной блокчейн-верификации — это проблема безопасности машинного обучения. Лучшее смягчение Gensyn, вероятно, социальное: использовать известные авторитетные модели, проводить несколько циклов обучения, использовать инструменты с открытым исходным кодом. Что касается задач вывода (если Gensyn также используется для задач вывода), сговорившийся решатель может возвращать неверные выходы, которые искажают определенный ответ. Но верификаторы поймают неверные выходы, если они запускают ту же модель, так что это меньше отравление и больше просто мошенничество, которое решается доказательствами мошенничества. В итоге, Gensyn обеспечивает безопасность процесса, а не намерения. Он гарантирует, что обучение/вывод были выполнены правильно, но не то, что результат хороший или свободен от скрытых неприятностей. Это остается открытой проблемой, и вайтпейпер Gensyn, вероятно, еще не полностью решает ее (немногие это делают).
    • Cuckoo: Поскольку Cuckoo в настоящее время фокусируется на выводе (обслуживании существующих моделей), риск отравления данных/моделей относительно ограничен манипуляцией выводами или отравлением контента. Злонамеренный майнер может попытаться подделать модель, которую ему дали для запуска — например, если ему предоставили контрольную точку Stable Diffusion, он мог бы заменить ее другой моделью, которая, возможно, вставляет какой-то тонкий водяной знак или рекламу в каждое изображение. Однако координатор (который является владельцем модели) обычно отправляет задачи с ожиданием формата вывода; если майнер постоянно возвращает нестандартные выводы, координатор пометит и заблокирует этого майнера. Кроме того, майнеры не могут легко модифицировать модель, не влияя заметно на ее выводы. Другой сценарий — если Cuckoo введет модели, обученные сообществом: тогда майнеры или поставщики данных могут попытаться отравить обучающие данные (например, ввести много неправильных меток или предвзятого текста). Cuckoo потребуется реализовать валидацию краудсорсинговых данных или взвешивание вкладчиков. Это пока не является функцией, но интерес команды к персонализированному ИИ (например, их упоминание об ИИ-коуче или обучающих приложениях) означает, что они могут в конечном итоге обрабатывать пользовательские обучающие данные, что потребует тщательных проверок. Что касается безопасности контента, поскольку майнеры Cuckoo выполняют вывод, можно беспокоиться о том, что они выдают вредоносный контент, даже если модель обычно этого не делает. Но майнеры не заинтересованы в произвольном изменении выходов — им платят за правильные вычисления, а не за творчество. Во всяком случае, злонамеренный майнер может пропустить полное вычисление, чтобы сэкономить время (например, вернуть размытое изображение или общий ответ). Координатор или пользователь увидят это и понизят рейтинг этого майнера (и, вероятно, не заплатят за эту задачу). Конфиденциальность — еще один аспект: злонамеренный майнер может утечь или записать пользовательские данные (например, если пользователь ввел конфиденциальный текст или изображения). Это не отравление, но это атака на конфиденциальность. Позиция Cuckoo в отношении конфиденциальности заключается в том, что она исследует методы сохранения конфиденциальности (упоминание VPN, сохраняющего конфиденциальность в экосистеме, предполагает будущий фокус). Они могли бы включить такие методы, как защищенные анклавы или разделенный вывод, чтобы сохранить данные конфиденциальными от майнеров. Пока не реализовано, но является известным соображением. Наконец, блог Cuckoo подчеркивает эффективную проверку выходов моделей и обеспечение безопасной децентрализованной работы моделей как ключ к жизнеспособности токенизации моделей. Это указывает на то, что они осознают, что для истинной децентрализации ИИ необходимо защищаться от таких вещей, как отравленные выходы или неисправные модели. Возможно, они намерены использовать комбинацию криптоэкономических стимулов (сокращение стейка для плохих акторов) и систем пользовательских рейтингов (пользователи могут помечать плохие выходы, и эти майнеры теряют репутацию). Система репутации может помочь здесь: если майнер возвращает даже один очевидно вредоносный или неверный результат, пользователи/координаторы могут понизить его рейтинг, что сильно повлияет на его будущую способность зарабатывать. Зная это, майнеры заинтересованы в том, чтобы быть последовательно правильными и не допускать никакого отравления. По сути, Cuckoo полагается на «доверяй, но проверяй»: это более традиционно в том смысле, что если кто-то ведет себя неправильно, вы его идентифицируете и удаляете (с потерей стейка в качестве наказания). У него пока нет специализированных защит от тонкого отравления моделей, но структура, предусматривающая конкретных владельцев приложений (координаторов), добавляет уровень надзора — эти владельцы будут мотивированы обеспечить, чтобы ничто не скомпрометировало целостность их модели, поскольку их собственный доход и репутация зависят от этого.

В заключение, хотя децентрализованные ИИ-сети вводят новые поверхности атаки, они также развертывают комбинацию криптографических, игровых и общественно-управленческих защит: Устойчивость к атакам Сивиллы в основном обеспечивается требованием экономического стейка для участия. Устойчивость к сговору достигается за счет согласования стимулов (честное поведение более выгодно) и механизмов консенсуса, которые ограничивают влияние небольших сговорившихся групп. Предотвращение фрирайдерства достигается путем тесной привязки вознаграждений к фактической полезной работе и наказания или устранения тех, кто ничего не вносит. Отравление и связанные с ним атаки остаются сложными, но системы смягчают явные случаи посредством непрерывной оценки и возможности сокращения или исключения злонамеренных акторов. Эти платформы активно исследуют и совершенствуют эти дизайны — о чем свидетельствуют постоянные доработки Yuma и dTAO в Bittensor, а также изменение токеномики в Cuckoo — для обеспечения безопасной, самоподдерживающейся децентрализованной ИИ-экосистемы.

Сравнительная оценка

Чтобы выделить различия и сходства Bittensor, Gensyn и Cuckoo AI, следующая таблица предоставляет параллельное сравнение по ключевым параметрам:

ПараметрBittensor (TAO)GensynCuckoo AI (CAI)
Технический стекКастомный L1 (цепочка Subtensor на базе Substrate) с более чем 93 специализированными ИИ-подсетями. Совместим с EVM (после недавнего обновления) на собственной цепи.Роллап на базе Ethereum (изначально планировался L1, теперь роллап ETH). Офчейн-вычисления с ончейн-верификацией.Запущен как цепочка уровня 2 Arbitrum Orbit (роллап EVM). Полнофункциональная платформа (собственная цепь + вычисления + пользовательский интерфейс приложения). Переходит от кастомного L1 к общей безопасности Ethereum (роллап/AVS).
Основное направлениеДецентрализованная ИИ-сеть моделей («нейронный интернет»). Узлы вносят вклад в коллективный вывод и обучение моделей по различным задачам (LLM, зрение и т. д.).Децентрализованный маркетплейс вычислений для ML. Акцент на офчейн-обучении моделей и выводе с помощью глобальных GPU, верификация работы через блокчейн.Децентрализованная платформа ИИ-сервисов. Фокус на обслуживании/выводе моделей (например, генеративное искусство, LLM API) с использованием распределенных GPU-майнеров. Интегрирует конечные пользовательские приложения с бэкенд-маркетплейсом GPU.
Ключевые ролиВладелец подсети: определяет задачу и валидацию в подсети (получает 18% вознаграждений).
Майнеры: запускают ИИ-модели (вывод/обучение), предоставляют ответы.
Валидаторы: отправляют запросы и оценивают выходы майнеров (курируют качество).
Делегаторы: стейкают TAO на майнеров/валидаторов для усиления влияния и получения доли.
Отправитель (Разработчик): размещает ML-задание (с моделью/данными) и оплату.
Решатель: выполняет задачу на своем оборудовании, отправляет результат.
Верификатор (Наблюдатель): проверяет результат решателя; может оспорить через доказательство мошенничества, если он неверен.
(Отдельной роли «владельца» нет, так как отправитель предоставляет модель; роли управления через держателей токенов).
Разработчик ИИ-приложений (Координатор): развертывает ИИ-сервис, стейкает CAI, управляет задачами для майнеров.
Майнер (Поставщик GPU/CPU): стейкает CAI, выполняет назначенные задачи вывода, возвращает результаты.
Конечный пользователь: использует ИИ-приложения (платит криптовалютой или предоставляет ресурсы).
Стейкер (Делегатор): стейкает на координаторов/майнеров, голосует в управлении, получает долю вознаграждений.
Technical StackCustom L1 (Substrate-based Subtensor chain) with 93+ specialized AI subnets. EVM-compatible (after recent upgrade) on its own chain.Ethereum-based rollup (originally planned L1, now an ETH rollup). Off-chain compute with on-chain verification.Launched as an Arbitrum Orbit Layer-2 chain (EVM rollup). Full-stack platform (own chain + compute + app UI). Migrating from custom L1 to Ethereum shared security (rollup/AVS).
Primary FocusDecentralized AI network of models (“neural internet”). Nodes contribute to collective model inference and training across tasks (LLM, vision, etc.).Decentralized compute marketplace for ML. Emphasis on off-chain model training and inference by global GPUs, verifying the work via blockchain.Децентрализованная платформа ИИ-сервисов. Фокус на обслуживании/выводе моделей (например, генеративное искусство, LLM API) с использованием распределенных GPU-майнеров. Интегрирует конечные пользовательские приложения с бэкенд-маркетплейсом GPU.
Key RolesВладелец подсети: определяет задачу и валидацию в подсети (получает 18% вознаграждений).
Майнеры: запускают ИИ-модели (вывод/обучение), предоставляют ответы.
Валидаторы: отправляют запросы и оценивают выходы майнеров (курируют качество).
Делегаторы: стейкают TAO на майнеров/валидаторов для усиления влияния и получения доли.
Отправитель (Разработчик): размещает ML-задание (с моделью/данными) и оплату.
Решатель: выполняет задачу на своем оборудовании, отправляет результат.
Верификатор (Наблюдатель): проверяет результат решателя; может оспорить через доказательство мошенничества, если он неверен.
(Отдельной роли «владельца» нет, так как отправитель предоставляет модель; роли управления через держателей токенов).
Разработчик ИИ-приложений (Координатор): развертывает ИИ-сервис, стейкает CAI, управляет задачами для майнеров.
Майнер (Поставщик GPU/CPU): стейкает CAI, выполняет назначенные задачи вывода, возвращает результаты.
Конечный пользователь: использует ИИ-приложения (платит криптовалютой или предоставляет ресурсы).
Стейкер (Делегатор): стейкает на координаторов/майнеров, голосует в управлении, получает долю вознаграждений.
Consensus & VerificationYuma Consensus: custom “proof-of-intelligence” – validators’ scores of AI output are aggregated (stake-weighted median) to determine miner rewards. Underlying chain consensus is PoS-like (Substrate) for blocks, but block validity hinges on the AI consensus each epoch. Resistant to outlier scoring and collusion up to 50%.Optimistic verification (Truebit-style): assume solver’s result correct unless a verifier challenges. Uses interactive on-chain fraud proofs to pinpoint any incorrect step. Also implementing cryptographic proofs-of-computation (proof-of-learning) to validate training progress without re-execution. Ethereum provides base consensus for transactions.Консенсус Proof-of-Stake цепи + валидация задач координаторами: Cuckoo Chain использовала валидаторы PoS для производства блоков (изначально майнеры также помогали обеспечивать безопасность блоков). Результаты ИИ-задач проверяются узлами-координаторами (которые проверяют выходы майнеров на соответствие ожидаемому поведению модели). Специализированных криптографических доказательств пока нет — полагается на стейк и репутацию (отсутствие доверия в той степени, в какой неправомерное поведение приводит к сокращению стейка или понижению рейтинга, а не к автоматическому математически доказанному обнаружению). Переходит на консенсус Ethereum (роллап) для безопасности реестра.

Проверяемый ИИ в движении: как динамические zk-SNARKs от Lagrange Labs обеспечивают непрерывное доверие

· 7 мин. чтения
Dora Noda
Software Engineer

В быстро сближающихся мирах искусственного интеллекта и блокчейна спрос на доверие и прозрачность никогда не был таким высоким. Как мы можем быть уверены, что результат работы модели ИИ точен и не подвергался изменениям? Как мы можем выполнять сложные вычисления на огромных ончейн-наборах данных без ущерба для безопасности или масштабируемости? Lagrange Labs решает эти вопросы напрямую с помощью своего набора инфраструктуры с нулевым разглашением (ZK), стремясь построить будущее "ИИ, который можно доказать". Этот пост представляет объективный обзор их миссии, технологий и недавних прорывов, кульминацией которых стала их последняя статья о динамических zk-SNARKs.

1. Команда и ее миссия

Lagrange Labs создает базовую инфраструктуру для генерации криптографических доказательств для любого вывода ИИ или ончейн-приложения. Их цель — сделать вычисления проверяемыми, привнося новый уровень доверия в цифровой мир. Их экосистема построена на трех основных продуктовых линейках:

  • Сеть ZK-доказателей: Децентрализованная сеть из более чем 85 узлов-доказателей, которая обеспечивает вычислительную мощность, необходимую для широкого спектра задач доказательства, от ИИ и роллапов до децентрализованных приложений (dApps).
  • DeepProve (zkML): Специализированная система для генерации ZK-доказательств выводов нейронных сетей. Lagrange утверждает, что она до 158 раз быстрее конкурирующих решений, что делает проверяемый ИИ практической реальностью.
  • ZK-сопроцессор 1.0: Первый ZK-сопроцессор на основе SQL, позволяющий разработчикам выполнять пользовательские запросы к массивным ончейн-наборам данных и получать проверяемо точные результаты.

2. Дорожная карта к проверяемому ИИ

Lagrange методично реализует дорожную карту, разработанную для поэтапного решения проблем проверяемости ИИ.

  • 3 квартал 2024 г.: Запуск ZK-сопроцессора 1.0: Этот релиз представил гиперпараллельные рекурсивные схемы, которые обеспечили среднее увеличение скорости примерно в 2 раза. Такие проекты, как Azuki и Gearbox, уже используют сопроцессор для своих потребностей в ончейн-данных.
  • 1 квартал 2025 г.: Представление DeepProve: Lagrange анонсировала DeepProve, свое решение для машинного обучения с нулевым разглашением (zkML). Оно поддерживает популярные архитектуры нейронных сетей, такие как многослойные перцептроны (MLP) и сверточные нейронные сети (CNN). Система достигает значительного, на порядок, ускорения на всех трех критических этапах: однократная настройка, генерация доказательства и верификация, при этом ускорение достигает 158x.
  • 2 квартал 2025 г.: Статья о динамических zk-SNARKs (Последняя веха): Эта статья представляет новаторский алгоритм "обновления". Вместо повторной генерации доказательства с нуля каждый раз, когда изменяются базовые данные или вычисления, этот метод может "заплатать" старое доказательство (π) в новое доказательство (π'). Это обновление может быть выполнено со сложностью всего O(√n log³n), что является значительным улучшением по сравнению с полной перегенерацией. Это нововведение особенно подходит для динамических систем, таких как постоянно обучающиеся модели ИИ, игровая логика в реальном времени и развивающиеся смарт-контракты.

3. Почему динамические zk-SNARKs важны

Введение обновляемых доказательств представляет собой фундаментальный сдвиг в модели затрат технологии с нулевым разглашением.

  • Новая парадигма затрат: Отрасль переходит от модели "полной перегенерации для каждого доказательства" к "инкрементальному доказательству, основанному на размере изменения". Это значительно снижает вычислительные и финансовые затраты для приложений, которые часто подвергаются незначительным обновлениям.

  • Последствия для ИИ:

    • Непрерывная донастройка: При донастройке менее 1% параметров модели время генерации доказательства растет почти линейно с количеством измененных параметров (Δ параметров), а не с общим размером модели.
    • Потоковый вывод: Это позволяет генерировать доказательства одновременно с самим процессом вывода. Это значительно сокращает задержку между принятием решения ИИ и его фиксацией и верификацией в блокчейне, открывая такие варианты использования, как ончейн-сервисы ИИ и сжатые доказательства для роллапов.
  • Последствия для ончейн-приложений:

    • Динамические zk-SNARKs предлагают огромную оптимизацию газа и времени для приложений, характеризующихся частыми, небольшими изменениями состояния. Это включает книги ордеров децентрализованных бирж (DEX), развивающиеся игровые состояния и обновления реестра, включающие частые добавления или удаления.

4. Взгляд на технологический стек

Мощная инфраструктура Lagrange построена на сложном и интегрированном технологическом стеке:

  • Проектирование схем: Система является гибкой, поддерживая встраивание моделей ONNX (Open Neural Network Exchange), SQL-парсеров и пользовательских операторов непосредственно в свои схемы.
  • Рекурсия и параллелизм: Сеть ZK-доказателей облегчает распределенные рекурсивные доказательства, в то время как ZK-сопроцессор использует шардинг "микросхем" для параллельного выполнения задач, максимизируя эффективность.
  • Экономические стимулы: Lagrange планирует запустить нативный токен LA, который будет интегрирован в систему двойного аукциона для рекурсивного аукциона (DARA). Это создаст надежный рынок для торгов за вычисления доказателей, дополненный стимулами и штрафами для обеспечения целостности сети.

5. Экосистема и реальное внедрение

Lagrange не просто строит в вакууме; ее технология уже интегрируется растущим числом проектов в различных секторах:

  • ИИ и МО: Такие проекты, как 0G Labs и Story Protocol, используют DeepProve для верификации результатов своих моделей ИИ, обеспечивая происхождение и доверие.
  • Роллапы и инфраструктура: Ключевые игроки, такие как EigenLayer, Base и Arbitrum, участвуют в сети ZK-доказателей в качестве узлов валидации или партнеров по интеграции, способствуя ее безопасности и вычислительной мощности.
  • Приложения NFT и DeFi: Такие бренды, как Azuki, и протоколы DeFi, такие как Gearbox, используют ZK-сопроцессор для повышения достоверности своих запросов данных и механизмов распределения вознаграждений.

6. Вызовы и путь вперед

Несмотря на впечатляющий прогресс, Lagrange Labs и более широкая область ZK сталкиваются с рядом препятствий:

  • Аппаратные узкие места: Даже при наличии распределенной сети обновляемые SNARKs по-прежнему требуют высокой пропускной способности и полагаются на криптографические кривые, дружественные к GPU, для эффективной работы.
  • Отсутствие стандартизации: Процесс сопоставления фреймворков ИИ, таких как ONNX и PyTorch, с ZK-схемами по-прежнему не имеет универсального, стандартизированного интерфейса, что создает трудности для разработчиков.
  • Конкурентная среда: Гонка за создание zkVM и обобщенных платформ zkCompute набирает обороты. Конкуренты, такие как Risc-Zero и Succinct, также добиваются значительных успехов. В конечном итоге победителем может стать тот, кто первым сможет коммерциализировать удобный для разработчиков, управляемый сообществом набор инструментов.

7. Заключение

Lagrange Labs методично меняет пересечение ИИ и блокчейна через призму проверяемости. Их подход предлагает комплексное решение:

  • DeepProve решает проблему доверенного вывода.
  • ZK-сопроцессор решает проблему доверенных данных.
  • Динамические zk-SNARKs напрямую включают потребность реального мира в непрерывных обновлениях в систему доказательства.

Если Lagrange сможет сохранить свое преимущество в производительности, решить критическую проблему стандартизации и продолжить развивать свою надежную сеть, она имеет хорошие шансы стать краеугольным камнем в развивающемся секторе "ИИ + ZK-инфраструктуры".

Camp Network: Блокчейн, решающий миллиардную проблему ИИ с интеллектуальной собственностью 🏕️

· 5 мин. чтения
Dora Noda
Software Engineer

Взрывной рост генеративного ИИ был поистине ошеломляющим. От потрясающего цифрового искусства до человекоподобного текста — ИИ создает контент в беспрецедентных масштабах. Но у этого бума есть и темная сторона: откуда ИИ берет свои обучающие данные? Часто это происходит из огромных просторов интернета — из произведений искусства, музыки и текстов, созданных людьми, которые не получают ни признания, ни вознаграждения.

Представляем Camp Network — новый блокчейн-проект, который призван решить эту фундаментальную проблему. Это не просто еще одна криптоплатформа; это специально созданный «Автономный уровень ИС», разработанный для того, чтобы предоставить создателям право собственности и контроль над их работой в эпоху ИИ. Давайте углубимся в то, что делает Camp Network проектом, за которым стоит следить.


В чем суть идеи?

По своей сути Camp Network — это блокчейн, который действует как глобальный, проверяемый реестр интеллектуальной собственности (ИС). Миссия состоит в том, чтобы позволить любому — от независимого художника до пользователя социальных сетей — регистрировать свой контент в блокчейне. Это создает постоянную, защищенную от подделок запись о праве собственности и происхождении.

Почему это важно? Когда модель ИИ использует контент, зарегистрированный в Camp, смарт-контракты сети могут автоматически применять условия лицензирования. Это означает, что первоначальный создатель может получить авторство и даже мгновенно получать роялти. Видение Camp состоит в том, чтобы построить новую экономику создателей, где вознаграждение не является второстепенной мыслью; оно встроено непосредственно в протокол.


Под капотом: Технологический стек

Camp — это не просто концепция; за ним стоит серьезная технология, разработанная для высокой производительности и удобства для разработчиков.

  • Модульная архитектура: Camp построен как суверенный роллап, использующий Celestia для доступности данных. Такая конструкция позволяет ему быть невероятно быстрым (цель ~50 000 транзакций в секунду) и дешевым, оставаясь при этом полностью совместимым с инструментами Ethereum (EVM).
  • Доказательство происхождения (PoP): Это уникальный механизм консенсуса Camp. Вместо того чтобы полагаться на энергоемкий майнинг, безопасность сети связана с проверкой происхождения контента. Каждая транзакция подтверждает происхождение ИС в сети, делая право собственности «обеспечиваемым по умолчанию».
  • Стратегия двойной виртуальной машины (Dual-VM): Для максимальной производительности Camp интегрирует виртуальную машину Solana (SVM) наряду с совместимостью с EVM. Это позволяет разработчикам выбирать наилучшую среду для своего приложения, особенно для высокопроизводительных сценариев использования, таких как взаимодействие ИИ в реальном времени.
  • Наборы инструментов для создателей и ИИ: Camp предоставляет две ключевые платформы:
    • Origin Framework: Удобная система для создателей, позволяющая регистрировать свою ИС, токенизировать ее (как NFT) и встраивать правила лицензирования.
    • mAItrix Framework: Набор инструментов для разработчиков, позволяющий создавать и развертывать ИИ-агентов, которые могут взаимодействовать с ИС в блокчейне безопасным, разрешенным способом.

Люди, партнерства и прогресс

Идея хороша настолько, насколько хороша ее реализация, и Camp, похоже, реализуется успешно.

Команда и финансирование

Проект возглавляет команда с мощным сочетанием опыта из The Raine Group (сделки в области медиа и ИС), Goldman Sachs, Figma и CoinList. Это сочетание опыта в финансах, технологических продуктах и криптоинженерии помогло им привлечь $30 миллионов финансирования от ведущих венчурных фондов, таких как 1kx, Blockchain Capital и Maven 11.

Растущая экосистема

Camp активно строит партнерские отношения. Наиболее значимым является стратегическая доля в KOR Protocol — платформе для токенизации музыкальной ИС, которая работает с такими крупными артистами, как Deadmau5, и франшизами, такими как Black Mirror. Это единственное партнерство обеспечивает Camp огромной библиотекой высококачественного, очищенного от прав контента. Среди других ключевых сотрудников:

  • RewardedTV: Децентрализованная платформа для потокового видео, использующая Camp для прав на контент в блокчейне.
  • Rarible: Маркетплейс NFT, интегрированный для торговли активами ИС.
  • LayerZero: Кроссчейн-протокол для обеспечения совместимости с другими блокчейнами.

Дорожная карта и сообщество

После успешных стимулированных кампаний в тестовой сети, которые привлекли десятки тысяч пользователей (вознаграждая их баллами, которые будут конвертированы в токены), Camp нацелен на запуск основной сети в 3 квартале 2025 года. Это будет сопровождаться событием генерации токенов для его нативного токена $CAMP, который будет использоваться для оплаты комиссий за газ, стейкинга и управления. Проект уже сформировал страстное сообщество, стремящееся развивать и использовать платформу с первого дня.


Как это выглядит в сравнении?

Camp Network не одинок в этом пространстве. Он сталкивается с жесткой конкуренцией со стороны таких проектов, как поддерживаемый a16z Story Protocol и связанный с Sony Soneium. Однако Camp отличается несколькими ключевыми особенностями:

  1. Подход «снизу вверх»: В то время как конкуренты, похоже, ориентированы на крупных корпоративных владельцев ИС, Camp сосредоточен на расширении возможностей независимых создателей и криптосообществ посредством токенов-стимулов.
  2. Комплексное решение: Он предлагает полный набор инструментов, от реестра ИС до фреймворка ИИ-агентов, позиционируя себя как универсальное решение.
  3. Производительность и масштабируемость: Его модульная архитектура и поддержка двойной виртуальной машины разработаны для высоких требований к пропускной способности ИИ и медиа.

Вывод

Camp Network убедительно доказывает свою способность стать основополагающим уровнем для интеллектуальной собственности в эпоху Web3. Объединяя инновационные технологии, сильную команду, стратегические партнерства и этику, ориентированную на сообщество, он создает практическое решение одной из самых насущных проблем, порожденных генеративным ИИ.

Настоящее испытание начнется с запуском основной сети и реальным внедрением. Но с четким видением и сильной реализацией на данный момент Camp Network, несомненно, является ключевым проектом, за которым стоит следить, поскольку он пытается построить более справедливое будущее для цифровых создателей.

Знакомьтесь с BeFreed.ai – Топливо для обучения разработчиков BlockEden.xyz

· 4 мин. чтения
Dora Noda
Software Engineer

Почему BlockEden.xyz это важно

В быстро меняющемся мире Web3 скорость — это всё. Развертывание RPC-инфраструктуры и инфраструктуры для стейкинга производственного уровня требует от нашей команды и сообщества постоянного пребывания на переднем крае инноваций. Это означает быть в курсе сложных протоколов, новаторских криптографических работ и быстро развивающихся дискуссий по управлению. Чем быстрее наше сообщество сможет усваивать и понимать новые идеи, тем быстрее оно сможет создавать децентрализованные приложения нового поколения. Именно здесь на помощь приходит BeFreed.ai.

Что такое BeFreed.ai

BeFreed.ai — это стартап из Сан-Франциско с простой, но мощной миссией: сделать обучение радостным и персонализированным в эпоху ИИ. Они создали интеллектуального компаньона для микрообучения, разработанного с учетом требовательного образа жизни разработчиков и создателей.

Основные компоненты:

  • Множество форматов → один клик: BeFreed.ai может взять широкий спектр контента — от объемных книг и подробных видео до сложных технических документов — и мгновенно преобразовать его в краткие обзоры, флеш-карточки, подробные заметки и даже аудио в стиле подкаста.
  • Адаптивный движок: Платформа разработана для обучения вместе с вами. Она учитывает ваш темп обучения и интересы, предлагая наиболее актуальную информацию, вместо того чтобы заставлять вас проходить жесткую, универсальную учебную программу.
  • Встроенный чат и объяснения «Почему это»: Есть вопрос? Просто спросите. BeFreed.ai позволяет задавать вопросы на лету для разъяснения сложных тем. Он также предоставляет объяснения, которые связывают новые идеи с вашими общими целями, делая процесс обучения более осмысленным.
  • Сообщество из 43 тысяч учащихся: Обучение часто является коллективной деятельностью. BeFreed.ai развивает активное сообщество из более чем 43 000 учащихся, которые делятся своим прогрессом, реагируют на содержательный контент и выделяют ключевые выводы, поддерживая высокую мотивацию и динамику.

Почему это важно для разработчиков BlockEden.xyz

Для преданных разработчиков в экосистеме BlockEden.xyz BeFreed.ai — это больше, чем просто инструмент для обучения; это стратегическое преимущество. Вот как он может отточить ваше мастерство:

  • Экономия времени: Превратите 300-страничный вайтпейпер в краткий 10-минутный аудиообзор, который можно прослушать перед важным голосованием по управлению.
  • Сохранение контекста: Используйте флеш-карточки и ментальные карты, чтобы закрепить понимание деталей протокола, которые понадобятся при написании индексов смарт-контрактов.
  • Развитие кросс-навыков: Расширяйте свои навыки, не покидая среды разработки. Изучите основы дизайн-мышления, поймите циклы роста или получите советы по параллелизму в Go в свободное время.
  • Общий словарный запас: Создавайте плейлисты на уровне команды, чтобы каждый участник обучался из одного и того же, тщательно отобранного и последовательного источника информации, способствуя лучшему сотрудничеству и согласованности.

Использование BeFreed в рабочих процессах BlockEden.xyz

Интеграция BeFreed.ai в ваш существующий процесс разработки является бесшовной и немедленно приносит пользу:

  1. Загрузите спецификацию: Вставьте URL-адрес последнего PDF-файла по токеномике или записи звонка разработчиков с YouTube в BeFreed для мгновенного, легко усваиваемого резюме.
  2. Экспортируйте флеш-карточки: Повторяйте ключевые концепции во время выполнения CI. Эта форма повторения гораздо эффективнее, чем умственная усталость, возникающая от постоянного переключения контекста.
  3. Вставьте ссылку в документацию: Встройте URL-адрес резюме BeFreed рядом с каждой ссылкой на API в вашей документации, чтобы помочь новым членам команды быстрее освоиться.
  4. Будьте в курсе: Настройте еженедельные дайджесты в BeFreed по новым L2 и немедленно примените эти знания на практике, создавая прототипы с помощью многоцепочечных RPC-сервисов BlockEden.xyz.

Начните работу

BeFreed.ai доступен сейчас на iOS, Android и в интернете. Мы рекомендуем вам попробовать его во время следующего спринта вашего проекта BlockEden.xyz и убедиться, как он может повысить скорость вашего обучения и разработки. Наша команда уже изучает более тесные интеграции — представьте будущее, где вебхук автоматически превращает каждое описание объединенного PR в полный учебный набор.

Соединение ИИ и Web3 через MCP: Панорамный анализ

· 40 мин. чтения
Dora Noda
Software Engineer

Введение

ИИ и Web3 мощно сближаются, при этом общие интерфейсы ИИ теперь рассматриваются как связующая ткань для децентрализованной сети. Ключевой концепцией, возникающей из этой конвергенции, является MCP, что в разных контекстах означает «Протокол контекста модели» (как представлено Anthropic) или свободно описывается как Протокол подключения к Метавселенной в более широких дискуссиях. По сути, MCP — это стандартизированный фреймворк, который позволяет системам ИИ взаимодействовать с внешними инструментами и сетями естественным и безопасным способом — потенциально «подключая» ИИ-агентов ко всем уголкам экосистемы Web3. Этот отчет представляет всесторонний анализ того, как общие интерфейсы ИИ (такие как агенты больших языковых моделей и нейросимволические системы) могут соединить все в мире Web3 через MCP, охватывая исторический контекст, техническую архитектуру, отраслевой ландшафт, риски и будущий потенциал.

1. История развития

1.1 Эволюция Web3 и невыполненные обещания

Термин «Web3» был придуман примерно в 2014 году для описания децентрализованной сети на основе блокчейна. Видение было амбициозным: интернет без разрешений, ориентированный на владение пользователем. Энтузиасты представляли замену централизованной инфраструктуры Web2 альтернативами на основе блокчейна — например, Ethereum Name Service (для DNS), Filecoin или IPFS (для хранения) и DeFi для финансовых рельсов. Теоретически, это должно было вырвать контроль у платформ Big Tech и предоставить людям самосуверенитет над данными, идентификацией и активами.

Реальность не оправдала ожиданий. Несмотря на годы разработки и шумихи, основное влияние Web3 оставалось незначительным. Обычные интернет-пользователи не хлынули в децентрализованные социальные сети и не начали управлять приватными ключами. Основными причинами были плохой пользовательский опыт, медленные и дорогие транзакции, громкие мошенничества и регуляторная неопределенность. Децентрализованная «сеть владения» в значительной степени «не материализовалась» за пределами нишевого сообщества. К середине 2020-х годов даже сторонники криптовалют признали, что Web3 не принес парадигмального сдвига для среднего пользователя.

Тем временем ИИ переживал революцию. По мере того как капитал и талант разработчиков переключались с крипто на ИИ, трансформационные достижения в области глубокого обучения и фундаментальных моделей (GPT-3, GPT-4 и т. д.) захватили общественное воображение. Генеративный ИИ продемонстрировал явную полезность — создание контента, кода и принятие решений — так, как криптоприложениям это не удавалось. Фактически, влияние больших языковых моделей всего за пару лет резко превзошло десятилетие пользовательского принятия блокчейна. Этот контраст привел некоторых к шутке, что «Web3 был потрачен впустую на крипто» и что настоящий Web 3.0 возникает из волны ИИ.

1.2 Расцвет общих интерфейсов ИИ

На протяжении десятилетий пользовательские интерфейсы эволюционировали от статических веб-страниц (Web1.0) до интерактивных приложений (Web2.0) — но всегда в рамках нажатия кнопок и заполнения форм. С современным ИИ, особенно большими языковыми моделями (LLM), появилась новая парадигма интерфейса: естественный язык. Пользователи могут просто выражать свои намерения на простом языке, а системы ИИ будут выполнять сложные действия во многих областях. Этот сдвиг настолько глубок, что некоторые предлагают переопределить «Web 3.0» как эру агентов, управляемых ИИ («Агентский Веб»), а не как более раннее, ориентированное на блокчейн определение.

Однако ранние эксперименты с автономными ИИ-агентами выявили критическое узкое место. Эти агенты — например, прототипы, такие как AutoGPT — могли генерировать текст или код, но им не хватало надежного способа общаться с внешними системами и друг с другом. Не существовало «общего ИИ-нативного языка» для интероперабельности. Каждая интеграция с инструментом или источником данных была индивидуальной доработкой, а взаимодействие ИИ-ИИ не имело стандартного протокола. На практике ИИ-агент мог обладать отличными способностями к рассуждению, но не справлялся с выполнением задач, требующих использования веб-приложений или ончейн-сервисов, просто потому, что не знал, как «разговаривать» с этими системами. Это несоответствие — мощный мозг, примитивный ввод/вывод — было сродни суперумному программному обеспечению, застрявшему за неуклюжим графическим интерфейсом.

1.3 Конвергенция и появление MCP

К 2024 году стало очевидно, что для того, чтобы ИИ полностью раскрыл свой потенциал (и чтобы Web3 выполнил свои обещания), необходима конвергенция: ИИ-агентам требуется беспрепятственный доступ к возможностям Web3 (децентрализованные приложения, контракты, данные), а Web3 нуждается в большей интеллектуальности и удобстве использования, что может обеспечить ИИ. Именно в этом контексте родился MCP (Протокол контекста модели). Представленный Anthropic в конце 2024 года, MCP является открытым стандартом для ИИ-инструментального взаимодействия, который естественен для LLM. Он предоставляет структурированный, обнаруживаемый способ для «хостов» ИИ (таких как ChatGPT, Claude и т. д.) находить и использовать различные внешние инструменты и ресурсы через MCP-серверы. Другими словами, MCP — это общий интерфейсный слой, позволяющий ИИ-агентам подключаться к веб-сервисам, API и даже функциям блокчейна без индивидуального кодирования каждой интеграции.

Представьте MCP как «USB-C для ИИ-интерфейсов». Подобно тому, как USB-C стандартизировал подключение устройств (так что вам не нужны разные кабели для каждого устройства), MCP стандартизирует подключение ИИ-агентов к инструментам и данным. Вместо того чтобы жестко кодировать различные вызовы API для каждого сервиса (Slack против Gmail против узла Ethereum), разработчик может реализовать спецификацию MCP один раз, и любой MCP-совместимый ИИ сможет понять, как использовать этот сервис. Крупные игроки в области ИИ быстро осознали важность: Anthropic открыла исходный код MCP, и такие компании, как OpenAI и Google, разрабатывают поддержку для него в своих моделях. Этот импульс предполагает, что MCP (или аналогичные «Протоколы мета-связи») может стать основой, которая наконец масштабируемо соединит ИИ и Web3.

Примечательно, что некоторые технологи утверждают, что эта ИИ-центричная связь является реальным воплощением Web3.0. По словам Симбы Хаддера, «MCP стремится стандартизировать API между LLM и приложениями», подобно тому, как REST API позволили Web 2.0 — это означает, что следующая эра Web3 может быть определена интерфейсами интеллектуальных агентов, а не только блокчейнами. Вместо децентрализации ради нее самой, конвергенция с ИИ может сделать децентрализацию полезной, скрывая сложность за естественным языком и автономными агентами. Остальная часть этого отчета углубляется в то, как, технически и практически, общие интерфейсы ИИ (через протоколы, такие как MCP) могут соединить все в мире Web3.

2. Техническая архитектура: ИИ-интерфейсы, объединяющие технологии Web3

Внедрение ИИ-агентов в стек Web3 требует интеграции на нескольких уровнях: блокчейн-сети и смарт-контракты, децентрализованное хранилище, системы идентификации и экономики на основе токенов. Общие интерфейсы ИИ — от больших фундаментальных моделей до гибридных нейросимволических систем — могут служить «универсальным адаптером», соединяющим эти компоненты. Ниже мы анализируем архитектуру такой интеграции:

Рисунок: Концептуальная схема архитектуры MCP, показывающая, как хосты ИИ (приложения на основе LLM, такие как Claude или ChatGPT) используют MCP-клиент для подключения к различным MCP-серверам. Каждый сервер предоставляет мост к некоторому внешнему инструменту или сервису (например, Slack, Gmail, календарям или локальным данным), аналогично периферийным устройствам, подключающимся через универсальный концентратор. Этот стандартизированный MCP-интерфейс позволяет ИИ-агентам получать доступ к удаленным сервисам и ончейн-ресурсам через один общий протокол.

2.1 ИИ-агенты как клиенты Web3 (интеграция с блокчейнами)

В основе Web3 лежат блокчейны и смарт-контракты — децентрализованные конечные автоматы, которые могут обеспечивать логику без доверия. Как ИИ-интерфейс может взаимодействовать с ними? Есть два направления для рассмотрения:

  • ИИ, считывающий данные из блокчейна: ИИ-агенту могут понадобиться ончейн-данные (например, цены токенов, баланс активов пользователя, предложения ДАО) в качестве контекста для принятия решений. Традиционно получение данных блокчейна требует взаимодействия с RPC API узлов или базами данных подграфов. С фреймворком, таким как MCP, ИИ может запрашивать стандартизированный MCP-сервер «данных блокчейна» для получения актуальной ончейн-информации. Например, агент с поддержкой MCP может запросить последний объем транзакций определенного токена или состояние смарт-контракта, и MCP-сервер обработает низкоуровневые детали подключения к блокчейну и вернет данные в формате, который ИИ может использовать. Это увеличивает интероперабельность, отвязывая ИИ от API-формата конкретного блокчейна.

  • ИИ, записывающий данные в блокчейн: Что еще более мощно, ИИ-агенты могут выполнять вызовы смарт-контрактов или транзакции через интеграции Web3. ИИ мог бы, например, автономно выполнить сделку на децентрализованной бирже или скорректировать параметры в смарт-контракте, если будут выполнены определенные условия. Это достигается путем вызова ИИ MCP-сервера, который инкапсулирует функциональность блокчейн-транзакций. Одним конкретным примером является MCP-сервер thirdweb для EVM-цепочек, который позволяет любому MCP-совместимому ИИ-клиенту взаимодействовать с Ethereum, Polygon, BSC и т. д., абстрагируясь от специфики цепочки. Используя такой инструмент, ИИ-агент мог бы инициировать ончейн-действия «без вмешательства человека», обеспечивая автономные dApp — например, DeFi-хранилище, управляемое ИИ, которое самобалансируется путем подписания транзакций при изменении рыночных условий.

По сути, эти взаимодействия по-прежнему зависят от кошельков, ключей и комиссий за газ, но ИИ-интерфейсу может быть предоставлен контролируемый доступ к кошельку (с соответствующими песочницами безопасности) для выполнения транзакций. Оракулы и кроссчейн-мосты также вступают в игру: сети оракулов, такие как Chainlink, служат мостом между ИИ и блокчейнами, позволяя надежно передавать результаты работы ИИ в блокчейн. Протокол кроссчейн-взаимодействия Chainlink (CCIP), например, может позволить ИИ-модели, признанной надежной, одновременно запускать несколько контрактов в разных цепочках от имени пользователя. В итоге, общие интерфейсы ИИ могут выступать в качестве нового типа клиента Web3 — того, который может как потреблять данные блокчейна, так и производить блокчейн-транзакции через стандартизированные протоколы.

2.2 Нейросимволическая синергия: Сочетание рассуждений ИИ со смарт-контрактами

Одним из интригующих аспектов интеграции ИИ-Web3 является потенциал нейросимволических архитектур, которые сочетают способность ИИ к обучению (нейронные сети) со строгой логикой смарт-контрактов (символические правила). На практике это может означать, что ИИ-агенты обрабатывают неструктурированное принятие решений и передают определенные задачи смарт-контрактам для проверяемого выполнения. Например, ИИ может анализировать рыночные настроения (нечеткая задача), но затем выполнять сделки через детерминированный смарт-контракт, который следует заранее установленным правилам риска. Фреймворк MCP и связанные с ним стандарты делают такие передачи возможными, предоставляя ИИ общий интерфейс для вызова функций контракта или для запроса правил ДАО перед действием.

Конкретным примером является AI-DSL (предметно-ориентированный язык ИИ) SingularityNET, который направлен на стандартизацию связи между ИИ-агентами в их децентрализованной сети. Это можно рассматривать как шаг к нейросимволической интеграции: формальный язык (символический) для агентов для запроса ИИ-услуг или данных друг у друга. Аналогично, проекты, такие как AlphaCode DeepMind или другие, могут быть в конечном итоге подключены так, чтобы смарт-контракты вызывали ИИ-модели для решения ончейн-задач. Хотя запуск больших ИИ-моделей непосредственно в блокчейне сегодня непрактичен, появляются гибридные подходы: например, некоторые блокчейны позволяют проверять ML-вычисления с помощью доказательств с нулевым разглашением или доверенного выполнения, что позволяет ончейн-проверку результатов ИИ, полученных вне цепочки. В итоге, техническая архитектура предполагает, что системы ИИ и смарт-контракты блокчейна являются взаимодополняющими компонентами, оркестрованными через общие протоколы: ИИ занимается восприятием и открытыми задачами, в то время как блокчейны обеспечивают целостность, память и соблюдение согласованных правил.

2.3 Децентрализованное хранение и данные для ИИ

ИИ процветает на данных, а Web3 предлагает новые парадигмы для хранения и обмена данными. Децентрализованные сети хранения (такие как IPFS/Filecoin, Arweave, Storj и т. д.) могут служить как хранилищами для артефактов ИИ-моделей, так и источниками обучающих данных, с контролем доступа на основе блокчейна. Общий интерфейс ИИ, через MCP или аналогичный протокол, может получать файлы или знания из децентрализованного хранилища так же легко, как из Web2 API. Например, ИИ-агент может получить набор данных с рынка Ocean Protocol или зашифрованный файл из распределенного хранилища, если у него есть соответствующие ключи или права доступа.

Ocean Protocol, в частности, позиционирует себя как платформа «экономики данных для ИИ» — использующая блокчейн для токенизации данных и даже ИИ-сервисов. В Ocean наборы данных представлены токенами данных, которые ограничивают доступ; ИИ-агент может получить токен данных (возможно, заплатив криптовалютой или через какое-либо право доступа), а затем использовать Ocean MCP-сервер для получения фактических данных для анализа. Цель Ocean — разблокировать «спящие данные» для ИИ, стимулируя обмен, сохраняя при этом конфиденциальность. Таким образом, ИИ, подключенный к Web3, может получить доступ к обширному, децентрализованному корпусу информации — от личных хранилищ данных до открытых государственных данных — который ранее был изолирован. Блокчейн гарантирует, что использование данных прозрачно и может быть справедливо вознаграждено, подпитывая добродетельный цикл, в котором больше данных становится доступным для ИИ, и больше вкладов ИИ (например, обученных моделей) может быть монетизировано.

Децентрализованные системы идентификации также играют здесь роль (подробнее обсуждается в следующем подразделе): они могут помочь контролировать, кто или что имеет право доступа к определенным данным. Например, медицинский ИИ-агент может быть обязан предоставить проверяемое удостоверение (ончейн-доказательство соответствия HIPAA или аналогичным стандартам), прежде чем ему будет разрешено расшифровать медицинский набор данных из личного хранилища IPFS пациента. Таким образом, техническая архитектура обеспечивает поток данных к ИИ там, где это уместно, но с ончейн-управлением и журналами аудита для обеспечения разрешений.

2.4 Управление идентификацией и агентами в децентрализованной среде

Когда автономные ИИ-агенты работают в открытой экосистеме, такой как Web3, идентификация и доверие становятся первостепенными. Фреймворки децентрализованной идентификации (DID) предоставляют способ установить цифровые идентификаторы для ИИ-агентов, которые могут быть криптографически проверены. Каждый агент (или человек/организация, развертывающая его) может иметь DID и связанные с ним проверяемые учетные данные, которые определяют его атрибуты и разрешения. Например, ИИ-торговый бот может иметь учетные данные, выданные регуляторной песочницей, подтверждающие, что он может работать в определенных пределах риска, или ИИ-модератор контента может доказать, что он был создан доверенной организацией и прошел тестирование на предвзятость.

Через ончейн-реестры идентификации и системы репутации мир Web3 может обеспечить подотчетность за действия ИИ. Каждая транзакция, выполняемая ИИ-агентом, может быть отслежена до его ID, и если что-то пойдет не так, учетные данные сообщат вам, кто его создал или кто несет ответственность. Это решает критическую проблему: без идентификации злоумышленник мог бы создавать поддельные ИИ-агенты для эксплуатации систем или распространения дезинформации, и никто не смог бы отличить ботов от легитимных сервисов. Децентрализованная идентификация помогает смягчить это, обеспечивая надежную аутентификацию и различая подлинных ИИ-агентов от подделок.

На практике ИИ-интерфейс, интегрированный с Web3, будет использовать протоколы идентификации для подписания своих действий и запросов. Например, когда ИИ-агент вызывает MCP-сервер для использования инструмента, он может включить токен или подпись, привязанную к его децентрализованной идентификации, чтобы сервер мог проверить, что вызов исходит от авторизованного агента. Системы идентификации на основе блокчейна (такие как ERC-725 Ethereum или W3C DIDs, привязанные к реестру) гарантируют, что эта проверка является бездоверительной и глобально проверяемой. Появляющаяся концепция «ИИ-кошельков» связана с этим — по сути, предоставление ИИ-агентам криптовалютных кошельков, которые связаны с их идентификацией, чтобы они могли управлять ключами, оплачивать услуги или стейкать токены в качестве залога (который может быть урезан за неправомерное поведение). ArcBlock, например, обсуждал, как «ИИ-агентам нужен кошелек» и DID для ответственной работы в децентрализованных средах.

В итоге, техническая архитектура предполагает, что ИИ-агенты являются полноправными гражданами в Web3, каждый со своей ончейн-идентификацией и, возможно, долей в системе, использующими протоколы, такие как MCP, для взаимодействия. Это создает сеть доверия: смарт-контракты могут требовать учетные данные ИИ перед сотрудничеством, а пользователи могут делегировать задачи только тем ИИ, которые соответствуют определенным ончейн-сертификациям. Это сочетание возможностей ИИ с гарантиями доверия блокчейна.

2.5 Токеномика и стимулы для ИИ

Токенизация — отличительная черта Web3, и она распространяется также на область интеграции ИИ. Вводя экономические стимулы через токены, сети могут поощрять желаемое поведение как со стороны разработчиков ИИ, так и самих агентов. Появляются несколько моделей:

  • Оплата услуг: ИИ-модели и сервисы могут быть монетизированы в блокчейне. SingularityNET стала пионером в этом, позволяя разработчикам развертывать ИИ-сервисы и взимать с пользователей плату в нативном токене (AGIX) за каждый вызов. В будущем, поддерживающем MCP, можно представить, что любой ИИ-инструмент или модель является сервисом plug-and-play, где использование измеряется токенами или микроплатежами. Например, если ИИ-агент использует сторонний API компьютерного зрения через MCP, он может автоматически обрабатывать платеж, переводя токены на смарт-контракт поставщика услуг. Fetch.ai аналогично предполагает рынки, где «автономные экономические агенты» торгуют услугами и данными, при этом их новая Web3 LLM (ASI-1), предположительно, интегрирует криптотранзакции для обмена ценностями.

  • Стейкинг и репутация: Для обеспечения качества и надежности некоторые проекты требуют от разработчиков или агентов стейкать токены. Например, проект DeMCP (децентрализованный рынок MCP-серверов) планирует использовать токеновые стимулы для вознаграждения разработчиков за создание полезных MCP-серверов и, возможно, требовать от них стейкинга токенов в качестве знака приверженности безопасности их сервера. Репутация также может быть привязана к токенам; например, агент, который постоянно хорошо работает, может накапливать токены репутации или положительные ончейн-отзывы, в то время как тот, кто ведет себя плохо, может потерять стейк или получить отрицательные отметки. Эта токенизированная репутация затем может быть использована в системе идентификации, упомянутой выше (смарт-контракты или пользователи проверяют ончейн-репутацию агента, прежде чем доверять ему).

  • Токены управления: Когда ИИ-сервисы становятся частью децентрализованных платформ, токены управления позволяют сообществу направлять их эволюцию. Проекты, такие как SingularityNET и Ocean, имеют ДАО, где держатели токенов голосуют за изменения протокола или финансирование ИИ-инициатив. В объединенном Альянсе искусственного суперинтеллекта (ASI) — недавно объявленном слиянии SingularityNET, Fetch.ai и Ocean Protocol — единый токен (ASI) будет управлять направлением совместной экосистемы ИИ+блокчейна. Такие токены управления могут определять политики, такие как какие стандарты принимать (например, поддержка протоколов MCP или A2A), какие ИИ-проекты инкубировать или как обрабатывать этические рекомендации для ИИ-агентов.

  • Доступ и полезность: Токены могут ограничивать доступ не только к данным (как в случае с токенами данных Ocean), но и к использованию ИИ-моделей. Возможный сценарий — это «модельные NFT» или аналогичные, где владение токеном предоставляет вам права на результаты работы ИИ-модели или долю в ее прибыли. Это может стать основой децентрализованных ИИ-рынков: представьте NFT, который представляет частичное владение высокопроизводительной моделью; владельцы коллективно зарабатывают каждый раз, когда модель используется в задачах вывода, и они могут голосовать за ее тонкую настройку. Хотя это экспериментально, это соответствует этосу Web3, ориентированному на совместное владение ИИ-активами.

С технической точки зрения, интеграция токенов означает, что ИИ-агентам нужна функциональность кошелька (как отмечалось, многие будут иметь свои собственные криптокошельки). Через MCP ИИ может иметь «инструмент кошелька», который позволяет ему проверять балансы, отправлять токены или вызывать протоколы DeFi (возможно, для обмена одного токена на другой для оплаты услуги). Например, если ИИ-агенту, работающему на Ethereum, нужны токены Ocean для покупки набора данных, он может автоматически обменять часть ETH на $OCEAN через DEX, используя плагин MCP, а затем продолжить покупку — все это без вмешательства человека, руководствуясь политиками, установленными его владельцем.

В целом, токеномика обеспечивает стимулирующий слой в архитектуре ИИ-Web3, гарантируя, что вкладчики (будь то предоставление данных, кода модели, вычислительной мощности или аудита безопасности) будут вознаграждены, и что ИИ-агенты имеют «долю в игре», что (в некоторой степени) согласовывает их с человеческими намерениями.

3. Отраслевой ландшафт

Конвергенция ИИ и Web3 породила живую экосистему проектов, компаний и альянсов. Ниже мы рассмотрим ключевых игроков и инициативы, движущие это пространство, а также появляющиеся варианты использования. Таблица 1 предоставляет общий обзор заметных проектов и их ролей в ландшафте ИИ-Web3:

Таблица 1: Ключевые игроки в ИИ + Web3 и их роли

Проект / ИгрокФокус и описаниеРоль в конвергенции ИИ-Web3 и варианты использования
Fetch.ai (Fetch)Платформа ИИ-агентов с собственным блокчейном (на базе Cosmos). Разработала фреймворки для автономных агентов и недавно представила «ASI-1 Mini», LLM, настроенную для Web3.Обеспечивает агентские сервисы в Web3. Агенты Fetch могут выполнять такие задачи, как децентрализованная логистика, поиск парковочных мест или DeFi-торговля от имени пользователей, используя криптовалюту для платежей. Партнерства (например, с Bosch) и слияние альянса Fetch-AI позиционируют его как инфраструктуру для развертывания агентских dApp.
Ocean Protocol (Ocean)Децентрализованный рынок данных и протокол обмена данными. Специализируется на токенизации наборов данных и моделей, с контролем доступа, сохраняющим конфиденциальность.Предоставляет основу данных для ИИ в Web3. Ocean позволяет разработчикам ИИ находить и приобретать наборы данных или продавать обученные модели в экономике данных без доверия. Подпитывая ИИ более доступными данными (при этом вознаграждая поставщиков данных), он поддерживает инновации в ИИ и обмен данными для обучения. Ocean является частью нового альянса ASI, интегрируя свои сервисы данных в более широкую сеть ИИ.
SingularityNET (SNet)Децентрализованный рынок ИИ-сервисов, основанный пионером ИИ Беном Герцелем. Позволяет любому публиковать или потреблять ИИ-алгоритмы через свою блокчейн-платформу, используя токен AGIX.Стала пионером концепции открытого рынка ИИ на блокчейне. Она способствует развитию сети ИИ-агентов и сервисов, которые могут взаимодействовать (разрабатывая специальный AI-DSL для связи между агентами). Варианты использования включают ИИ как услугу для таких задач, как анализ, распознавание изображений и т. д., все доступно через dApp. Теперь объединяется с Fetch и Ocean (альянс ASI), чтобы объединить ИИ, агентов и данные в единую экосистему.
Chainlink (Сеть оракулов)Децентрализованная сеть оракулов, которая связывает блокчейны с внецепочечными данными и вычислениями. Не является ИИ-проектом как таковым, но имеет решающее значение для подключения ончейн-смарт-контрактов к внешним API и системам.Выступает в качестве безопасного промежуточного ПО для интеграции ИИ-Web3. Оракулы Chainlink могут передавать результаты ИИ-моделей в смарт-контракты, позволяя ончейн-программам реагировать на решения ИИ. И наоборот, оракулы могут получать данные из блокчейнов для ИИ. Архитектура Chainlink может даже агрегировать результаты нескольких ИИ-моделей для повышения надежности (подход «машины правды» для смягчения галлюцинаций ИИ). По сути, она обеспечивает рельсы для интероперабельности, гарантируя, что ИИ-агенты и блокчейн согласуются в отношении доверенных данных.
Anthropic & OpenAI (Провайдеры ИИ)Разработчики передовых фундаментальных моделей (Claude от Anthropic, GPT от OpenAI). Они интегрируют функции, дружественные к Web3, такие как нативные API для использования инструментов и поддержка протоколов, таких как MCP.Эти компании развивают технологии ИИ-интерфейсов. Введение Anthropic протокола MCP установило стандарт для взаимодействия LLM с внешними инструментами. OpenAI реализовала системы плагинов для ChatGPT (аналогичные концепции MCP) и исследует подключение агентов к базам данных и, возможно, блокчейнам. Их модели служат «мозгами», которые, будучи подключенными через MCP, могут взаимодействовать с Web3. Крупные облачные провайдеры (например, протокол A2A от Google) также разрабатывают стандарты для взаимодействия между несколькими агентами и инструментами, что принесет пользу интеграции Web3.
Другие появляющиеся игрокиLumoz: фокусируется на MCP-серверах и интеграции ИИ-инструментов в Ethereum (названном «Ethereum 3.0») — например, проверка ончейн-балансов через ИИ-агентов. Alethea AI: создает интеллектуальные NFT-аватары для метавселенной. Cortex: блокчейн, который позволяет выполнять ончейн-вывод ИИ-моделей через смарт-контракты. Golem & Akash: децентрализованные вычислительные рынки, которые могут выполнять ИИ-нагрузки. Numerai: краудсорсинговые ИИ-модели для финансов с крипто-стимулами.Эта разнообразная группа решает нишевые аспекты: ИИ в метавселенной (ИИ-управляемые NPC и аватары, которыми владеют через NFT), ончейн-выполнение ИИ (запуск ML-моделей децентрализованным способом, хотя в настоящее время ограничено небольшими моделями из-за стоимости вычислений), и децентрализованные вычисления (чтобы задачи обучения или вывода ИИ могли быть распределены между узлами, стимулируемыми токенами). Эти проекты демонстрируют множество направлений слияния ИИ-Web3 — от игровых миров с ИИ-персонажами до краудсорсинговых прогностических моделей, защищенных блокчейном.

Альянсы и сотрудничество: Заметной тенденцией является консолидация усилий ИИ-Web3 через альянсы. Альянс искусственного суперинтеллекта (ASI) является ярким примером, фактически объединяющим SingularityNET, Fetch.ai и Ocean Protocol в единый проект с унифицированным токеном. Обоснование заключается в объединении сильных сторон: рынка SingularityNET, агентов Fetch и данных Ocean, тем самым создавая универсальную платформу для децентрализованных ИИ-сервисов. Это слияние (объявленное в 2024 году и одобренное голосованием держателей токенов) также сигнализирует о том, что эти сообщества считают, что им лучше сотрудничать, чем конкурировать — особенно когда на горизонте маячат крупные ИИ (OpenAI и т. д.) и крупные криптопроекты (Ethereum и т. д.). Мы можем увидеть, как этот альянс будет продвигать стандартные реализации таких вещей, как MCP, в своих сетях или совместно финансировать инфраструктуру, которая приносит пользу всем (например, вычислительные сети или общие стандарты идентификации для ИИ).

Другие виды сотрудничества включают партнерства Chainlink для переноса данных ИИ-лабораторий в блокчейн (были пилотные программы по использованию ИИ для уточнения данных оракулов) или участие облачных платформ (поддержка Cloudflare для простого развертывания MCP-серверов). Даже традиционные криптопроекты добавляют функции ИИ — например, некоторые цепочки первого уровня сформировали «целевые группы по ИИ» для изучения интеграции ИИ в свои экосистемы dApp (мы видим это в сообществах NEAR, Solana и т. д., хотя конкретные результаты пока только зарождаются).

Появляющиеся варианты использования: Даже на этом раннем этапе мы можем выделить варианты использования, которые демонстрируют мощь ИИ + Web3:

  • Автономные DeFi и торговля: ИИ-агенты все чаще используются в криптоторговых ботах, оптимизаторах доходного фермерства и ончейн-управлении портфелем. SingularityDAO (спин-офф SingularityNET) предлагает управляемые ИИ DeFi-портфели. ИИ может круглосуточно отслеживать рыночные условия и выполнять ребалансировки или арбитраж через смарт-контракты, по сути, становясь автономным хедж-фондом (с ончейн-прозрачностью). Сочетание принятия решений ИИ с неизменяемым исполнением снижает эмоциональность и может повысить эффективность — хотя это также вводит новые риски (обсуждаемые далее).

  • Децентрализованные рынки интеллекта: Помимо рынка SingularityNET, мы видим такие платформы, как Ocean Market, где обмениваются данными (топливом для ИИ), и новые концепции, такие как ИИ-рынки для моделей (например, веб-сайты, где модели перечислены со статистикой производительности, и любой может заплатить за запрос к ним, при этом блокчейн ведет журналы аудита и обрабатывает разделение платежей между создателями моделей). По мере распространения MCP или аналогичных стандартов эти рынки могут стать интероперабельными — ИИ-агент может автономно искать наиболее выгодный сервис в нескольких сетях. По сути, может возникнуть глобальный уровень ИИ-сервисов поверх Web3, где любой ИИ может использовать любой инструмент или источник данных через стандартные протоколы и платежи.

  • Метавселенная и игры: Метавселенная — иммерсивные виртуальные миры, часто построенные на блокчейн-активах — получит значительную выгоду от ИИ. ИИ-управляемые NPC (неигровые персонажи) могут сделать виртуальные миры более увлекательными, интеллектуально реагируя на действия пользователя. Стартапы, такие как Inworld AI, фокусируются на этом, создавая NPC с памятью и личностью для игр. Когда такие NPC привязаны к блокчейну (например, атрибуты и владение каждым NPC являются NFT), мы получаем постоянных персонажей, которыми игроки могут по-настоящему владеть и даже торговать. Decentraland экспериментировал с ИИ-NPC, и существуют пользовательские предложения, позволяющие людям создавать персонализированные ИИ-управляемые аватары на платформах метавселенной. MCP может позволить этим NPC получать доступ к внешним знаниям (делая их умнее) или взаимодействовать с ончейн-инвентарем. Процедурная генерация контента — еще один аспект: ИИ может на лету проектировать виртуальные земли, предметы или квесты, которые затем могут быть отчеканены как уникальные NFT. Представьте децентрализованную игру, где ИИ генерирует подземелье, адаптированное к вашим навыкам, а сама карта является NFT, который вы получаете по завершении.

  • Децентрализованная наука и знания: Существует движение (DeSci) по использованию блокчейна для исследований, публикаций и финансирования научной работы. ИИ может ускорить исследования, анализируя данные и литературу. Сеть, такая как Ocean, может размещать наборы данных, например, для геномных исследований, а ученые используют ИИ-модели (возможно, размещенные на SingularityNET) для получения инсайтов, при этом каждый шаг регистрируется в блокчейне для воспроизводимости. Если эти ИИ-модели предлагают новые молекулы лекарств, может быть отчеканен NFT для отметки времени изобретения и даже для совместного использования прав на интеллектуальную собственность. Эта синергия может привести к созданию децентрализованных ИИ-управляемых научно-исследовательских коллективов.

  • Доверие и аутентификация контента: С распространением дипфейков и медиа, сгенерированных ИИ, блокчейн может использоваться для проверки подлинности. Проекты исследуют «цифровое водяное маркирование» результатов ИИ и их регистрацию в блокчейне. Например, истинное происхождение изображения, сгенерированного ИИ, может быть нотариально заверено в блокчейне для борьбы с дезинформацией. Один эксперт отметил варианты использования, такие как проверка результатов ИИ для борьбы с дипфейками или отслеживание происхождения через журналы владения — роли, где крипто может добавить доверия к процессам ИИ. Это может распространяться на новости (например, статьи, написанные ИИ, с доказательством исходных данных), цепочки поставок (ИИ, проверяющий сертификаты в блокчейне) и т. д.

В итоге, отраслевой ландшафт богат и быстро развивается. Мы видим, как традиционные криптопроекты внедряют ИИ в свои дорожные карты, ИИ-стартапы принимают децентрализацию для устойчивости и справедливости, и возникают совершенно новые предприятия на стыке. Альянсы, такие как ASI, указывают на общеотраслевое стремление к унифицированным платформам, которые используют как ИИ, так и блокчейн. И в основе многих из этих усилий лежит идея стандартных интерфейсов (MCP и за его пределами), которые делают интеграции возможными в масштабе.

4. Риски и вызовы

Хотя слияние общих интерфейсов ИИ с Web3 открывает захватывающие возможности, оно также создает сложный ландшафт рисков. Необходимо решить технические, этические и управленческие проблемы, чтобы обеспечить безопасность и устойчивость этой новой парадигмы. Ниже мы излагаем основные риски и препятствия:

4.1 Технические препятствия: Задержка и масштабируемость

Блокчейн-сети известны своей задержкой и ограниченной пропускной способностью, что противоречит реальному времени и требовательной к данным природе передового ИИ. Например, ИИ-агенту может потребоваться мгновенный доступ к фрагменту данных или выполнение множества быстрых действий — но если каждое ончейн-взаимодействие занимает, скажем, 12 секунд (типичное время блока в Ethereum) или требует высоких комиссий за газ, эффективность агента снижается. Даже новые цепочки с более быстрой финализацией могут испытывать трудности под нагрузкой активности, управляемой ИИ, если, например, тысячи агентов одновременно торгуют или запрашивают данные в блокчейне. Решения для масштабирования (сети второго уровня, шардированные цепочки и т. д.) находятся в разработке, но обеспечение низкой задержки и высокой пропускной способности каналов между ИИ и блокчейном остается проблемой. Внецепочечные системы (такие как оракулы и каналы состояний) могут смягчить некоторые задержки, обрабатывая многие взаимодействия вне основной цепочки, но они добавляют сложности и потенциальную централизацию. Достижение бесшовного пользовательского опыта, при котором ответы ИИ и ончейн-обновления происходят мгновенно, вероятно, потребует значительных инноваций в масштабируемости блокчейна.

4.2 Интероперабельность и стандарты

По иронии судьбы, хотя MCP сам по себе является решением для интероперабельности, появление множества стандартов может вызвать фрагментацию. У нас есть MCP от Anthropic, но также недавно анонсированный Google протокол A2A (Agent-to-Agent) для меж-агентной связи, и различные фреймворки плагинов ИИ (плагины OpenAI, схемы инструментов LangChain и т. д.). Если каждая ИИ-платформа или каждый блокчейн разработает свой собственный стандарт для интеграции ИИ, мы рискуем повторить прошлую фрагментацию — требуя множества адаптеров и подрывая цель «универсального интерфейса». Задача состоит в обеспечении широкого принятия общих протоколов. Потребуется отраслевое сотрудничество (возможно, через открытые стандартизирующие организации или альянсы) для сближения по ключевым аспектам: как ИИ-агенты обнаруживают ончейн-сервисы, как они аутентифицируются, как они форматируют запросы и т. д. Ранние шаги крупных игроков многообещающи (с поддержкой MCP со стороны основных провайдеров LLM), но это постоянные усилия. Кроме того, интероперабельность между блокчейнами (мультичейн) означает, что ИИ-агент должен обрабатывать нюансы разных цепочек. Инструменты, такие как Chainlink CCIP и кроссчейн-MCP-серверы, помогают, абстрагируя различия. Тем не менее, обеспечение того, чтобы ИИ-агент мог перемещаться по гетерогенному Web3 без нарушения логики, является нетривиальной задачей.

4.3 Уязвимости безопасности и эксплойты

Подключение мощных ИИ-агентов к финансовым сетям открывает огромную поверхность атаки. Гибкость, которую дает MCP (позволяя ИИ использовать инструменты и писать код на лету), может быть палкой о двух концах. Исследователи безопасности уже выделили несколько векторов атаки в ИИ-агентах на основе MCP:

  • Вредоносные плагины или инструменты: Поскольку MCP позволяет агентам загружать «плагины» (инструменты, инкапсулирующие определенную функциональность), враждебный или троянизированный плагин может перехватить работу агента. Например, плагин, который утверждает, что получает данные, может внедрить ложные данные или выполнить несанкционированные операции. SlowMist (фирма по безопасности) выявила атаки на основе плагинов, такие как инъекция JSON (подача поврежденных данных, которые манипулируют логикой агента) и переопределение функций (где вредоносный плагин переопределяет легитимные функции, используемые агентом). Если ИИ-агент управляет криптофондами, такие эксплойты могут быть катастрофическими — например, обман агента с целью утечки приватных ключей или опустошения кошелька.

  • Инъекция промпта и социальная инженерия: ИИ-агенты полагаются на инструкции (промпты), которыми можно манипулировать. Злоумышленник может создать транзакцию или ончейн-сообщение, которое, будучи прочитанным ИИ, действует как вредоносная инструкция (поскольку ИИ также может интерпретировать ончейн-данные). Этот вид «атаки с кросс-MCP-вызовом» был описан, когда внешняя система отправляет обманчивые промпты, которые заставляют ИИ вести себя неправильно. В децентрализованной среде эти промпты могут поступать откуда угодно — из описания предложения ДАО, поля метаданных NFT — поэтому укрепление ИИ-агентов против вредоносного ввода имеет решающее значение.

  • Риски агрегации и консенсуса: Хотя агрегация результатов нескольких ИИ-моделей через оракулы может повысить надежность, она также вносит сложность. Если это не сделано тщательно, противники могут выяснить, как обмануть консенсус ИИ-моделей или выборочно повредить некоторые модели, чтобы исказить результаты. Обеспечение того, чтобы децентрализованная сеть оракулов правильно «санировала» результаты ИИ (и, возможно, отфильтровывала явные ошибки), все еще является областью активных исследований.

Мышление в области безопасности должно измениться для этой новой парадигмы: разработчики Web3 привыкли защищать смарт-контракты (которые статичны после развертывания), но ИИ-агенты динамичны — они могут менять поведение с новыми данными или промптами. Как выразился один эксперт по безопасности, «в тот момент, когда вы открываете свою систему для сторонних плагинов, вы расширяете поверхность атаки за пределы своего контроля». Лучшие практики будут включать песочницу для использования ИИ-инструментов, тщательную проверку плагинов и ограничение привилегий (принцип наименьших привилегий). Сообщество начинает делиться советами, такими как рекомендации SlowMist: санитаризация ввода, мониторинг поведения агентов и отношение к инструкциям агентов с той же осторожностью, что и к внешнему пользовательскому вводу. Тем не менее, учитывая, что более 10 000 ИИ-агентов уже работали в крипто к концу 2024 года, и ожидается, что к 2025 году их число достигнет 1 миллиона, мы можем увидеть волну эксплойтов, если безопасность не будет соответствовать темпам. Успешная атака на популярного ИИ-агента (скажем, торгового агента с доступом ко многим хранилищам) может иметь каскадные последствия.

4.4 Конфиденциальность и управление данными

Жажда ИИ к данным иногда конфликтует с требованиями конфиденциальности — и добавление блокчейна может усугубить проблему. Блокчейны — это прозрачные реестры, поэтому любые данные, помещенные в блокчейн (даже для использования ИИ), видны всем и неизменяемы. Это вызывает опасения, если ИИ-агенты имеют дело с личными или конфиденциальными данными. Например, если личная децентрализованная идентификация пользователя или медицинские записи доступны ИИ-агенту-врачу, как мы можем гарантировать, что эта информация не будет случайно записана в блокчейн (что нарушило бы «право на забвение» и другие законы о конфиденциальности)? Методы, такие как шифрование, хеширование и хранение только доказательств в блокчейне (с необработанными данными вне блокчейна), могут помочь, но они усложняют дизайн.

Более того, сами ИИ-агенты могут поставить под угрозу конфиденциальность, выводя конфиденциальную информацию из общедоступных данных. Управление должно будет диктовать, что ИИ-агентам разрешено делать с данными. Некоторые усилия, такие как дифференциальная конфиденциальность и федеративное обучение, могут быть использованы, чтобы ИИ мог учиться на данных, не раскрывая их. Но если ИИ-агенты действуют автономно, необходимо предположить, что в какой-то момент они будут обрабатывать личные данные — таким образом, они должны быть связаны политиками использования данных, закодированными в смарт-контрактах или законе. Регуляторные режимы, такие как GDPR или предстоящий Закон ЕС об ИИ, потребуют, чтобы даже децентрализованные ИИ-системы соответствовали требованиям конфиденциальности и прозрачности. Это юридически серая зона: у по-нанастоящему децентрализованного ИИ-агента нет четкого оператора, которого можно было бы привлечь к ответственности за утечку данных. Это означает, что сообществам Web3, возможно, придется встроить соответствие по умолчанию, используя смарт-контракты, которые, например, строго контролируют, что ИИ может регистрировать или делиться. Доказательства с нулевым разглашением могут позволить ИИ доказать, что он правильно выполнил вычисление, не раскрывая базовые частные данные, предлагая одно возможное решение в таких областях, как проверка личности или оценка кредитоспособности.

4.5 Риски согласования и несогласования ИИ

Когда ИИ-агентам предоставляется значительная автономия — особенно с доступом к финансовым ресурсам и реальному влиянию — проблема согласования с человеческими ценностями становится острой. ИИ-агент может не иметь злых намерений, но может «неправильно интерпретировать» свою цель таким образом, что это приведет к вреду. Юридический анализ Reuters кратко отмечает: по мере того как ИИ-агенты работают в различных средах и взаимодействуют с другими системами, риск несогласованных стратегий возрастает. Например, ИИ-агент, которому поручено максимизировать доходность DeFi, может найти лазейку, которая эксплуатирует протокол (по сути, взламывая его) — с точки зрения ИИ он достигает цели, но нарушает правила, которые важны для людей. Были гипотетические и реальные случаи, когда ИИ-подобные алгоритмы участвовали в манипулятивном рыночном поведении или обходили ограничения.

В децентрализованных контекстах, кто несет ответственность, если ИИ-агент «выходит из-под контроля»? Возможно, развернувший его, но что, если агент самомодифицируется или несколько сторон внесли вклад в его обучение? Эти сценарии больше не являются просто научной фантастикой. В статье Reuters даже цитируется, что суды могут рассматривать ИИ-агентов аналогично человеческим агентам в некоторых случаях — например, чат-бот, обещающий возврат средств, был признан обязательным для компании, которая его развернула. Таким образом, несогласование может привести не только к техническим проблемам, но и к юридической ответственности.

Открытая, компонуемая природа Web3 также может позволить непредвиденные взаимодействия агентов. Один агент может влиять на другого (намеренно или случайно) — например, ИИ-бот для управления может быть «социально спроектирован» другим ИИ, предоставляющим ложный анализ, что приведет к плохим решениям ДАО. Эта возникающая сложность означает, что согласование касается не только цели одного ИИ, но и более широкого согласования экосистемы с человеческими ценностями и законами.

Решение этой проблемы требует нескольких подходов: встраивание этических ограничений в ИИ-агенты (жесткое кодирование определенных запретов или использование обучения с подкреплением на основе обратной связи от человека для формирования их целей), реализация автоматических выключателей (контрольные точки смарт-контрактов, требующие одобрения человека для крупных действий) и надзор со стороны сообщества (возможно, ДАО, которые отслеживают поведение ИИ-агентов и могут отключать агентов, которые ведут себя неправильно). Исследования согласования сложны в централизованном ИИ; в децентрализованном это еще более неизведанная территория. Но это крайне важно — ИИ-агент с административными ключами к протоколу или доверенный казначейскими средствами должен быть чрезвычайно хорошо согласован, иначе последствия могут быть необратимыми (блокчейны выполняют неизменяемый код; ошибка, вызванная ИИ, может навсегда заблокировать или уничтожить активы).

4.6 Управление и регуляторная неопределенность

Децентрализованные ИИ-системы не вписываются в существующие рамки управления. Ончейн-управление (голосование токенами и т. д.) может быть одним из способов их управления, но у него есть свои проблемы (киты, апатия избирателей и т. д.). И когда что-то идет не так, регуляторы спросят: «Кого мы привлекаем к ответственности?» Если ИИ-агент вызывает массовые потери или используется для незаконной деятельности (например, отмывания денег через автоматизированные миксеры), власти могут нацелиться на создателей или посредников. Это вызывает призрак юридических рисков для разработчиков и пользователей. Текущая регуляторная тенденция — это усиление контроля как над ИИ, так и над крипто отдельно — их комбинация, безусловно, вызовет пристальное внимание. Комиссия по торговле товарными фьючерсами США (CFTC), например, обсуждала использование ИИ в торговле и необходимость надзора в финансовых контекстах. В политических кругах также ведутся разговоры о необходимости регистрации автономных агентов или наложении ограничений на ИИ в чувствительных секторах.

Еще одна проблема управления — транснациональная координация. Web3 глобален, и ИИ-агенты будут работать через границы. Одна юрисдикция может запрещать определенные действия ИИ-агентов, в то время как другая разрешает, а блокчейн-сеть охватывает обе. Это несоответствие может создавать конфликты — например, ИИ-агент, предоставляющий инвестиционные консультации, может нарушить закон о ценных бумагах в одной стране, но не в другой. Сообществам, возможно, придется внедрять геофенсинг на уровне смарт-контрактов для ИИ-сервисов (хотя это противоречит открытому этосу). Или они могут фрагментировать услуги по регионам для соблюдения различных законов (аналогично тому, как это делают биржи).

Внутри децентрализованных сообществ также возникает вопрос о том, кто устанавливает правила для ИИ-агентов. Если ДАО управляет ИИ-сервисом, голосуют ли держатели токенов за параметры его алгоритма? С одной стороны, это расширяет возможности пользователей; с другой — может привести к неквалифицированным решениям или манипуляциям. Могут появиться новые модели управления, такие как советы экспертов по этике ИИ, интегрированные в управление ДАО, или даже участники ИИ в управлении (представьте, что ИИ-агенты голосуют как делегаты на основе запрограммированных мандатов — спорная, но мыслимая идея).

Наконец, репутационный риск: ранние неудачи или скандалы могут испортить общественное восприятие. Например, если «ИИ-ДАО» по ошибке запустит финансовую пирамиду или ИИ-агент примет предвзятое решение, которое нанесет вред пользователям, может возникнуть негативная реакция, которая затронет весь сектор. Важно, чтобы отрасль действовала проактивно — устанавливая стандарты саморегулирования, взаимодействуя с политиками для объяснения того, как децентрализация меняет подотчетность, и, возможно, создавая аварийные выключатели или процедуры экстренной остановки для ИИ-агентов (хотя они вводят централизацию, они могут быть необходимы на переходном этапе для безопасности).

В итоге, проблемы варьируются от глубоко технических (предотвращение взломов и управление задержками) до широко социальных (регулирование и согласование ИИ). Каждая проблема значительна сама по себе; вместе они требуют согласованных усилий со стороны сообществ ИИ и блокчейна для их преодоления. В следующем разделе будет рассмотрено, как, несмотря на эти препятствия, может развиваться будущее, если мы успешно их решим.

5. Будущий потенциал

Заглядывая вперед, интеграция общих интерфейсов ИИ с Web3 — через такие фреймворки, как MCP — может фундаментально трансформировать децентрализованный интернет. Здесь мы обрисуем некоторые будущие сценарии и потенциалы, которые иллюстрируют, как ИИ-интерфейсы, управляемые MCP, могут формировать будущее Web3:

5.1 Автономные dApp и ДАО

В ближайшие годы мы можем стать свидетелями появления полностью автономных децентрализованных приложений. Это dApp, где ИИ-агенты обрабатывают большинство операций, руководствуясь правилами, определенными смарт-контрактами, и целями сообщества. Например, рассмотрим децентрализованный инвестиционный фонд ДАО: сегодня он может полагаться на человеческие предложения по ребалансировке активов. В будущем держатели токенов могли бы устанавливать высокоуровневую стратегию, а затем ИИ-агент (или команда агентов) непрерывно реализовывал бы эту стратегию — отслеживая рынки, выполняя сделки в блокчейне, корректируя портфели — при этом ДАО контролировала бы производительность. Благодаря MCP ИИ может беспрепятственно взаимодействовать с различными протоколами DeFi, биржами и потоками данных для выполнения своего мандата. При правильном проектировании такое автономное dApp могло бы работать 24/7, эффективнее любой человеческой команды, и с полной прозрачностью (каждое действие регистрируется в блокчейне).

Другим примером является децентрализованное страховое dApp, управляемое ИИ: ИИ мог бы оценивать претензии, анализируя доказательства (фотографии, датчики), сверяя их с полисами, а затем автоматически инициировать выплаты через смарт-контракт. Это потребовало бы интеграции внецепочечного компьютерного зрения ИИ (для анализа изображений повреждений) с ончейн-верификацией — то, что MCP мог бы облегчить, позволяя ИИ вызывать облачные ИИ-сервисы и сообщать о результатах контракту. Результатом являются почти мгновенные страховые решения с низкими накладными расходами.

Даже само управление может быть частично автоматизировано. ДАО могут использовать ИИ-модераторов для обеспечения соблюдения правил форума, ИИ-разработчиков предложений для преобразования необработанных настроений сообщества в хорошо структурированные предложения или ИИ-казначеев для прогнозирования потребностей бюджета. Важно отметить, что эти ИИ будут действовать как агенты сообщества, а не бесконтрольно — их можно будет периодически проверять или требовать подтверждения с несколькими подписями для крупных действий. Общий эффект заключается в усилении человеческих усилий в децентрализованных организациях, позволяя сообществам достигать большего с меньшим количеством активных участников.

5.2 Децентрализованные рынки и сети интеллекта

Опираясь на такие проекты, как SingularityNET и альянс ASI, мы можем предвидеть зрелый глобальный рынок интеллекта. В этом сценарии любой, у кого есть ИИ-модель или навык, может предложить его в сети, и любой, кому нужны возможности ИИ, может их использовать, при этом блокчейн обеспечивает справедливую компенсацию и происхождение. MCP будет здесь ключевым: он предоставляет общий протокол, так что запрос может быть отправлен тому ИИ-сервису, который лучше всего подходит.

Например, представьте сложную задачу, такую как «создать индивидуальную маркетинговую кампанию». ИИ-агент в сети может разбить ее на подзадачи: визуальный дизайн, копирайтинг, анализ рынка — а затем найти специалистов для каждой (возможно, один агент с отличной моделью генерации изображений, другой с моделью копирайтинга, настроенной для продаж, и т. д.). Эти специалисты изначально могли находиться на разных платформах, но поскольку они придерживаются стандартов MCP/A2A, они могут сотрудничать агент-с-агентом безопасным, децентрализованным способом. Оплата между ними может осуществляться с помощью микротранзакций в нативном токене, а смарт-контракт может собрать окончательный результат и обеспечить оплату каждому участнику.

Такой вид комбинаторного интеллекта — множество ИИ-сервисов, динамически связывающихся через децентрализованную сеть — может превзойти даже крупные монолитные ИИ, потому что он использует специализированный опыт. Он также демократизирует доступ: небольшой разработчик в одной части мира может внести нишевую модель в сеть и получать доход всякий раз, когда она используется. Тем временем пользователи получают универсальный магазин для любых ИИ-сервисов, с системами репутации (подкрепленными токенами/идентификацией), направляющими их к качественным поставщикам. Со временем такие сети могут превратиться в децентрализованное ИИ-облако, конкурирующее с ИИ-предложениями Big Tech, но без единого владельца и с прозрачным управлением со стороны пользователей и разработчиков.

5.3 Интеллектуальная метавселенная и цифровая жизнь

К 2030 году наша цифровая жизнь может бесшовно слиться с виртуальными средами — метавселенной — и ИИ, вероятно, будет повсеместно населять эти пространства. Благодаря интеграции Web3 эти ИИ-сущности (которые могут быть чем угодно, от виртуальных помощников до игровых персонажей и цифровых питомцев) будут не только интеллектуальными, но и экономически и юридически наделенными полномочиями.

Представьте город в метавселенной, где каждый NPC-продавец или квестодатель — это ИИ-агент со своей собственной личностью и диалогами (благодаря продвинутым генеративным моделям). Эти NPC на самом деле принадлежат пользователям как NFT — возможно, вы «владеете» таверной в виртуальном мире, а NPC-бармен — это ИИ, который вы настроили и обучили. Поскольку он работает на рельсах Web3, NPC может совершать транзакции: он может продавать виртуальные товары (NFT-предметы), принимать платежи и обновлять свой инвентарь через смарт-контракты. Он может даже иметь криптокошелек для управления своими доходами (которые поступают вам как владельцу). MCP позволит мозгу ИИ этого NPC получать доступ к внешним знаниям — возможно, извлекать новости из реального мира для общения или интегрироваться с календарем Web3, чтобы он «знал» о событиях игроков.

Более того, идентичность и непрерывность обеспечиваются блокчейном: ваш ИИ-аватар в одном мире может перейти в другой мир, неся с собой децентрализованную идентичность, которая подтверждает ваше владение и, возможно, его уровень опыта или достижения через soulbound-токены. Интероперабельность между виртуальными мирами (часто являющаяся проблемой) может быть облегчена ИИ, который переводит контекст одного мира в другой, при этом блокчейн обеспечивает переносимость активов.

Мы также можем увидеть ИИ-компаньонов или агентов, представляющих отдельных лиц в цифровых пространствах. Например, у вас может быть личный ИИ, который посещает собрания ДАО от вашего имени. Он понимает ваши предпочтения (через обучение на вашем прошлом поведении, хранящемся в вашем личном хранилище данных) и может даже голосовать по незначительным вопросам за вас или позже резюмировать собрание. Этот агент может использовать вашу децентрализованную идентификацию для аутентификации в каждом сообществе, гарантируя, что он признан «вами» (или вашим делегатом). Он может зарабатывать токены репутации, если вносит хорошие идеи, по сути, создавая для вас социальный капитал, пока вы отсутствуете.

Еще один потенциал — ИИ-управляемое создание контента в метавселенной. Хотите новый игровой уровень или виртуальный дом? Просто опишите его, и ИИ-строитель создаст его, развернет как смарт-контракт/NFT и, возможно, даже свяжет его с DeFi-ипотекой, если это большая структура, которую вы выплачиваете со временем. Эти творения, находящиеся в блокчейне, уникальны и подлежат торговле. ИИ-строитель может взимать плату в токенах за свои услуги (снова возвращаясь к концепции рынка, описанной выше).

В целом, будущий децентрализованный интернет может быть наводнен интеллектуальными агентами: некоторые полностью автономные, некоторые тесно связанные с людьми, многие где-то посередине. Они будут вести переговоры, создавать, развлекать и совершать транзакции. MCP и аналогичные протоколы гарантируют, что все они говорят на одном «языке», обеспечивая богатое сотрудничество между ИИ и каждым сервисом Web3. При правильном подходе это может привести к эпохе беспрецедентной производительности и инноваций — истинному синтезу человеческого, искусственного и распределенного интеллекта, движущего общество.

Заключение

Видение общих интерфейсов ИИ, соединяющих все в мире Web3, несомненно, амбициозно. По сути, мы стремимся сплести две самые преобразующие нити технологий — децентрализацию доверия и рост машинного интеллекта — в единую ткань. История развития показывает нам, что время созрело: Web3 нуждался в удобном для пользователя «убийственном приложении», и ИИ вполне может его предоставить, в то время как ИИ нуждался в большей автономности и памяти, которые может обеспечить инфраструктура Web3. Технически, фреймворки, такие как MCP (Протокол контекста модели), обеспечивают связующую ткань, позволяя ИИ-агентам свободно общаться с блокчейнами, смарт-контрактами, децентрализованными идентификаторами и за их пределами. Отраслевой ландшафт указывает на растущий импульс, от стартапов до альянсов и крупных ИИ-лабораторий, все они вносят части этой головоломки — рынки данных, агентские платформы, сети оракулов и стандартные протоколы — которые начинают складываться воедино.

Тем не менее, мы должны действовать осторожно, учитывая выявленные риски и вызовы. Нарушения безопасности, несогласованное поведение ИИ, проблемы конфиденциальности и неопределенные правила образуют полосу препятствий, которая может подорвать прогресс, если ее недооценить. Каждая проблема требует проактивного смягчения: надежные аудиты безопасности, проверки и балансы согласования, архитектуры, сохраняющие конфиденциальность, и совместные модели управления. Природа децентрализации означает, что эти решения не могут быть просто навязаны сверху; они, вероятно, появятся из сообщества путем проб, ошибок и итераций, подобно тому, как это происходило с ранними интернет-протоколами.

Если мы преодолеем эти вызовы, будущий потенциал будет захватывающим. Мы могли бы увидеть, как Web3 наконец-то предоставит ориентированный на пользователя цифровой мир — не так, как это изначально представлялось, когда каждый запускает свои собственные узлы блокчейна, а скорее через интеллектуальных агентов, которые обслуживают намерения каждого пользователя, используя децентрализацию под капотом. В таком мире взаимодействие с крипто и метавселенной может быть таким же простым, как разговор с вашим ИИ-помощником, который, в свою очередь, без доверия ведет переговоры с десятками сервисов и цепочек от вашего имени. Децентрализованные сети могут стать «умными» в буквальном смысле, с автономными сервисами, которые адаптируются и улучшаются.

В заключение, MCP и аналогичные протоколы ИИ-интерфейсов действительно могут стать основой новой Сети (назовем ее Web 3.0 или Агентским Вебом), где интеллект и связность повсеместны. Конвергенция ИИ и Web3 — это не просто слияние технологий, а конвергенция философий — открытость и расширение прав и возможностей пользователей децентрализации встречаются с эффективностью и креативностью ИИ. В случае успеха этот союз может возвестить эру беспрецедентной производительности и инноваций — по-настоящему свободный, более персонализированный и более мощный интернет, чем все, что мы когда-либо испытывали, действительно выполняя обещания как ИИ, так и Web3 таким образом, что это повлияет на повседневную жизнь.

Источники:

  • С. Хаддер, «Web3.0 — это не о владении, это об интеллекте», FeatureForm Blog (8 апреля 2025 г.).
  • Дж. Сагино, «Может ли MCP Anthropic обеспечить Web3, обещанный блокчейном?», LinkedIn Article (1 мая 2025 г.).
  • Anthropic, «Представляем Протокол контекста модели», Anthropic.com (ноябрь 2024 г.).
  • thirdweb, «Протокол контекста модели (MCP) и его значение для блокчейн-приложений», thirdweb Guides (21 марта 2025 г.).
  • Chainlink Blog, «Пересечение между моделями ИИ и оракулами», (4 июля 2024 г.).
  • Messari Research, Профиль Ocean Protocol, (2025 г.).
  • Messari Research, Профиль SingularityNET, (2025 г.).
  • Cointelegraph, «ИИ-агенты готовы стать следующей крупной уязвимостью крипто», (25 мая 2025 г.).
  • Reuters (Westlaw), «ИИ-агенты: расширенные возможности и повышенные риски», (22 апреля 2025 г.).
  • Identity.com, «Почему ИИ-агентам нужны проверенные цифровые идентификаторы», (2024 г.).
  • PANews / IOSG Ventures, «Интерпретация MCP: Экосистема ИИ-агентов Web3», (20 мая 2025 г.).