Перейти к основному содержимому

26 записей с тегом "ИИ"

Посмотреть все теги

Проверяемый ончейн-ИИ с zkML и криптографическими доказательствами

· 35 мин. чтения
Dora Noda
Software Engineer

Введение: Необходимость проверяемого ИИ в блокчейне

По мере роста влияния систем ИИ, обеспечение достоверности их результатов становится критически важным. Традиционные методы полагаются на институциональные гарантии (по сути, «просто доверьтесь нам»), которые не предлагают криптографических подтверждений. Это особенно проблематично в децентрализованных контекстах, таких как блокчейны, где смарт-контракт или пользователь должны доверять результату, полученному ИИ, не имея возможности повторно запустить тяжелую модель ончейн. Машинное обучение с нулевым разглашением (zkML) решает эту проблему, позволяя криптографически проверять вычисления ML. По сути, zkML позволяет доказывающему сгенерировать краткое доказательство того, что «выход $Y$ был получен в результате запуска модели $M$ на входе $X$»без раскрытия $X$ или внутренних деталей $M$. Эти доказательства с нулевым разглашением (ZKP) могут быть эффективно проверены любым лицом (или любым контрактом), переводя доверие к ИИ от «политики к доказательству».

Проверяемость ИИ ончейн означает, что блокчейн может включать расширенные вычисления (такие как инференсы нейронных сетей) путем проверки доказательства правильного выполнения вместо самостоятельного выполнения вычислений. Это имеет широкие последствия: смарт-контракты могут принимать решения на основе прогнозов ИИ, децентрализованные автономные агенты могут доказывать, что они следовали своим алгоритмам, а кроссчейн или оффчейн вычислительные сервисы могут предоставлять проверяемые результаты вместо непроверяемых оракулов. В конечном итоге, zkML предлагает путь к безопасному и конфиденциальному ИИ – например, доказывая, что решения модели ИИ верны и авторизованы без раскрытия частных данных или проприетарных весов модели. Это ключ к приложениям, от безопасной аналитики в здравоохранении до блокчейн-игр и оракулов DeFi.

Как работает zkML: сжатие инференса ML в краткие доказательства

На высоком уровне zkML объединяет криптографические системы доказательств с инференсом ML, так что сложная оценка модели может быть «сжата» в небольшое доказательство. Внутри модель ML (например, нейронная сеть) представляется как схема или программа, состоящая из множества арифметических операций (умножение матриц, функции активации и т. д.). Вместо раскрытия всех промежуточных значений, доказывающий выполняет полное вычисление оффчейн, а затем использует протокол доказательства с нулевым разглашением, чтобы подтвердить, что каждый шаг был выполнен правильно. Верификатор, имея только доказательство и некоторые публичные данные (например, конечный результат и идентификатор модели), может быть криптографически убежден в правильности без повторного выполнения модели.

Для достижения этого фреймворки zkML обычно преобразуют вычисление модели в формат, подходящий для ZKP:

  • Компиляция схемы: В подходах, основанных на SNARK, граф вычислений модели компилируется в арифметическую схему или набор полиномиальных ограничений. Каждый слой нейронной сети (свертки, умножения матриц, нелинейные активации) становится подсхемой с ограничениями, обеспечивающими правильность выходных данных при заданных входных данных. Поскольку нейронные сети включают нелинейные операции (ReLU, Sigmoid и т. д.), которые не подходят для полиномов, для их эффективной обработки используются такие методы, как таблицы поиска. Например, ReLU (выход = max(0, вход)) может быть реализован с помощью пользовательского ограничения или поиска, который проверяет, что выход равен входу, если вход≥0, иначе нулю. Конечным результатом является набор криптографических ограничений, которые должен удовлетворить доказывающий, что неявно доказывает правильность работы модели.
  • Трассировка выполнения и виртуальные машины: Альтернативой является рассмотрение инференса модели как трассировки программы, как это делается в подходах zkVM. Например, JOLT zkVM ориентирован на набор инструкций RISC-V; можно скомпилировать модель ML (или код, который ее вычисляет) в RISC-V, а затем доказать, что каждая инструкция ЦП была выполнена правильно. JOLT вводит технику «сингулярности поиска», заменяя дорогостоящие арифметические ограничения быстрыми табличными поисками для каждой допустимой операции ЦП. Каждая операция (сложение, умножение, побитовая операция и т. д.) проверяется с помощью поиска в гигантской таблице предварительно вычисленных допустимых результатов, используя специализированный аргумент (Lasso/SHOUT) для поддержания эффективности. Это значительно снижает нагрузку на доказывающего: даже сложные 64-битные операции становятся одним табличным поиском в доказательстве вместо множества арифметических ограничений.
  • Интерактивные протоколы (GKR Sum-Check): Третий подход использует интерактивные доказательства, такие как GKR (Goldwasser–Kalai–Rotblum), для проверки многослойных вычислений. Здесь вычисление модели рассматривается как многослойная арифметическая схема (каждый слой нейронной сети является одним слоем графа схемы). Доказывающий запускает модель в обычном режиме, но затем участвует в протоколе проверки суммы, чтобы доказать, что выходные данные каждого слоя верны при заданных входных данных. В подходе Лагранжа (DeepProve, подробно описанном далее) доказывающий и верификатор выполняют интерактивный полиномиальный протокол (сделанный неинтерактивным с помощью Fiat-Shamir), который проверяет согласованность вычислений каждого слоя без их повторного выполнения. Этот метод проверки суммы позволяет избежать генерации монолитной статической схемы; вместо этого он проверяет согласованность вычислений пошагово с минимальными криптографическими операциями (в основном хешированием или оценкой полиномов).

Независимо от подхода, результатом является краткое доказательство (обычно от нескольких килобайт до нескольких десятков килобайт), которое подтверждает правильность всего инференса. Доказательство является доказательством с нулевым разглашением, что означает, что любые секретные входные данные (частные данные или параметры модели) могут оставаться скрытыми – они влияют на доказательство, но не раскрываются верификаторам. Раскрываются только предполагаемые публичные выходные данные или утверждения. Это позволяет реализовать такие сценарии, как «доказать, что модель $M$ при применении к данным пациента $X$ дает диагноз $Y$, не раскрывая $X$ или веса модели».

Включение ончейн-верификации: После генерации доказательства оно может быть опубликовано в блокчейне. Смарт-контракты могут включать логику верификации для проверки доказательства, часто используя предварительно скомпилированные криптографические примитивы. Например, Ethereum имеет предварительные компиляции для операций спаривания BLS12-381, используемых во многих верификаторах zk-SNARK, что делает ончейн-верификацию доказательств SNARK эффективной. STARK (доказательства, основанные на хешировании) больше, но все еще могут быть проверены ончейн с тщательной оптимизацией или, возможно, с некоторыми предположениями о доверии (например, L2 StarkWare проверяет доказательства STARK в Ethereum с помощью ончейн-контракта верификатора, хотя и с более высокой стоимостью газа, чем SNARK). Ключевым моментом является то, что цепочке не нужно выполнять модель ML – она выполняет только верификацию, которая намного дешевле, чем исходные вычисления. В итоге, zkML сжимает дорогостоящий инференс ИИ в небольшое доказательство, которое блокчейны (или любой верификатор) могут проверить за миллисекунды или секунды.

Lagrange DeepProve: Архитектура и производительность прорыва в zkML

DeepProve от Lagrange Labs – это передовой фреймворк инференса zkML, ориентированный на скорость и масштабируемость. Запущенный в 2025 году, DeepProve представил новую систему доказательств, которая значительно быстрее предыдущих решений, таких как Ezkl. Его дизайн основан на интерактивном протоколе доказательства GKR с проверкой суммы и специализированных оптимизациях для схем нейронных сетей. Вот как работает DeepProve и как он достигает своей производительности:

  • Одноразовая предварительная обработка: Разработчики начинают с обученной нейронной сети (в настоящее время поддерживаются многослойные перцептроны и популярные архитектуры CNN). Модель экспортируется в формат ONNX, стандартное графическое представление. Инструмент DeepProve затем анализирует модель ONNX и квантует ее (преобразует веса в форму с фиксированной точкой/целочисленную форму) для эффективной полевой арифметики. На этом этапе он также генерирует ключи доказательства и верификации для криптографического протокола. Эта настройка выполняется один раз для каждой модели и не требует повторения для каждого инференса. DeepProve подчеркивает простоту интеграции: «Экспортируйте свою модель в ONNX → одноразовая настройка → генерируйте доказательства → проверяйте где угодно».

  • Доказательство (инференс + генерация доказательства): После настройки доказывающий (который может быть запущен пользователем, сервисом или децентрализованной сетью доказывающих Lagrange) принимает новый вход $X$ и запускает на нем модель $M$, получая выход $Y$. Во время этого выполнения DeepProve записывает трассировку выполнения вычислений каждого слоя. Вместо того, чтобы заранее преобразовывать каждое умножение в статическую схему (как это делают подходы SNARK), DeepProve использует протокол GKR с линейным временем для проверки каждого слоя на лету. Для каждого слоя сети доказывающий фиксирует входные и выходные данные слоя (например, с помощью криптографических хешей или полиномиальных обязательств) и затем участвует в аргументе проверки суммы, чтобы доказать, что выходные данные действительно являются результатом входных данных в соответствии с функцией слоя. Протокол проверки суммы итеративно убеждает верификатора в правильности суммы оценок полинома, который кодирует вычисление слоя, не раскрывая фактических значений. Нелинейные операции (такие как ReLU, softmax) эффективно обрабатываются с помощью аргументов поиска в DeepProve – если выход активации был вычислен, DeepProve может доказать, что каждый выход соответствует действительной паре вход-выход из предварительно вычисленной таблицы для этой функции. Слой за слоем генерируются доказательства, а затем агрегируются в одно краткое доказательство, охватывающее весь прямой проход модели. Тяжелая работа криптографии минимизирована – доказывающий DeepProve в основном выполняет обычные числовые вычисления (фактический инференс) плюс некоторые легкие криптографические обязательства, а не решает гигантскую систему ограничений.

  • Верификация: Верификатор использует окончательное краткое доказательство вместе с несколькими публичными значениями – обычно это зафиксированный идентификатор модели (криптографическое обязательство по весам $M$), вход $X$ (если он не является приватным) и заявленный выход $Y$ – для проверки правильности. Верификация в системе DeepProve включает проверку транскрипта протокола проверки суммы и окончательных полиномиальных или хеш-обязательств. Это более сложно, чем верификация классического SNARK (который может состоять из нескольких спариваний), но значительно дешевле, чем повторный запуск модели. В тестах Lagrange верификация доказательства DeepProve для средней CNN занимает порядка 0,5 секунды в программном обеспечении. То есть, ~0,5 с для подтверждения, например, того, что сверточная сеть с сотнями тысяч параметров работала правильно – более чем в 500 раз быстрее, чем наивное повторное вычисление этой CNN на GPU для верификации. (Фактически, DeepProve показал верификацию до 521 раза быстрее для CNN и 671 раза для MLP по сравнению с повторным выполнением.) Размер доказательства достаточно мал для передачи ончейн (десятки КБ), и верификация может быть выполнена в смарт-контракте при необходимости, хотя 0,5 с вычислений могут потребовать тщательной оптимизации газа или выполнения на уровне 2.

Архитектура и инструментарий: DeepProve реализован на Rust и предоставляет набор инструментов (библиотеку zkml) для разработчиков. Он нативно поддерживает графы моделей ONNX, что делает его совместимым с моделями из PyTorch или TensorFlow (после экспорта). Процесс доказательства в настоящее время ориентирован на модели до нескольких миллионов параметров (тесты включают плотную сеть с 4 миллионами параметров). DeepProve использует комбинацию криптографических компонентов: многолинейное полиномиальное обязательство (для фиксации выходных данных слоя), протокол проверки суммы для верификации вычислений и аргументы поиска для нелинейных операций. Примечательно, что открытый репозиторий Lagrange признает, что он основан на предыдущих работах (реализация проверки суммы и GKR из проекта Ceno от Scroll), что указывает на пересечение zkML с исследованиями в области роллапов с нулевым разглашением.

Для достижения масштабируемости в реальном времени Lagrange объединяет DeepProve со своей Сетью Доказывающих – децентрализованной сетью специализированных ZK-доказывающих. Тяжелая генерация доказательств может быть перенесена в эту сеть: когда приложению требуется доказательство инференса, оно отправляет задачу в сеть Lagrange, где множество операторов (застейканных на EigenLayer для безопасности) вычисляют доказательства и возвращают результат. Эта сеть экономически стимулирует надежную генерацию доказательств (злонамеренные или неудачные задания приводят к штрафу оператора). Распределяя работу между доказывающими (и потенциально используя GPU или ASIC), Сеть Доказывающих Lagrange скрывает сложность и стоимость от конечных пользователей. Результатом является быстрый, масштабируемый и децентрализованный сервис zkML: «проверяемые инференсы ИИ быстро и доступно».

Этапы производительности: Заявления DeepProve подкреплены бенчмарками по сравнению с предыдущим передовым решением, Ezkl. Для CNN с ~264 тыс. параметров (модель масштаба CIFAR-10) время доказательства DeepProve составило ~1,24 секунды против ~196 секунд для Ezkl – примерно в 158 раз быстрее. Для более крупной плотной сети с 4 миллионами параметров DeepProve доказал инференс за ~2,3 секунды против ~126,8 секунды для Ezkl (в ~54 раза быстрее). Время верификации также сократилось: DeepProve проверил доказательство CNN с 264 тыс. параметров за ~0,6 с, тогда как верификация доказательства Ezkl (на основе Halo2) заняла более 5 минут на ЦП в этом тесте. Ускорение обусловлено почти линейной сложностью DeepProve: его доказывающий масштабируется примерно O(n) с количеством операций, тогда как доказывающие SNARK на основе схем часто имеют сверхлинейные накладные расходы (масштабирование FFT и полиномиальных обязательств). Фактически, пропускная способность доказывающего DeepProve может быть в пределах одного порядка величины от времени выполнения обычного инференса – недавние системы GKR могут быть <10 раз медленнее, чем чистое выполнение для больших матричных умножений, что является впечатляющим достижением в ZK. Это делает доказательства в реальном времени или по требованию более осуществимыми, открывая путь для проверяемого ИИ в интерактивных приложениях.

Сценарии использования: Lagrange уже сотрудничает с проектами Web3 и ИИ для применения zkML. Примеры сценариев использования включают: проверяемые характеристики NFT (доказательство того, что эволюция игрового персонажа или коллекционного предмета, сгенерированная ИИ, вычислена авторизованной моделью), происхождение контента ИИ (доказательство того, что изображение или текст были сгенерированы определенной моделью, для борьбы с дипфейками), модели рисков DeFi (доказательство выходных данных модели, оценивающей финансовый риск, без раскрытия проприетарных данных) и приватный инференс ИИ в здравоохранении или финансах (где больница может получать прогнозы ИИ с доказательством, обеспечивая правильность без раскрытия данных пациентов). Делая выходные данные ИИ проверяемыми и конфиденциальными, DeepProve открывает дверь для «ИИ, которому можно доверять» в децентрализованных системах – переходя от эпохи «слепого доверия к моделям-черным ящикам» к эпохе «объективных гарантий».

zkML на основе SNARK: Ezkl и подход Halo2

Традиционный подход к zkML использует zk-SNARK (Succinct Non-interactive Arguments of Knowledge – краткие неинтерактивные аргументы знания) для доказательства инференса нейронных сетей. Ezkl (от ZKonduit/Modulus Labs) является ведущим примером этого подхода. Он основан на системе доказательств Halo2 (SNARK в стиле PLONK с полиномиальными обязательствами над BLS12-381). Ezkl предоставляет цепочку инструментов, где разработчик может взять модель PyTorch или TensorFlow, экспортировать ее в ONNX, и Ezkl автоматически скомпилирует ее в пользовательскую арифметическую схему.

Как это работает: Каждый слой нейронной сети преобразуется в ограничения:

  • Линейные слои (плотные или сверточные) становятся наборами ограничений умножения-сложения, которые обеспечивают скалярные произведения между входами, весами и выходами.
  • Нелинейные слои (такие как ReLU, сигмоида и т. д.) обрабатываются с помощью таблиц поиска или кусочно-заданных ограничений, поскольку такие функции не являются полиномиальными. Например, ReLU может быть реализован с помощью булевого селектора $b$ с ограничениями, обеспечивающими $y = x \cdot b$ и $0 \le b \le 1$, а также $b=1$ если $x>0$ (один из способов), или более эффективно с помощью таблицы поиска, отображающей $x \mapsto \max(0,x)$ для диапазона значений $x$. Аргументы поиска Halo2 позволяют отображать 16-битные (или меньшие) фрагменты значений, поэтому большие домены (например, все 32-битные значения) обычно «разбиваются» на несколько меньших поисков. Это разбиение увеличивает количество ограничений.
  • Операции с большими целыми числами или деления (если таковые имеются) аналогично разбиваются на мелкие части. Результатом является большой набор ограничений R1CS/PLONK, адаптированных к конкретной архитектуре модели.

Затем Ezkl использует Halo2 для генерации доказательства того, что эти ограничения выполняются при заданных секретных входных данных (весах модели, приватных входах) и публичных выходных данных. Инструментарий и интеграция: Одним из преимуществ подхода SNARK является то, что он использует хорошо известные примитивы. Halo2 уже используется в роллапах Ethereum (например, Zcash, zkEVM), поэтому он проверен в боях и имеет готовый ончейн-верификатор. Доказательства Ezkl используют кривую BLS12-381, которую Ethereum может проверять с помощью предварительных компиляций, что делает проверку доказательства Ezkl в смарт-контракте простой. Команда также предоставила удобные API; например, специалисты по данным могут работать со своими моделями на Python и использовать CLI Ezkl для создания доказательств, не имея глубоких знаний о схемах.

Преимущества: Подход Ezkl выигрывает от общности и экосистемы SNARK. Он поддерживает достаточно сложные модели и уже видел «практические интеграции (от моделей рисков DeFi до игрового ИИ)», доказывая реальные задачи ML. Поскольку он работает на уровне графа вычислений модели, он может применять оптимизации, специфичные для ML: например, отсечение незначимых весов или квантование параметров для уменьшения размера схемы. Это также означает, что конфиденциальность модели является естественной – веса могут рассматриваться как частные данные свидетеля, поэтому верификатор видит только то, что некая действительная модель произвела выход, или, в лучшем случае, обязательство по модели. Верификация доказательств SNARK чрезвычайно быстра (обычно несколько миллисекунд или меньше ончейн), а размеры доказательств малы (несколько килобайт), что идеально подходит для использования в блокчейне.

Недостатки: Производительность – это ахиллесова пята. Доказательство на основе схем накладывает большие накладные расходы, особенно по мере роста моделей. Отмечается, что исторически схемы SNARK могли требовать в миллион раз больше работы для доказывающего, чем просто запуск самой модели. Halo2 и Ezkl оптимизируют это, но все же операции, такие как большие матричные умножения, генерируют тонны ограничений. Если модель имеет миллионы параметров, доказывающий должен обработать соответственно миллионы ограничений, выполняя при этом тяжелые FFT и мультиэкспоненциацию. Это приводит к длительному времени доказательства (часто минуты или часы для нетривиальных моделей) и высокому потреблению памяти. Например, доказательство даже относительно небольшой CNN (например, несколько сотен тысяч параметров) может занять десятки минут с Ezkl на одной машине. Команда DeepProve цитировала, что Ezkl требовались часы для доказательств некоторых моделей, которые DeepProve может выполнить за минуты. Крупные модели могут даже не поместиться в память или потребовать разбиения на несколько доказательств (которые затем нуждаются в рекурсивной агрегации). Хотя Halo2 «умеренно оптимизирован», любая необходимость «разбивать» поиски или обрабатывать операции с широким битом приводит к дополнительным накладным расходам. В итоге, масштабируемость ограничена – Ezkl хорошо работает для моделей малого и среднего размера (и действительно превзошел некоторые более ранние альтернативы, такие как наивные VM на основе Stark в бенчмарках), но испытывает трудности по мере роста размера модели за определенный предел.

Несмотря на эти проблемы, Ezkl и аналогичные библиотеки zkML на основе SNARK являются важными шагами. Они доказали, что проверенный инференс ML возможен ончейн и активно используются. В частности, такие проекты, как Modulus Labs, продемонстрировали верификацию модели с 18 миллионами параметров ончейн с использованием SNARK (с серьезной оптимизацией). Стоимость была нетривиальной, но это показывает траекторию. Более того, протокол Mina имеет собственный инструментарий zkML, который использует SNARK, чтобы позволить смарт-контрактам на Mina (которые основаны на Snark) проверять выполнение моделей ML. Это указывает на растущую многоплатформенную поддержку zkML на основе SNARK.

Подходы на основе STARK: Прозрачный и программируемый ZK для ML

zk-STARK (Scalable Transparent ARguments of Knowledge – масштабируемые прозрачные аргументы знания) предлагают другой путь к zkML. STARK используют криптографию на основе хеширования (например, FRI для полиномиальных обязательств) и избегают какой-либо доверенной настройки. Они часто работают путем симуляции ЦП или VM и доказательства правильности трассировки выполнения. В контексте ML можно либо создать пользовательский STARK для нейронной сети, либо использовать STARK VM общего назначения для запуска кода модели.

Общие STARK VM (RISC Zero, Cairo): Простой подход заключается в написании кода инференса и его запуске в STARK VM. Например, Risc0 предоставляет среду RISC-V, где любой код (например, реализация нейронной сети на C++ или Rust) может быть выполнен и доказан с помощью STARK. Аналогично, язык Cairo от StarkWare может выражать произвольные вычисления (такие как инференс LSTM или CNN), которые затем доказываются доказывающим StarkNet STARK. Преимущество заключается в гибкости – вам не нужно разрабатывать пользовательские схемы для каждой модели. Однако ранние бенчмарки показали, что наивные STARK VM были медленнее по сравнению с оптимизированными схемами SNARK для ML. В одном тесте доказательство на основе Halo2 (Ezkl) было примерно в 3 раза быстрее, чем подход на основе STARK на Cairo, и даже в 66 раз быстрее, чем RISC-V STARK VM в определенном бенчмарке в 2024 году. Этот разрыв обусловлен накладными расходами на симуляцию каждой низкоуровневой инструкции в STARK и большими константами в доказательствах STARK (хеширование быстро, но его нужно много; размеры доказательств STARK больше и т. д.). Однако STARK VM улучшаются и имеют преимущество прозрачной настройки (без доверенной настройки) и постквантовой безопасности. По мере развития STARK-совместимого оборудования и протоколов скорость доказательства будет улучшаться.

Подход DeepProve против STARK: Интересно, что использование GKR и проверки суммы в DeepProve дает доказательство, более похожее по духу на STARK – это интерактивное, хеш-основанное доказательство без необходимости в структурированной эталонной строке. Компромисс заключается в том, что его доказательства больше, а верификация тяжелее, чем у SNARK. Тем не менее, DeepProve показывает, что тщательный дизайн протокола (специализированный для многослойной структуры ML) может значительно превзойти как общие STARK VM, так и схемы SNARK по времени доказательства. Мы можем рассматривать DeepProve как специализированный zkML-доказывающий в стиле STARK (хотя они используют термин zkSNARK для краткости, он не имеет традиционной для SNARK верификации постоянного малого размера, поскольку верификация за 0,5 с больше, чем типичная верификация SNARK). Традиционные доказательства STARK (как у StarkNet) часто включают десятки тысяч полевых операций для верификации, тогда как SNARK верифицирует, возможно, за несколько десятков. Таким образом, очевиден один компромисс: SNARK дают меньшие доказательства и более быстрые верификаторы, тогда как STARK (или GKR) предлагают более легкое масштабирование и отсутствие доверенной настройки ценой размера доказательства и скорости верификации.

Появляющиеся улучшения: JOLT zkVM (обсуждавшийся ранее в разделе JOLTx) фактически выводит SNARK (используя PLONK-подобные обязательства), но он воплощает идеи, которые также могут быть применены в контексте STARK (поиски Lasso теоретически могут использоваться с обязательствами FRI). StarkWare и другие исследуют способы ускорения доказательства общих операций (например, использование пользовательских вентилей или подсказок в Cairo для операций с большими целыми числами и т. д.). Существует также Circomlib-ML от Privacy&Scaling Explorations (PSE), который предоставляет шаблоны Circom для слоев CNN и т. д. – это ориентировано на SNARK, но концептуально аналогичные шаблоны могут быть созданы для языков STARK.

На практике экосистемы, не относящиеся к Ethereum, использующие STARK, включают StarkNet (который мог бы позволить ончейн-верификацию ML, если кто-то напишет верификатор, хотя стоимость высока) и сервис Bonsai от Risc0 (который является оффчейн-сервисом доказательства, выдающим доказательства STARK, которые могут быть проверены в различных цепочках). По состоянию на 2025 год большинство демонстраций zkML на блокчейне отдавали предпочтение SNARK (из-за эффективности верификатора), но подходы STARK остаются привлекательными из-за их прозрачности и потенциала в условиях высокой безопасности или квантовой устойчивости. Например, децентрализованная вычислительная сеть может использовать STARK, чтобы позволить любому проверять работу без доверенной настройки, что полезно для долговечности. Кроме того, некоторые специализированные задачи ML могут использовать структуры, дружественные к STARK: например, вычисления, активно использующие операции XOR/битовые операции, могут быть быстрее в STARK (поскольку они дешевы в булевой алгебре и хешировании), чем в полевой арифметике SNARK.

Сравнение SNARK и STARK для ML:

  • Производительность: SNARK (такие как Halo2) имеют огромные накладные расходы на доказательство для каждого вентиля, но выигрывают от мощных оптимизаций и малых констант для верификации; STARK (общие) имеют большие постоянные накладные расходы, но масштабируются более линейно и избегают дорогостоящей криптографии, такой как спаривания. DeepProve показывает, что настройка подхода (проверка суммы) дает почти линейное время доказательства (быстрое), но с доказательством, подобным STARK. JOLT показывает, что даже общая VM может быть ускорена за счет интенсивного использования поисков. Эмпирически, для моделей до миллионов операций: хорошо оптимизированный SNARK (Ezkl) может справиться, но может занять десятки минут, тогда как DeepProve (GKR) может сделать это за секунды. STARK VM в 2024 году, вероятно, были где-то посередине или хуже, чем SNARK, если не были специализированными (Risc0 был медленнее в тестах, Cairo был медленнее без пользовательских подсказок).
  • Верификация: Доказательства SNARK проверяются быстрее всего (миллисекунды, и минимальные данные ончейн ~ от нескольких сотен байт до нескольких КБ). Доказательства STARK больше (десятки КБ) и требуют больше времени (от десятков мс до секунд) для верификации из-за множества шагов хеширования. В терминах блокчейна, верификация SNARK может стоить, например, ~200 тыс. газа, тогда как верификация STARK может стоить миллионы газа – часто слишком дорого для L1, приемлемо на L2 или со схемами краткой верификации.
  • Настройка и безопасность: SNARK, такие как Groth16, требуют доверенной настройки для каждой схемы (неудобно для произвольных моделей), но универсальные SNARK (PLONK, Halo2) имеют одноразовую настройку, которая может быть повторно использована для любой схемы до определенного размера. STARK не требуют настройки и используют только хеш-предположения (плюс классические предположения о полиномиальной сложности), и являются постквантово-устойчивыми. Это делает STARK привлекательными для долговечности – доказательства остаются безопасными, даже если появятся квантовые компьютеры, тогда как текущие SNARK (на основе BLS12-381) будут взломаны квантовыми атаками.

Мы вскоре сведем эти различия в сравнительную таблицу.

FHE для ML (FHE-o-ML): Приватные вычисления против проверяемых вычислений

Полностью гомоморфное шифрование (FHE) – это криптографическая техника, которая позволяет выполнять вычисления непосредственно над зашифрованными данными. В контексте ML FHE может обеспечить форму инференса, сохраняющего конфиденциальность: например, клиент может отправить зашифрованный ввод хосту модели, хост запускает нейронную сеть на зашифрованном тексте, не расшифровывая его, и отправляет обратно зашифрованный результат, который клиент может расшифровать. Это обеспечивает конфиденциальность данных – владелец модели ничего не узнает о вводе (и потенциально клиент узнает только вывод, а не внутренности модели, если он получает только вывод). Однако FHE само по себе не создает доказательства правильности так, как это делают ZKP. Клиент должен доверять тому, что владелец модели действительно выполнил вычисления честно (зашифрованный текст мог быть изменен). Обычно, если у клиента есть модель или он ожидает определенного распределения выходных данных, явное мошенничество может быть обнаружено, но тонкие ошибки или использование неправильной версии модели не будут очевидны только из зашифрованного вывода.

Компромиссы в производительности: FHE, как известно, очень требовательно к вычислениям. Запуск инференса глубокого обучения под FHE приводит к замедлению на порядки. Ранние эксперименты (например, CryptoNets в 2016 году) занимали десятки секунд для оценки крошечной CNN на зашифрованных данных. К 2024 году улучшения, такие как CKKS (для приближенной арифметики) и лучшие библиотеки (Microsoft SEAL, Zama’s Concrete), сократили эти накладные расходы, но они остаются значительными. Например, пользователь сообщил, что использование Concrete-ML от Zama для запуска классификатора CIFAR-10 занимало 25–30 минут на инференс на их оборудовании. После оптимизаций команда Zama достигла ~40 секунд для этого инференса на 192-ядерном сервере. Даже 40 секунд – это чрезвычайно медленно по сравнению с инференсом в открытом виде (который может занимать 0,01 с), что показывает накладные расходы в ~$10^3$–$10^4\times$. Более крупные модели или более высокая точность еще больше увеличивают стоимость. Кроме того, операции FHE потребляют много памяти и требуют периодической бустрапизации (шага снижения шума), что является вычислительно дорогим. В итоге, масштабируемость является серьезной проблемой – современное FHE может обрабатывать небольшую CNN или простую логистическую регрессию, но масштабирование до больших CNN или трансформеров выходит за рамки текущих практических ограничений.

Преимущества конфиденциальности: Главная привлекательность FHE – это конфиденциальность данных. Входные данные могут оставаться полностью зашифрованными на протяжении всего процесса. Это означает, что недоверенный сервер может выполнять вычисления над частными данными клиента, ничего о них не узнавая. И наоборот, если модель является конфиденциальной (проприетарной), можно представить шифрование параметров модели и выполнение клиентом инференса FHE на своей стороне – но это менее распространено, потому что если клиенту приходится выполнять тяжелые вычисления FHE, это сводит на нет идею разгрузки на мощный сервер. Обычно модель является публичной или хранится сервером в открытом виде, а данные шифруются ключом клиента. Конфиденциальность модели в этом сценарии не обеспечивается по умолчанию (сервер знает модель; клиент узнает выходные данные, но не веса). Существуют более экзотические настройки (например, безопасные двухсторонние вычисления или FHE с несколькими ключами), где и модель, и данные могут быть скрыты друг от друга, но они влекут за собой еще большую сложность. В отличие от этого, zkML через ZKP может обеспечить конфиденциальность модели и конфиденциальность данных одновременно – доказывающий может иметь как модель, так и данные в качестве секретного свидетеля, раскрывая верификатору только то, что необходимо.

Ончейн-верификация не требуется (и невозможна): С FHE результат приходит клиенту в зашифрованном виде. Затем клиент расшифровывает его, чтобы получить фактическое предсказание. Если мы хотим использовать этот результат ончейн, клиент (или тот, кто владеет ключом дешифрования) должен будет опубликовать результат в открытом виде и убедить других в его правильности. Но в этот момент доверие снова возвращается в цикл – если только это не сочетается с ZKP. В принципе, можно было бы объединить FHE и ZKP: например, использовать FHE для сохранения конфиденциальности данных во время вычислений, а затем сгенерировать ZK-доказательство того, что результат в открытом виде соответствует правильным вычислениям. Однако их объединение означает, что вы платите штраф за производительность FHE и ZKP – что крайне непрактично с сегодняшними технологиями. Таким образом, на практике FHE-of-ML и zkML служат для разных сценариев использования:

  • FHE-of-ML: Идеально, когда целью является конфиденциальность между двумя сторонами (клиентом и сервером). Например, облачный сервис может размещать модель ML, и пользователи могут запрашивать ее со своими конфиденциальными данными, не раскрывая данные облаку (и если модель конфиденциальна, возможно, развернуть ее с помощью FHE-совместимых кодировок). Это отлично подходит для ML-сервисов, сохраняющих конфиденциальность (медицинские прогнозы и т. д.). Пользователь по-прежнему должен доверять сервису в добросовестном выполнении модели (поскольку нет доказательства), но, по крайней мере, предотвращается любая утечка данных. Некоторые проекты, такие как Zama, даже исследуют «EVM с поддержкой FHE (fhEVM)», где смарт-контракты могли бы работать с зашифрованными входными данными, но верификация этих вычислений ончейн потребовала бы от контракта каким-то образом обеспечить правильность вычислений – открытая проблема, вероятно, требующая ZK-доказательств или специализированного защищенного оборудования.
  • zkML (ZKP): Идеально, когда целью является проверяемость и публичная аудируемость. Если вы хотите, чтобы любой (или любой контракт) был уверен, что «Модель $M$ была правильно оценена на $X$ и произвела $Y$», ZKP являются решением. Они также обеспечивают конфиденциальность в качестве бонуса (вы можете скрыть $X$ или $Y$ или $M$ при необходимости, рассматривая их как частные входные данные для доказательства), но их основная функция – это доказательство правильного выполнения.

Взаимодополняющие отношения: Стоит отметить, что ZKP защищают верификатора (они ничего не узнают о секретах, только то, что вычисление было выполнено правильно), тогда как FHE защищает данные доказывающего от вычисляющей стороны. В некоторых сценариях их можно было бы объединить – например, сеть недоверенных узлов могла бы использовать FHE для вычислений над частными данными пользователей, а затем предоставлять ZK-доказательства пользователям (или блокчейну) о том, что вычисления были выполнены в соответствии с протоколом. Это охватило бы как конфиденциальность, так и правильность, но стоимость производительности огромна с сегодняшними алгоритмами. Более осуществимыми в ближайшей перспективе являются гибриды, такие как Trusted Execution Environments (TEE) плюс ZKP или функциональное шифрование плюс ZKP – они выходят за рамки нашего обсуждения, но их цель – предоставить нечто подобное (TEE сохраняют данные/модель в секрете во время вычислений, затем ZKP может подтвердить, что TEE сделала все правильно).

В итоге, FHE-of-ML отдает приоритет конфиденциальности входов/выходов, тогда как zkML отдает приоритет проверяемой правильности (с возможной конфиденциальностью). Таблица 1 ниже сопоставляет ключевые свойства:

ПодходПроизводительность доказывающего (инференс и доказательство)Размер доказательства и верификацияФункции конфиденциальностиДоверенная настройка?Постквантовая устойчивость?
zk-SNARK (Halo2, Groth16, PLONK и др.)Тяжелые накладные расходы доказывающего (до 10^6× обычного времени выполнения без оптимизаций; на практике 10^3–10^5×). Оптимизировано для конкретной модели/схемы; время доказательства в минутах для средних моделей, часы для больших. Недавние zkML SNARK (DeepProve с GKR) значительно улучшают это (почти линейные накладные расходы, например, секунды вместо минут для моделей с миллионами параметров).Очень маленькие доказательства (часто < 100 КБ, иногда ~несколько КБ). Верификация быстрая: несколько спариваний или полиномиальных оценок (обычно < 50 мс ончейн). Доказательства DeepProve на основе GKR больше (десятки–сотни КБ) и верифицируются за ~0,5 с (все еще намного быстрее, чем повторный запуск модели).Конфиденциальность данных: Да – входные данные могут быть приватными в доказательстве (не раскрываются). Конфиденциальность модели: Да – доказывающий может зафиксировать веса модели и не раскрывать их. Скрытие вывода: Опционально – доказательство может быть утверждением без раскрытия вывода (например, «вывод имеет свойство P»). Однако, если сам вывод нужен ончейн, он обычно становится публичным. В целом, SNARK предлагают полную гибкость нулевого разглашения (скрывайте любые части, которые хотите).Зависит от схемы. Groth16/EZKL требуют доверенной настройки для каждой схемы; PLONK/Halo2 используют универсальную настройку (одноразовую). GKR DeepProve с проверкой суммы прозрачен (без настройки) – это бонус такого дизайна.Классические SNARK (кривые BLS12-381) не являются PQ-безопасными (уязвимы для квантовых атак на дискретный логарифм эллиптической кривой). Некоторые новые SNARK используют PQ-безопасные обязательства, но Halo2/PLONK, используемые в Ezkl, не являются PQ-безопасными. GKR (DeepProve) использует хеш-обязательства (например, Poseidon/Merkle), которые, как предполагается, являются PQ-безопасными (опираясь на устойчивость к поиску прообраза хеша).
zk-STARK (FRI, доказательство на основе хеширования)Накладные расходы доказывающего высоки, но масштабирование более линейное. Обычно в 10^2–10^4 раза медленнее, чем нативное выполнение для больших задач, с возможностью распараллеливания. Общие STARK VM (Risc0, Cairo) показали более низкую производительность по сравнению с SNARK для ML в 2024 году (например, в 3–66 раз медленнее, чем Halo2 в некоторых случаях). Специализированные STARK (или GKR) могут приближаться к линейным накладным расходам и превосходить SNARK для больших схем.Доказательства больше: часто десятки КБ (растут с размером схемы/log(n)). Верификатор должен выполнять множество проверок хеширования и FFT – время верификации ~O(n^ε) для малого ε (например, ~50 мс до 500 мс в зависимости от размера доказательства). Ончейн это дороже (верификатор L1 StarkWare может занимать миллионы газа на доказательство). Некоторые STARK поддерживают рекурсивные доказательства для сжатия размера, ценой времени доказывающего.Конфиденциальность данных и модели: STARK может быть сделан доказательством с нулевым разглашением путем рандомизации данных трассировки (добавление ослепления к оценкам полинома), поэтому он может скрывать частные входные данные аналогично SNARK. Многие реализации STARK сосредоточены на целостности, но варианты zk-STARK допускают конфиденциальность. Так что да, они могут скрывать входные данные/модели, как SNARK. Скрытие вывода: также возможно в теории (доказывающий не объявляет вывод публичным), но редко используется, поскольку обычно вывод – это то, что мы хотим раскрыть/проверить.Без доверенной настройки. Прозрачность – отличительная черта STARK – требуется только общая случайная строка (которую Fiat-Shamir может вывести). Это делает их привлекательными для открытого использования (любая модель, в любое время, без церемонии для каждой модели).Да, STARK полагаются на хеш- и информационно-теоретические предположения безопасности (такие как случайный оракул и сложность определенного декодирования кодовых слов в FRI). Считается, что они устойчивы к квантовым атакам. Таким образом, доказательства STARK являются PQ-устойчивыми, что является преимуществом для обеспечения долговечности проверяемого ИИ.
FHE для ML (Полностью гомоморфное шифрование, примененное к инференсу)Доказывающий = сторона, выполняющая вычисления над зашифрованными данными. Время вычислений чрезвычайно велико: замедление в 10^3–10^5 раз по сравнению с инференсом в открытом виде является обычным явлением. Высокопроизводительное оборудование (многоядерные серверы, FPGA и т. д.) может смягчить это. Некоторые оптимизации (инференс с низкой точностью, многоуровневые параметры FHE) могут уменьшить накладные расходы, но фундаментальный удар по производительности остается. FHE в настоящее время практично для небольших моделей или простых линейных моделей; глубокие сети остаются сложными за пределами игрушечных размеров.Доказательство не генерируется. Результатом является зашифрованный вывод. Верификация в смысле проверки правильности не обеспечивается одним только FHE – приходится доверять вычисляющей стороне, что она не обманывает. (Если в сочетании с защищенным оборудованием, можно получить аттестацию; в противном случае вредоносный сервер может вернуть некорректный зашифрованный результат, который клиент расшифрует в неправильный вывод, не зная разницы).Конфиденциальность данных: Да – входные данные зашифрованы, поэтому вычисляющая сторона ничего о них не узнает. Конфиденциальность модели: Если владелец модели выполняет вычисления над зашифрованными входными данными, модель находится в открытом виде на его стороне (не защищена). Если роли меняются местами (клиент хранит модель зашифрованной, а сервер выполняет вычисления), модель может оставаться зашифрованной, но этот сценарий менее распространен. Существуют методы, такие как безопасное двухстороннее ML, которые объединяют FHE/MPC для защиты обеих сторон, но они выходят за рамки простого FHE. Скрытие вывода: По умолчанию вывод вычисления зашифрован (расшифровать его может только сторона с секретным ключом, обычно владелец входных данных). Таким образом, вывод скрыт от вычисляющего сервера. Если мы хотим, чтобы вывод был публичным, клиент может его расшифровать и раскрыть.Настройка не требуется. Каждый пользователь генерирует свою пару ключей для шифрования. Доверие основано на том, что ключи остаются секретными.Безопасность схем FHE (например, BFV, CKKS, TFHE) основана на решеточных проблемах (Learning With Errors), которые, как считается, устойчивы к квантовым атакам (по крайней мере, не известно эффективного квантового алгоритма). Таким образом, FHE обычно считается постквантово-устойчивым.

Таблица 1: Сравнение подходов zk-SNARK, zk-STARK и FHE для инференса машинного обучения (компромиссы производительности и конфиденциальности).

Сценарии использования и последствия для приложений Web3

Конвергенция ИИ и блокчейна через zkML открывает мощные новые паттерны приложений в Web3:

  • Децентрализованные автономные агенты и ончейн-принятие решений: Смарт-контракты или DAO могут включать решения, управляемые ИИ, с гарантиями правильности. Например, представьте DAO, которое использует нейронную сеть для анализа рыночных условий перед выполнением сделок. С помощью zkML смарт-контракт DAO может потребовать доказательство zkSNARK того, что авторизованная модель ML (с известным хеш-обязательством) была запущена на последних данных и произвела рекомендованное действие, прежде чем действие будет принято. Это предотвращает внедрение поддельного предсказания злоумышленниками – цепочка проверяет вычисления ИИ. Со временем можно даже иметь полностью ончейн-автономных агентов (контракты, которые запрашивают оффчейн-ИИ или содержат упрощенные модели), принимающих решения в DeFi или играх, при этом все их действия доказываются как правильные и соответствующие политике с помощью zk-доказательств. Это повышает доверие к автономным агентам, поскольку их «мышление» прозрачно и проверяемо, а не является черным ящиком.

  • Рынки проверяемых вычислений: Проекты, подобные Lagrange, фактически создают рынки проверяемых вычислений – разработчики могут передавать тяжелый инференс ML сети доказывающих и получать доказательство с результатом. Это аналогично децентрализованным облачным вычислениям, но со встроенным доверием: вам не нужно доверять серверу, только доказательству. Это смена парадигмы для оракулов и оффчейн-вычислений. Протоколы, такие как предстоящий DSC Ethereum (децентрализованный уровень секвенирования) или сети оракулов, могли бы использовать это для предоставления потоков данных или аналитических потоков с криптографическими гарантиями. Например, оракул мог бы предоставить «результат модели X на входе Y», и любой мог бы проверить прикрепленное доказательство ончейн, вместо того чтобы доверять слову оракула. Это могло бы позволить проверяемый ИИ как услугу в блокчейне: любой контракт может запросить вычисление (например, «оценить эти кредитные риски с помощью моей частной модели») и принять ответ только с действительным доказательством. Такие проекты, как Gensyn, исследуют децентрализованные рынки обучения и инференса, используя эти методы верификации.

  • NFT и игры – Происхождение и эволюция: В блокчейн-играх или коллекционных NFT zkML может доказывать, что характеристики или игровые ходы были сгенерированы легитимными моделями ИИ. Например, игра может позволить ИИ развивать атрибуты NFT-питомца. Без ZK хитрый пользователь может изменить ИИ или результат, чтобы получить превосходного питомца. С помощью zkML игра может потребовать доказательство того, что «новые характеристики питомца были вычислены официальной моделью эволюции на основе старых характеристик питомца», предотвращая мошенничество. Аналогично для генеративных арт-NFT: художник мог бы выпустить генеративную модель в качестве обязательства; позже, при создании NFT, доказать, что каждое изображение было произведено этой моделью с использованием определенного начального значения, гарантируя подлинность (и даже делая это без раскрытия точной модели публике, сохраняя интеллектуальную собственность художника). Эта проверка происхождения обеспечивает подлинность способом, аналогичным проверяемой случайности – за исключением того, что здесь это проверяемая креативность.

  • ИИ, сохраняющий конфиденциальность, в чувствительных областях: zkML позволяет подтверждать результаты без раскрытия входных данных. В здравоохранении данные пациента могут быть пропущены через диагностическую модель ИИ облачным провайдером; больница получает диагноз и доказательство того, что модель (которая может быть частной собственностью фармацевтической компании) была правильно запущена на данных пациента. Данные пациента остаются конфиденциальными (в доказательстве использовалась только зашифрованная или зафиксированная форма), а веса модели остаются проприетарными – тем не менее, результат является доверенным. Регуляторы или страховые компании также могли бы проверить, что использовались только утвержденные модели. В финансах компания могла бы доказать аудитору или регулятору, что ее модель риска была применена к ее внутренним данным и произвела определенные метрики без раскрытия базовых конфиденциальных финансовых данных. Это обеспечивает соответствие и надзор с криптографическими гарантиями, а не ручным доверием.

  • Кроссчейн и оффчейн совместимость: Поскольку доказательства с нулевым разглашением по своей сути портативны, zkML может облегчить кроссчейн-ИИ результаты. Одна цепочка может иметь приложение, интенсивно использующее ИИ, работающее оффчейн; оно может опубликовать доказательство результата в другом блокчейне, который бездоверительно примет его. Например, рассмотрим многоцепочечное DAO, использующее ИИ для агрегирования настроений в социальных сетях (оффчейн-данные). Анализ ИИ (сложная НЛП на больших данных) выполняется оффчейн сервисом, который затем публикует доказательство в небольшом блокчейне (или нескольких цепочках) о том, что «анализ был выполнен правильно и выходной показатель настроения = 0,85». Все цепочки могут проверить и использовать этот результат в своей логике управления, без необходимости каждой повторно запускать анализ. Этот вид взаимодействующих проверяемых вычислений – это то, что сеть Lagrange стремится поддерживать, обслуживая несколько роллапов или L1 одновременно. Это устраняет необходимость в доверенных мостах или предположениях оракулов при перемещении результатов между цепочками.

  • Согласование и управление ИИ: В более перспективном плане zkML был выделен как инструмент для управления и безопасности ИИ. Заявления о видении Lagrange, например, утверждают, что по мере того, как системы ИИ становятся все более мощными (даже сверхразумными), криптографическая верификация будет необходима для обеспечения их соответствия согласованным правилам. Требуя от моделей ИИ создания доказательств их рассуждений или ограничений, люди сохраняют определенную степень контроля – «вы не можете доверять тому, что не можете проверить». Хотя это спекулятивно и включает в себя как социальные, так и технические аспекты, технология могла бы обеспечить, чтобы автономно работающий агент ИИ по-прежнему доказывал, что он использует утвержденную модель и не был изменен. Децентрализованные сети ИИ могут использовать ончейн-доказательства для верификации вкладов (например, сеть узлов, совместно обучающих модель, может доказать, что каждое обновление было вычислено добросовестно). Таким образом, zkML может сыграть роль в обеспечении подотчетности систем ИИ протоколам, определенным человеком, даже в децентрализованных или неконтролируемых средах.

В заключение, zkML и проверяемый ончейн-ИИ представляют собой конвергенцию передовой криптографии и машинного обучения, которая призвана повысить доверие, прозрачность и конфиденциальность в приложениях ИИ. Сравнивая основные подходы – zk-SNARK, zk-STARK и FHE – мы видим спектр компромиссов между производительностью и конфиденциальностью, каждый из которых подходит для разных сценариев. Фреймворки на основе SNARK, такие как Ezkl, и инновации, такие как DeepProve от Lagrange, сделали возможным доказательство значительных инференсов нейронных сетей с практической эффективностью, открывая двери для реальных развертываний проверяемого ИИ. Подходы на основе STARK и VM обещают большую гибкость и постквантовую безопасность, что станет важным по мере развития области. FHE, хотя и не является решением для проверяемости, решает дополнительную потребность в конфиденциальных вычислениях ML, и в сочетании с ZKP или в конкретных частных контекстах оно может дать пользователям возможность использовать ИИ без ущерба для конфиденциальности данных.

Последствия для Web3 значительны: мы можем предвидеть, как смарт-контракты будут реагировать на предсказания ИИ, зная, что они верны; рынки вычислений, где результаты продаются без доверия; цифровые удостоверения (например, доказательство личности Worldcoin через ИИ радужной оболочки глаза), защищенные zkML для подтверждения того, что кто-то является человеком, без утечки его биометрического изображения; и в целом новый класс «доказуемого интеллекта», который обогащает блокчейн-приложения. Многие проблемы остаются – производительность для очень больших моделей, эргономика для разработчиков и потребность в специализированном оборудовании – но траектория ясна. Как отмечалось в одном отчете, «сегодняшние ZKP могут поддерживать небольшие модели, но модели среднего и большого размера нарушают парадигму»; однако быстрые достижения (ускорение в 50–150 раз с DeepProve по сравнению с предыдущими решениями) расширяют эти границы. Благодаря продолжающимся исследованиям (например, по аппаратному ускорению и распределенному доказательству) мы можем ожидать, что все более крупные и сложные модели ИИ станут доказуемыми. zkML вскоре может превратиться из нишевых демонстраций в неотъемлемый компонент доверенной инфраструктуры ИИ, гарантируя, что по мере повсеместного распространения ИИ он будет делать это таким образом, чтобы быть проверяемым, децентрализованным и соответствующим конфиденциальности и безопасности пользователей.

ETHDenver 2025: Ключевые тренды Web3 и инсайты с фестиваля

· 22 мин. чтения

ETHDenver 2025, названный «Годом Регенератов», укрепил свой статус одного из крупнейших в мире мероприятий Web3. Фестиваль, включавший BUIDLWeek (23–26 февраля), Основное событие (27 февраля – 2 марта) и постреконференционный Горный ретрит, собрал ожидаемые более 25 000 участников. Строители, разработчики, инвесторы и творческие люди из более чем 125 стран собрались в Денвере, чтобы отметить дух децентрализации и инноваций Ethereum. Верный своим общинным корням, ETHDenver оставался бесплатным для посещения, финансировался сообществом и был переполнен контентом – от хакатонов и мастер-классов до панельных дискуссий, питч-мероприятий и вечеринок. Легенда мероприятия о «Регенератах», защищающих децентрализацию, задала тон, подчеркивающий общественные блага и совместное строительство, даже на фоне конкурентного технологического ландшафта. Результатом стала неделя высокоэнергичной деятельности строителей и дальновидных дискуссий, предлагающих снимок новых тенденций Web3 и практические инсайты для профессионалов отрасли.

ETHDenver 2025

Новые тренды Web3, освещенные спикерами

Ни один нарратив не доминировал на ETHDenver 2025 – вместо этого в центре внимания оказался широкий спектр трендов Web3. В отличие от прошлого года (когда рестейкинг через EigenLayer привлек всеобщее внимание), повестка дня 2025 года представляла собой смесь всего: от децентрализованных сетей физической инфраструктуры (DePIN) до ИИ-агентов, от нормативного соответствия до токенизации реальных активов (RWA), а также конфиденциальность, интероперабельность и многое другое. Фактически, основатель ETHDenver Джон Паллер ответил на опасения по поводу мультичейн-контента, отметив, что «более 95% наших спонсоров и 90% контента ориентированы на ETH/EVM» – однако присутствие не-Ethereum экосистем подчеркнуло интероперабельность как ключевую тему. Основные спикеры отразили эти области трендов: например, zk-rollup и масштабирование Layer-2 были выделены Алексом Глуховски (CEO Matter Labs/zkSync), в то время как мультичейн-инновации представили Аденийи Абиодун из Mysten Labs (Sui) и Альберт Чон из Injective.

Слияние ИИ и Web3 стало сильным подтекстом. Многочисленные доклады и побочные мероприятия были посвящены децентрализованным ИИ-агентам и кроссоверам «DeFi+ИИ». Специальный День ИИ-агентов продемонстрировал ончейн-демонстрации ИИ, а коллектив из 14 команд (включая набор разработчика Coinbase и ИИ-подразделение NEAR) даже объявил о создании Open Agents Alliance (OAA) – инициативы по предоставлению безразрешительного, бесплатного доступа к ИИ путем объединения инфраструктуры Web3. Это указывает на растущий интерес к автономным агентам и dApps, управляемым ИИ, как к новой границе для разработчиков. Рука об руку с ИИ, DePIN (децентрализованная физическая инфраструктура) стало еще одним модным словом: многочисленные панели (например, День DePIN, Саммит DePIN) исследовали проекты, связывающие блокчейн с физическими сетями (от телекоммуникаций до мобильности).

Cuckoo AI Network произвела фурор на ETHDenver 2025, представив свой инновационный децентрализованный маркетплейс для обслуживания ИИ-моделей, разработанный для создателей и разработчиков. Благодаря убедительному присутствию как на хакатоне, так и на побочных мероприятиях, организованных сообществом, Cuckoo AI привлекла значительное внимание разработчиков, заинтригованных ее способностью монетизировать ресурсы GPU/CPU и легко интегрировать ончейн-ИИ API. Во время своего специализированного семинара и сетевой сессии Cuckoo AI подчеркнула, как децентрализованная инфраструктура может эффективно демократизировать доступ к передовым ИИ-сервисам. Это напрямую соответствует более широким тенденциям мероприятия — в частности, пересечению блокчейна с ИИ, DePIN и финансированием общественных благ. Для инвесторов и разработчиков на ETHDenver Cuckoo AI стала ярким примером того, как децентрализованные подходы могут питать следующее поколение dApps и инфраструктуры, управляемых ИИ, позиционируя себя как привлекательную инвестиционную возможность в экосистеме Web3.

Конфиденциальность, идентичность и безопасность оставались в центре внимания. Спикеры и семинары затрагивали такие темы, как доказательства с нулевым разглашением (присутствие zkSync), управление идентичностью и проверяемые учетные данные (специальный трек «Конфиденциальность и безопасность» был частью хакатона), а также юридические/регуляторные вопросы (ончейн-юридический саммит был частью фестивальных треков). Еще одной заметной дискуссией стало будущее фандрайзинга и децентрализации финансирования: дебаты на главной сцене между Хасибом Куреши из Dragonfly Capital и Мэттом О'Коннором из Legion (платформа, «похожая на ICO») о ICO против венчурного финансирования захватили внимание участников. Эти дебаты подчеркнули новые модели, такие как продажа токенов сообществом, бросающие вызов традиционным венчурным путям – важная тенденция для стартапов Web3, занимающихся привлечением капитала. Вывод для профессионалов ясен: Web3 в 2025 году является междисциплинарным – охватывая финансы, ИИ, реальные активы и культуру – и оставаться в курсе означает смотреть за пределы любого одного хайп-цикла на весь спектр инноваций.

Спонсоры и их стратегические направления

Список спонсоров ETHDenver в 2025 году читается как список «кто есть кто» среди проектов Layer-1, Layer-2 и инфраструктуры Web3 – каждый из которых использовал мероприятие для достижения стратегических целей. Кроссчейн- и мультичейн-протоколы продемонстрировали сильное присутствие. Например, Polkadot был главным спонсором с внушительным призовым фондом в $80 тыс., стимулируя разработчиков создавать кроссчейн-DApps и аппчейны. Аналогично, BNB Chain, Flow, Hedera и Base (L2 от Coinbase) предлагали до $50 тыс. за проекты, интегрирующиеся с их экосистемами, сигнализируя о своем стремлении привлечь разработчиков Ethereum. Даже традиционно отдельные экосистемы, такие как Solana и Internet Computer, присоединились к спонсируемым конкурсам (например, Solana совместно организовала мероприятие DePIN, а Internet Computer предложил вознаграждение «Только возможно на ICP»). Это кросс-экосистемное присутствие вызвало некоторую критику со стороны сообщества, но команда ETHDenver отметила, что подавляющее большинство контента оставалось ориентированным на Ethereum. Чистым эффектом стала интероперабельность как основная тема – спонсоры стремились позиционировать свои платформы как дополнительные расширения вселенной Ethereum.

Решения для масштабирования и поставщики инфраструктуры также были в центре внимания. Крупные L2-решения Ethereum, такие как Optimism и Arbitrum, имели большие стенды и спонсировали конкурсы (вознаграждения Optimism до $40 тыс.), подтверждая свое внимание к привлечению разработчиков к роллапам. Новые участники, такие как ZkSync и Zircuit (проект, демонстрирующий подход L2-роллапа), подчеркивали технологию нулевого разглашения и даже предоставили SDK (ZkSync продвигал свой Smart Sign-On SDK для удобного входа в систему, который команды хакатона с энтузиазмом использовали). Рестейкинг и модульная блокчейн-инфраструктура были еще одним интересом спонсоров – EigenLayer (пионер рестейкинга) имел свой собственный трек на $50 тыс. и даже совместно организовал мероприятие по «Рестейкингу и DeFAI (Децентрализованный ИИ)», объединив свою модель безопасности с темами ИИ. Оракулы и промежуточное ПО для интероперабельности были представлены такими компаниями, как Chainlink и Wormhole, каждая из которых выдавала вознаграждения за использование своих протоколов.

Примечательно, что потребительские приложения и инструменты Web3 получили спонсорскую поддержку для улучшения пользовательского опыта. Присутствие Uniswap – с одним из самых больших стендов – было не просто для галочки: гигант DeFi использовал мероприятие, чтобы анонсировать новые функции кошелька, такие как интегрированные фиатные выходы, что соответствовало его спонсорскому фокусу на удобстве использования DeFi. Платформы, ориентированные на идентичность и сообщество, такие как Galxe (Gravity) и Lens Protocol, спонсировали конкурсы, связанные с ончейн-социальными сетями и учетными данными. Даже основные технологические компании проявили интерес: PayPal и Google Cloud провели «счастливый час» по стейблкоинам/платежам, чтобы обсудить будущее платежей в криптоиндустрии. Это сочетание спонсоров показывает, что стратегические интересы варьировались от основной инфраструктуры до конечных пользовательских приложений – все они сходились на ETHDenver, чтобы предоставить ресурсы (API, SDK, гранты) разработчикам. Для профессионалов Web3 активное спонсорство со стороны Layer-1, Layer-2 и даже Web2 финтех-компаний подчеркивает, куда инвестирует отрасль: интероперабельность, масштабируемость, безопасность и повышение полезности крипто для следующей волны пользователей.

Основные моменты хакатона: инновационные проекты и победители

В основе ETHDenver лежит его легендарный #BUIDLathon – хакатон, который вырос в крупнейший в мире блокчейн-хакфест с тысячами разработчиков. В 2025 году хакатон предложил рекордный призовой фонд более $1 043 333 для стимулирования инноваций. Вознаграждения от более чем 60 спонсоров были нацелены на ключевые домены Web3, разделив соревнование на треки, такие как: DeFi и ИИ, NFT и Игры, Инфраструктура и Масштабируемость, Конфиденциальность и Безопасность, а также DAO и Общественные блага. Сам дизайн треков показателен – например, объединение DeFi с ИИ намекает на появление финансовых приложений, управляемых ИИ, в то время как выделенный трек Общественных благ подтверждает фокус сообщества на регенеративном финансировании и разработке с открытым исходным кодом. Каждый трек поддерживался спонсорами, предлагающими призы за лучшее использование их технологий (например, Polkadot и Uniswap для DeFi, Chainlink для интероперабельности, Optimism для решений масштабирования). Организаторы даже внедрили квадратичное голосование для судейства, позволяя сообществу помогать выявлять лучшие проекты, а окончательные победители выбирались экспертным жюри.

Результатом стал поток передовых проектов, многие из которых дают представление о будущем Web3. Среди заметных победителей была ончейн-многопользовательская игра «0xCaliber», шутер от первого лица, который запускает блокчейн-взаимодействия в реальном времени внутри классической FPS-игры. 0xCaliber поразила судей, продемонстрировав настоящий ончейн-гейминг – игроки входят с помощью крипто, «стреляют» ончейн-пулями и используют кроссчейн-трюки для сбора и вывода добычи, все в реальном времени. Этот тип проекта демонстрирует растущую зрелость Web3-гейминга (интеграция игровых движков Unity со смарт-контрактами) и креативность в слиянии развлечений с криптоэкономикой. Другой категорией выдающихся хаков были те, что объединяли ИИ с Ethereum: команды создавали «агентские» платформы, которые используют смарт-контракты для координации ИИ-сервисов, вдохновленные анонсом Open Agents Alliance. Например, один проект хакатона интегрировал ИИ-управляемые аудиторы смарт-контрактов (автоматически генерирующие тестовые сценарии безопасности для контрактов) – что соответствует тренду децентрализованного ИИ, наблюдаемому на конференции.

Проекты инфраструктуры и инструментов также были заметны. Некоторые команды занимались абстракцией аккаунтов и пользовательским опытом, используя спонсорские наборы инструментов, такие как Smart Sign-On от zkSync, для создания бесшовных потоков входа без кошелька для dApps. Другие работали над кроссчейн-мостами и интеграциями Layer-2, отражая постоянный интерес разработчиков к интероперабельности. В треке Общественных благ и DAO несколько проектов затронули реальное социальное воздействие, например, dApp для децентрализованной идентичности и помощи бездомным (используя NFT и общественные фонды, идея, напоминающая предыдущие хаки ReFi). Концепции регенеративного финансирования (ReFi) – такие как финансирование общественных благ с помощью новых механизмов – продолжали появляться, вторя регенеративной теме ETHDenver.

В то время как окончательные победители праздновались к концу основного мероприятия, истинная ценность заключалась в потоке инноваций: было подано более 400 проектных заявок, многие из которых будут жить и после мероприятия. Хакатон ETHDenver имеет опыт посева будущих стартапов (действительно, некоторые прошлые проекты BUIDLathon сами стали спонсорами). Для инвесторов и технологов хакатон предоставил окно в передовые идеи – сигнализируя о том, что следующая волна стартапов Web3 может появиться в таких областях, как ончейн-гейминг, dApps с ИИ, кроссчейн-инфраструктура и решения, нацеленные на социальное воздействие. С почти $1 млн в виде вознаграждений, выплаченных разработчикам, спонсоры эффективно вложили свои деньги в развитие этих инноваций.

Сетевые мероприятия и взаимодействие с инвесторами

ETHDenver – это не только написание кода, но и налаживание связей. В 2025 году фестиваль значительно усилил возможности для нетворкинга благодаря как формальным, так и неформальным мероприятиям, ориентированным на стартапы, инвесторов и создателей сообществ. Одним из знаковых событий стало Bufficorn Ventures (BV) Startup Rodeo – высокоэнергетическая демонстрация, где 20 тщательно отобранных стартапов представили свои проекты инвесторам в формате выставки-ярмарки. Прошедшее 1 марта в главном зале, Startup Rodeo было описано скорее как «быстрые свидания», чем конкурс питчей: основатели занимали столы, чтобы представлять свои проекты один на один, пока все присутствующие инвесторы бродили по арене. Этот формат гарантировал, что даже команды на ранних стадиях могли получить значимое личное общение с венчурными капиталистами, стратегами или партнерами. Многие стартапы использовали это как стартовую площадку для поиска клиентов и финансирования, используя концентрированное присутствие фондов Web3 на ETHDenver.

В последний день конференции BV BuffiTank Pitchfest занял центральное место на главной сцене – более традиционный конкурс питчей, в котором участвовали 10 «самых инновационных» стартапов на ранней стадии из сообщества ETHDenver. Эти команды (отдельно от победителей хакатона) представили свои бизнес-модели группе ведущих венчурных капиталистов и лидеров отрасли, соревнуясь за награды и потенциальные инвестиционные предложения. Pitchfest проиллюстрировал роль ETHDenver как генератора сделок: он был явно нацелен на команды, «уже организованные… ищущие инвестиции, клиентов и известность», особенно те, что связаны с сообществом SporkDAO. Наградой для победителей был не простой денежный приз, а обещание присоединиться к портфолио Bufficorn Ventures или другим когортам акселераторов. По сути, ETHDenver создал свой собственный мини-«Shark Tank» для Web3, катализируя внимание инвесторов к лучшим проектам сообщества.

Помимо этих официальных демонстраций, неделя была наполнена встречами инвесторов и основателей. Согласно тщательно составленному руководству от Belong, среди заметных побочных мероприятий были «Счастливый час знакомства с венчурными капиталистами», организованный CertiK Ventures 27 февраля, Лаунж венчурных капиталистов и основателей StarkNet 1 марта, и даже неформальные мероприятия, такие как «Pitch & Putt» – питч-мероприятие на тему гольфа. Эти встречи обеспечивали расслабленную обстановку для основателей, чтобы пообщаться с венчурными капиталистами, что часто приводило к последующим встречам после конференции. Присутствие многих новых венчурных фирм также ощущалось на панелях – например, сессия на сцене EtherKnight осветила новые фонды, такие как Reflexive Capital, Reforge VC, Topology, Metalayer и Hash3, и то, какие тренды их больше всего интересуют. Ранние признаки указывают на то, что эти венчурные капиталисты были заинтересованы в таких областях, как децентрализованные социальные сети, ИИ и новая инфраструктура Layer-1 (каждый фонд вырезал нишу, чтобы дифференцироваться в конкурентной среде венчурного капитала).

Для профессионалов, желающих извлечь выгоду из нетворкинга на ETHDenver: ключевой вывод – это ценность побочных мероприятий и целевых встреч. Сделки и партнерства часто зарождаются за чашкой кофе или коктейлем, а не на сцене. Множество инвесторских мероприятий ETHDenver 2025 демонстрируют, что сообщество финансирования Web3 активно ищет таланты и идеи даже на скудном рынке. Стартапы, которые пришли подготовленными с отточенными демонстрациями и четким ценностным предложением (часто используя импульс хакатона мероприятия), нашли отзывчивую аудиторию. Тем временем инвесторы использовали эти взаимодействия, чтобы оценить пульс сообщества разработчиков – какие проблемы решают самые яркие строители в этом году? В итоге, ETHDenver подтвердил, что нетворкинг так же важен, как и BUIDLing: это место, где случайная встреча может привести к посевному инвестированию или где проницательный разговор может зажечь следующее крупное сотрудничество.

Тренды венчурного капитала и инвестиционные возможности в Web3

Тонкий, но важный нарратив на протяжении всего ETHDenver 2025 заключался в меняющемся ландшафте самого венчурного капитала Web3. Несмотря на взлеты и падения более широкого крипторынка, инвесторы на ETHDenver сигнализировали о сильном аппетите к многообещающим проектам Web3. Репортеры Blockworks на месте отметили, «сколько частного капитала все еще поступает в криптоиндустрию, не испугавшись макроэкономических препятствий», при этом оценки на стадии посева часто были заоблачными для самых горячих идей. Действительно, огромное количество присутствующих венчурных капиталистов – от крипто-нативных фондов до традиционных технологических инвесторов, пробующих себя в Web3 – ясно дало понять, что ETHDenver остается центром заключения сделок.

Новые тематические направления можно было выделить из того, что обсуждали и спонсировали венчурные капиталисты. Распространенность контента ИИ x Крипто (треки хакатона, панели и т. д.) была не только трендом разработчиков; она отражает венчурный интерес к связке «DeFi встречается с ИИ». Многие инвесторы присматриваются к стартапам, которые используют машинное обучение или автономных агентов на блокчейне, о чем свидетельствуют спонсируемые венчурными фондами ИИ-хаус-пати и саммиты. Аналогично, сильный акцент на DePIN и токенизации реальных активов (RWA) указывает на то, что фонды видят возможности в проектах, которые связывают блокчейн с активами реальной экономики и физическими устройствами. Специальный День RWA (26 февраля) – B2B-мероприятие, посвященное будущему токенизированных активов – предполагает, что венчурные скауты активно ищут на этой арене следующий Goldfinch или Centrifuge (т. е. платформы, выводящие реальные финансы в ончейн).

Еще одной заметной тенденцией было растущее экспериментирование с моделями финансирования. Вышеупомянутые дебаты о ICO против венчурных капиталистов были не просто театральным представлением конференции; они отражают реальное венчурное движение к более ориентированному на сообщество финансированию. Некоторые венчурные капиталисты на ETHDenver указали на открытость к гибридным моделям (например, поддерживаемые венчурным капиталом запуски токенов, которые вовлекают сообщество в ранние раунды). Кроме того, финансирование общественных благ и импакт-инвестирование имели место за столом переговоров. С учетом этоса регенерации ETHDenver, даже инвесторы обсуждали, как поддерживать инфраструктуру с открытым исходным кодом и разработчиков в долгосрочной перспективе, помимо простого преследования следующего бума DeFi или NFT. Панели, такие как «Финансирование будущего: Развивающиеся модели для ончейн-стартапов», исследовали альтернативы, такие как гранты, инвестиции из казны DAO и квадратичное финансирование для дополнения традиционных венчурных денег. Это указывает на то, что отрасль созревает в том, как проекты капитализируются – сочетание венчурного капитала, экосистемных фондов и финансирования сообщества, работающих в тандеме.

С точки зрения возможностей, профессионалы и инвесторы Web3 могут извлечь несколько практических инсайтов из венчурной динамики ETHDenver: (1) Инфраструктура по-прежнему король – многие венчурные капиталисты выразили мнение, что «кирпичи и лопаты» (масштабирование L2, безопасность, инструменты для разработчиков) остаются высокоценными инвестициями как основа отрасли. (2) Новые вертикали, такие как конвергенция ИИ/блокчейна и DePIN, являются новыми инвестиционными границами – освоение этих областей или поиск стартапов там может быть вознаграждающим. (3) Проекты, управляемые сообществом, и общественные блага могут получить новое финансирование – проницательные инвесторы выясняют, как поддерживать их устойчиво (например, инвестируя в протоколы, которые обеспечивают децентрализованное управление или совместное владение). В целом, ETHDenver 2025 показал, что, хотя венчурный ландшафт Web3 конкурентен, он полон убежденности: капитал доступен для тех, кто строит будущее DeFi, NFT, игр и за их пределами, и даже идеи, рожденные на медвежьем рынке, могут найти поддержку, если они нацелены на правильный тренд.

Ресурсы, наборы инструментов и системы поддержки для разработчиков

ETHDenver всегда был ориентирован на строителей, и 2025 год не стал исключением – он также служил конференцией разработчиков открытого исходного кода с множеством ресурсов и поддержки для Web3-разработчиков. Во время BUIDLWeek участники имели доступ к живым мастер-классам, техническим буткемпам и мини-саммитам, охватывающим различные области. Например, разработчики могли присоединиться к Bleeding Edge Tech Summit, чтобы поработать с новейшими протоколами, или посетить On-Chain Legal Summit, чтобы узнать о разработке смарт-контрактов, соответствующих требованиям. Крупные спонсоры и блокчейн-команды проводили практические занятия: команда Polkadot организовала хакерские дома и мастер-классы по запуску парачейнов; EigenLayer провел «буткемп по рестейкингу», чтобы научить разработчиков использовать его уровень безопасности; Polygon и zkSync проводили уроки по созданию масштабируемых dApps с технологией нулевого разглашения. Эти сессии обеспечили бесценное личное общение с основными инженерами, позволяя разработчикам получить помощь с интеграцией и изучить новые наборы инструментов из первых рук.

На протяжении всего основного мероприятия на площадке располагались специальные #BUIDLHub и Makerspace, где строители могли кодировать в совместной среде и получать доступ к наставникам. Организаторы ETHDenver опубликовали подробное Руководство BUIDLer и организовали программу наставничества на месте (эксперты от спонсоров были доступны, чтобы помочь командам с техническими проблемами). Компании, разрабатывающие инструменты для разработчиков, также присутствовали в большом количестве – от Alchemy и Infura (для блокчейн-API) до Hardhat и Foundry (для разработки смарт-контрактов). Многие представили новые релизы или бета-инструменты на мероприятии. Например, команда MetaMask предварительно показала крупное обновление кошелька с абстракцией газа и улучшенным SDK для разработчиков dApp, стремясь упростить, как приложения покрывают комиссии за газ для пользователей. Несколько проектов запустили SDK или библиотеки с открытым исходным кодом: были представлены «Agent Kit» от Coinbase для ИИ-агентов и совместный набор инструментов Open Agents Alliance, а Story.xyz продвигала свой Story SDK для ончейн-лицензирования интеллектуальной собственности во время собственного хакатон-мероприятия.

Вознаграждения и поддержка хакеров еще больше улучшили опыт разработчиков. С более чем 180 вознаграждениями, предложенными 62 спонсорами, хакеры фактически имели меню конкретных задач на выбор, каждая из которых сопровождалась документацией, часами работы и иногда индивидуальными песочницами. Например, вознаграждение Optimism призывало разработчиков использовать новейшие опкоды Bedrock (с инженерами, готовыми помочь), а конкурс Uniswap предоставил доступ к их новому API для интеграции с фиатными выходами. Инструменты для координации и обучения – такие как официальное мобильное приложение ETHDenver и каналы Discord – информировали разработчиков об изменениях в расписании, побочных заданиях и даже возможностях трудоустройства через доску объявлений ETHDenver.

Одним из заметных ресурсов был акцент на экспериментах с квадратичным финансированием и ончейн-голосованием. ETHDenver интегрировал систему квадратичного голосования для судейства хакатона, знакомя многих разработчиков с этой концепцией. Кроме того, присутствие Gitcoin и других групп общественных благ означало, что разработчики могли узнать о грантовом финансировании своих проектов после мероприятия. В итоге, ETHDenver 2025 предоставил разработчикам передовые инструменты (SDK, API), экспертное руководство и последующую поддержку для продолжения их проектов. Для профессионалов отрасли это напоминание о том, что развитие сообщества разработчиков – через образование, инструментарий и финансирование – имеет решающее значение. Многие из выделенных ресурсов (такие как новые SDK или улучшенные среды разработки) теперь общедоступны, предлагая командам по всему миру возможность строить на основе того, что было представлено на ETHDenver.

Побочные мероприятия и общественные встречи, обогащающие опыт ETHDenver

Что действительно отличает ETHDenver, так это его фестивальная атмосфера – десятки побочных мероприятий, как официальных, так и неофициальных, создали богатое полотно впечатлений вокруг основной конференции. В 2025 году, помимо Национального Западного Комплекса, где проходил официальный контент, весь город бурлил встречами, вечеринками, хакатонами и общественными собраниями. Эти побочные мероприятия, часто проводимые спонсорами или местными Web3-группами, значительно способствовали общему опыту ETHDenver.

На официальном уровне в расписание ETHDenver были включены тематические мини-мероприятия: на площадке были зоны, такие как Художественная галерея NFT, Блокчейн-аркада, Зона отдыха с диджеем и даже Дзен-зона для расслабления. Организаторы также проводили вечерние мероприятия, такие как вечеринки открытия и закрытия – например, неофициальная вечеринка открытия «Crack’d House» 26 февраля от Story Protocol, которая сочетала художественное выступление с объявлениями о наградах хакатона. Но именно побочные мероприятия, организованные сообществом, действительно распространились: согласно руководству по мероприятиям, более 100 побочных событий были отслежены в календаре ETHDenver Luma.

Некоторые примеры иллюстрируют разнообразие этих собраний:

  • Технические саммиты и хакерские дома: ElizaOS и EigenLayer провели 9-дневную резиденцию Vault AI Agent Hacker House для энтузиастов ИИ+Web3. Команда StarkNet организовала многодневный хакерский дом, завершившийся демонстрационным вечером для проектов на их ZK-роллапе. Они предоставили сфокусированные среды для разработчиков, чтобы сотрудничать над конкретными технологическими стеками вне основного хакатона.
  • Сетевые встречи и вечеринки: Каждый вечер предлагал множество вариантов. Builder Nights Denver 27 февраля, спонсируемый MetaMask, Linea, EigenLayer, Wormhole и другими, собрал инноваторов для неформальных бесед за едой и напитками. 3VO’s Mischief Minded Club Takeover, при поддержке Belong, был высокоуровневой сетевой вечеринкой для лидеров токенизации сообщества. Для тех, кто любит чистое веселье, BEMO Rave (с Berachain и другими) и rAIve the Night (рейв на тему ИИ) заставляли крипто-толпу танцевать до поздней ночи – смешивая музыку, искусство и криптокультуру.
  • Встречи по интересам: Нишевые сообщества также нашли свое место. Meme Combat было мероприятием исключительно для любителей мемов, чтобы отметить роль мемов в криптоиндустрии. House of Ink обслуживал NFT-художников и коллекционеров, превратив иммерсивное арт-пространство (Meow Wolf Denver) в витрину для цифрового искусства. SheFi Summit 26 февраля собрал женщин в Web3 для докладов и нетворкинга, при поддержке таких групп, как World of Women и Celo – подчеркивая приверженность разнообразию и инклюзивности.
  • Встречи инвесторов и создателей контента: Мы уже затрагивали события для венчурных капиталистов; кроме того, Встреча KOL (Key Opinion Leaders) 28 февраля позволила крипто-инфлюенсерам и создателям контента обсудить стратегии вовлечения, демонстрируя пересечение социальных сетей и криптосообществ.

Что особенно важно, эти побочные мероприятия были не просто развлечением – они часто служили инкубаторами для идей и отношений сами по себе. Например, Tokenized Capital Summit 2025 углубился в будущее ончейн-рынков капитала, вероятно, породив сотрудничество между финтех-предпринимателями и блокчейн-разработчиками, присутствовавшими на мероприятии. On-Chain Gaming Hacker House предоставил пространство для игровых разработчиков, чтобы поделиться лучшими практиками, что может привести к перекрестному опылению среди блокчейн-игровых проектов.

Для профессионалов, посещающих крупные конференции, модель ETHDenver подчеркивает, что ценность находится как за пределами главной сцены, так и на ней. Широта неофициальных программ позволила участникам адаптировать свой опыт – будь то цель встретиться с инвесторами, освоить новый навык, найти соучредителя или просто расслабиться и наладить товарищеские отношения, для этого было мероприятие. Многие ветераны советуют новичкам: «Не просто посещайте доклады – идите на встречи и поздоровайтесь». В таком сообщественно-ориентированном пространстве, как Web3, эти человеческие связи часто перерастают в сотрудничество DAO, инвестиционные сделки или, по крайней мере, в прочные дружеские отношения, охватывающие континенты. Яркая побочная сцена ETHDenver 2025 усилила основную конференцию, превратив одну неделю в Денвере в многомерный фестиваль инноваций.

Ключевые выводы и практические инсайты

ETHDenver 2025 стал микрокосмом импульса индустрии Web3 – смесью передового технологического дискурса, страстной энергии сообщества, стратегических инвестиционных шагов и культуры, которая сочетает серьезные инновации с весельем. Профессионалы должны рассматривать тренды и инсайты с мероприятия как дорожную карту того, куда движется Web3. Практический следующий шаг – взять эти знания – будь то новое внимание к ИИ, связь, установленная с командой L2, или вдохновение от проекта хакатона – и преобразовать их в стратегию. В духе любимого девиза ETHDenver, пришло время #BUIDL на основе этих инсайтов и помочь сформировать децентрализованное будущее, которое так много людей в Денвере собрались, чтобы представить.

  • Диверсификация трендов: Мероприятие ясно показало, что Web3 больше не является монолитным. Новые области, такие как интеграция ИИ, DePIN и токенизация RWA, так же заметны, как DeFi и NFT. Практический инсайт: Будьте информированы и адаптируемы. Лидеры должны выделять средства на НИОКР или инвестиции в эти растущие вертикали (например, исследуя, как ИИ может улучшить их dApp, или как реальные активы могут быть интегрированы в платформы DeFi), чтобы оседлать следующую волну роста.
  • Кроссчейн – это будущее: С активным участием крупных не-Ethereum протоколов, барьеры между экосистемами снижаются. Интероперабельность и мультичейн-пользовательский опыт привлекли огромное внимание, от добавления MetaMask поддержки Bitcoin/Solana до привлечения Polkadot и цепей на базе Cosmos разработчиков Ethereum. Практический инсайт: Проектируйте для мультичейн-мира. Проекты должны рассматривать интеграции или мосты, которые используют ликвидность и пользователей в других цепях, а профессионалы могут искать партнерства между сообществами, а не оставаться изолированными.
  • Сообщество и общественные блага имеют значение: Тема «Года Регенератов» была не просто риторикой – она пронизывала контент через дискуссии о финансировании общественных благ, квадратичное голосование за хаки и такие мероприятия, как SheFi Summit. Этичное, устойчивое развитие и владение сообществом являются ключевыми ценностями в этосе Ethereum. Практический инсайт: Внедряйте регенеративные принципы. Будь то поддержка инициатив с открытым исходным кодом, использование механизмов справедливого запуска или согласование бизнес-моделей с ростом сообщества, компании Web3 могут завоевать доверие и долговечность, не будучи чисто экстрактивными.
  • Настроения инвесторов – осторожные, но смелые: Несмотря на слухи о медвежьем рынке, ETHDenver показал, что венчурные капиталисты активно ищут и готовы делать большие ставки на следующие главы Web3. Однако они также переосмысливают, как инвестировать (например, более стратегически, возможно, с большим надзором за соответствием продукта рынку и открытостью к финансированию сообществом). Практический инсайт: Если вы стартап, сосредоточьтесь на основах и сторителлинге. Проекты, которые выделялись, имели четкие варианты использования и часто работающие прототипы (некоторые были созданы за выходные!). Если вы инвестор, конференция подтвердила, что инфраструктура (L2, безопасность, инструменты для разработчиков) остается высокоприоритетной, но дифференциация через тезисы в ИИ, играх или социальных сетях может вывести фонд на передовую.
  • Опыт разработчиков улучшается: ETHDenver выделил множество новых наборов инструментов, SDK и фреймворков, снижающих барьер для разработки Web3 – от инструментов абстракции аккаунтов до ончейн-библиотек ИИ. Практический инсайт: Используйте эти ресурсы. Команды должны экспериментировать с новейшими представленными инструментами разработки (например, попробовать zkSync Smart SSO для более простого входа или использовать ресурсы Open Agents Alliance для ИИ-проекта), чтобы ускорить свою разработку и оставаться впереди конкурентов. Более того, компании должны продолжать участвовать в хакатонах и открытых форумах разработчиков как способ поиска талантов и идей; успех ETHDenver в превращении хакеров в основателей является доказательством этой модели.
  • Сила побочных мероприятий: Наконец, взрыв побочных мероприятий преподал важный урок в нетворкинге – возможности часто появляются в неформальной обстановке. Случайная встреча на «счастливом часе» или общий интерес на небольшой встрече могут создать связи, определяющие карьеру. Практический инсайт: Для тех, кто посещает отраслевые конференции, планируйте за пределами официальной повестки дня. Определите побочные мероприятия, соответствующие вашим целям (будь то встреча с инвесторами, освоение нишевого навыка или набор талантов), и будьте активны во взаимодействии. Как было видно в Денвере, те, кто полностью погрузился в экосистему недели, ушли не только со знаниями, но и с новыми партнерами, сотрудниками и друзьями.

Altera.al нанимает: Присоединяйтесь к пионерам разработки цифровых людей (компенсация $600K-1M)

· 3 мин. чтения

Мы рады поделиться преобразующей возможностью в Altera.al, прорывном стартапе в области ИИ, который недавно произвел фурор своей новаторской работой по разработке цифровых людей. Недавно представленный в MIT Technology Review, Altera.al продемонстрировал значительный прогресс в создании ИИ-агентов, способных развивать человекоподобное поведение, формировать сообщества и осмысленно взаимодействовать в цифровых пространствах.

Altera.al: Присоединяйтесь к пионерам разработки цифровых людей с компенсацией $600K-1M

Об Altera.al

Основанная Робертом Янгом, который покинул свою должность доцента вычислительной нейробиологии в Массачусетском технологическом институте, чтобы реализовать это видение, Altera.al уже привлекла более $11 миллионов финансирования от престижных инвесторов, включая A16Z и венчурную фирму Эрика Шмидта, специализирующуюся на новых технологиях. Их недавняя демонстрация Project Sid показала, как ИИ-агенты спонтанно развивают специализированные роли, формируют социальные связи и даже создают культурные системы в Minecraft — значительный шаг к их цели по созданию по-настоящему автономных ИИ-агентов, способных к масштабному сотрудничеству.

Почему сейчас самое подходящее время присоединиться

Altera.al достигла значительного технического прорыва в своей миссии по разработке машин с фундаментальными человеческими качествами. Их работа выходит за рамки традиционной разработки ИИ — они создают цифровых существ, которые могут:

  • Формировать сообщества и социальные иерархии
  • Развивать специализированные роли и обязанности
  • Создавать и распространять культурные модели
  • Осмысленно взаимодействовать с людьми в цифровых пространствах

Кого они ищут

После недавнего прорыва Altera.al расширяет свою команду и предлагает исключительные компенсационные пакеты в диапазоне от $600 000 до $1 000 000 для:

  • Экспертов в области исследований ИИ-агентов
  • Сильных индивидуальных участников в областях:
    • Распределенных систем
    • Безопасности
    • Операционных систем

Как подать заявку

Готовы стать частью этого новаторского пути? Подайте заявку напрямую через их страницу вакансий: https://jobs.ashbyhq.com/altera.al

Присоединяйтесь к будущему разработки цифровых людей

Это уникальная возможность работать на стыке искусственного интеллекта и моделирования человеческого поведения с командой, которая уже демонстрирует выдающиеся результаты. Если вы увлечены расширением границ возможного в ИИ и взаимодействии человека с машиной, Altera.al может стать вашим следующим приключением.


Для получения дополнительных новостей о прорывных возможностях в сфере технологий и блокчейна, подписывайтесь на нас в Twitter или присоединяйтесь к нашему сообществу в Discord.

Этот пост является частью нашего постоянного стремления поддерживать инновации и связывать таланты с преобразующими возможностями в технологической индустрии.

Прогноз A16Z Crypto на 2025 год: Двенадцать идей, которые могут изменить будущий Интернет

· 8 мин. чтения

Каждый год a16z публикует масштабные прогнозы о технологиях, которые определят наше будущее. На этот раз их криптокоманда нарисовала яркую картину 2025 года, где блокчейны, ИИ и передовые эксперименты в области управления сталкиваются.

Ниже я обобщил и прокомментировал их ключевые идеи, сосредоточившись на том, что я считаю основными рычагами изменений — и возможных камнях преткновения. Если вы разработчик технологий, инвестор или просто интересуетесь следующей волной интернета, эта статья для вас.

1. ИИ и криптокошельки

Ключевая идея: Модели ИИ переходят от «NPC» на заднем плане к «главным персонажам», действующим независимо в онлайн (и потенциально физических) экономиках. Это означает, что им понадобятся собственные криптокошельки.

  • Что это значит: Вместо того чтобы ИИ просто выдавал ответы, он может хранить, тратить или инвестировать цифровые активы — совершая транзакции от имени своего человеческого владельца или полностью самостоятельно.
  • Потенциальная выгода: Высокоэффективные «агентные ИИ» могут помочь предприятиям с координацией цепочек поставок, управлением данными или автоматизированной торговлей.
  • На что обратить внимание: Как мы можем гарантировать, что ИИ действительно автономен, а не тайно манипулируется людьми? Доверенные среды исполнения (TEE) могут предоставить технические гарантии, но установление доверия к «роботу с кошельком» не произойдет в одночасье.

2. Появление DAC (Децентрализованного Автономного Чат-бота)

Ключевая идея: Чат-бот, работающий автономно в TEE, может управлять своими ключами, публиковать контент в социальных сетях, собирать подписчиков и даже генерировать доход — всё без прямого человеческого контроля.

  • Что это значит: Представьте себе ИИ-инфлюенсера, которого никто не может заставить замолчать, потому что он буквально контролирует себя сам.
  • Потенциальная выгода: Предвкушение мира, где создатели контента — это не отдельные люди, а самоуправляемые алгоритмы с оценкой в миллионы (или миллиарды) долларов.
  • На что обратить внимание: Если ИИ нарушает законы, кто несет ответственность? Регуляторные ограничения будут сложными, когда «сущность» представляет собой набор кода, размещенный на распределенных серверах.

3. Подтверждение личности становится необходимым

Ключевая идея: Поскольку ИИ снижает стоимость создания гиперреалистичных фейков, нам нужны лучшие способы проверки того, что мы взаимодействуем с реальными людьми онлайн. На сцену выходят уникальные идентификаторы, сохраняющие конфиденциальность.

  • Что это значит: Каждый пользователь в конечном итоге может получить сертифицированный «человеческий штамп» — будем надеяться, без ущерба для личных данных.
  • Потенциальная выгода: Это может значительно сократить количество спама, мошенничества и армий ботов. Это также закладывает основу для более надежных социальных сетей и общественных платформ.
  • На что обратить внимание: Основным препятствием является внедрение. Даже лучшие решения для подтверждения личности нуждаются в широком признании, прежде чем злоумышленники опередят их.

4. От рынков предсказаний к более широкой агрегации информации

Ключевая идея: Рынки предсказаний, связанные с выборами 2024 года, привлекли внимание, но a16z видит более широкую тенденцию: использование блокчейна для разработки новых способов выявления и агрегации истин — будь то в управлении, финансах или принятии решений сообществом.

  • Что это значит: Распределенные механизмы стимулирования могут вознаграждать людей за честный вклад или данные. Мы можем увидеть специализированные «рынки истины» для всего, от локальных сенсорных сетей до глобальных цепочек поставок.
  • Потенциальная выгода: Более прозрачный, менее подверженный манипуляциям слой данных для общества.
  • На что обратить внимание: Достаточная ликвидность и участие пользователей остаются проблемой. Для нишевых вопросов «пулы предсказаний» могут быть слишком малы, чтобы давать значимые сигналы.

5. Стейблкоины выходят на корпоративный уровень

Ключевая идея: Стейблкоины уже являются самым дешевым способом перемещения цифровых долларов, но крупные компании пока не приняли их.

  • Что это значит: Малые и средние предприятия (SMB) и продавцы с большим объемом транзакций могут осознать, что они могут сэкономить значительные комиссии за кредитные карты, приняв стейблкоины. Предприятия, обрабатывающие миллиарды долларов годового дохода, могли бы сделать то же самое, потенциально увеличив свою чистую прибыль на 2%.
  • Потенциальная выгода: Более быстрые, дешевые глобальные платежи, а также новая волна финансовых продуктов на основе стейблкоинов.
  • На что обратить внимание: Компаниям потребуются новые способы управления защитой от мошенничества, проверкой личности и возвратами — функциями, которые ранее выполнялись поставщиками кредитных карт.

6. Государственные облигации на блокчейне

Ключевая идея: Правительства, исследующие ончейн-облигации, могут создавать процентные цифровые активы, которые функционируют без проблем конфиденциальности, присущих цифровой валюте центрального банка.

  • Что это значит: Ончейн-облигации могут служить высококачественным обеспечением в DeFi, позволяя суверенному долгу беспрепятственно интегрироваться с децентрализованными протоколами кредитования.
  • Потенциальная выгода: Большая прозрачность, потенциально более низкие затраты на выпуск и более демократизированный рынок облигаций.
  • На что обратить внимание: Скептически настроенные регуляторы и потенциальная инерция крупных учреждений. Устаревшие клиринговые системы не исчезнут легко.

7. «DUNA» – Правовая основа для DAO

Ключевая идея: Вайоминг представил новую категорию под названием «децентрализованная неинкорпорированная некоммерческая ассоциация» (DUNA), предназначенную для придания DAO юридического статуса в США.

  • Что это значит: DAO теперь могут владеть собственностью, подписывать контракты и ограничивать ответственность держателей токенов. Это открывает двери для более широкого использования и реальной коммерческой деятельности.
  • Потенциальная выгода: Если другие штаты последуют примеру Вайоминга (как они сделали с LLC), DAO станут обычными бизнес-сущностями.
  • На что обратить внимание: Общественное восприятие того, что делают DAO, все еще нечеткое. Им потребуется послужной список успешных проектов, которые приносят реальную пользу.

8. Жидкая демократия в физическом мире

Ключевая идея: Эксперименты с управлением на основе блокчейна могут распространиться от онлайн-сообществ DAO до выборов на местном уровне. Избиратели могли бы делегировать свои голоса или голосовать напрямую — «жидкая демократия».

  • Что это значит: Более гибкое представительство. Вы можете выбрать голосование по конкретным вопросам или передать эту ответственность тому, кому доверяете.
  • Потенциальная выгода: Потенциально более вовлеченные граждане и динамичное формирование политики.
  • На что обратить внимание: Проблемы безопасности, техническая грамотность и общий скептицизм в отношении смешивания блокчейна с официальными выборами.

9. Строительство на существующей инфраструктуре (вместо ее переизобретения)

Ключевая идея: Стартапы часто тратят время на переизобретение базовых технологий (протоколы консенсуса, языки программирования) вместо того, чтобы сосредоточиться на соответствии продукта рынку. В 2025 году они будут чаще выбирать готовые компоненты.

  • Что это значит: Более быстрая скорость выхода на рынок, более надежные системы и большая компонуемость.
  • Потенциальная выгода: Меньше времени тратится на создание нового блокчейна с нуля; больше времени уделяется решению проблемы пользователя.
  • На что обратить внимание: Существует соблазн чрезмерной специализации ради повышения производительности. Но специализированные языки или консенсусные слои могут создавать более высокие накладные расходы для разработчиков.

10. Пользовательский опыт в первую очередь, инфраструктура во вторую

Ключевая идея: Криптоиндустрии нужно «скрыть провода». Мы не заставляем потребителей изучать SMTP для отправки электронной почты — так почему мы должны заставлять их изучать «EIP» или «роллапы»?

  • Что это значит: Команды продуктов будут выбирать техническую основу, которая обеспечивает отличный пользовательский опыт, а не наоборот.
  • Потенциальная выгода: Большой скачок в адаптации пользователей, снижение трения и жаргона.
  • На что обратить внимание: Принцип «постройте, и они придут» работает только в том случае, если вы действительно добились идеального опыта. Маркетинговый жаргон об «удобном крипто-UX» ничего не значит, если людям по-прежнему приходится возиться с приватными ключами или запоминать загадочные аббревиатуры.

11. Появление собственных магазинов приложений в криптоиндустрии

Ключевая идея: От маркетплейса World App от Worldcoin до dApp Store Solana, крипто-дружественные платформы обеспечивают распространение и обнаружение без контроля со стороны Apple или Google.

  • Что это значит: Если вы создаете децентрализованное приложение, вы можете охватить пользователей, не опасаясь внезапной деплатформизации.
  • Потенциальная выгода: Десятки (или сотни) тысяч новых пользователей, обнаруживающих ваше dApp за считанные дни, вместо того чтобы затеряться в море централизованных магазинов приложений.
  • На что обратить внимание: Эти магазины нуждаются в достаточной пользовательской базе и импульсе, чтобы конкурировать с Apple и Google. Это большое препятствие. Аппаратные привязки (например, специализированные криптотелефоны) могут помочь.

12. Токенизация «нетрадиционных» активов

Ключевая идея: По мере созревания блокчейн-инфраструктуры и снижения комиссий, токенизация всего, от биометрических данных до реальных диковинок, становится более осуществимой.

  • Что это значит: «Длинный хвост» уникальных активов может быть фракционирован и торговаться по всему миру. Люди могли бы даже монетизировать личные данные контролируемым, основанным на согласии способом.
  • Потенциальная выгода: Огромные новые рынки для активов, которые в противном случае были бы «заблокированы», а также интересные новые пулы данных для потребления ИИ.
  • На что обратить внимание: Ловушки конфиденциальности и этические мины. То, что вы можете что-то токенизировать, не означает, что вы должны.

Прогноз A16Z на 2025 год показывает криптосектор, который стремится к более широкому внедрению, более ответственному управлению и более глубокой интеграции с ИИ. Если предыдущие циклы были сосредоточены на спекуляциях или хайпе, то это видение вращается вокруг полезности: стейблкоины экономят продавцам 2% на каждом латте, чат-боты ИИ управляют собственным бизнесом, местные органы власти экспериментируют с жидкой демократией.

Однако риск исполнения остается. Регуляторы по всему миру по-прежнему насторожены, а пользовательский опыт все еще слишком запутан для широкой публики. 2025 год может стать годом, когда криптоиндустрия и ИИ наконец-то «повзрослеют», или это может быть промежуточный шаг — все зависит от того, смогут ли команды выпускать реальные продукты, которые нравятся людям, а не просто протоколы для знатоков.

Может ли децентрализованная операционная система ИИ от 0G действительно масштабировать ИИ в блокчейне?

· 12 мин. чтения

13 ноября 2024 года 0G Labs объявила о раунде финансирования в размере 40 миллионов долларов, который возглавили Hack VC, Delphi Digital, OKX Ventures, Samsung Next и Animoca Brands, что привлекло внимание к команде, стоящей за этой децентрализованной операционной системой ИИ. Их модульный подход сочетает децентрализованное хранение, проверку доступности данных и децентрализованные расчеты для обеспечения работы приложений ИИ в блокчейне. Но смогут ли они реально достичь пропускной способности уровня ГБ/с для стимулирования следующей эры внедрения ИИ в Web3? Этот подробный отчет оценивает архитектуру 0G, механизмы стимулирования, развитие экосистемы и потенциальные ловушки, чтобы помочь вам определить, сможет ли 0G выполнить свои обещания.

Предыстория

Сектор ИИ переживает стремительный подъем, катализатором которого стали большие языковые модели, такие как ChatGPT и ERNIE Bot. Однако ИИ — это не только чат-боты и генеративный текст; он также включает в себя все: от побед AlphaGo в го до инструментов генерации изображений, таких как MidJourney. Священный Грааль, к которому стремятся многие разработчики, — это универсальный ИИ, или AGI (искусственный общий интеллект), который в просторечии описывается как «Агент» ИИ, способный к обучению, восприятию, принятию решений и сложному выполнению задач, подобно человеческому интеллекту.

Однако как приложения ИИ, так и приложения ИИ-агентов чрезвычайно интенсивны в отношении данных. Они полагаются на массивные наборы данных для обучения и вывода. Традиционно эти данные хранятся и обрабатываются на централизованной инфраструктуре. С появлением блокчейна возник новый подход, известный как DeAI (децентрализованный ИИ). DeAI пытается использовать децентрализованные сети для хранения, обмена и проверки данных, чтобы преодолеть недостатки традиционных, централизованных решений ИИ.

0G Labs выделяется в этом ландшафте инфраструктуры DeAI, стремясь создать децентрализованную операционную систему ИИ, известную просто как 0G.

Что такое 0G Labs?

В традиционных вычислениях операционная система (ОС) управляет аппаратными и программными ресурсами — вспомните Microsoft Windows, Linux, macOS, iOS или Android. ОС абстрагирует сложность базового оборудования, упрощая взаимодействие с компьютером как для конечных пользователей, так и для разработчиков.

По аналогии, ОС 0G стремится выполнять аналогичную роль в Web3:

  • Управлять децентрализованным хранилищем, вычислениями и доступностью данных.
  • Упрощать развертывание приложений ИИ в блокчейне.

Почему децентрализация? Традиционные системы ИИ хранят и обрабатывают данные в централизованных хранилищах, что вызывает опасения относительно прозрачности данных, конфиденциальности пользователей и справедливой компенсации поставщикам данных. Подход 0G использует децентрализованное хранилище, криптографические доказательства и открытые модели стимулирования для снижения этих рисков.

Название «0G» означает «Нулевая гравитация». Команда представляет себе среду, где обмен данными и вычисления ощущаются «невесомыми» — все, от обучения ИИ до вывода и доступности данных, происходит беспрепятственно в блокчейне.

Фонд 0G, официально учрежденный в октябре 2024 года, продвигает эту инициативу. Его заявленная миссия — сделать ИИ общественным благом, доступным, проверяемым и открытым для всех.

Ключевые компоненты операционной системы 0G

По сути, 0G — это модульная архитектура, разработанная специально для поддержки приложений ИИ в блокчейне. Ее три основных столпа:

  1. 0G Storage – Децентрализованная сеть хранения данных.
  2. 0G DA (Data Availability) – Специализированный уровень доступности данных, обеспечивающий целостность данных.
  3. 0G Compute Network – Децентрализованное управление вычислительными ресурсами и расчеты для вывода ИИ (и, в конечном итоге, обучения).

Эти столпы работают согласованно под эгидой сети Layer1 под названием 0G Chain, которая отвечает за консенсус и расчеты.

Согласно Whitepaper 0G («0G: К доступности данных 2.0»), как уровни 0G Storage, так и 0G DA строятся поверх 0G Chain. Разработчики могут запускать несколько настраиваемых консенсусных сетей PoS, каждая из которых функционирует как часть фреймворка 0G DA и 0G Storage. Этот модульный подход означает, что по мере роста системной нагрузки 0G может динамически добавлять новые наборы валидаторов или специализированные узлы для масштабирования.

0G Storage

0G Storage — это децентрализованная система хранения данных, предназначенная для крупномасштабных данных. Она использует распределенные узлы со встроенными стимулами для хранения пользовательских данных. Важно отметить, что она разбивает данные на более мелкие, избыточные «фрагменты» с использованием кодирования с исправлением ошибок (EC), распределяя эти фрагменты по различным узлам хранения. Если узел выходит из строя, данные все равно могут быть восстановлены из избыточных фрагментов.

Поддерживаемые типы данных

0G Storage поддерживает как структурированные, так и неструктурированные данные.

  1. Структурированные данные хранятся в уровне «ключ-значение» (KV), подходящем для динамической и часто обновляемой информации (например, базы данных, совместные документы и т. д.).
  2. Неструктурированные данные хранятся в уровне журнала (Log layer), который добавляет записи данных в хронологическом порядке. Этот уровень похож на файловую систему, оптимизированную для крупномасштабных рабочих нагрузок с добавлением данных.

Размещая уровень KV поверх уровня журнала, 0G Storage может удовлетворять разнообразные потребности приложений ИИ — от хранения больших весов моделей (неструктурированные) до динамических пользовательских данных или метрик в реальном времени (структурированные).

Консенсус PoRA

PoRA (Proof of Random Access) гарантирует, что узлы хранения действительно содержат фрагменты, которые они заявляют хранить. Вот как это работает:

  • Майнеры хранилища периодически вызываются для создания криптографических хешей определенных случайных фрагментов данных, которые они хранят.
  • Они должны ответить, сгенерировав действительный хеш (подобно решению PoW-подобной головоломки), полученный из их локальной копии данных.

Чтобы уравнять условия, система ограничивает майнинговые соревнования сегментами по 8 ТБ. Крупный майнер может разделить свое оборудование на несколько разделов по 8 ТБ, в то время как более мелкие майнеры соревнуются в пределах одного сегмента в 8 ТБ.

Дизайн стимулов

Данные в 0G Storage делятся на «ценовые сегменты» по 8 ГБ. Каждый сегмент имеет как пул пожертвований, так и пул вознаграждений. Пользователи, желающие хранить данные, платят комиссию в токене 0G (ZG), которая частично финансирует вознаграждения узлов.

  • Базовое вознаграждение: Когда узел хранения предоставляет действительные доказательства PoRA, он получает немедленные блочные вознаграждения за этот сегмент.
  • Постоянное вознаграждение: Со временем пул пожертвований выпускает часть (в настоящее время ~4% в год) в пул вознаграждений, стимулируя узлы хранить данные постоянно. Чем меньше узлов хранит определенный сегмент, тем большую долю может заработать каждый узел.

Пользователи платят один раз за постоянное хранение, но должны установить плату за пожертвование выше системного минимума. Чем выше пожертвование, тем больше вероятность того, что майнеры будут реплицировать данные пользователя.

Механизм роялти: 0G Storage также включает механизм «роялти» или «совместного использования данных». Ранние поставщики хранилища создают «записи роялти» для каждого фрагмента данных. Если новые узлы хотят хранить тот же фрагмент, исходный узел может поделиться им. Когда новый узел позже доказывает хранение (через PoRA), исходный поставщик данных получает постоянное роялти. Чем шире реплицируются данные, тем выше совокупное вознаграждение для ранних поставщиков.

Сравнение с Filecoin и Arweave

Сходства:

  • Все три стимулируют децентрализованное хранение данных.
  • Как 0G Storage, так и Arweave нацелены на постоянное хранение.
  • Разделение данных на фрагменты и избыточность являются стандартными подходами.

Ключевые различия:

  • Нативная интеграция: 0G Storage не является независимым блокчейном; он интегрирован непосредственно с 0G Chain и в первую очередь поддерживает сценарии использования, ориентированные на ИИ.
  • Структурированные данные: 0G поддерживает структурированные данные на основе KV наряду с неструктурированными данными, что критически важно для многих рабочих нагрузок ИИ, требующих частого доступа на чтение-запись.
  • Стоимость: 0G заявляет о стоимости 10–11 долларов за ТБ для постоянного хранения, что, как сообщается, дешевле, чем у Arweave.
  • Фокус на производительности: Специально разработан для удовлетворения требований ИИ к пропускной способности, тогда как Filecoin или Arweave являются более универсальными децентрализованными сетями хранения данных.

0G DA (Уровень доступности данных)

Доступность данных гарантирует, что каждый участник сети может полностью проверить и получить данные транзакций. Если данные неполны или скрыты, предположения о доверии блокчейна нарушаются.

В системе 0G данные разбиваются на фрагменты и хранятся вне цепочки. Система записывает корни Меркла для этих фрагментов данных, и узлы DA должны выборочно проверять эти фрагменты, чтобы убедиться, что они соответствуют корню Меркла и обязательствам по кодированию с исправлением ошибок. Только тогда данные считаются «доступными» и добавляются в консенсусное состояние цепочки.

Выбор узлов DA и стимулы

  • Узлы DA должны стейкать ZG для участия.
  • Они группируются в кворумы случайным образом с помощью проверяемых случайных функций (VRF).
  • Каждый узел проверяет только подмножество данных. Если 2/3 кворума подтверждают, что данные доступны и корректны, они подписывают доказательство, которое агрегируется и отправляется в консенсусную сеть 0G.
  • Распределение вознаграждений также происходит посредством периодической выборки. Только узлы, хранящие случайно выбранные фрагменты, имеют право на вознаграждения этого раунда.

Сравнение с Celestia и EigenLayer

0G DA опирается на идеи Celestia (выборка доступности данных) и EigenLayer (рестейкинг), но стремится обеспечить более высокую пропускную способность. Пропускная способность Celestia в настоящее время составляет около 10 МБ/с при времени блока ~12 секунд. Тем временем EigenDA в основном обслуживает решения Layer2 и может быть сложной в реализации. 0G предусматривает пропускную способность ГБ/с, что лучше подходит для крупномасштабных рабочих нагрузок ИИ, которые могут превышать 50–100 ГБ/с по объему данных.

Вычислительная сеть 0G

Вычислительная сеть 0G служит децентрализованным вычислительным уровнем. Она развивается поэтапно:

  • Фаза 1: Фокус на расчетах для вывода ИИ.
  • Сеть сопоставляет «покупателей моделей ИИ» (пользователей) с поставщиками вычислительных ресурсов (продавцами) на децентрализованном рынке. Поставщики регистрируют свои услуги и цены в смарт-контракте. Пользователи предварительно финансируют контракт, потребляют услугу, и контракт выступает посредником в оплате.
  • Со временем команда надеется расширить возможности до полноценного обучения ИИ в блокчейне, хотя это более сложная задача.

Пакетная обработка: Провайдеры могут объединять запросы пользователей в пакеты для снижения накладных расходов в блокчейне, повышая эффективность и снижая затраты.

0G Chain

0G Chain — это сеть Layer1, служащая основой для модульной архитектуры 0G. Она поддерживает:

  • 0G Storage (через смарт-контракты)
  • 0G DA (доказательства доступности данных)
  • 0G Compute (механизмы расчетов)

Согласно официальной документации, 0G Chain совместима с EVM, что обеспечивает легкую интеграцию для dApp, которым требуется расширенное хранение данных, доступность или вычисления.

Консенсусная сеть 0G

Механизм консенсуса 0G несколько уникален. Вместо единого монолитного уровня консенсуса, под 0G могут быть запущены множественные независимые консенсусные сети для обработки различных рабочих нагрузок. Эти сети используют одну и ту же базу стейкинга:

  • Общий стейкинг: Валидаторы стейкают ZG в Ethereum. Если валидатор ведет себя некорректно, его стейкнутые ZG в Ethereum могут быть сокращены (slashed).
  • Масштабируемость: Новые консенсусные сети могут быть запущены для горизонтального масштабирования.

Механизм вознаграждения: Когда валидаторы финализируют блоки в среде 0G, они получают токены. Однако токены, которые они зарабатывают в 0G Chain, сжигаются в локальной среде, а на Ethereum-аккаунт валидатора выпускается эквивалентное количество, обеспечивая единую точку ликвидности и безопасности.

Токен 0G (ZG)

ZG — это токен ERC-20, представляющий основу экономики 0G. Он выпускается, сжигается и циркулирует через смарт-контракты в Ethereum. На практике:

  • Пользователи платят за хранение, доступность данных и вычислительные ресурсы в ZG.
  • Майнеры и валидаторы зарабатывают ZG за доказательство хранения или проверку данных.
  • Общий стейкинг связывает модель безопасности с Ethereum.

Краткое описание ключевых модулей

ОС 0G объединяет четыре компонента — хранилище, DA, вычисления и цепочку — в единый взаимосвязанный модульный стек. Цель проектирования системы — масштабируемость, при этом каждый уровень горизонтально расширяем. Команда заявляет о потенциале «бесконечной» пропускной способности, что особенно важно для крупномасштабных задач ИИ.

Экосистема 0G

Хотя экосистема 0G относительно нова, она уже включает ключевых партнеров по интеграции:

  1. Инфраструктура и инструменты:

    • ZK-решения, такие как Union, Brevis, Gevulot
    • Кроссчейн-решения, такие как Axelar
    • Протоколы рестейкинга, такие как EigenLayer, Babylon, PingPong
    • Поставщики децентрализованных GPU IoNet, exaBits
    • Оракул-решения Hemera, Redstone
    • Инструменты индексации для данных Ethereum blob
  2. Проекты, использующие 0G для хранения данных и DA:

    • Polygon, Optimism (OP), Arbitrum, Manta для интеграции L2 / L3
    • Nodekit, AltLayer для инфраструктуры Web3
    • Blade Games, Shrapnel для ончейн-игр

Сторона предложения

ZK и кроссчейн-фреймворки соединяют 0G с внешними сетями. Решения для рестейкинга (например, EigenLayer, Babylon) усиливают безопасность и, возможно, привлекают ликвидность. Сети GPU ускоряют кодирование с исправлением ошибок. Решения оракулов передают данные вне цепочки или ссылаются на ценообразование моделей ИИ.

Сторона спроса

Агенты ИИ могут использовать 0G как для хранения данных, так и для вывода. L2 и L3 могут интегрировать DA 0G для повышения пропускной способности. Игры и другие dApp, требующие надежных решений для данных, могут хранить активы, журналы или системы подсчета очков в 0G. Некоторые уже сотрудничают с проектом, что указывает на раннее развитие экосистемы.

Дорожная карта и факторы риска

0G стремится сделать ИИ общедоступной утилитой, доступной и проверяемой для всех. Команда стремится к пропускной способности DA на уровне ГБ/с — это критически важно для обучения ИИ в реальном времени, которое может требовать передачи данных со скоростью 50–100 ГБ/с.

Соучредитель и генеральный директор Майкл Хайнрих заявил, что взрывной рост ИИ делает своевременную итерацию критически важной. Темпы инноваций в ИИ высоки; собственный прогресс разработки 0G должен соответствовать им.

Потенциальные компромиссы:

  • Текущая зависимость от общего стейкинга может быть промежуточным решением. В конечном итоге 0G планирует представить горизонтально масштабируемый уровень консенсуса, который можно будет постепенно расширять (подобно запуску новых узлов AWS).
  • Рыночная конкуренция: Существует множество специализированных решений для децентрализованного хранения, доступности данных и вычислений. Комплексный подход 0G должен оставаться привлекательным.
  • Принятие и рост экосистемы: Без активного привлечения разработчиков обещанная «неограниченная пропускная способность» остается теоретической.
  • Устойчивость стимулов: Постоянная мотивация для узлов зависит от реального спроса пользователей и равновесной токеномики.

Заключение

0G пытается объединить децентрализованное хранение, доступность данных и вычисления в единую «операционную систему», поддерживающую ИИ в блокчейне. Нацеливаясь на пропускную способность ГБ/с, команда стремится преодолеть барьер производительности, который в настоящее время препятствует миграции крупномасштабного ИИ в блокчейн. В случае успеха 0G может значительно ускорить волну Web3 ИИ, предоставив масштабируемую, интегрированную и удобную для разработчиков инфраструктуру.

Тем не менее, остается много открытых вопросов. Жизнеспособность «бесконечной пропускной способности» зависит от того, смогут ли модульный консенсус и структуры стимулирования 0G беспрепятственно масштабироваться. Внешние факторы — рыночный спрос, время безотказной работы узлов, принятие разработчиками — также определят долговечность 0G. Тем не менее, подход 0G к решению проблем с данными ИИ является новым и амбициозным, намекая на многообещающую новую парадигму для ИИ в блокчейне.

Децентрализованные сети физической инфраструктуры (DePIN): экономика, стимулы и эра вычислений ИИ

· 16 мин. чтения
Dora Noda
Software Engineer

Введение

Децентрализованные сети физической инфраструктуры (DePIN) — это блокчейн-проекты, которые стимулируют людей развертывать реальное оборудование в обмен на криптотокены. Используя простаивающие или недоиспользуемые ресурсы — от беспроводных радиостанций до жестких дисков и графических процессоров (GPU) — проекты DePIN создают краудсорсинговые сети, предоставляющие ощутимые услуги (связь, хранение данных, вычисления и т. д.). Эта модель превращает обычно простаивающую инфраструктуру (например, неиспользуемую пропускную способность, дисковое пространство или мощность GPU) в активные, приносящие доход сети, вознаграждая участников токенами. Крупные ранние примеры включают Helium (краудсорсинговые беспроводные сети) и Filecoin (распределенное хранение данных), а новые участники нацелены на вычисления на GPU и совместное использование покрытия 5G (например, Render Network, Akash, io.net).

Перспектива DePIN заключается в распределении затрат на создание и эксплуатацию физических сетей с помощью токен-стимулов, что позволяет масштабировать сети быстрее, чем традиционные централизованные модели. На практике, однако, эти проекты должны тщательно разрабатывать экономические модели, чтобы гарантировать, что токен-стимулы преобразуются в реальное использование услуг и устойчивую ценность. Ниже мы анализируем экономические модели ключевых сетей DePIN, оцениваем, насколько эффективно токен-вознаграждения стимулировали фактическое использование инфраструктуры, и оцениваем, как эти проекты сочетаются с растущим спросом на вычисления, связанные с ИИ.

Экономические модели ведущих проектов DePIN

Helium (децентрализованная беспроводная сеть IoT и 5G)

Helium стала пионером децентрализованной беспроводной сети, стимулируя людей развертывать радио хотспоты. Изначально ориентированная на IoT (LoRaWAN), а затем расширенная до покрытия 5G с помощью малых сот, модель Helium сосредоточена на своем нативном токене HNT. Операторы хотспотов зарабатывают HNT, участвуя в Proof-of-Coverage (PoC) — по сути, доказывая, что они обеспечивают беспроводное покрытие в определенном месте. В двухтокенной системе Helium HNT имеет полезность через Data Credits (DC): пользователи должны сжигать HNT для создания непередаваемых DC, которые используются для оплаты фактического использования сети (подключения устройств) по фиксированной ставке $0.0001 за 24 байта. Этот механизм сжигания создает равновесие сжигания и эмиссии, при котором увеличение использования сети (расходов DC) приводит к большему сжиганию HNT, сокращая предложение со временем.

Изначально Helium работала на собственном блокчейне с инфляционной эмиссией HNT, которая сокращалась вдвое каждые два года (что приводило к постепенному сокращению предложения и конечному максимуму около ~223 миллионов HNT в обращении). В 2023 году Helium мигрировала на Solana и представила фреймворк «сеть сетей» с суб-DAO. Теперь сеть IoT и мобильная сеть 5G Helium имеют свои собственные токены (IOT и MOBILE соответственно), которыми вознаграждаются операторы хотспотов, в то время как HNT остается центральным токеном для управления и ценности. HNT можно обменять на токены subDAO (и наоборот) через казначейские пулы, а HNT также используется для стейкинга в модели управления veHNT Helium. Эта структура направлена на согласование стимулов в каждой подсети: например, операторы хотспотов 5G зарабатывают токены MOBILE, которые могут быть конвертированы в HNT, эффективно привязывая вознаграждения к успеху этой конкретной услуги.

Создание экономической ценности: Ценность Helium создается за счет предоставления недорогого беспроводного доступа. Распределяя токен-вознаграждения, Helium переложила капитальные затраты (capex) на развертывание сети на частных лиц, которые приобретали и управляли хотспотами. Теоретически, по мере того как предприятия и устройства IoT используют сеть (тратя DC, которые требуют сжигания HNT), этот спрос должен поддерживать ценность HNT и финансировать текущие вознаграждения. Helium поддерживает свою экономику через цикл сжигания и трат: пользователи сети покупают HNT (или используют вознаграждения HNT) и сжигают его для получения DC для использования сети, а протокол эмитирует HNT (согласно фиксированному графику) для оплаты поставщикам хотспотов. В дизайне Helium часть эмиссии HNT также была выделена основателям и общественному резерву, но большая часть всегда предназначалась для операторов хотспотов в качестве стимула для создания покрытия. Как будет обсуждаться далее, проблемой Helium было получение достаточного платящего спроса для балансировки щедрых стимулов со стороны предложения.

Filecoin (децентрализованная сеть хранения данных)

Filecoin — это децентрализованный рынок хранения данных, где любой желающий может предоставить дисковое пространство и зарабатывать токены за хранение данных. Его экономическая модель построена вокруг токена FIL. Блокчейн Filecoin вознаграждает поставщиков хранилищ (майнеров) блочными вознаграждениями FIL за предоставление хранилища и правильное хранение данных клиентов — используя криптографические доказательства (Proof-of-Replication и Proof-of-Spacetime) для проверки надежности хранения данных. Клиенты, в свою очередь, платят FIL майнерам за хранение или извлечение своих данных, договариваясь о ценах на открытом рынке. Это создает стимулирующий цикл: майнеры инвестируют в оборудование и стейкают FIL в качестве залога (для гарантии качества услуг), зарабатывая вознаграждения FIL за добавление емкости хранилища и выполнение сделок по хранению, в то время как клиенты тратят FIL на услуги хранения.

Распределение токенов Filecoin сильно ориентировано на стимулирование предложения хранилищ. FIL имеет максимальное предложение в 2 миллиарда, при этом 70% зарезервировано для вознаграждений за майнинг. (Фактически, ~1.4 миллиарда FIL выделены для постепенного выпуска в качестве блочных вознаграждений майнерам хранилищ в течение многих лет.) Остальные 30% были распределены между заинтересованными сторонами: 15% — Protocol Labs (команда-основатель), 10% — инвесторам и 5% — Filecoin Foundation. Эмиссия блочных вознаграждений следует несколько опережающему графику (с шестилетним периодом полураспада), что означает, что инфляция предложения была самой высокой в первые годы для быстрого запуска крупной сети хранения данных. Для балансировки этого Filecoin требует от майнеров блокировать FIL в качестве залога за каждый гигабайт данных, которые они обязуются хранить — если они не смогут доказать сохранение данных, они могут быть оштрафованы (слэшированы) путем потери части залога. Этот механизм согласовывает стимулы майнеров с надежным обслуживанием.

Создание экономической ценности: Filecoin создает ценность, предлагая устойчивое к цензуре, избыточное хранение данных по потенциально более низким ценам, чем централизованные облачные провайдеры. Ценность токена FIL привязана к спросу на хранение данных и полезности сети: клиенты должны получить FIL для оплаты хранения данных, а майнерам нужен FIL (как для залога, так и часто для покрытия расходов или в качестве дохода). Изначально большая часть активности Filecoin была обусловлена майнерами, стремящимися заработать токены — даже хранящими данные нулевой ценности или дублированные данные просто для увеличения своей мощности хранения и получения блочных вознаграждений. Чтобы стимулировать полезное хранение, Filecoin представил программу Filecoin Plus: клиенты с проверенными полезными данными (например, открытые наборы данных, архивы) могут регистрировать сделки как «проверенные», что дает майнерам в 10 раз большую эффективную мощность для этих сделок, что приводит к пропорционально большим вознаграждениям FIL. Это стимулировало майнеров искать реальных клиентов и значительно увеличило объем полезных данных, хранящихся в сети. К концу 2023 года сеть Filecoin выросла примерно до 1800 PiB активных сделок, увеличившись в 3.8 раза по сравнению с предыдущим годом, при этом использование хранилища выросло до ~20% от общей емкости (с всего ~3% в начале 2023 года). Другими словами, токен-стимулы запустили огромную емкость, и теперь растущая часть этой емкости заполняется платящими клиентами — признак того, что модель начинает поддерживать себя реальным спросом. Filecoin также расширяется в смежные услуги (см. Тенденции вычислений ИИ ниже), что может создать новые потоки доходов (например, децентрализованную доставку контента и услуги вычислений над данными) для поддержки экономики FIL помимо простых сборов за хранение.

Render Network (децентрализованный рендеринг и вычисления на GPU)

Render Network — это децентрализованный рынок вычислений на основе GPU, изначально ориентированный на рендеринг 3D-графики, а теперь также поддерживающий задачи обучения/вывода моделей ИИ. Его нативный токен RNDR (недавно обновленный до тикера RENDER на Solana) питает экономику. Создатели (пользователи, которым нужна работа GPU) платят в RNDR за задачи рендеринга или вычислений, а Операторы узлов (поставщики GPU) зарабатывают RNDR, выполняя эти задачи. Эта базовая модель превращает простаивающие GPU (от отдельных владельцев GPU или центров обработки данных) в распределенную облачную рендеринговую ферму. Для обеспечения качества и справедливости Render использует смарт-контракты с эскроу: клиенты отправляют задания и сжигают эквивалентный платеж в RNDR, который удерживается до тех пор, пока операторы узлов не предоставят доказательство выполнения работы, после чего RNDR выпускается в качестве вознаграждения. Изначально RNDR функционировал как чистый утилитарный/платежный токен, но недавно сеть пересмотрела свою токеномику, перейдя к модели равновесия сжигания и эмиссии (Burn-and-Mint Equilibrium, BME), чтобы лучше сбалансировать спрос и предложение.

В рамках модели BME все задачи рендеринга или вычислений оцениваются в стабильных терминах (USD) и оплачиваются токенами RENDER, которые **сжигаются по завершении задачи. Параллельно протокол эмитирует новые токены RENDER по заранее определенному графику снижения эмиссии для компенсации операторам узлов и другим участникам. По сути, платежи пользователей за работу уничтожают токены, в то время как сеть инфлирует токены с контролируемой скоростью в качестве вознаграждений за майнинг — чистое предложение может увеличиваться или уменьшаться со временем в зависимости от использования. Сообщество одобрило первоначальную эмиссию в ~9.1 миллиона RENDER в первый год BME (с середины 2023 по середину 2024 года) в качестве сетевых стимулов и установило долгосрочное максимальное предложение около 644 миллионов RENDER (по сравнению с первоначальными 536.9 миллионами RNDR, выпущенными при запуске). Примечательно, что распределение токенов RENDER сильно благоприятствовало росту экосистемы: 65% первоначального предложения было выделено в казну (для будущих сетевых стимулов), 25% — инвесторам и 10% — команде/советникам. С BME эта казна развертывается через контролируемые эмиссии для вознаграждения поставщиков GPU и других участников, в то время как механизм сжигания напрямую связывает эти вознаграждения с использованием платформы. RNDR также служит токеном управления (держатели токенов могут голосовать по предложениям Render Network). Кроме того, операторы узлов в Render могут стейкать RNDR, чтобы сигнализировать о своей надежности и потенциально получать больше работы, добавляя еще один уровень стимулов.

Создание экономической ценности: Render Network создает ценность, предоставляя вычисления на GPU по требованию за долю стоимости традиционных облачных экземпляров GPU. К концу 2023 года основатель Render отметил, что студии уже использовали сеть для рендеринга графики кинокачества со значительными преимуществами в стоимости и скорости — «одна десятая стоимости» и с огромной агрегированной мощностью, превосходящей любого отдельного облачного провайдера. Это преимущество в стоимости возможно благодаря тому, что Render использует простаивающие GPU по всему миру (от любительских установок до профессиональных рендеринговых ферм), которые в противном случае простаивали бы. С ростом спроса на время GPU (как для графики, так и для ИИ) рынок Render удовлетворяет критическую потребность. Важно отметить, что модель токена BME означает, что ценность токена напрямую связана с использованием услуг: по мере того как все больше задач рендеринга и ИИ проходят через сеть, больше RENDER сжигается (создавая покупательское давление или сокращая предложение), в то время как стимулы для узлов масштабируются только по мере выполнения этих задач. Это помогает избежать «платы ни за что» — если использование сети стагнирует, эмиссия токенов в конечном итоге опережает сжигание (инфлируя предложение), но если использование растет, сжигание может компенсировать или даже превысить эмиссию, потенциально делая токен дефляционным, при этом вознаграждая операторов. Сильный интерес к модели Render отразился на рынке: цена RNDR резко выросла в 2023 году, увеличившись более чем на 1000% в стоимости, поскольку инвесторы ожидали резкого роста спроса на децентрализованные услуги GPU на фоне бума ИИ. Поддерживаемая OTOY (лидером в области программного обеспечения для облачного рендеринга) и используемая в производстве некоторыми крупными студиями, Render Network позиционируется как ключевой игрок на пересечении Web3 и высокопроизводительных вычислений.

Akash Network (децентрализованные облачные вычисления)

Akash — это децентрализованный рынок облачных вычислений, который позволяет пользователям арендовать общие вычислительные мощности (виртуальные машины, контейнеры и т. д.) у провайдеров с избыточной серверной мощностью. Представьте это как децентрализованную альтернативу AWS или Google Cloud, работающую на основе блокчейн-системы обратного аукциона. Нативный токен AKT является центральным элементом экономики Akash: клиенты платят за аренду вычислительных мощностей в AKT, а провайдеры зарабатывают AKT за предоставление ресурсов. Akash построен на Cosmos SDK и использует блокчейн делегированного Proof-of-Stake для безопасности и координации. Таким образом, AKT также функционирует как токен для стейкинга и управления — валидаторы стейкают AKT (а пользователи делегируют AKT валидаторам) для обеспечения безопасности сети и получения вознаграждений за стейкинг.

Рынок Akash работает через систему торгов: клиент определяет развертывание (требования к CPU, RAM, хранилищу, возможно, GPU) и максимальную цену, и несколько провайдеров могут предложить свои услуги для его размещения, снижая цену. Как только клиент принимает предложение, формируется аренда, и рабочая нагрузка выполняется на инфраструктуре выбранного провайдера. Платежи за аренду обрабатываются блокчейном: клиент депонирует AKT, и он постепенно передается провайдеру на протяжении всего времени активности развертывания. Уникально, что сеть Akash взимает протокольную «комиссию за использование» с каждой аренды для финансирования экосистемы и вознаграждения стейкеров AKT: 10% от суммы аренды, если оплата производится в AKT (или 20%, если оплата производится в другой валюте), отчисляется в качестве комиссий в казну сети и стейкерам. Это означает, что стейкеры AKT получают часть от всего использования, согласовывая ценность токена с фактическим спросом на платформе. Для улучшения удобства использования для обычных пользователей Akash интегрировал платежи в стейблкоинах и с помощью кредитных карт (через свое консольное приложение): клиент может платить в стейблкоинах USD, которые под капотом конвертируются в AKT (с более высокой ставкой комиссии). Это снижает риск волатильности для пользователей, при этом все еще повышая ценность токена AKT (поскольку эти платежи в стейблкоинах в конечном итоге приводят к покупке/сжиганию AKT или распределению его стейкерам).

Со стороны предложения, токеномика AKT разработана для стимулирования долгосрочного участия. Akash начал со 100 миллионов AKT при генезисе и имеет максимальное предложение в 389 миллионов через инфляцию. Уровень инфляции адаптивный и зависит от доли застейканных AKT: он нацелен на 20–25% годовой инфляции, если коэффициент стейкинга низок, и около 15%, если застейкан высокий процент AKT. Эта адаптивная инфляция (распространенный дизайн в сетях на основе Cosmos) побуждает держателей стейкать (способствуя безопасности сети), вознаграждая их больше, когда участие в стейкинге низкое. Блочные вознаграждения от инфляции выплачиваются валидаторам и делегаторам, а также финансируют резерв для роста экосистемы. Первоначальное распределение AKT предусматривало выделение средств инвесторам, основной команде (Overclock Labs) и фонду для стимулирования экосистемы (например, ранняя программа в 2024 году финансировала присоединение поставщиков GPU).

Создание экономической ценности: Akash создает ценность, предлагая облачные вычисления по потенциально гораздо более низким ценам, чем существующие облачные провайдеры, используя недоиспользуемые серверы по всему миру. Децентрализуя облако, он также стремится заполнить региональные пробелы и уменьшить зависимость от нескольких крупных технологических компаний. Токен AKT накапливает ценность с нескольких сторон: комиссии со стороны спроса (больше рабочих нагрузок = больше комиссий AKT, поступающих стейкерам), потребности со стороны предложения (провайдеры могут удерживать или стейкать доходы, а также должны стейкать некоторое количество AKT в качестве залога за предоставление услуг) и общий рост сети (AKT необходим для управления и в качестве резервной валюты в экосистеме). Важно отметить, что по мере выполнения все большего количества реальных рабочих нагрузок в Akash доля AKT в обращении, используемая для стейкинга и депозитов комиссий, должна увеличиваться, отражая реальную полезность. Изначально Akash демонстрировал умеренное использование для веб-сервисов и хостинга криптоинфраструктуры, но в конце 2023 года он расширил поддержку рабочих нагрузок GPU — что сделало возможным выполнение задач обучения ИИ, машинного обучения и высокопроизводительных вычислений в сети. Это значительно увеличило использование Akash в 2024 году. К третьему кварталу 2024 года метрики сети показали взрывной рост: количество активных развертываний («аренд») выросло на 1729% в годовом исчислении, а средняя комиссия за аренду (показатель сложности рабочих нагрузок) выросла на 688%. На практике это означает, что пользователи развертывают гораздо больше приложений на Akash и готовы выполнять более крупные, длительные рабочие нагрузки (многие из которых включают GPU) — доказательство того, что токен-стимулы привлекли реальный платящий спрос. Команда Akash сообщила, что к концу 2024 года в сети было более 700 GPU онлайн с утилизацией ~78% (т. е. ~78% мощности GPU было арендовано в любой момент времени). Это сильный сигнал эффективной конверсии токен-стимулов (см. следующий раздел). Встроенная модель распределения комиссий также означает, что по мере роста использования стейкеры AKT получают протокольный доход, эффективно привязывая токен-вознаграждения к фактическому доходу от услуг — более здоровый долгосрочный экономический дизайн.

io.net (децентрализованное облако GPU для ИИ)

io.net — это новый участник (построенный на Solana), стремящийся стать «крупнейшей в мире сетью GPU», специально ориентированной на рабочие нагрузки ИИ и машинного обучения. Его экономическая модель извлекает уроки из более ранних проектов, таких как Render и Akash. Нативный токен IO имеет фиксированное максимальное предложение в 800 миллионов. При запуске 500 миллионов IO были предварительно выпущены и распределены между различными заинтересованными сторонами, а оставшиеся 300 миллионов IO эмитируются в качестве вознаграждений за майнинг в течение 20 лет (распределяются ежечасно поставщикам GPU и стейкерам). Примечательно, что io.net реализует механизм сжигания на основе дохода: часть сетевых комиссий/дохода используется для сжигания токенов IO, напрямую связывая предложение токенов с использованием платформы. Эта комбинация — ограниченное предложение с эмиссией, распределенной по времени, и сжиганием, обусловленным использованием — призвана обеспечить долгосрочную устойчивость токеномики.

Чтобы присоединиться к сети в качестве узла GPU, провайдеры обязаны стейкать минимальное количество IO в качестве залога. Это служит двум целям: отпугивает вредоносные или низкокачественные узлы (поскольку они «вложились в игру») и снижает немедленное давление продаж от токенов вознаграждения (поскольку узлы должны блокировать некоторые токены для участия). Стейкеры (которые могут включать как провайдеров, так и других участников) также получают долю сетевых вознаграждений, согласовывая стимулы по всей экосистеме. Со стороны спроса, клиенты (разработчики ИИ и т. д.) платят за вычисления на GPU в io.net, предположительно в токенах IO или, возможно, в стабильных эквивалентах — проект утверждает, что предлагает мощность облачных GPU со скидкой до 90% по сравнению с традиционными провайдерами, такими как AWS. Эти комиссии за использование приводят в действие механизм сжигания: по мере поступления дохода часть токенов сжигается, связывая успех платформы с дефицитом токенов.

Создание экономической ценности: Ценностное предложение io.net заключается в агрегировании мощности GPU из многих источников (центры обработки данных, криптомайнеры, перепрофилирующие майнинговые установки и т. д.) в единую сеть, которая может предоставлять вычисления по требованию для ИИ в массовом масштабе. Стремясь подключить более 1 миллиона GPU по всему миру, io.net стремится превзойти любую отдельную облачную систему и удовлетворить растущий спрос на обучение и вывод моделей ИИ. Токен IO захватывает ценность через сочетание механизмов: предложение ограничено (поэтому ценность токена может расти, если растет спрос на сетевые услуги), использование сжигает токены (напрямую создавая обратную связь ценности для токена от дохода от услуг), и токен-вознаграждения запускают предложение (постепенно распределяя токены тем, кто предоставляет GPU, обеспечивая рост сети). По сути, экономическая модель io.net — это усовершенствованный подход DePIN, где стимулы со стороны предложения (ежечасные эмиссии IO) существенны, но конечны, и они уравновешиваются поглотителями токенов (сжиганиями), которые масштабируются с фактическим использованием. Это разработано для того, чтобы избежать ловушки чрезмерной инфляции при отсутствии спроса. Как мы увидим, тенденция вычислений ИИ предоставляет большой и растущий рынок для таких сетей, как io.net, что может привести к желаемому равновесию, при котором токен-стимулы приводят к активному использованию услуг. (io.net все еще находится на стадии становления, поэтому его реальные метрики еще предстоит доказать, но его дизайн явно нацелен на потребности сектора вычислений ИИ.)

Таблица 1: Ключевые особенности экономических моделей выбранных проектов DePIN

ПроектСекторТокен (Тикер)Предложение и распределениеМеханизм стимулированияПолезность токена и поток ценности

Децентрализованный ИИ: Беспрепятственный вывод LLM на BlockEden.xyz

· 5 мин. чтения
Dora Noda
Software Engineer

BlockEden.xyz, известный своей инфраструктурой удаленного вызова процедур (RPC), расширяет свою деятельность на сервисы вывода ИИ. Это развитие использует его открытый, беспрепятственный дизайн для создания торговой площадки, где исследователи моделей, операторы оборудования, поставщики API и пользователи беспрепятственно взаимодействуют. Алгоритм Relay Mining сети обеспечивает прозрачный и проверяемый сервис, предоставляя уникальную возможность исследователям ИИ больших моделей монетизировать свою работу без необходимости обслуживания инфраструктуры.

Основная проблема

Ландшафт ИИ сталкивается со значительными проблемами, включая:

  • Ограниченные среды обслуживания моделей: Ресурсоемкая инфраструктура ограничивает возможности исследователей ИИ экспериментировать с различными моделями.
  • Неустойчивые бизнес-модели для инноваций с открытым исходным кодом: Независимые инженеры с трудом монетизируют свою работу, полагаясь на крупных поставщиков инфраструктуры.
  • Неравный доступ к рынку: Доминируют модели корпоративного уровня, оставляя модели среднего уровня и пользователей недостаточно обслуживаемыми.

Уникальное ценностное предложение BlockEden.xyz

BlockEden.xyz решает эти проблемы, отделяя инфраструктурный уровень от уровня продуктов и услуг, обеспечивая открытую и децентрализованную структуру. Эта настройка позволяет предоставлять высококачественные услуги и согласовывает стимулы между всеми участниками сети.

Ключевые преимущества включают:

  • Созданная сеть: Использование существующей сети сервисов BlockEden.xyz для оптимизации доступа к моделям и качества услуг.
  • Разделение обязанностей: Каждая заинтересованная сторона фокусируется на своих сильных сторонах, повышая общую эффективность экосистемы.
  • Согласование стимулов: Криптографические доказательства и измерения производительности стимулируют конкуренцию и прозрачность.
  • Беспрепятственные модели и поставки: Открытая торговая площадка для экономически эффективных поставок оборудования.

Заинтересованные стороны децентрализованного вывода ИИ

Поставщики моделей: Координаторы

Координаторы управляют уровнем продуктов и услуг, оптимизируя качество услуг и обеспечивая беспрепятственный доступ для приложений. Координаторы незаметно обеспечивают целостность поставщиков, выступая в роли обычных пользователей, предлагая непредвзятые оценки производительности.

Пользователи моделей: Приложения

Приложения обычно используют координаторов первой стороны, но также могут получить доступ к сети через третью сторону для повышения конфиденциальности и экономии средств. Прямой доступ позволяет экспериментировать с разнообразными вариантами использования и устраняет посреднические издержки.

Поставщики моделей: Операторы оборудования

Поставщики запускают узлы вывода для заработка токенов. Их компетенции в DevOps, обслуживании оборудования и ведении журналов имеют решающее значение для роста сети. Беспрепятственный подход поощряет участие различных поставщиков оборудования, включая тех, у кого есть простаивающие или неактивные ресурсы.

Источники моделей: Инженеры и исследователи

Исследователи и учреждения, которые открывают исходный код моделей, могут получать доход на основе использования. Эта модель стимулирует инновации без необходимости обслуживания инфраструктуры, предоставляя устойчивую бизнес-модель для участников с открытым исходным кодом.

Работа с Cuckoo Network

BlockEden.xyz сотрудничает с Cuckoo Network, чтобы совершить революцию в выводе ИИ с помощью децентрализованной и беспрепятственной инфраструктуры. Это партнерство сосредоточено на использовании сильных сторон обеих платформ для создания бесшовной и эффективной экосистемы для развертывания и монетизации моделей ИИ.

Ключевые области сотрудничества

  • Интеграция инфраструктуры: Объединение надежной RPC-инфраструктуры BlockEden.xyz с децентрализованными возможностями обслуживания моделей Cuckoo Network для предоставления масштабируемого и отказоустойчивого сервиса вывода ИИ.
  • Распределение моделей: Содействие распространению моделей ИИ с открытым исходным кодом по всей сети, позволяя исследователям охватить более широкую аудиторию и монетизировать свои инновации без необходимости обширной инфраструктуры.
  • Обеспечение качества: Внедрение механизмов для непрерывного мониторинга и оценки производительности моделей и целостности поставщиков, обеспечивая высокое качество предоставления услуг и надежность.
  • Экономические стимулы: Согласование экономических стимулов между всеми заинтересованными сторонами посредством криптографических доказательств и вознаграждений на основе производительности, способствуя конкурентному и прозрачному рынку.
  • Конфиденциальность и безопасность: Повышение конфиденциальности операций и безопасного вывода моделей с помощью передовых технологий, таких как Доверенные среды выполнения (TEE) и децентрализованные решения для хранения данных.
  • Сообщество и поддержка: Создание поддерживающего сообщества для исследователей и разработчиков ИИ, предоставление ресурсов, руководства и стимулов для стимулирования инноваций и внедрения в децентрализованной экосистеме ИИ.

Партнерство с Cuckoo Network позволяет BlockEden.xyz создать целостный и децентрализованный подход к выводу ИИ, предоставляя исследователям, разработчикам и пользователям надежную, прозрачную и эффективную платформу для развертывания и использования моделей ИИ. Вы можете попробовать децентрализованный API преобразования текста в изображение по адресу https://blockeden.xyz/api-marketplace/cuckoo-ai.

Вход/выход децентрализованной сети вывода

Входные данные LLM для Cuckoo Network:

  • Модели с открытым исходным кодом
  • Спрос от конечных пользователей или приложений
  • Агрегированное предложение от стандартного оборудования
  • Гарантии качества обслуживания

Выходные данные LLM из Cuckoo Network:

  • Отсутствие простоев
  • Беспрепятственное экспериментирование с моделями
  • Публичная оценка моделей
  • Операции, сохраняющие конфиденциальность
  • Модели без цензуры

Интеграции экосистемы Web3

Протокол RPC BlockEden.xyz может интегрироваться с другими протоколами Web3 для улучшения децентрализованного ИИ (DecAI):

Сети данных и хранения: Бесшовная интеграция с децентрализованными решениями для хранения, такими как Filecoin/IPFS и Arweave, для хранения моделей и обеспечения целостности данных.

Вычислительные сети: Дополнительные услуги, использующие децентрализованные вычислительные слои, такие как Akash и Render, поддерживающие как выделенное, так и простаивающее оборудование.

Сети вывода: Гибкие модели развертывания и надежные экосистемы, поддерживающие разнообразные задачи вывода.

Приложения: ИИ-агенты, потребительские приложения и устройства IoT выигрывают от вывода DecAI для персонализированных услуг, конфиденциальности данных и принятия решений на периферии.

Резюме

Созданная инфраструктура и экономический дизайн BlockEden.xyz открывают новые возможности для ИИ с открытым исходным кодом. Предоставляя децентрализованный и проверяемый сервис, он преодолевает разрыв между ИИ с открытым исходным кодом и Web3, обеспечивая инновационные, устойчивые и надежные услуги. Этот подход позволяет увеличить разнообразие моделей, улучшить доступ к рынку для МСП и создать новую бизнес-модель для исследователей с открытым исходным кодом. Будущие разработки будут продолжать расширять экосистему, гарантируя, что BlockEden.xyz останется надежным и адаптируемым решением в развивающихся ландшафтах ИИ и блокчейна.

Представляем интеграцию API OpenAI ChatGPT на торговой площадке API BlockEden.xyz

· 4 мин. чтения
Dora Noda
Software Engineer

Мы рады объявить, что BlockEden.xyz, основная платформа для Web3-разработчиков на рынке API, добавила новую, мощную возможность – API OpenAI. Да, вы не ослышались! Разработчики, технические энтузиасты и пионеры ИИ теперь могут использовать передовые модели машинного обучения, предлагаемые OpenAI, непосредственно через торговую площадку API BlockEden.

Прежде чем мы углубимся в руководство по использованию, давайте разберемся, что предлагает API OpenAI. API OpenAI – это шлюз к моделям ИИ, разработанным OpenAI, таким как всемирно известный GPT-3, передовая языковая модель на основе трансформеров, известная своей выдающейся способностью понимать и генерировать текст, похожий на человеческий. API позволяет разработчикам использовать эту передовую технологию для различных приложений, включая составление электронных писем, написание кода, ответы на вопросы, создание письменного контента, репетиторство, языковой перевод и многое другое.

Теперь давайте посмотрим, как вы можете интегрировать возможности API OpenAI в свои приложения с помощью BlockEden.xyz. Вы можете сделать это тремя способами: используя Python, используя JavaScript (Node.js) или используя curl непосредственно из командной строки. В этом блоге мы предоставим базовую настройку для каждого метода, используя простой пример "Hello, World!".

Приведенный ниже ключ API является общедоступным и может быть изменен, а также подлежит ограничению скорости запросов. Получите свой собственный BLOCKEDEN_API_KEY по адресу https://blockeden.xyz/dash.

Python:

Используя Python, вы можете использовать API OpenAI, как показано в следующем фрагменте кода:

import openai

BLOCKEDEN_API_KEY = "8UuXzatAZYDBJC6YZTKD"
openai.api_key = ""
openai.api_base = "https://api.blockeden.xyz/openai/" + BLOCKEDEN_API_KEY + "/v1"

response = openai.ChatCompletion.create(
model="gpt-3.5-turbo-16k",
messages=[{"role": "user", "content": "hello, world!"}],
temperature=0,
max_tokens=2048,
top_p=1,
frequency_penalty=0,
presence_penalty=0
)

print(response["choices"])

JavaScript (Node.js):

Вы также можете использовать API OpenAI с JavaScript. Вот как это сделать:

const { Configuration, OpenAIApi } = require("openai");

const BLOCKEDEN_API_KEY = "8UuXzatAZYDBJC6YZTKD";
const configuration = new Configuration({
basePath: "https://api.blockeden.xyz/openai/" + BLOCKEDEN_API_KEY + "/v1",
});
const openai = new OpenAIApi(configuration);

(async () => {
const response = await openai.createChatCompletion({
model: "gpt-3.5-turbo-16k",
messages: [{ role: "user", content: "hello, world!" }],
temperature: 0,
max_tokens: 2048,
top_p: 1,
frequency_penalty: 0,
presence_penalty: 0,
});

console.log(JSON.stringify(response.data.choices, null, 2));
})();

cURL:

И последнее, но не менее важное: вы можете вызвать API OpenAI с помощью curl непосредственно из вашего терминала:

curl https://api.blockeden.xyz/openai/8UuXzatAZYDBJC6YZTKD/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-3.5-turbo-16k",
"messages": [{"role": "user", "content": "hello, world!"}],
"temperature": 0,
"max_tokens": 2048,
"top_p": 1,
"frequency_penalty": 0,
"presence_penalty": 0
}'

Итак, что дальше? Погрузитесь, экспериментируйте и узнайте, как вы можете использовать возможности API OpenAI для своих проектов, будь то чат-боты, генерация контента или любое другое приложение на основе NLP. Возможности так же безграничны, как и ваше воображение. Благодаря бесшовной интеграции BlockEden.xyz с OpenAI, давайте переосмыслим границы возможного.

Для получения дополнительной информации о возможностях, моделях и использовании OpenAI посетите официальную документацию OpenAI.

Удачного кодирования!

Что такое BlockEden.xyz

BlockEden.xyz – это торговая площадка API, обеспечивающая работу DApps любого размера для Sui, Aptos, Solana и 12 блокчейнов EVM. Почему наши клиенты выбирают нас?

  1. Высокая доступность. Мы поддерживаем 99,9% времени безотказной работы с момента запуска нашего первого API – основной сети Aptos.
  2. Широкий спектр предложений API и сообщество. Наши услуги расширились и теперь включают Sui, Ethereum, IoTeX, Solana, Polygon, Polygon zkEVM, Filecoin, Harmony, BSC, Arbitrum, Optimism, Gnosis, Arbitrum Nova и EthStorage Galileo. Наше сообщество 10x.pub насчитывает более 4000 Web3-инноваторов из Кремниевой долины, Сиэтла и Нью-Йорка.
  3. Безопасность. С более чем 45 миллионами долларов США в токенах, размещенных у нас, наши клиенты доверяют нам предоставление надежных и безопасных решений для их потребностей в Web3 и блокчейне.

Мы предоставляем комплексный набор услуг, разработанных для расширения возможностей каждого участника блокчейн-пространства, сосредоточившись на трех ключевых областях:

  • Для разработчиков блокчейн-протоколов мы обеспечиваем надежную безопасность и децентрализацию, управляя нодами и внося долгосрочный вклад в экосистему.
  • Для разработчиков DApp мы создаем удобные API для оптимизации разработки и раскрытия полного потенциала децентрализованных приложений.
  • Для держателей токенов мы предлагаем надежный сервис стейкинга для максимизации вознаграждений и оптимизации управления активами.