メインコンテンツまでスキップ

「AI」タグの記事が25件件あります

全てのタグを見る

自律資本の台頭

· 約74分
Dora Noda
Software Engineer

独自の暗号通貨ウォレットを制御するAI搭載エージェントは、すでに数十億ドル規模の資産を管理し、独立した金融意思決定を行い、分散型システムを通じて資本が流れる方法を再構築しています。 人工知能とブロックチェーン技術のこの融合—主要な思想家たちが「自律資本」と呼ぶもの—は、インテリジェントなソフトウェアが人間の仲介なしに自己主権的な経済主体として機能できる、経済組織における根本的な変革を表しています。DeFi AI(DeFAI)市場は2025年初頭に10億ドルに達し、より広範なAIエージェント市場は170億ドルにピークを迎え、技術的、規制的、哲学的な重大な課題にもかかわらず、急速な商業的採用を示しています。Tarun Chitra(Gauntlet)、Amjad Masad(Replit)、Jordi Alexander(Selini Capital)、Alexander Pack(Hack VC)、Irene Wu(Bain Capital Crypto)の5人の主要な思想的リーダーは、自動化されたリスク管理や開発インフラから投資フレームワークやクロスチェーンの相互運用性まで、この分野に異なるアプローチで先駆的な取り組みを行っています。彼らの仕事は、AIエージェントが主要なブロックチェーンユーザーとして人間を上回り、ポートフォリオを自律的に管理し、分散型ネットワークで協調する未来の基盤を築いています。ただし、このビジョンは、説明責任、セキュリティ、そしてトラストレスなインフラが信頼できるAIの意思決定をサポートできるかという重要な問いに直面しています。

自律資本の意味と、それが今なぜ重要なのか

自律資本とは、ブロックチェーンインフラ上で動作する自律型AIエージェントによって制御・展開される資本(金融資産、リソース、意思決定権)を指します。人間の監視を必要とする従来のアルゴリズム取引や自動化システムとは異なり、これらのエージェントは秘密鍵を持つ独自の暗号通貨ウォレットを保持し、独立した戦略的決定を下し、継続的な人間の介入なしに分散型金融プロトコルに参加します。この技術は、AIの意思決定能力、暗号通貨のプログラム可能なマネーとトラストレスな実行、そして仲介者なしに合意を強制するスマートコントラクトの能力という、3つの重要なイノベーションを融合させています。

この技術はすでに到来しています。 2025年10月現在、Virtuals Protocolだけでも17,000以上のAIエージェントが稼働しており、AIXBTのような著名なエージェントは5億ドルの評価額を誇り、Truth Terminalは一時的に10億ドルに達した$GOATミームコインを生み出しました。Gauntletのリスク管理プラットフォームは、数十億ドルのTVL(Total Value Locked)を管理するDeFiプロトコル全体で、毎日4億以上のデータポイントを分析しています。ReplitのAgent 3は200分以上の自律的なソフトウェア開発を可能にし、SingularityDAOのAI管理ポートフォリオは、適応型マーケットメイキング戦略を通じて2ヶ月で25%のROIを達成しました。

これが重要な理由: 従来の金融は、その洗練度にかかわらずAIシステムを排除します。銀行は人間の身元確認とKYCチェックを要求します。対照的に、暗号通貨ウォレットは、あらゆるソフトウェアエージェントがアクセスできる暗号鍵ペアを通じて生成されます。これにより、AIが独立した経済主体として機能できる初の金融インフラが誕生し、機械間経済、自律的な財務管理、人間には不可能な規模と速度でのAI協調型資本配分の可能性が開かれます。しかし、自律型エージェントが損害を引き起こした場合に誰が責任を負うのか、分散型ガバナンスがAIリスクを管理できるのか、そしてこの技術が経済力を集中させるのか、それとも民主化するのかについて、深い疑問も提起しています。

自律資本を形成する思想的リーダーたち

Tarun Chitra:シミュレーションから自動化されたガバナンスへ

Gauntlet(評価額10億ドル)のCEO兼共同創設者であるTarun Chitraは、アルゴリズム取引や自動運転車におけるエージェントベースのシミュレーションをDeFiプロトコルに応用する先駆者です。彼の「自動化されたガバナンス」というビジョンは、AI駆動のシミュレーションを活用して、プロトコルが主観的な投票だけでなく、科学的に意思決定を行えるようにすることです。2020年の画期的な記事「Automated Governance: DeFi's Scientific Evolution」で、Chitraは継続的な敵対的シミュレーションが「攻撃に強く、正直な参加者に公平に報酬を与える、より安全で効率的なDeFiエコシステム」をどのように生み出すかを明確に述べました。

Gauntletの技術的実装は、このコンセプトを大規模に証明しています。 このプラットフォームは、実際のスマートコントラクトコードに対して毎日何千ものシミュレーションを実行し、プロトコルルール内で相互作用する利益最大化エージェントをモデル化し、10億ドル以上のプロトコル資産に対してデータ駆動型のパラメータ推奨を提供します。彼のフレームワークには、プロトコルルールのコード化、エージェントのペイオフの定義、エージェントの相互作用のシミュレーション、そしてマクロ的なプロトコル健全性とミクロ的なユーザーインセンティブのバランスを取るためのパラメータ最適化が含まれます。この手法は、Aave(4年間の契約)、Compound、Uniswap、Morphoなどの主要なDeFiプロトコルに影響を与え、Gauntletは定数関数マーケットメーカー、MEV分析、清算メカニズム、プロトコル経済学に関する27の論文を発表しています。

Chitraが2023年に設立したAeraプロトコルは、自律的な財務管理を進化させ、DAOが「クラウドソーシングによる投資ポートフォリオ管理」を通じて市場の変化に迅速に対応できるようにしました。彼の最近のAIエージェントへの焦点は、AIエージェントが「オンチェーン金融活動を支配する」こと、そして「AIが2025年までに暗号通貨の歴史の流れを変える」という予測を反映しています。ロンドン(2021年)、シンガポール(2024年、2025年)でのToken2049への出演や、The Chopping Blockでの定期的なポッドキャストホスティングを通じて、Chitraは主観的な人間によるガバナンスから、データ駆動型でシミュレーションによって検証された意思決定への移行を一貫して強調しています。

重要な洞察: 「金融そのものは根本的に法的な実践であり、お金と法律です。スマートコントラクトによって金融はより洗練されます。」彼の仕事は、自律資本が人間を完全に置き換えることではなく、継続的なシミュレーションと最適化を通じて金融システムをより科学的に厳密にするためにAIを使用することを示しています。

Amjad Masad:ネットワーク経済のためのインフラ構築

Replit(2025年10月現在、評価額30億ドル)のCEOであるAmjad Masadは、暗号通貨ウォレットを持つ自律型AIエージェントが、従来の階層型ソフトウェア開発を分散型ネットワーク経済に置き換えるという、抜本的な経済変革を構想しています。彼の2022年のバイラルなTwitterスレッドでは、「この10年でソフトウェアに記念碑的な変化が訪れる」と予測し、AIが次の100倍の生産性向上をもたらし、プログラマーがAIエージェントの「軍隊を指揮」できるようになる一方で、非プログラマーもソフトウェアタスクのためにエージェントを指揮できるようになると主張しました。

ネットワーク経済のビジョンは、経済主体としての自律型エージェントを中心に据えています。 Sequoia Capitalのポッドキャストインタビューで、Masadは未来を次のように描写しました。「ソフトウェアエージェントと私は、『よし、この製品を作る必要がある』と言うでしょう。するとエージェントは、『ああ、このエリアからこのデータベースを、このエリアからSMSやメールを送信するものを取得しよう。ちなみに、それらの費用はこれくらいだ』と言うでしょう。そしてエージェントとして、私は実際にウォレットを持っており、それらの費用を支払うことができるでしょう。」これは、工場パイプラインモデルを、エージェントが自律的にサービスを組み立て、価値がネットワークを通じて自動的に流れるネットワークベースの構成に置き換えます。

2025年9月にリリースされたReplitのAgent 3は、このビジョンを技術的に実証しており、前身よりも10倍の自律性を持っています。200分以上独立して動作し、「リフレクションループ」を通じて自己テストとデバッグを行い、他のエージェントや自動化を構築します。実際のユーザーは、15万ドルのベンダー見積もりに対して400ドルのERPシステムを構築したことや、生産性が85%向上したことを報告しています。Masadは、AIが誰でもオンデマンドで複雑なソフトウェアを生成できるようにすることで、「すべてのアプリケーションソフトウェアの価値が最終的に『ゼロになる』」と予測しており、企業の性質が専門的な役割からAIエージェントによって強化された「ジェネラリストな問題解決者」へと変革されると見ています。

暗号通貨の役割について、 MasadはBitcoin Lightning Networkの統合を強く提唱しており、プログラム可能なマネーを不可欠なプラットフォームプリミティブと見なしています。彼は次のように述べています。「例えばBitcoin Lightningは、価値をソフトウェアサプライチェーンに直接組み込み、人間同士でも機械同士でも取引を容易にします。ソフトウェアにおける取引コストとオーバーヘッドを削減することは、開発者を単発のタスクのためにコードベースに引き込むことをはるかに容易にするでしょう。」彼のWeb3を「読み書き・所有・リミックス」と捉えるビジョンと、ネイティブなReplit通貨をプラットフォームプリミティブとして検討する計画は、AIエージェントインフラと暗号経済的協調の深い統合を示しています。

Masadは、Vitalik Buterin、Brian Armstrong、Balaji Srinivasanらと共に、Token2049直後のシンガポールで開催されたネットワーク国家会議(2025年10月3日)で講演し、暗号通貨とAIコミュニティの橋渡し役としての地位を確立しました。彼の予測:「AIによる拡張によって『誰もが開発者』になることで、『一人でユニコーン企業』が一般的になり、マクロ経済が根本的に変化し、『10億人の開発者』の未来、すなわち世界中で10億人がソフトウェアを創造する未来が可能になるでしょう。」

Jordi Alexander:AI時代の通貨としての判断力

Selini Capital(AUM10億ドル以上)の創設者兼CIOであり、Mantle NetworkのチーフアルケミストであるJordi Alexanderは、プロのポーカー(2024年にPhil Iveyを破りWSOPブレスレットを獲得)で培ったゲーム理論の専門知識を、市場分析と自律資本投資に活かしています。彼の論文は「判断力こそ通貨」という考えを中心に据えています。これは、AIが実行と分析を処理するとしても、機械には再現できない複雑な情報を統合し、最適な意思決定を行うという人間独自の能力を指します。

Alexanderの自律資本フレームワーク は、「今世紀の2つの主要産業:インテリジェントな基盤モジュール(AIなど)の構築と、社会的協調のための基盤レイヤー(暗号技術など)の構築」の融合を強調しています。彼は、実際のインフレ率(公式レートに対して年間約15%)と来るべき富の再分配、そして経済的に生産的であり続ける必要性から、従来の退職計画は時代遅れであると主張しています。「50歳未満の人々にとって、『退職』という概念は存在しません。」彼の挑発的な論文:「今後10年間で、10万ドルを持つことと1000万ドルを持つことの差はそれほど大きくないかもしれません。重要なのは、富の創造が劇的に加速する『100倍の瞬間』に向けて、今後数年間をいかに効果的に過ごすかです。」

彼の投資ポートフォリオは、AIと暗号通貨の融合に対する確信を示しています。SeliniはTrueNorth(2025年6月に100万ドルのシード投資)を支援しました。これは「暗号通貨初の自律型AI搭載発見エンジン」と説明されており、「エージェントワークフロー」と強化学習をパーソナライズされた投資に利用しています。同社史上最大の投資はWorldcoin(2024年5月)に行われ、「来るべきAIの世界における全く新しい技術インフラとソリューションの明白な必要性」を認識しました。Seliniの合計46〜60件の投資には、Ether.fi(リキッドステーキング)、RedStone(オラクル)、そして集中型および分散型取引所全体でのマーケットメイキングが含まれており、自律システムに適用された体系的な取引の専門知識を示しています。

Token2049への参加 には、ロンドン(2022年11月)での「最新サイクルのワイルドな実験に関する考察」の議論、ドバイ(2025年5月)でのリキッドベンチャー投資とミームコインに関する議論、そしてシンガポールでのマクロと暗号通貨の相互作用の分析が含まれます。彼のSteady Ladsポッドキャスト(2025年までに92エピソード以上)では、Vitalik Buterinが暗号通貨とAIの交差点、量子リスク、イーサリアムの進化について議論しました。Alexanderは、「サバイバルモード」から脱却して高次の思考にアクセスし、常にスキルアップし、経験を通じて判断力を構築することが、AIエージェントが普及する時代に経済的関連性を維持するために不可欠であると強調しています。

重要な視点: 「判断力とは、複雑な情報を統合し、最適な意思決定を行う能力であり、これこそが機械の苦手とするところです。」彼のビジョンでは、自律資本はAIが機械の速度で実行し、人間が戦略的判断を提供するシステムであり、暗号通貨が協調レイヤーを可能にします。特にビットコインについては、「真のマクロ的意義を持つ唯一のデジタル資産」であり、機関投資家の参入により5年間で5〜10倍の成長が見込まれると予測し、脆弱な物理的資産に対する優れた財産権保護手段と見なしています。

Alexander Pack:分散型AI経済のためのインフラ

Hack VC(AUM約5億9000万ドルを管理)の共同創設者兼マネージングパートナーであるAlexander Packは、Web3 AIを「今日の投資における最大のアルファ源」と表現し、同社の最新ファンドの41%をAIと暗号通貨の融合に割り当てています。これは主要な暗号通貨VCの中で最も高い集中度です。彼の論文:「AIの急速な進化は莫大な効率性をもたらしていますが、同時に中央集権化も進めています。暗号通貨とAIの交差点は、この分野で最大の投資機会であり、オープンで分散型の代替手段を提供します。」

Packの投資フレームワーク は、自律資本を4つのインフラレイヤーが必要であると捉えています。データ(Grassへの投資—FDV25億ドル)、計算(io.net—FDV22億ドル)、実行(Movement Labs—FDV79億ドル、EigenLayer—FDV49億ドル)、そしてセキュリティ(再ステーキングによる共有セキュリティ)です。Grassへの投資はこの論文を実証しています。250万台以上のデバイスからなる分散型ネットワークがAIトレーニングデータのためにウェブスクレイピングを行い、すでに毎日45TB(ChatGPT 3.5のトレーニングデータセットに相当)を収集しています。Packは次のように明確に述べました。「アルゴリズム+データ+計算=知能。これは、データと計算が世界で最も重要な資産の2つになる可能性が高く、それらへのアクセスが非常に重要になることを意味します。暗号通貨は、世界中の新しいデジタルリソースへのアクセスを提供し、これまで資産ではなかったものをトークンを通じて資産化することに尽きます。」

Hack VCの2024年の実績はこのアプローチを裏付けています。 最も活発なリード暗号通貨VCとして2位にランクインし、数十件の取引に1億2800万ドルを投入し、2024年だけで12件の暗号通貨×AI投資から4つのユニコーン企業を生み出しました。主要なトークンローンチには、Movement Labs(79億ドル)、EigenLayer(49億ドル)、Grass(25億ドル)、io.net(22億ドル)、Morpho(24億ドル)、Kamino(10億ドル)、AltLayer(9億ドル)が含まれます。同社は、機関投資家向けのネットワーク参加、ステーキング、定量的研究、オープンソース貢献のための社内プラットフォームであるHack.Labsを運営しており、元Jane Streetのシニアトレーダーを雇用しています。

2024年3月のUnchainedポッドキャスト出演で、PackはAIエージェントを「ポートフォリオを自律的に管理し、取引を実行し、利回りを最適化できる」資本配分者として特定し、DeFi統合によって「暗号通貨ウォレットを持つAIエージェントが分散型金融市場に参加する」ことを可能にすると述べました。彼は、主流の採用にはスケーラビリティ、セキュリティ、ユーザーエクスペリエンスにおいて大幅な改善が必要であり、「暗号通貨インフラはまだ非常に初期段階にある」と強調しました。Token2049シンガポール2025 では、Packがスピーカーとして(10月1〜2日)確認され、25,000人以上の参加者が集まるアジア最大の暗号通貨イベントで、暗号通貨とAIに関する専門家パネルディスカッションに参加しました。

自律資本フレームワーク (Hack VCの投資と出版物から統合)は、5つのレイヤーを構想しています。知能(AIモデル)、データ&計算インフラ(Grass、io.net)、実行&検証(Movement、EigenLayer)、金融プリミティブ(Morpho、Kamino)、そして自律エージェント(ポートフォリオ管理、取引、マーケットメイキング)です。Packの重要な洞察:分散型で透明なシステムは、2022年の弱気市場において集中型金融よりも回復力があることが証明されました(Celsius、BlockFi、FTXが崩壊した一方でDeFiプロトコルは生き残った)。これは、ブロックチェーンが不透明な集中型代替手段よりもAI駆動の資本配分に適していることを示唆しています。

Irene Wu:自律システムのためのオムニチェーンインフラ

Bain Capital Cryptoのベンチャーパートナーであり、元LayerZero Labsの戦略責任者であるIrene Wuは、「オムニチェーン」という用語をメッセージングによるクロスチェーン相互運用性を説明するために造語したことで、自律資本インフラに独自の技術的専門知識をもたらしています。彼女の投資ポートフォリオは、AIと暗号通貨の融合に戦略的に位置づけられています。Cursor(AIファーストのコードエディタ)、Chaos Labs(人工金融知能)、Ostium(レバレッジ取引プラットフォーム)、Econia(DeFiインフラ)は、垂直統合されたAIアプリケーションと自律型金融システムへの焦点を実証しています。

WuのLayerZeroへの貢献 は、自律型エージェントがブロックチェーン間でシームレスに動作できるようにする、基盤となるクロスチェーンインフラを確立しました。彼女は、不変性(Immutability)、パーミッションレス性(Permissionlessness)、検閲耐性(Censorship Resistance)という3つのコア設計原則を提唱し、OFT(Omnichain Fungible Token)およびONFT(Omnichain Non-Fungible Token)標準を開発しました。彼女が主導したMagic Edenとのパートナーシップは、「Gas Station」を生み出し、クロスチェーンNFT購入のためのガスレストークン変換をシームレスに可能にし、分散型システムにおける摩擦の実用的な削減を実証しました。LayerZeroを「ブロックチェーンのためのTCP/IP」と位置づけたことは、エージェント経済を支える普遍的な相互運用性プロトコルのビジョンを捉えています。

Wuの一貫したWeb3体験からの摩擦除去の強調は、自律資本インフラを直接サポートしています。彼女はチェーン抽象化—ユーザーはどのブロックチェーンを使用しているかを理解する必要がない—を提唱し、「ブロックチェーンの複雑さを正当化するために10倍優れた体験」を推進しています。彼女の暗号通貨の研究方法(「Twitterで誰が最も不平を言っているかを見る」)に対する批判は、Web2スタイルの適切なユーザー調査インタビューと比較して、主流の採用に不可欠なユーザー中心設計原則へのコミットメントを反映しています。

彼女のポートフォリオから読み取れる投資論文の指標 は、AI拡張開発(CursorはAIネイティブコーディングを可能にする)、自律型金融知能(Chaos LabsはAIをDeFiリスク管理に応用)、取引インフラ(Ostiumはレバレッジ取引を提供)、DeFiプリミティブ(Econiaは基盤プロトコルを構築)に焦点を当てていることを示しています。このパターンは、自律資本の要件と強く一致しています。AIエージェントは、効果的に機能するために開発ツール、金融知能機能、取引実行インフラ、および基盤となるDeFiプロトコルを必要とします。

利用可能な情報源(ソーシャルメディアへのアクセスが制限されている)では特定のToken2049への参加は確認されていませんが、WuのConsensus 2023およびProof of Talk Summitでの講演は、ブロックチェーンインフラと開発者ツールにおける思想的リーダーシップを示しています。彼女の技術的背景(ハーバード大学コンピュータサイエンス、J.P. Morganでのソフトウェアエンジニアリング、ハーバードブロックチェーンクラブの共同創設者)とLayerZeroおよびBain Capital Cryptoでの戦略的役割は、分散型環境で動作するAIエージェントのインフラ要件に関する重要な声として彼女を位置づけています。

理論的基盤:AIと暗号通貨が自律資本を可能にする理由

自律資本を可能にする融合は、根本的な協調問題を解決する3つの技術的柱に基づいています。第一に、暗号通貨は従来の銀行システムでは不可能な金融の自律性を提供します。 AIエージェントは、人間の承認なしに暗号鍵ペアを生成して「独自の銀行口座を開設」でき、パーミッションレスな24時間365日のグローバル決済と、複雑な自動操作のためのプログラム可能なマネーにアクセスできます。従来の金融は、能力にかかわらず非人間的エンティティを断固として排除します。暗号通貨は、ソフトウェアを正当な経済主体として扱う最初の金融インフラです。

第二に、トラストレスな計算基盤は検証可能な自律実行を可能にします。 ブロックチェーンのスマートコントラクトは、単一のオペレーターが結果を制御しないことを保証する分散型検証を備えたチューリング完全なグローバルコンピュータを提供し、改ざん防止された実行を保証します。Intel SGXのようなトラステッド実行環境(TEE)は、ホストシステムからコードを隔離するハードウェアベースのセキュアエンクレーブを提供し、秘密鍵保護を伴う機密計算を可能にします。これはエージェントにとって重要であり、「クラウド管理者も悪意のあるノードオペレーターも『瓶の中に手を伸ばす』ことはできません」。io.netやPhala Networkのような分散型物理インフラネットワーク(DePIN)は、TEEとクラウドソーシングされたハードウェアを組み合わせて、パーミッションレスで分散されたAI計算を生成します。

第三に、ブロックチェーンベースのIDと評判システムは、エージェントに永続的なペルソナを与えます。 自己主権型ID(SSI)と分散型識別子(DID)は、エージェントが独自の「デジタルパスポート」を保持できるようにし、検証可能な資格情報がスキルを証明し、オンチェーンの評判追跡が不変の履歴を作成します。提案されている「Know Your Agent」(KYA)プロトコルは、KYCフレームワークを機械のIDに適応させ、Model Context Protocol(MCP)、Agent Communication Protocol(ACP)、Agent-to-Agent Protocol(A2A)、Agent Network Protocol(ANP)のような新しい標準はエージェントの相互運用性を可能にします。

経済的影響は甚大です。 Nenad Tomasevを含む研究者による「Virtual Agent Economies」論文のような学術的フレームワークは、出現するAIエージェント経済システムを起源(創発的か意図的か)と分離性(人間経済から透過的か不透過的か)に沿って分析することを提案しています。現在の軌跡:広大で透過性の高いAIエージェント経済の自発的な出現であり、前例のない協調の機会がある一方で、体系的な経済不安定性や不平等の悪化を含む重大なリスクを伴います。エージェントが効用関数を持つ合理的な経済主体として機能し、マルチエージェント環境で戦略的決定を下すにつれて、ゲーム理論的考察—エージェント間の交渉におけるナッシュ均衡、公平なリソース配分のためのメカニズム設計、リソースのためのオークションメカニズム—が重要になります。

市場は爆発的な採用を示しています。 AIエージェントトークンは2024年12月までに100億ドル以上の時価総額に達し、2024年後半に322%急増しました。Virtuals ProtocolはBase(Ethereum L2)で17,000以上のトークン化されたAIエージェントを立ち上げ、ai16zはSolanaで23億ドルの時価総額を持つ自律型ベンチャーファンドを運営しています。各エージェントは、部分所有権、ステーキングによる収益分配、コミュニティガバナンスを可能にするトークンを発行し、AIエージェントのパフォーマンスのための流動的な市場を創出しています。このトークン化モデルは、自律型エージェントの「共同所有」を可能にし、トークン保有者はエージェント活動への経済的エクスポージャーを獲得し、エージェントは自律的に展開する資本を獲得します。

哲学的には、自律資本はエージェンシー、所有権、制御に関する根本的な仮定に挑戦します。 従来の代理には、制御/自由の条件(強制がないこと)、認識論的条件(行動の理解)、道徳的推論能力、安定した個人的同一性が必要です。LLMベースのエージェントは疑問を提起します:彼らは本当に「意図」しているのか、それとも単にパターンマッチングしているだけなのか?確率的システムは責任を負うことができるのか?研究参加者は、エージェントが「責任や意図を持たない確率的モデルであり、人間プレイヤーのように『罰せられたり』『報酬を与えられたり』することはできない」と指摘し、「痛みを感じる体を持たない」ため、従来の抑止メカニズムは失敗すると述べています。「トラストレスのパラドックス」が出現します。トラストレスなインフラにエージェントを展開することは、誤りを犯しやすい人間を信頼することを避けますが、AIエージェント自体は潜在的に信頼できないままであり(幻覚、バイアス、操作)、AIが誤動作した場合にトラストレスな基盤は介入を妨げます。

Vitalik Buterinはこの緊張を指摘し、「コードは法律」(決定論的スマートコントラクト)がLLMの幻覚(確率的出力)と衝突すると述べました。研究によると、分散型エージェントには4つの「無効性」があります。領域管轄権の無効性(国境のない運用が単一国家の法律を無効にする)、技術的無効性(アーキテクチャが外部制御に抵抗する)、執行の無効性(展開者を制裁した後、エージェントを停止できない)、説明責任の無効性(エージェントは法的法人格を持たず、訴えられたり起訴されたりできない)です。Truth Terminalの人間受託者を持つ慈善信託のような現在の実験的アプローチは、開発者の責任を運用制御に結びつけながら、所有権をエージェントの自律性から分離しようとしています。

主要な思想家からの予測は、変革的なシナリオに収束しています。 Balaji Srinivasanは「AIはデジタルの豊かさ、暗号通貨はデジタルの希少性」と主張し、AIがコンテンツを創造し、暗号通貨が価値を調整し証明する補完的な力であり、暗号通貨が「AIディープフェイクの世界における人間の真正性の証明」を可能にすると述べています。Sam Altmanの、AIと暗号通貨が「無限の豊かさと明確な希少性」を表すという観察は、それらの共生関係を捉えています。Ali Yahya(a16z)はこの緊張を統合し、「AIは集中化し、暗号通貨は分散化する」と述べ、分散化の利益を維持しながら自律型エージェントのリスクを管理する堅牢なガバナンスの必要性を示唆しています。a16zの「10億ドル規模の自律エンティティ」のビジョン—TEEを介してパーミッションレスノード上で動作し、フォロワーを構築し、収入を生成し、人間の制御なしに資産を管理する分散型チャットボット—は、単一の制御点がなく、コンセンサスプロトコルがシステムを調整する論理的な終着点を表しています。

技術アーキテクチャ:自律資本は実際にどのように機能するのか

自律資本の実装には、計算能力と検証可能性のバランスを取るハイブリッドアーキテクチャを通じて、AIモデルとブロックチェーンプロトコルの洗練された統合が必要です。標準的なアプローチは3層アーキテクチャを使用します。オラクルネットワーク(Chainlinkは毎日50億以上のデータポイントを処理)を介してブロックチェーンおよび外部データを収集する知覚層、ゼロ知識証明によるオフチェーンAIモデル推論を実行する推論層、そしてスマートコントラクトを介してオンチェーンでトランザクションを実行する行動層です。このハイブリッド設計は、オンチェーンでの重いAI計算を妨げるガス制限などのブロックチェーンの根本的な制約に対処しつつ、トラストレスな実行保証を維持します。

Gauntletの実装は、生産準備が整った自律資本を大規模に実証しています。 このプラットフォームの技術アーキテクチャには、実際のスマートコントラクトコードに対して毎日何千ものエージェントベースモデルを実行する暗号経済シミュレーションエンジン、12以上のレイヤー1およびレイヤー2ブロックチェーン全体で毎日6回更新される4億以上のデータポイントでトレーニングされたMLモデルを使用する定量的リスクモデリング、そして担保比率、金利、清算しきい値、手数料構造を動的に調整する自動パラメータ最適化が含まれます。Morpho Blue上のMetaMorphoボールトシステムは、外部化されたリスク管理を備えたパーミッションレスなボールト作成のためのエレガントなインフラを提供し、GauntletのWETH PrimeおよびUSDC Primeボールトがリキッドステーキング再帰的利回り市場全体でリスク調整後の利回りを最適化できるようにします。ベーシス取引ボールトは、市場状況が有利なスプレッドを生み出す場合、LSTスポット資産と永久資金調達レートを最大2倍の動的レバレッジで組み合わせ、実際の資本を管理する洗練された自律戦略を実証しています。

ゼロ知識機械学習(zkML)は、トラストレスなAI検証を可能にします。 この技術は、ZK-SNARKsおよびZK-STARKs証明システムを使用して、モデルの重みや入力データを公開することなくMLモデルの実行を証明します。Modulus Labsは、モデルサイズ全体で証明システムをベンチマークし、plonky2を使用して約50秒で最大1800万パラメータのモデルが証明可能であることを実証しました。EZKLは、ONNXモデルをZK回路に変換するオープンソースフレームワークを提供し、OpenGradientが分散型ML推論に使用しています。RiscZeroは、DeFiプロトコルと統合された検証可能なML計算を可能にする汎用ゼロ知識VMを提供します。アーキテクチャの流れは、入力データ → MLモデル(オフチェーン) → 出力 → ZK証明ジェネレーター → 証明 → スマートコントラクト検証者 → 承認/拒否です。ユースケースには、検証可能な利回り戦略(Giza + Yearnのコラボレーション)、オンチェーン信用スコアリング、機密データに対するプライベートモデル推論、モデルの真正性の証明などがあります。

自律資本を可能にするスマートコントラクト構造 には、カスタマイズ可能なリスクパラメータを備えたMorphoのパーミッションレスボールト展開システム、プログラム可能なボールトルール用のAeraのV3プロトコル、そしてサブ秒の価格フィードを提供するPyth Networkオラクルとの統合が含まれます。技術実装では、Web3インターフェース(ethers.js、web3.py)を使用してAIエージェントをRPCプロバイダー経由でブロックチェーンに接続し、参加者間で秘密鍵を分割する暗号的に保護されたマルチパーティ計算(MPC)ウォレットを使用して自動トランザクション署名を行います。アカウント抽象化(ERC-4337)は、プログラム可能なアカウントロジックを可能にし、AIエージェントが完全なウォレット制御なしに特定の行動を実行できる洗練されたパーミッションシステムを可能にします。

Fetch.aiのuAgentsフレームワークは、Almanacスマートコントラクトに登録された自律型経済エージェントを可能にするPythonライブラリを使用した実用的なエージェント開発を実証しています。エージェントは、暗号的に保護されたメッセージ、自動ブロックチェーン登録、および市場分析、シグナル生成、取引実行を処理する間隔ベースの実行で動作します。実装例では、オラクル価格を取得し、MLモデル推論を実行し、信頼しきい値が満たされたときにオンチェーン取引を実行する市場分析エージェントと、複雑な戦略のためのマルチエージェント協調を可能にするエージェント間通信が示されています。

セキュリティ上の考慮事項は極めて重要です。 再入攻撃、算術オーバーフロー/アンダーフロー、アクセス制御の問題、オラクル操作を含むスマートコントラクトの脆弱性は、2017年以来117億4000万ドル以上の損失を引き起こし、2024年だけでも15億ドルが失われました。AIエージェント固有の脅威には、プロンプトインジェクション(エージェントの動作を操作する悪意のある入力)、オラクル操作(侵害されたデータフィードが意思決定を誤導する)、コンテキスト操作(外部入力を悪用する敵対的攻撃)、資格情報漏洩(公開されたAPIキーまたは秘密鍵)が含まれます。ユニバーシティ・カレッジ・ロンドンとシドニー大学の研究は、A1システム—AIエージェントがスマートコントラクトの脆弱性を自律的に発見し悪用するシステム—が、36の実際の脆弱なコントラクトに対して63%の成功率で、1回の悪用あたり0.01ドルから3.59ドルのコストで最大859万ドルを抽出できることを実証し、AIエージェントが経済的に防御よりも悪用を好むことを証明しました。

セキュリティのベストプラクティスには、スマートコントラクトの形式的検証、広範なテストネットテスト、第三者監査(Cantina、Trail of Bits)、バグバウンティプログラム、サーキットブレーカーによるリアルタイム監視、重要な操作に対するタイムロック、大規模トランザクションに対するマルチシグネチャ要件、トラステッド実行環境(Phala Network)、システムコールフィルタリングによるサンドボックス化されたコード実行、ネットワーク制限、レート制限が含まれます。攻撃者は6,000ドルの悪用価値で利益を達成できるのに対し、防御者は損益分岐点に達するために60,000ドルを必要とするため、攻撃に有利な根本的な経済的非対称性が存在するため、防御態勢は偏執的レベルで厳密でなければなりません。

スケーラビリティとインフラ要件 はボトルネックを生み出します。イーサリアムのブロックあたり約3000万ガス、12〜15秒のブロック時間、混雑時の高額な手数料、15〜30 TPSのスループットでは、MLモデル推論を直接サポートできません。解決策には、レイヤー2ネットワーク(Arbitrum/Optimismロールアップによるコスト10〜100倍削減、ネイティブエージェントサポートを備えたBase、Polygonサイドチェーン)、オンチェーン検証を伴うオフチェーン計算、およびハイブリッドアーキテクチャが含まれます。インフラ要件には、RPCノード(Alchemy、Infura、NOWNodes)、オラクルネットワーク(Chainlink、Pyth、API3)、分散型ストレージ(モデルの重み用のIPFS)、ML推論用のGPUクラスター、および低遅延と高信頼性を備えた24時間365日の監視が含まれます。運用コストは、RPCコール(月額0〜500ドル以上)、計算(GPUインスタンスで月額100〜10,000ドル以上)、非常に変動するガス料金(複雑なトランザクションあたり1〜1,000ドル以上)に及びます。

現在のパフォーマンスベンチマークでは、強力なAWSインスタンスで1800万パラメータモデルを50秒でzkML証明し、Internet Computer Protocolはオンチェーン画像分類のためにCyclotron最適化で10倍以上の改善を達成し、BittensorはMLモデルを評価する80以上のアクティブなサブネットを運用しています。将来の開発には、ZK証明生成のための特殊なASICチップによるハードウェアアクセラレーション、ICPのオンチェーンML用GPUサブネット、改善されたアカウント抽象化、クロスチェーンメッセージングプロトコル(LayerZero、Wormhole)、およびエージェント相互運用性のためのModel Context Protocolのような新しい標準が含まれます。技術的成熟度は急速に進んでおり、Gauntletのような生産システムは数十億ドルのTVLの実現可能性を証明していますが、大規模言語モデルのサイズ、zkMLの遅延、頻繁な操作のガスコストに関する制限は残っています。

実世界での実装:今日実際に機能しているもの

SingularityDAOは、AI管理ポートフォリオのパフォーマンスを定量的な結果で実証しています。 このプラットフォームのDynaSets—AIによって自動的にリバランスされる動的に管理された資産バスケット—は、適応型マルチ戦略マーケットメイキングを通じて2ヶ月で25%のROI(2022年10月〜11月)を達成し、BTC+ETHポートフォリオの週次および隔週戦略評価で20%のROIを達成しました。加重ファンド配分は、固定配分よりも高いリターンをもたらしました。技術アーキテクチャには、7日間の過去市場データに基づくバックテスト、ソーシャルメディアのセンチメントに基づく予測戦略、流動性提供のためのアルゴリズム取引エージェント、およびポートフォリオ計画、バランス調整、取引を含むアクティブなポートフォリオ管理が含まれます。リスクエンジンは最適な意思決定のために多数のリスクを評価し、ダイナミックアセットマネージャーがAIベースの自動リバランスを実行します。現在、3つのアクティブなDynaSets(dynBTC、dynETH、dynDYDX)がライブ資本を管理し、透明なオンチェーンパフォーマンスを提供しています。

Virtuals Protocol (時価総額18億ドル)は、2025年初頭現在、プラットフォーム上で17,000以上のエージェントがローンチされ、AIエージェントのトークン化をリードしています。各エージェントは10億トークンが発行され、チャットインタラクションからの「推論手数料」を通じて収益を生成し、トークン保有者にガバナンス権を付与します。注目すべきエージェントには、時価総額6900万ドルのLuna(LUNA)—仮想K-POPスター兼ライブストリーマーでTikTokフォロワー100万人を抱え、エンターテイメントを通じて収益を生成—、AIXBT(0.21ドル)—AI駆動の市場インサイトを提供し、Twitterフォロワー24万人以上、ステーキングメカニズムを持つ—、VaderAI(VADER)(0.05ドル)—AI収益化ツールとDAOガバナンスを提供する—などがあります。GAME Framework(Generative Autonomous Multimodal Entities)が技術的基盤を提供し、Agent Commerce Protocolは、承認された貢献の履歴台帳を維持するImmutable Contribution Vault(ICV)を備えたエージェント間商取引のためのオープン標準を作成します。Illuviumとのパートナーシップは、AIエージェントをゲームエコシステムに統合し、セキュリティ監査では7つの問題(中程度3件、低程度4件)に対処しました。

ai16zは自律型ベンチャーファンドとして機能し、 Solana上で23億ドルの時価総額を持ち、ELIZAフレームワーク—数千の展開を持つAIエージェントのための最も広く採用されているオープンソースモジュラーアーキテクチャ—を構築しています。このプラットフォームは、プラグインエコシステムがネットワーク効果を促進する分散型で協調的な開発を可能にします。より多くの開発者がより多くのプラグインを作成し、より多くの開発者を引き付けます。信頼市場システムは自律型エージェントの説明責任に対処し、AIエージェント専用のブロックチェーンの計画は長期的なインフラビジョンを示しています。このファンドは、定義された有効期限(2025年10月)と2200万ドル以上のロックされた資金で運用されており、時間制限のある自律資本管理を実証しています。

Gauntletの生産インフラ は、継続的なシミュレーションと最適化を通じて、10億ドル以上のDeFiプロトコルTVLを管理しています。このプラットフォームは、100以上のDeFiプロトコルをリアルタイムのリスク評価で監視し、ストレス下でのプロトコル動作のためのエージェントベースシミュレーションを実施し、担保比率、清算しきい値、金利曲線、手数料構造、インセンティブプログラムのための動的なパラメータ調整を提供します。主要なプロトコルパートナーシップには、Aave(ガバナンスの意見の相違により2024年に終了した4年間の契約)、Compound(自動化されたガバナンス実装の先駆者)、Uniswap(流動性とインセンティブの最適化)、Morpho(現在のボールトキュレーションパートナーシップ)、Seamless Protocol(アクティブなリスク監視)が含まれます。ボールトキュレーションフレームワークには、新たな利回り機会を監視する市場分析、流動性とスマートコントラクトリスクを評価するリスク評価、最適な配分を作成する戦略設計、MetaMorphoボールトへの自動実行、およびリアルタイムリバランスによる継続的な最適化が含まれます。パフォーマンス指標は、プラットフォームの更新頻度(毎日6回)、データ量(12以上のブロックチェーン全体で4億以上のポイント)、および方法論の洗練度(広範な市場低迷を捉えるValue-at-Risk、LSTの乖離やステーブルコインのデペッグのような相関関係の破綻リスク、テールリスクの定量化)を示しています。

自律型取引ボットは、結果はまちまちですが改善が見られます。 Gunbotユーザーは、2月26日に496米ドルで開始し、dYdXで20ペアを運用して1,358米ドル(+174%)に成長したと報告しており、自己ホスト型実行により第三者リスクを排除しています。Cryptohopperユーザーは、AI搭載の戦略最適化とソーシャルトレーディング機能を備えた24時間365日のクラウドベース自動取引を通じて、不安定な市場で年間35%のリターンを達成しました。しかし、全体的な統計では、ボット顧客の75〜89%が資金を失い、利益を得ているのはわずか11〜25%であることが明らかになっており、過剰最適化(過去データへのカーブフィッティング)、市場のボラティリティとブラックスワンイベント、技術的欠陥(API障害、接続問題)、不適切なユーザー設定によるリスクを浮き彫りにしています。主要な失敗には、Banana Gunの悪用(2024年9月、オラクル脆弱性による563 ETH/190万ドルの損失)、Genesis債権者のソーシャルエンジニアリング攻撃(2024年8月、2億4300万ドルの損失)、Dogwifhatのスリッページ事件(2024年1月、薄い注文板での570万ドルの損失)が含まれます。

Fetch.aiは自律型経済エージェントを可能にし、 2024年現在、uAgentsフレームワークを使用して30,000以上のエージェントがアクティブに活動しています。アプリケーションには、交通機関予約の自動化、スマートエネルギー取引(オフピーク電力の購入、余剰電力の再販)、エージェントベースの交渉によるサプライチェーン最適化、Bosch(Web3モビリティユースケース)およびYoti(エージェントの身元確認)とのパートナーシップが含まれます。このプラットフォームは2023年に4000万ドルを調達し、2030年までに705億3000万ドル(CAGR 42.8%)に達すると予測される自律型AI市場に位置づけられています。2023年に発表されたDeFiアプリケーションには、流動性プールを廃止し、エージェントベースのマッチメイキングを優先するDEX向けのエージェントベース取引ツールが含まれ、ハニーポットやラグプルのリスクを排除した直接的なピアツーピア取引を可能にします。

AIコンポーネントを持つDAOの実装 は、ガバナンスの進化を示しています。AI DAOは、XRP EVMサイドチェーン上でNexus EVMベースのDAO管理を運用し、AI投票不正検出によって公正な意思決定を保証し、AIが意思決定を支援しつつ人間が監視を維持するガバナンス支援、およびエージェントがウォレットを管理しAxelarブロックチェーン間で取引できるようにする分散型MCPノードネットワークを備えたAIエージェントローンチパッドを提供します。Aragonのフレームワークは、6段階のAI x DAO統合を構想しています。AIボットとアシスタント(現在)、提案に投票するエッジAI(近未来)、財務を管理するセンターAI(中期)、DAO間で群知能を生成するAIコネクタ(中期)、公共財としてのAIを統治するDAO(長期)、そしてオンチェーン財務所有権を持つAIがDAOになる(未来)です。技術実装では、Aragon OSxモジュラープラグインシステムを使用し、AIがドルしきい値以下で取引できる一方で、それを超えると投票をトリガーするパーミッション管理、およびプラグインパーミッションの取り消し/付与によってAI取引戦略を切り替える機能を提供します。

市場データは急速な採用と規模を確認しています。 DeFAI市場は2025年1月に約10億ドルの時価総額に達し、AIエージェント市場は170億ドルにピークを迎えました。DeFiのTVL(Total Value Locked)は520億ドル(機関投資家TVL:420億ドル)であり、MetaMaskは3000万人のユーザーにサービスを提供し、月間アクティブユーザー数は2100万人です。ブロックチェーンへの支出は2024年に190億ドルに達し、2026年までに1兆760億ドルに達すると予測されています。世界のDeFi市場は204億8000万〜323億6000万ドル(2024年〜2025年)から、2030年までに2310億〜4410億ドル、2034年までに1兆5580億ドルに成長すると予測されており、これは40〜54%のCAGRに相当します。プラットフォーム固有の指標には、Virtuals Protocolの17,000以上のAIエージェントローンチ、Fetch.aiのBurrito統合による40万人以上のユーザーオンボーディング、およびSMARDのような自律型取引ボットが2022年初頭からビットコインを200%以上、イーサリアムを300%以上上回る収益性を示していることが含まれます。

成功と失敗から得られた教訓は、何が機能するかを明確にします。 成功した実装には共通のパターンがあります。専門化されたエージェントは汎用エージェントよりも優れている(Griffainのマルチエージェントコラボレーションは単一AIよりも信頼性が高い)、予期せぬイベントには人間が介入する監視が不可欠である、自己保管設計はカウンターパーティリスクを排除する、複数の市場体制にわたる包括的なバックテストは過剰最適化を防ぐ、そしてポジションサイジングルールとストップロスメカニズムを備えた堅牢なリスク管理は壊滅的な損失を防ぎます。失敗は、透明性を欠くブラックボックスAIが信頼を築けないこと、純粋な自律性が現在のところ市場の複雑さやブラックスワンイベントに対処できないこと、セキュリティを無視すると悪用につながること、「保証されたリターン」という非現実的な約束が詐欺的スキームを示すことを示しています。この技術は、AIが速度と実行を処理し、人間が戦略と判断を提供する人間とAIの共生として最もよく機能します。

広範なエコシステム:プレイヤー、競争、課題

自律資本エコシステムは、プロファイルされた5人の思想的リーダーを超えて急速に拡大し、主要なプラットフォーム、機関投資家、競合する哲学的アプローチ、そして洗練された規制上の課題を包含しています。Virtuals Protocolとai16zは、「大聖堂とバザール」という哲学的対立を代表しています。 Virtuals(時価総額18億ドル)は、構造化されたガバナンスと品質管理されたプロフェッショナルなマーケットプレイスを備えた集中型で体系的なアプローチを取り、EtherMageによって共同設立され、透明な帰属のためにImmutable Contribution Vaultsを利用しています。ai16z(時価総額23億ドル)は、オープンソースのELIZAフレームワークを通じて分散型で協調的な開発を受け入れ、迅速な実験を可能にし、Shaw(独学のプログラマー)が主導して、説明責任のための信頼市場を備えたAIエージェント専用のブロックチェーンを構築しています。この哲学的緊張—精度対イノベーション、制御対実験—は、歴史的なソフトウェア開発の議論を反映しており、エコシステムが成熟するにつれておそらく持続するでしょう。

主要なプロトコルとインフラプロバイダー には、開発者がAIモデルを収益化できる分散型AIマーケットプレイスを運営するSingularityNET(Numeraiヘッジファンドモデル)、交通機関やサービスの合理化のための自律型エージェントを展開し、AIエージェントスタートアップ向けに1000万ドルのアクセラレーターを提供するFetch.ai、オフチェーンAIエージェントをオンチェーンプロトコルに橋渡ししてパーミッションレスなアプリケーションマーケットプレイスを作成するAutonolas、自動化された流動性管理と取引実行を備えたWeb3用のAI仮想マシン(AIVM)を開発するChainGPT、そしてスマートコントラクトがオンチェーンでAIモデル出力をアクセスおよび検証できるAI統合アプリケーション用のレイヤー1ブロックチェーンを構築し、Messari、Venice、Hyperlaneなどのパートナーシップを持つWarden Protocolが含まれます。

機関投資家の採用は、慎重ながらも加速しています。 Galaxy Digitalは、暗号通貨マイニングからAIインフラに転換し、1億7500万ドルのベンチャーファンドと、CoreWeaveとの15年間の契約から200MWのデータセンター容量を提供することで45億ドルの収益を見込んでいます。主要な金融機関はエージェントAIを実験しています。JPMorgan ChaseのLAW(Legal Agentic Workflows)は92.9%の精度を達成し、BNYは自律的なコーディングと支払い検証を実装し、Mastercard、PayPal、Visaはエージェントコマースイニシアチブを推進しています。Messari、CB Insights(1,400以上の技術市場を追跡)、Deloitte、McKinsey、S&P Global Ratingsなどの調査分析会社は、自律型エージェント、AIと暗号通貨の交差点、企業採用、リスク評価に関する重要なエコシステム情報を提供しています。

競合するビジョンは複数の側面で現れています。 ビジネスモデルのバリエーションには、透明なコミュニティ投票を備えたトークンベースのDAO(MakerDAO、MolochDAO)があり、トークン集中(保有者の1%未満が投票権の90%を制御)という課題に直面しています。ブロックチェーンの透明性を備えた企業構造に似た株式ベースのDAO、そしてトークンの流動性と所有権を組み合わせてコミュニティエンゲージメントと投資家リターンのバランスを取るハイブリッドモデルがあります。規制遵守のアプローチは、事前に明確さを求める積極的な遵守、より緩やかな管轄区域で運用する規制裁定、そしてまず構築し、後で規制に対処する様子見戦略に及びます。これらの戦略的選択は、プロジェクトが異なる制約に合わせて最適化するにつれて、断片化と競争力学を生み出します。

規制環境はますます複雑で制約的になっています。 米国での進展には、Hester Pierce委員が率いるSEC暗号通貨タスクフォース、2025年の検査優先事項としてのAIと暗号通貨規制、デジタル資産に関する大統領作業部会(60日間のレビュー、180日間の推奨事項)、AIと暗号通貨の特別顧問に任命されたDavid Sacks、銀行の保管要件を緩和するSAB 121の撤回が含まれます。SECの主要な懸念事項には、Howeyテストに基づく証券分類、AIエージェントへの投資顧問法適用可能性、保管と受託者責任、AML/KYC要件が含まれます。CFTCのPham代理議長は、商品市場とデリバティブに焦点を当てながら、責任あるイノベーションを支持しています。州規制では、ワイオミング州がDAOを法的エンティティとして最初に認識し(2021年7月)、ニューハンプシャー州がDAO法案を検討しているなど、イノベーションが見られます。一方、ニューヨーク州DFSはAIリスクに関するサイバーセキュリティガイダンスを発行しました(2024年10月)。

欧州連合のMiCA規制 は、包括的なフレームワークを作成し、実装スケジュールは以下の通りです。2023年6月に発効、2024年6月30日にステーブルコイン規定が適用、2024年12月30日に暗号資産サービスプロバイダーに対する完全な適用(既存プロバイダーには18ヶ月の移行期間)。主要な要件には、トークン発行者に対する必須ホワイトペーパー、自己資本比率とガバナンス構造、AML/KYC遵守、ステーブルコインの保管と準備金要件、トラベルルールによる取引追跡可能性、およびライセンスを持つプロバイダーに対するEU全域でのパスポート権が含まれます。現在の課題には、フランス、オーストリア、イタリアがより強力な執行を求めていること(2025年9月)、加盟国間での不均一な実装、規制裁定に関する懸念、PSD2/PSD3決済規制との重複、およびMiCA非準拠のステーブルコインに対する制限が含まれます。DORA(デジタルオペレーショナルレジリエンス法)は2025年1月17日に適用され、包括的な運用レジリエンスフレームワークと必須のサイバーセキュリティ対策を追加します。

市場の動向は、陶酔と警戒の両方を示しています。 2024年のベンチャーキャピタル活動では、最初の3四半期で暗号通貨に80億ドルが投資され(2023年と横ばい)、2024年第3四半期には478件の取引で24億ドルが投資されました(前期比-20%)。しかし、AI x 暗号通貨プロジェクトは第3四半期に2億7000万ドルを受け取りました(第2四半期から5倍増加)。シード段階のAI自律型エージェントは2024年〜2025年に7億ドルを調達し、中央値のプレマネー評価額は過去最高の2500万ドルに達し、平均取引規模は350万ドルでした。2025年第1四半期には801億ドルが調達され(OpenAIの400億ドル取引により前期比28%増)、取引量は減少したものの、AIがIT部門投資の74%を占めました。地域別分布では、米国が資本の56%、取引の44%を占めて優位に立ち、アジアでは日本(+2%)、インド(+1%)、韓国(+1%)で成長が見られ、中国は前年比-33%減少しました。

評価額はファンダメンタルズとの乖離を示しています。 Virtuals Protocol(前年比35,000%増の18億ドル)、ai16z(1週間で176%増の23億ドル)、AIXBT(約5億ドル)などのトップAIエージェントトークン、およびZerebroとGriffainのBinance先物上場は、投機的な熱狂を示しています。単週で5億ドルのレバレッジポジションを一掃するフラッシュクラッシュを伴う高いボラティリティ、pump.funのようなプラットフォームを介した急速なトークンローンチ、そして「AIエージェントミームコイン」という明確なカテゴリは、バブルの特徴を示唆しています。従来のVCの懸念は、暗号通貨が約250倍の株価売上高比率で取引されているのに対し、ナスダックは6.25倍、S&Pは3.36倍であること、2022年の崩壊後も機関投資家が慎重であること、そして実証済みのビジネスモデルを必要とする「収益メタ」の出現に焦点を当てています。

批判は5つの主要な分野に集中しています。 技術的およびセキュリティ上の懸念には、ほとんどのDeFiプラットフォームが手動承認を必要とすることによる壊滅的なリスクを生み出すウォレットインフラの脆弱性、Terra/Lunaの20億ドル清算のようなアルゴリズムの失敗、エージェント間の無限フィードバックループ、連鎖的なマルチエージェントシステムの失敗、差別を永続させるデータ品質とバイアスの問題、そして汚染されたトレーニングデータによる操作の脆弱性が含まれます。ガバナンスと説明責任の問題は、分散化を阻害するトークン集中(1%未満が投票権の90%を制御)、機能不全を引き起こす非アクティブな株主、敵対的買収への脆弱性(Build Finance DAOが2022年に資金流出)、エージェントの損害に対する責任に関する説明責任のギャップ、説明可能性の課題、そしてプログラミングの抜け穴を悪用する「不正エージェント」を通じて現れます。

市場と経済に関する批判は、暗号通貨の250倍のP/Sと従来の6-7倍との評価額の乖離、ICOブーム/バストサイクルに似たバブル懸念、多くのエージェントが「高機能チャットボット」に過ぎないこと、ユーティリティ駆動ではなく投機駆動の採用、ほとんどのエージェントが現在単純なTwitterインフルエンサーであることによる限定的な実用性、クロスチェーン相互運用性の低さ、そして採用を妨げる断片化されたエージェントフレームワークに焦点を当てています。システム的および社会的なリスクには、Microsoft/OpenAI/クラウドサービスへの高い依存度によるビッグテックの集中(2024年7月のCrowdStrikeの停止は相互依存性を浮き彫りにした)、AIモデルの63%がトレーニングにパブリッククラウドを使用していることによる競争の低下、モデルトレーニングのための多大なエネルギー消費、2030年までに9200万の雇用が失われる一方で1億7000万の新規雇用が予測されること、そして自律型エージェントによる自動化されたマネーロンダリングを可能にするAML/KYCの課題からの金融犯罪リスクが含まれます。

「生成AIのパラドックス」は展開の課題を捉えています。 79%の企業が採用しているにもかかわらず、78%が収益に大きな影響がないと報告しています。MITは、AIパイロットの95%がデータ準備の不備とフィードバックループの欠如により失敗すると報告しています。レガシーシステムとの統合は、組織の60%にとって最大の課題であり、最初からのセキュリティフレームワーク、変更管理とAIリテラシー研修、そして人間中心からAI協調型モデルへの文化変革が必要です。これらの実用的な障壁は、機関投資家の熱意が対応する財務リターンに結びついていない理由を説明しており、急速な時価総額の成長にもかかわらず、エコシステムが実験的な初期段階にあることを示唆しています。

金融、投資、ビジネスへの実用的な影響

自律資本は、即座の生産性向上と戦略的再配置 を通じて従来の金融を変革します。金融サービスでは、AIエージェントが取引を126%速く実行し、リアルタイムのポートフォリオ最適化、リアルタイムの異常検出と事前リスク評価による不正検出、2028年までに顧客インタラクションの68%がAIによって処理されると予想され、リアルタイムの取引データと行動トレンドを使用した継続的な評価による信用評価、そして動的なリスク評価と規制報告を行うコンプライアンス自動化が見られます。変革指標は、金融サービス幹部の70%がパーソナライズされた体験のためにエージェントAIを期待していること、AI導入企業で収益が3〜15%増加すること、営業ROIが10〜20%向上すること、90%がより効率的なワークフローを観察していること、そして従業員の38%が創造性が促進されたと報告していることを示しています。

ベンチャーキャピタルは、純粋なインフラ投資からアプリケーション固有のインフラへと論文を進化させ、 プレローンチトークンではなく、需要、流通、収益に焦点を当てています。規制の明確化後のステーブルコイン、AIインフラを供給するエネルギー×DePIN、計算リソースのためのGPU市場に大きな機会が生まれています。デューデリジェンスの要件は劇的に拡大しています。技術アーキテクチャ(レベル1〜5の自律性)、ガバナンスと倫理フレームワーク、セキュリティ態勢と監査証跡、規制遵守ロードマップ、トークンエコノミクスと流通分析、そして規制の不確実性を乗り越えるチームの能力を評価する必要があります。リスク要因には、AIパイロットの95%が失敗すること(MITレポート)、データ準備の不備とフィードバックループの欠如が主な原因であること、社内専門知識を持たない企業にとってのベンダー依存、そしてファンダメンタルズから乖離した評価倍率が含まれます。

自律資本がこれまで不可能だったイノベーションを可能にするにつれて、ビジネスモデルは多様化します。 自律型投資ビークルは、DAOを通じて資本をプールし、貢献に比例した利益分配(ai16zヘッジファンドモデル)でアルゴリズム展開を行います。AI-as-a-Service(AIaaS)は、トークン化されたエージェント機能をサービスとして販売し、チャットインタラクションのための推論手数料と高価値エージェントの部分所有権を提供します。データ収益化は、ゼロ知識証明のようなプライバシー保護技術を使用して安全な共有を可能にするトークン化された分散型データ市場を創出します。自動マーケットメイキングは、需要と供給に基づく動的な金利とクロスチェーン裁定取引により、流動性提供と最適化を提供します。Compliance-as-a-Serviceは、自動化されたAML/KYCチェック、リアルタイムの規制報告、スマートコントラクト監査を提供します。

ビジネスモデルのリスクには、規制分類の不確実性、消費者保護責任、プラットフォーム依存、先行者有利のネットワーク効果、トークン速度の問題が含まれます。しかし、成功した実装は実現可能性を実証しています。Gauntletはシミュレーション駆動のリスク管理を通じて10億ドル以上のTVLを管理し、SingularityDAOはAI管理ポートフォリオを通じて25%のROIを達成し、Virtuals Protocolは収益を生み出すエンターテイメントおよび分析製品を備えた17,000以上のエージェントを立ち上げています。

伝統的な産業は、あらゆる分野で自動化が進んでいます。 ヘルスケアでは、AIエージェントが診断(FDAは2015年の6件から2023年には223件のAI対応医療機器を承認)、患者治療の最適化、管理業務の自動化に展開されています。交通機関では、Waymoが毎週15万回以上の自律走行を実施し、Baidu Apollo Goが複数の中国都市で自律走行システムを前年比67.3%改善してサービスを提供しています。サプライチェーンとロジスティクスは、リアルタイムの経路最適化、在庫管理の自動化、サプライヤー調整の恩恵を受けています。法律および専門サービスは、文書処理と契約分析、規制遵守監視、デューデリジェンス自動化を採用しています。

労働力の変革は、機会とともに雇用喪失を生み出します。 2030年までに9200万の雇用が失われる一方で、1億7000万の新規雇用が創出され、異なるスキルセットが要求されると予測されています。課題は移行にあります。大規模な失業と社会の混乱を防ぐために、再訓練プログラム、セーフティネット、教育改革を加速させる必要があります。初期の証拠では、2025年第1四半期の米国のAI関連職が35,445件(前年比+25.2%)に達し、中央値の給与が156,998ドル、AI関連求人掲載数が114.8%(2023年)、その後120.6%(2024年)増加していることが示されています。しかし、この成長は技術職に集中しており、より広範な経済的包摂に関する疑問は未解決のままです。

リスクには、5つのカテゴリにわたる包括的な緩和戦略が必要です。 技術的リスク(スマートコントラクトの脆弱性、オラクル障害、連鎖的エラー)には、継続的なレッドチームテスト、形式的検証、サーキットブレーカー、Nexus Mutualのような保険プロトコル、そして最初は限定的な自律性での段階的な展開が求められます。規制リスク(不明確な法的地位、遡及的執行、管轄権の衝突)には、規制当局との積極的な関与、明確な開示とホワイトペーパー、堅牢なKYC/AMLフレームワーク、法的エンティティ計画(ワイオミング州DAO LLC)、および地理的多様化が必要です。運用リスク(データ汚染、モデルドリフト、統合障害)には、重要な意思決定に対する人間が介入する監視、継続的な監視と再訓練、段階的な統合、フォールバックシステムと冗長性、そして所有権とエクスポージャーを追跡する包括的なエージェントレジストリが必要です。

市場リスク(バブルの動向、流動性危機、トークン集中、評価額の暴落)には、投機ではなく根本的な価値創造に焦点を当てること、多様なトークン配布、ロックアップ期間とベスティングスケジュール、財務管理のベストプラクティス、そして制限に関する透明なコミュニケーションが必要です。システム的リスク(ビッグテックの集中、ネットワーク障害、金融伝染)には、マルチクラウド戦略、分散型インフラ(エッジAI、ローカルモデル)、ストレステストとシナリオ計画、管轄区域間の規制協調、そして標準開発のための業界コンソーシアムが求められます。

採用のタイムラインは、短期的な測定された楽観主義と、長期的な変革の可能性を示唆しています。 短期的な2025年〜2027年では、ルールベースの自動化とワークフロー最適化を伴うレベル1〜2の自律性が人間による監視を維持し、生成AIを使用する企業の25%が2025年にエージェントパイロットを開始し(Deloitte)、2027年までに50%に増加し、自律型AIエージェント市場は68億ドル(2024年)から200億ドル以上(2027年)に拡大し、2028年までに仕事の意思決定の15%が自律的に行われると予測されています(Gartner)。採用の障壁には、不明確なユースケースとROI(60%がこれを挙げる)、レガシーシステム統合の課題、リスクとコンプライアンスの懸念、そして人材不足が含まれます。

中期的な2028年〜2030年では、エージェントが継続的な監視なしに狭い領域で動作するレベル3〜4の自律性、マルチエージェント協調システム、リアルタイムの適応的意思決定、そしてエージェントの推奨に対する信頼の増大が見られます。市場予測では、生成AIが世界のGDPに年間2.6兆〜4.4兆ドル貢献し、自律型エージェント市場が2030年までに526億ドル(CAGR 45%)に達し、1日あたり3時間の活動が自動化され(2024年の1時間から増加)、顧客とベンダーのインタラクションの68%がAIによって処理されると予測されています。インフラ開発には、エージェント固有のブロックチェーン(ai16z)、クロスチェーン相互運用性標準、パーミッションのための統一キーストアプロトコル、そしてプログラム可能なウォレットインフラの主流化が含まれます。

長期的な2030年以降では、完全自律型エージェントと最小限の人間介入を伴うレベル5の自律性、AGI能力に近づく自己改善システム、エージェントが他のエージェントや人間を雇用すること、そして大規模な自律資本配分が構想されています。システム的な変革には、AIエージェントがツールではなく同僚として機能すること、エージェント間取引を伴うトークン化された経済、プロジェクト協調のための分散型「ハリウッドモデル」、そして新しいスキルセットを必要とする1億7000万の新規雇用が含まれます。主要な不確実性は残ります。規制フレームワークの成熟度、国民の信頼と受容、AIの技術的ブレークスルーまたは限界、経済混乱の管理、そして倫理的整合性と制御の問題です。

エコシステム開発のための重要な成功要因 には、イノベーションを可能にしつつ消費者を保護する規制の明確化、クロスチェーンおよびクロスプラットフォーム通信のための相互運用性標準、堅牢なテストと監査を伴うベースラインとしてのセキュリティインフラ、AIリテラシープログラムと労働力移行支援を通じた人材育成、そして投機を超えた価値を創造する持続可能な経済が含まれます。個々のプロジェクトには、真の問題を解決する実用性、バランスの取れたステークホルダー代表を持つ強力なガバナンス、セキュリティファースト設計を伴う技術的卓越性、積極的なコンプライアンスを伴う規制戦略、そして透明なコミュニケーションと共有価値を通じたコミュニティの整合性が求められます。機関投資家の採用には、効率性向上を超えたROIの証明、包括的なリスク管理フレームワーク、文化変革とトレーニングを伴う変更管理、ロックインを避けつつ構築と購入のバランスを取るベンダー戦略、そして自律的意思決定権限のための倫理的ガイドラインが必要です。

自律資本エコシステムは、変革の可能性を秘めた真の技術的および金融的イノベーションを表していますが、セキュリティ、ガバナンス、規制、実用性に関する重大な課題に直面しています。市場は、投機と正当な開発によってほぼ同等に牽引され、急速な成長を経験しており、この新興分野が主流の採用に向けて成熟するにつれて、すべての参加者からの洗練された理解、慎重なナビゲーション、そして現実的な期待が必要です。

結論:自律資本の軌跡

自律資本革命は、避けられないユートピアでもディストピア的な確実性でもなく、真の技術革新が重大なリスクと交差する新興分野であり、能力、限界、ガバナンスの課題について微妙な理解が必要です。ここにプロファイルされた5人の主要な思想的リーダー—Tarun Chitra、Amjad Masad、Jordi Alexander、Alexander Pack、Irene Wu—は、この未来を構築するための明確かつ補完的なアプローチを示しています。 Chitraのシミュレーションとリスク管理を通じた自動化されたガバナンス、Masadのエージェント駆動型ネットワーク経済と開発インフラ、Alexanderの人間的判断を強調するゲーム理論に基づいた投資論文、Packのインフラに焦点を当てたベンチャーキャピタル戦略、そしてWuのオムニチェーン相互運用性の基盤です。

彼らの共同作業は、自律資本が今日技術的に実現可能であることを確立しています。Gauntletが10億ドル以上のTVLを管理し、SingularityDAOがAIポートフォリオを通じて25%のROIを達成し、Virtuals Protocolが17,000以上のエージェントを立ち上げ、生産取引システムが検証済みの結果を提供していることで実証されています。しかし、研究者によって特定された「トラストレスのパラドックス」は未解決のままです。トラストレスなブロックチェーンインフラにAIを展開することは、誤りを犯しやすい人間を信頼することを避けますが、介入を超えて動作する潜在的に信頼できないAIシステムを生み出します。自律性と説明責任の間のこの根本的な緊張が、自律資本が人間の繁栄のためのツールとなるか、それとも制御不能な力となるかを決定するでしょう。

短期的な見通し(2025年〜2027年)は、慎重な実験を示唆しています。 生成AIユーザーの25〜50%がエージェントパイロットを開始し、人間による監視を維持するレベル1〜2の自律性、市場は68億ドルから200億ドル以上に成長しますが、ROIの不明確さ、レガシー統合の課題、規制の不確実性に関する採用障壁が残ります。中期(2028年〜2030年)には、技術的およびガバナンスの課題がうまく解決されれば、狭い領域で動作するレベル3〜4の自律性、自律的に協調するマルチエージェントシステム、そして生成AIが世界のGDPに2.6兆〜4.4兆ドル貢献する可能性があります。長期(2030年以降)の、完全に自己改善するシステムが大規模に資本を管理するレベル5の自律性というビジョンは投機的なままであり、AI能力、規制フレームワーク、セキュリティインフラのブレークスルーまたは限界、そして労働力移行を管理する社会の能力に依存します。

重要な未解決の疑問が結果を決定します。 規制の明確化はイノベーションを可能にするのか、それとも制約するのか?セキュリティインフラは壊滅的な失敗を防ぐのに十分な速さで成熟できるのか?分散化の目標は実現するのか、それともビッグテックの集中が増加するのか?投機を超えた持続可能なビジネスモデルは出現できるのか?1億7000万の新規雇用が生まれる一方で、9200万の雇用が失われる状況を社会はどのように管理するのか?これらの疑問には今日明確な答えがなく、自律資本エコシステムは同時に高リスクかつ高機会の分野となっています。

5人の思想的リーダーの視点は、主要な原則に収束しています。AIが実行速度とデータ分析を処理し、人間が戦略的判断と価値の整合性を提供する人間とAIの共生は、純粋な自律性を上回ります。攻撃者が防御者に対して根本的な経済的優位性を持つため、セキュリティとリスク管理には偏執的レベルの厳密さが必要です。相互運用性と標準化が、どのプラットフォームがネットワーク効果と長期的な優位性を達成するかを決定します。規制当局との関与は、法的枠組みが世界的に進化するにつれて、受動的ではなく積極的でなければなりません。そして、投機ではなく根本的な価値創造に焦点を当てることで、持続可能なプロジェクトがバブルの犠牲者と区別されます。

エコシステム全体の参加者にとって、 役割によって戦略的推奨事項は異なります。投資家は、プラットフォーム、アプリケーション、インフラレイヤー全体にエクスポージャーを分散させつつ、収益を生み出すモデルと規制態勢に焦点を当て、極端なボラティリティに備え、それに応じてポジションサイズを調整すべきです。開発者は、アーキテクチャの哲学(大聖堂対バザール)を選択し、セキュリティ監査と形式的検証に多額の投資を行い、クロスチェーン相互運用性のために構築し、規制当局と早期に関与し、「高機能チャットボット」を作成するのではなく、実際の問題を解決すべきです。企業は、顧客サービスと分析の低リスクパイロットから開始し、エージェント対応インフラとデータに投資し、自律的意思決定権限のための明確なガバナンスを確立し、AIリテラシーで従業員を訓練し、イノベーションと制御のバランスを取るべきです。

政策立案者は、おそらく最も複雑な課題に直面しています。イノベーションを可能にしながら国際的に規制を調和させ、サンドボックスアプローチとセーフハーバーを実験に利用し、必須の開示と詐欺防止を通じて消費者を保護し、ビッグテックの集中とネットワーク依存性からのシステムリスクに対処し、教育プログラムと失業者への移行支援を通じて労働力を準備することです。EUのMiCA規制は、イノベーションと保護のバランスを取るモデルを提供しますが、執行の課題と管轄権の裁定に関する懸念は残ります。

最も現実的な評価は、自律資本が革命的な一夜にしてではなく、徐々に進化することを示唆しています。狭い領域での成功(取引、顧客サービス、分析)が汎用自律性に先行し、ハイブリッドな人間とAIのシステムが近い将来、純粋な自動化を上回り、規制フレームワークが明確になるまでに何年もかかり、継続的な不確実性を生み出すでしょう。投機的な動向、技術的限界、セキュリティの脆弱性を考慮すると、市場の淘汰と失敗は避けられませんが、根底にある技術トレンド—AI能力の向上、ブロックチェーンの成熟、そして両方の機関投資家による採用—は、継続的な成長と洗練を示唆しています。

自律資本は、真に技術的なパラダイムシフトを表しており、 洗練された金融ツールへのアクセスを民主化し、24時間365日の自律最適化を通じて市場効率を高め、従来の金融では不可能だった新しいビジネスモデルを可能にし、超人的な速度で動作する機械間経済を創造する可能性を秘めています。しかし、それはまた、重要なインフラを制御する技術エリートの手に権力を集中させ、相互接続された自律システムを通じてシステム的な不安定性を生み出し、再訓練プログラムが適応するよりも速く人間労働者を置き換え、自動化されたマネーロンダリングや詐欺を通じて機械規模での金融犯罪を可能にするリスクも伴います。

結果は、今日の構築者、投資家、政策立案者、ユーザーによってなされる選択に依存します。プロファイルされた5人の思想的リーダーは、セキュリティ、透明性、人間の監視、倫理的ガバナンスを優先する思慮深く厳密なアプローチが、リスクを管理しながら真の価値を創造できることを示しています。彼らの仕事は、責任ある開発のための青写真を提供します。Chitraのシミュレーションを通じた科学的厳密さ、Masadのユーザー中心のインフラ、Alexanderのゲーム理論に基づいたリスク評価、Packのインフラファースト投資、そしてWuの相互運用性の基盤です。

Jordi Alexanderが強調したように、「判断力とは、複雑な情報を統合し、最適な意思決定を行う能力であり、これこそが機械の苦手とするところです。」自律資本の未来は、完全なAIの自律性によってではなく、AIが実行、データ処理、最適化を処理し、人間が判断、戦略、倫理、説明責任を提供する洗練されたコラボレーションによって定義される可能性が高いでしょう。暗号通貨のトラストレスなインフラとプログラム可能なマネーによって可能になるこの人間とAIのパートナーシップは、イノベーションと責任、効率性とセキュリティ、自律性と人間的価値観への整合性のバランスを取りながら、最も有望な道筋を表しています。

Suiブロックチェーン:AI、ロボット工学、量子コンピューティングの未来を設計する

· 約37分
Dora Noda
Software Engineer

Suiブロックチェーンは、次世代の計算ワークロードに対応する最も技術的に高度なプラットフォームとして登場しました。480ミリ秒のファイナリティで毎秒297,000トランザクションを達成し、量子耐性暗号と専用のロボット工学インフラを統合しています。MetaのDiemプロジェクトで暗号技術革新を先導し、50以上の学術論文を発表しているチーフ暗号学者コスタス・チャルキアスが率いるSuiは、レガシーブロックチェーンからの根本的なアーキテクチャ的脱却を意味し、自律型AIエージェント、マルチロボット協調、ポスト量子セキュリティを可能にするために特別に設計されています。

高度なコンピューティングのためにブロックチェーンを後付けする競合他社とは異なり、Suiのオブジェクト中心データモデル、Moveプログラミング言語、およびMysticetiコンセンサスプロトコルは、並列AI操作、リアルタイムロボット制御、および暗号技術の俊敏性のために最初から設計されました。これらの機能は、50以上のAIプロジェクト、マルチロボット協調デモンストレーション、およびブロックチェーンウォレット向けの世界初の後方互換性のある量子安全アップグレードパスを含むライブ展開を通じて検証されています。

Suiの革新的な技術基盤が不可能を可能にする

Suiのアーキテクチャは、AI、ロボット工学、量子アプリケーションに独自の地位を与える3つの相乗的な革新を通じて、従来の口座ベースのブロックチェーンモデルから脱却しています。

Mysticetiコンセンサスプロトコルは、未認証のDAGアーキテクチャを通じて前例のないパフォーマンスを達成し、コンセンサス遅延を390〜650ミリ秒(前身より80%高速)に短縮しつつ、200,000+ TPSの持続スループットをサポートします。これは根本的なブレークスルーです。Ethereumのような従来のブロックチェーンはファイナリティに12〜15秒を要しますが、Suiの単一所有者トランザクションの高速パスはわずか250ミリ秒で完了します。このプロトコルのラウンドごとの複数のリーダーと暗黙のコミットメントメカニズムは、サブ秒のフィードバックを必要とするリアルタイムAI意思決定ループとロボット制御システムを可能にします。これは、シーケンシャル実行チェーンでは物理的に不可能なアプリケーションです。

オブジェクト中心データモデルは、すべての資産を明示的な所有権とバージョン管理を持つ独立してアドレス指定可能なオブジェクトとして扱い、実行前の静的依存関係分析を可能にします。このアーキテクチャの選択により、楽観的実行モデルを悩ませる遡及的な競合検出オーバーヘッドが排除され、数千のAIエージェントが競合なしに同時にトランザクションを実行できます。オブジェクトは単一の当事者によって所有されている場合、コンセンサスを完全にバイパスし、一般的な操作の処理時間を70%節約します。ロボット工学の場合、これは個々のロボットがセンサーデータのために所有オブジェクトを維持し、必要な場合にのみ共有オブジェクトを通じて調整することを意味します。これは、現実世界の自律システムアーキテクチャを正確に反映しています。

Moveプログラミング言語は、Solidityのような口座ベースの言語では不可能なリソース指向のセキュリティを提供します。資産は、コピーまたは破壊できないファーストクラスの型として存在し、コンテキスト間で移動するのみです。これにより、リエントランシー攻撃、二重支払い、不正な資産操作を含む脆弱性のクラス全体が防止されます。Moveの線形型システムと形式検証サポートは、貴重な資産を自律的に管理するAIエージェントに特に適しています。プログラマブルトランザクションブロックは、最大1,024の関数呼び出しをアトミックに構成し、一貫性が保証された複雑な多段階AIワークフローを可能にします。

コスタス・チャルキアスが量子耐性を競争優位性として設計

コスタス「クリプトス」チャルキアスは、Suiの量子コンピューティング戦略に比類ない暗号技術の専門知識をもたらしています。彼はブロックチェーン化されたポスト量子署名(BPQS)アルゴリズムを考案し、MetaのDiemブロックチェーンの暗号技術を主導し、1,374回以上引用された50以上の査読済み論文を発表しています。彼の2025年7月の研究ブレークスルーは、Sui、Solana、Near、Cosmosを含むEdDSAベースのチェーンに適用可能な、ブロックチェーンウォレット向けの世界初の後方互換性のある量子安全アップグレードパスを実証しました。

チャルキアスのビジョンは、量子耐性を遠い懸念ではなく、即座の競争上の差別化要因として位置づけています。彼は2025年1月に、**「政府は量子コンピューティングがもたらすリスクを十分に認識しています。世界中の機関は、ECDSAやRSAのような古典的なアルゴリズムを2030年または2035年までに廃止することを義務付けています。」**と警告しました。彼の技術的洞察:ユーザーが秘密鍵を保持していても、量子攻撃に鍵をさらすことなくポスト量子所有権証明を生成できない可能性があります。Suiのソリューションは、ゼロ知識STARK証明を活用して、機密データを明らかにすることなく鍵生成シードの知識を証明します。これは、組み込みの俊敏性を持たないブロックチェーンでは不可能な暗号技術革新です。

暗号技術の俊敏性フレームワークは、チャルキアスの特徴的な設計哲学を表しています。Suiは1バイトのフラグを使用して署名スキーム(Ed25519、ECDSA Secp256k1/r1、BLS12-381、マルチシグ、zkLogin)を区別し、スマートコントラクトのオーバーヘッドやハードフォークなしに新しいアルゴリズムのプロトコルレベルのサポートを可能にします。このアーキテクチャにより、量子脅威が現実になった際に、CRYSTALS-Dilithium(2,420バイトの署名)やFALCON(666バイトの署名)を含むNIST標準化されたポスト量子アルゴリズムへの「ボタン一つ」での移行が可能になります。チャルキアスは複数の移行パスを設計しました。プロアクティブ(新規アカウント作成時にPQ鍵を生成)、アダプティブ(STARK証明により既存のシードからPQ移行を可能にする)、ハイブリッド(古典鍵と量子耐性鍵を組み合わせた時限マルチシグ)です。

彼のzkLoginの革新は、ユーザビリティに適用された暗号技術の創造性を示しています。このシステムは、BN254曲線上のGroth16ゼロ知識証明を使用して、Google、Facebook、またはTwitchの認証情報を通じてユーザーが認証することを可能にし、ユーザーが制御するソルトによりWeb2-Web3間のID相関を防ぎます。zkLoginは設計段階から量子の考慮事項を含んでいます。STARKベースのシード知識証明は、基盤となるJWT署名がRSAから格子ベースの代替手段に移行した場合でも、ポスト量子セキュリティを提供します。

Sui Basecamp 2025で、チャルキアスはネイティブな検証可能な乱数、オフチェーンロジック用のzkトンネル、ライトニングトランザクション(ゼロガス、ゼロレイテンシー)、および暗号化された将来のデータアクセス用のタイムカプセルを発表しました。これらの機能は、プライベートAIエージェントシミュレーション、信頼できる乱数を必要とするギャンブルアプリケーション、およびゼロ知識ポーカーゲームを可能にします。これらはすべて、プロトコルレベルの暗号プリミティブなしでは不可能です。彼のビジョン:「Suiの目標は、ポスト量子技術を採用する最初のブロックチェーンとなり、それによってセキュリティを向上させ、将来の規制基準に備えることでした。」

SuiでAIエージェントインフラが本番環境の成熟度に到達

Suiは、ブロックチェーン業界で最も包括的なAIエージェントエコシステムをホストしており、インフラ、フレームワーク、アプリケーションにわたる50以上のプロジェクトがあります。これらはすべて、Suiの並列実行とサブ秒のファイナリティを活用して、リアルタイムの自律運用を実現しています。

Atoma Networkは、2024年12月にSuiメインネットで、初の完全に分散化されたAI推論レイヤーとしてローンチし、「オープンソースAIのための分散型ハイパースケーラー」として位置づけられています。すべての処理はTrusted Execution Environments(TEE)で行われ、OpenAIエンドポイントとのAPI互換性を維持しつつ、完全なプライバシーと検閲耐性を保証します。Utopiaチャットアプリケーションは、ChatGPTに匹敵するパフォーマンスを持つ本番環境対応のプライバシー保護AIを実証し、Suiのサブ秒のファイナリティを通じて支払いと検証を決済します。Atomaは、DeFiポートフォリオ管理、ソーシャルメディアコンテンツモデレーション、パーソナルアシスタントアプリケーションなど、AIインテリジェンスとブロックチェーン決済の両方を必要とするユースケースを可能にします。これらは、より遅いチェーンでは達成不可能です。

OpenGraph Labsは、AIエージェントのために特別に設計された初の完全オンチェーンAI推論システムとして、技術的なブレークスルーを達成しました。彼らのTensorflowSui SDKは、Web2 MLモデル(TensorFlow、PyTorch)のSuiブロックチェーンへの展開を自動化し、トレーニングデータをWalrus分散型ストレージに保存しながら、プログラマブルトランザクションブロックを使用して推論を実行します。OpenGraphは、アトミック性を必要とする重要な計算のためのPTB推論、コスト最適化のための分割トランザクション、およびユースケースごとにカスタマイズされたハイブリッド組み合わせという3つの柔軟な推論アプローチを提供します。このアーキテクチャは、明確に定義されたアルゴリズム所有権を持つ完全に検証可能で監査可能な推論プロセスを通じて、「ブラックボックス」AIのリスクを排除します。これは、説明可能なAIを必要とする規制産業にとって重要です。

Talus Networkは、2025年2月にSuiでNexusフレームワークとともにローンチし、開発者がワークフローを直接オンチェーンで実行する構成可能なAIエージェントを構築できるようにしました。TalusのIdol.funプラットフォームは、トークン化されたエンティティとして24時間365日自律的に動作する消費者向けAIエージェントを実証し、Walrusに保存されたデータセットを活用して市場センチメント、DeFi統計、ソーシャルトレンドに関するリアルタイムの意思決定を行います。アプリケーションの例としては、動的NFTプロファイル管理、リアルタイムでモデルをロードするDeFi流動性戦略エージェント、不変のSuiチェックポイントから履歴トランザクションパターンを分析する不正検出エージェントなどがあります。

2025年8月に発表されたAlibaba Cloudとの提携により、AIコーディングアシスタントがChainIDE開発プラットフォームに統合され、多言語(英語、中国語、韓国語)をサポートします。機能には、自然言語からMoveコード生成、インテリジェントな自動補完、リアルタイムのセキュリティ脆弱性検出、自動ドキュメント生成が含まれ、Suiの非英語圏の開発者ターゲットの60%にとって障壁を低減します。この提携は、Suiが単なるAIデプロイメントプラットフォームではなく、AI開発プラットフォームとしての位置づけを検証するものです。

Suiのスポンサードトランザクションは、AIエージェントのガス支払い摩擦を排除します。ビルダーはトランザクション手数料を負担できるため、エージェントはSUIトークンを保持することなく運用できます。MIST単位(1 SUI = 10億MIST)は、1セントの何分の1という少額のマイクロペイメントを可能にし、推論ごとのAIサービスに最適です。平均トランザクションコストが約0.0023ドルであるため、AIエージェントは毎日何千もの操作を数セントで実行でき、自律型エージェント経済を経済的に実現可能にします。

マルチロボット協調がSuiのリアルタイム協調の優位性を証明

Suiは、Mysticetiコンセンサスを使用したブロックチェーン業界初のマルチロボット協調システムを実証しました。これは、Tiger Researchの2025年の包括的な分析によって検証されています。このシステムは、ロボットが分散環境で一貫した状態を共有しながら、ビザンチンフォールトトレランスを維持することを可能にし、ロボットが誤動作したり、敵対者によって侵害されたりした場合でもコンセンサスを保証します。

技術アーキテクチャは、ロボットがメタデータ、所有権、および機能を備えたプログラマブルオブジェクトとして存在するSuiのオブジェクトモデルを活用しています。タスクは特定のロボットオブジェクトに割り当てられ、スマートコントラクトがシーケンスとリソース割り当てルールを自動化します。このシステムは、中央サーバーなしで信頼性を維持し、複数のバリデーターからの並列ブロック提案により単一障害点を防ぎます。サブ秒のトランザクションファイナリティはリアルタイム調整ループを可能にし、ロボットは400ミリ秒未満でタスク確認と状態更新を受け取り、応答性の高い自律運用に必要な制御システム要件を満たします。

犬型ロボットによる物理テストはすでに実現可能性を実証しており、NASA、Meta、Uber出身のチームがSuiベースのロボット工学アプリケーションを開発しています。Sui独自の「インターネットレスモード」機能(安定したインターネット接続なしで電波を介して動作)は、アフリカ、アジアの農村地域での展開や緊急シナリオにおいて革新的な利点を提供します。このオフライン機能は主要なブロックチェーンの中でSuiにのみ存在し、スペイン/ポルトガルの停電中のテストによって検証されています。

2024年9月に発表された3DOSとの提携は、Suiの製造ロボット工学能力を大規模に検証するものです。3DOSは、120カ国以上にわたる79,909台以上の3DプリンターをSuiの独占的なブロックチェーンパートナーとして統合し、ピアツーピア製造を可能にする「3Dプリンティング版Uber」ネットワークを構築しました。主要な顧客には、John Deere、Google、MIT、Harvard、Bosch、British Army、US Navy、US Air Force、NASAが含まれ、Suiのインフラに対するエンタープライズグレードの信頼を示しています。このシステムは、スマートコントラクトの自動化を通じてロボットが自律的に交換部品を注文および印刷することを可能にし、人間による介入をほぼゼロに抑えたロボットの自己修復を促進します。これにより、在庫、廃棄物、国際輸送を排除するオンデマンド生産を通じて、15.6兆ドルの世界製造市場に対応します。

Suiのビザンチンフォールトトレランスは、安全性が重要なロボット工学アプリケーションにとって極めて重要です。このコンセンサスメカニズムは、3f+1システムにおいて最大f個の故障/悪意のあるロボットを許容し、個々の故障にもかかわらず、自律走行車フリート、倉庫ロボット、製造システムが協調を維持することを保証します。スマートコントラクトは安全制約と運用境界を強制し、不変の監査証跡は自律的な決定に対する説明責任を提供します。これらは、単一障害点に脆弱な集中型協調サーバーでは満たすことが不可能な要件です。

量子耐性ロードマップが暗号技術の優位性をもたらす

Suiの量子コンピューティング戦略は、2030年までの古典的アルゴリズムの廃止と2035年までの完全な量子耐性標準化を義務付けるNISTの指令に合致した、ブロックチェーン業界で唯一の包括的かつ積極的なアプローチです。

チャルキアスの2025年7月の画期的な研究は、Suiを含むEdDSAベースのチェーンが、シード知識を証明するゼロ知識証明を通じて、ハードフォーク、アドレス変更、またはアカウント凍結なしに量子安全なウォレットアップグレードを実装できることを実証しました。これにより、休眠アカウントであっても安全な移行が可能になります。これは、量子コンピューターが登場すると数百万のウォレットが「瞬時に空になる可能性がある」というブロックチェーンが直面する実存的脅威を解決します。この技術革新は、STARK証明(量子耐性ハッシュベースセキュリティ)を使用して、機密データを公開することなくEdDSA鍵生成シードの知識を証明し、ユーザーが既存のアドレスに紐付けられたPQ鍵の所有権を確立できるようにします。

Suiの暗号技術の俊敏性アーキテクチャは、複数の移行戦略を可能にします。プロアクティブ(作成時にPQ鍵がPreQ公開鍵に署名)、アダプティブ(STARK証明が既存のアドレスを移行)、ハイブリッド(古典鍵とPQ鍵を組み合わせた時限マルチシグ)です。このプロトコルは、格子ベースおよびハッシュベースのポスト量子セキュリティのために、CRYSTALS-Dilithium(ML-DSA)、FALCON(FN-DSA)、SPHINCS+(SLH-DSA)を含むNIST標準化アルゴリズムの即時展開をサポートします。バリデーターのBLS署名は格子ベースの代替手段に移行し、ハッシュ関数は量子耐性衝突耐性のために256ビットから384ビット出力にアップグレードされ、zkLogin回路はGroth16からSTARKベースのゼロ知識証明に移行します。

2025年6月にローンチされたNautilusフレームワークは、自己管理型TEE(Trusted Execution Environments)を使用して安全なオフチェーン計算を提供し、現在AWS Nitro Enclavesをサポートしており、将来的にIntel TDXおよびAMD SEVとの互換性も予定されています。AIアプリケーションの場合、Nautilusはオンチェーンで検証される暗号証明付きのプライベートAI推論を可能にし、計算効率と検証可能性の間の緊張を解決します。Bluefin(1ミリ秒未満でのTEEベースの注文マッチング)、TensorBlock(AIエージェントインフラ)、OpenGradientなどのローンチパートナーは、プライバシー保護型の量子耐性計算に対する本番環境の準備が整っていることを示しています。

比較分析により、Suiの量子優位性が明らかになります。Ethereumは計画段階にあり、ヴィタリック・ブテリンは量子耐性が「少なくとも10年先」であり、ハードフォークとコミュニティの合意が必要であると述べています。Solanaは2025年1月にWinternitz Vaultをオプションのハッシュベース署名機能としてローンチしましたが、これはユーザーのオプトインを必要とし、プロトコル全体の実装ではありません。他の主要なブロックチェーン(Aptos、Avalanche、Polkadot)は、具体的なタイムラインなしで研究段階にとどまっています。Suiだけが、ガバナンスの争いやネットワークの分裂なしに迅速なアルゴリズム移行を可能にする基礎原則として暗号技術の俊敏性を設計しました。

技術アーキテクチャの統合が創発的な能力を生み出す

Suiのアーキテクチャコンポーネントは相乗的に相互作用し、個々の機能の合計を超える能力を生み出します。これは、真に革新的なプラットフォームを漸進的な改善から区別する特徴です。

Move言語リソースモデル並列オブジェクト実行の組み合わせは、AIエージェント群に前例のないスループットを可能にします。口座ベースのモデルを使用する従来のブロックチェーンは、競合状態を防ぐためにシーケンシャル実行を必要とし、AIエージェントの協調をシングルスレッドのボトルネックに制限します。Suiのオブジェクト参照による明示的な依存関係宣言は、バリデーターが実行前に独立した操作を識別することを可能にし、数千のAIエージェントトランザクションをCPUコア間で同時にスケジュールします。この状態アクセス並列化(競合検出を必要とする楽観的実行とは対照的に)は、遡及的なトランザクション障害なしに予測可能なパフォーマンスを提供します。これは、信頼性保証を必要とするAIシステムにとって重要です。

プログラマブルトランザクションブロックは、アトミックトランザクションで最大1,024の異種関数呼び出しを可能にすることで、Moveの構成可能性を増幅させます。AIエージェントは、トークンのスワップ、オラクルデータの更新、機械学習推論のトリガー、NFTのミント、通知の送信など、複雑なワークフローをすべて成功または失敗が保証された状態で実行できます。この異種構成により、ロジックがスマートコントラクトからトランザクションレベルに移動し、ガス料金を劇的に削減しながら柔軟性を高めます。ロボット工学の場合、PTBは「在庫確認、部品注文、支払い承認、ステータス更新」のようなアトミックな多段階操作を、一貫性の暗号保証付きで可能にします。

単一所有者オブジェクトのコンセンサスバイパス高速パスは、AI/ロボット工学のアクセスパターンに完全に一致する2層のパフォーマンスモデルを作成します。個々のロボットは、バリデーターのコンセンサスなしに250ミリ秒で処理される所有オブジェクトとしてプライベートな状態(センサー読み取り値、運用パラメータ)を維持します。協調ポイント(タスクキュー、リソースプール)は、390ミリ秒のコンセンサスを必要とする共有オブジェクトとして存在します。このアーキテクチャは、エージェントがローカル状態を維持しつつ共有リソースを通じて協調する現実世界の自律システムを反映しており、Suiのオブジェクトモデルはこれらのパターンに自然に一致するブロックチェーンネイティブなプリミティブを提供します。

zkLoginは、主流のAIエージェント採用を妨げるオンボーディングの摩擦を解決します。従来のブロックチェーンでは、ユーザーはシードフレーズと秘密鍵を管理する必要があり、これは認知的負担が大きくエラーが発生しやすいものです。zkLoginは、使い慣れたOAuth認証情報(Google、Facebook、Twitch)を介した認証を可能にし、ユーザーが制御するソルトによりWeb2-Web3間のID相関を防ぎます。AIエージェントは、Web2認証の下で動作しながらブロックチェーンセキュリティを維持でき、消費者向けアプリケーションの障壁を劇的に低減します。すでにzkLoginを統合している10以上のdAppは、非暗号ネイティブのユーザーにとっての実用的な実現可能性を示しています。

競争上の位置づけが技術的リーダーシップとエコシステム成長を明らかにする

主要なブロックチェーン(Solana、Ethereum、Aptos、Avalanche、Polkadot)間の比較分析により、Suiの高度なコンピューティングワークロードにおける技術的優位性が明らかになります。これは、Ethereumのエコシステムの成熟度とSolanaの現在のDePIN採用とのバランスを考慮したものです。

パフォーマンス指標は、Suiがスループットリーダーであることを確立しています。100のバリデーターでテストされた297,000 TPSと480ミリ秒のファイナリティを維持し、Solanaの理論値65,000-107,000 TPS(持続3,000-4,000)およびEthereumのベースレイヤー15-30 TPSと比較して優位です。Aptosは、同様のMoveベースのアーキテクチャですが異なる実行モデルで、理論値160,000 TPSを達成します。リアルタイムの意思決定を必要とするAIワークロードの場合、Suiの480ミリ秒のファイナリティは、Ethereumの12-15分のファイナリティや、Solanaの時折発生するネットワーク混雑(2024年4月のピーク負荷時に75%のトランザクション失敗)では不可能な即時応答ループを可能にします。

量子耐性分析によると、Suiは最初からコアアーキテクチャに量子耐性暗号が設計された唯一のブロックチェーンです。Ethereumはロードマップの「The Splurge」フェーズで量子問題に取り組んでいますが、ヴィタリック・ブテリンは2030年までに量子が暗号を破る確率を20%と見積もり、事後的な緊急「リカバリーフォーク」計画に依存しています。SolanaのWinternitz Vaultは、ユーザーのオプトインを必要とするオプションの量子保護を提供し、ネットワーク全体での自動セキュリティではありません。Aptos、Avalanche、Polkadotは、具体的なタイムラインなしで研究段階にとどまっています。Suiの複数の移行パス、STARKベースのzkLogin、NIST準拠のロードマップを備えた暗号技術の俊敏性は、2030/2035年の義務付けられたポスト量子移行に対応できる唯一のブロックチェーンとして位置づけられています。

AIエージェントエコシステムでは、Solanaが現在、成熟したツール(SendAI Agent Kit、ElizaOS)と最大の開発者コミュニティで採用をリードしていますが、Suiは300,000 TPSの容量、サブ秒のレイテンシー、および本番プラットフォーム(Atomaメインネット、Talus Nexus、OpenGraphオンチェーン推論)を含む50以上のプロジェクトを通じて優れた技術能力を示しています。Ethereumは機関向けAI標準(AIのID/信頼のためのERC-8004)に焦点を当てていますが、15-30 TPSのベースレイヤーはリアルタイムAIアプリケーションをレイヤー2ソリューションに制限します。Alibaba Cloudとの提携により、SuiがAI開発プラットフォーム(単なるデプロイメントプラットフォームではない)として位置づけられていることは、純粋な金融ブロックチェーンからの戦略的差別化を示しています。

ロボット工学の能力は、主要なブロックチェーンの中でSuiにのみ存在します。競合他社は、マルチロボット協調インフラ、ビザンチンフォールトトレラントな協調、または「インターネットレスモード」のオフライン運用を実証していません。Tiger Researchの分析は、ロボットが集中型信頼なしに分散型協調を活用できる能力を考慮すると、「ブロックチェーンは人間よりもロボットにとってより適切なインフラである可能性がある」と結論付けています。モルガン・スタンレーが2050年までに10億体のヒューマノイドロボットを予測している中、Suiの専用ロボット工学インフラは、自律システムがID、支払い、契約、協調を必要とする新興ロボット経済において、Suiがネイティブに提供するプリミティブにより、先駆者としての優位性を生み出します。

Moveプログラミング言語の利点は、セキュリティを必要とする複雑なアプリケーションにおいて、SuiとAptosの両方をSolidityベースのチェーンよりも優位に立たせています。Moveのリソース指向モデルは、Solidityでは修正不可能な脆弱性のクラスを防ぎます。これは、2024年にEthereumでエクスプロイトにより11億ドル以上が失われたことからも明らかです。形式検証サポート、線形型システム、およびファーストクラスの資産抽象化により、Moveは貴重な資産を自律的に管理するAIエージェントに特に適しています。Sui Moveのオブジェクト中心のバリアント(口座ベースのDiem Moveとは対照的に)は、共通の言語遺産にもかかわらず、Aptosでは利用できない並列実行の利点を可能にします。

実世界での実装が技術的能力を検証

Suiの本番環境での展開は、プラットフォームがAI、ロボット工学、量子ドメイン全体で技術的可能性から実用的な有用性へと移行していることを示しています。

AIインフラの成熟度は、Atoma Networkの2024年12月のメインネットローンチによる本番AI推論の提供、Talusの2025年2月のNexusフレームワーク展開による構成可能なエージェントワークフローの実現、そしてコスタス・チャルキアスが支援するSwarm Networkの1300万ドルの資金調達ラウンドでSui上で10,000以上のAIエージェントライセンスが販売されたことなど、明確な牽引力を示しています。Alibaba Cloudとの提携は、AIコーディングアシスタントが開発者ツールに統合されたエンタープライズグレードの検証を提供し、投機的なアプリケーションを超えた戦略的コミットメントを実証しています。OpenGraph LabsがSui AI Typhoon HackathonでオンチェーンML推論で1位を獲得したことは、専門家審査員によって認められた技術革新を示しています。

製造ロボット工学は、3DOSの120カ国以上にわたる79,909台のプリンターネットワークを通じて商業規模に達し、NASA、米海軍、米空軍、John Deere、Googleにサービスを提供しています。これは、世界最大のブロックチェーン統合製造ネットワークであり、420万以上の部品を処理し、50万人以上のユーザーを抱えています。ロボットが自律的に交換部品を注文できるピアツーピアモデルは、産業規模での協調オーバーヘッドを排除するスマートコントラクト自動化を実証しており、信頼性とセキュリティを要求する政府および航空宇宙クライアントによって概念実証が検証されています。

財務指標は、5億3800万ドルのTVL、1760万の月間アクティブウォレット(2025年2月ピーク)、および160億ドルを超えるSUIトークン時価総額で、採用が拡大していることを示しています。Mysten Labsは、a16z、Binance Labs、Coinbase Ventures、Jump Cryptoの支援を受けて30億ドル以上の評価額を達成し、技術的可能性の機関による検証を得ています。スイスの銀行(Sygnum、Amina Bank)がSuiのカストディと取引を提供することで、伝統的な金融のオンランプが提供され、Grayscale、Franklin Templeton、VanEckの機関向け商品は主流の認知度を示しています。

開発者エコシステムの成長は、包括的なツール(TypeScript、Rust、Python、Swift、Dart、Golang SDK)、ChainIDEのAIコーディングアシスタント、および勝者の50%がAIアプリケーションに焦点を当てた活発なハッカソンプログラムにより、持続可能性を示しています。メインネット上の122のアクティブなバリデーターは、パフォーマンスを維持しながら十分な分散化を提供し、高度に集中化された代替手段よりもセキュリティとスループットのバランスを向上させています。

戦略的ビジョンがSuiをコンバージェンス時代に位置づける

コスタス・チャルキアスとMysten Labsのリーダーシップは、狭いユースケースや漸進的な改善に焦点を当てる競合他社からSuiを区別する、一貫した長期ビジョンを明確に示しています。

チャルキアスの**「最終的に、ブロックチェーンはトランザクション速度においてVisaさえも凌駕するでしょう。それが常識となるでしょう。これからは逃れられないと思います」**という大胆な予測は、その未来を可能にするアーキテクチャ上の決定に裏打ちされた技術的軌道への自信を示しています。Mysten Labsが「今日のAppleを超える可能性がある」という彼の発言は、漸進的なDeFiアプリケーションではなく、次世代コンピューティングのための基盤インフラを構築するという野心に基づいています。息子を「クリプトス」(ギリシャ語で「秘密/隠された」の意)と名付けた決定は、文明のインフラとしての暗号技術革新への個人的なコミットメントを象徴しています。

AI、ロボット工学、量子コンピューティングを統合する三本柱戦略は、相互に強化し合う利点を生み出します。量子耐性暗号は、自律的に動作するAIエージェントの長期的な資産セキュリティを可能にします。サブ秒のファイナリティは、リアルタイムのロボット制御ループをサポートします。並列実行は、数千のAIエージェントが同時に協調することを可能にします。オブジェクトモデルは、AIエージェントの状態とロボットデバイスの表現の両方に自然な抽象化を提供します。このアーキテクチャの一貫性は、目的を持ったプラットフォーム設計を後付け機能から区別します。

Sui Basecamp 2025での技術発表は、ネイティブな検証可能な乱数(AI推論のオラクル依存を排除)、Sui上で直接プライベートビデオ通話を可能にするzkトンネル、緊急時のゼロガス操作のためのライトニングトランザクション、および暗号化された将来のデータアクセス用のタイムカプセルなど、継続的な革新を示しています。これらの機能は、学術的な演習ではなく、実際のユーザーの問題(プライバシー、信頼性、アクセシビリティ)に対処しており、信頼できる乱数を必要とするAIエージェント、オフライン運用が必要なロボットシステム、機密データのための量子耐性暗号化など、明確なアプリケーションがあります。

ヘルスケアデータ管理から個人データ所有権、ロボット工学に至るまで、**「幅広いアプリケーションのための協調レイヤー」**としての位置づけは、金融投機を超えたプラットフォームの野心を反映しています。チャルキアスがヘルスケアデータの非効率性を共通データベースを必要とする問題として特定したことは、狭いブロックチェーン愛好家のニッチではなく、社会インフラについての思考を示しています。このビジョンは、投機的なイールドファーミングではなく、長期プロジェクトのための信頼できるインフラを求める研究機関、ハードウェアスタートアップ、政府を引き付けます。

技術ロードマップが実行可能なタイムラインを提供

Suiの開発ロードマップは、3つの主要ドメインすべてにおいて、ビジョンから実装への進捗を示す具体的なマイルストーンを提供します。

量子耐性タイムラインはNISTの指令に合致しています。2025-2027年に暗号技術の俊敏性インフラとテストを完了し、2028-2030年にハイブリッドPreQ-PQ運用を伴うDilithium/FALCON署名のプロトコルアップグレードを導入し、2030-2035年に古典的アルゴリズムを廃止する完全なポスト量子移行を達成します。複数の移行パス(プロアクティブ、アダプティブ、ハイブリッド)は、単一の採用戦略を強制することなく、異なるユーザーセグメントに柔軟性を提供します。ハッシュ関数の384ビット出力へのアップグレードとzkLogin PQ-zkSNARK研究は並行して進められ、断片的なパッチではなく包括的な量子対応を保証します。

AIインフラの拡張は、Walrusメインネットのローンチ(2025年第1四半期)によるAIモデルの分散型ストレージ提供、Talus Nexusフレームワークによる構成可能なエージェントワークフローの実現(2025年2月展開)、およびNautilus TEEフレームワークが現在のAWS Nitro Enclavesサポートを超えてIntel TDXおよびAMD SEVに拡張されるなど、明確なマイルストーンを示しています。Alibaba Cloudとの提携ロードマップには、言語サポートの拡大、ChainIDEのより深い統合、および開発者コミュニティをターゲットとした香港、シンガポール、ドバイでのデモデーが含まれます。OpenGraphのオンチェーン推論エクスプローラーとTensorflowSui SDKの成熟は、理論的なフレームワークを超えたAI開発者向けの実用的なツールを提供します。

ロボット工学能力の進歩は、マルチロボット協調デモから3DOSネットワーク拡張、電波による「インターネットレスモード」トランザクション機能、ゼロガスロボットコマンドを可能にするzkTunnelsを備えた本番環境への展開へと進んでいます。ビザンチンフォールトトレランス、サブ秒の協調ループ、自律的なM2M支払いをサポートする技術アーキテクチャは今日存在しており、採用の障壁は技術的な制限ではなく、教育とエコシステム構築にあります。NASA、Meta、Uberの卒業生が関与していることは、学術研究プロジェクトではなく、現実世界のロボット工学の課題に取り組む真剣なエンジニアリングの才能を示しています。

プロトコル改善には、80%のレイテンシー削減優位性を維持するMysticetiコンセンサス改良、Pilotfishマルチマシン実行による水平スケーリング、および増大する状態のためのストレージ最適化が含まれます。チェックポイントシステム(約3秒ごと)は、AIトレーニングデータとロボット工学の監査証跡のための検証可能なスナップショットを提供します。トランザクションサイズが1バイトのプリセット形式に縮小されることで、IoTデバイスの帯域幅要件が削減されます。スポンサードトランザクションの拡張は、シームレスなWeb2のようなUXを必要とする消費者向けアプリケーションのガス摩擦を排除します。

技術的卓越性がSuiを高度なコンピューティングの優位性に位置づける

技術アーキテクチャ、リーダーシップのビジョン、実世界での実装、および競争上の位置づけに関する包括的な分析により、SuiがAI、ロボット工学、量子コンピューティングの収束に独自に備えたブロックチェーンプラットフォームであることが明らかになります。

Suiは、測定されたパフォーマンス指標を通じて技術的優位性を達成しています。480ミリ秒のファイナリティで297,000 TPSは、すべての主要な競合他社を凌駕し、より遅いチェーンでは不可能なリアルタイムAIエージェント協調とロボット制御を可能にします。オブジェクト中心データモデルとMove言語のセキュリティの組み合わせは、口座ベースのアーキテクチャを悩ませる脆弱性のクラスを防ぐプログラミングモデルの利点を提供します。最初から設計された(後付けではない)暗号技術の俊敏性は、ハードフォークやガバナンスの争いなしに量子耐性移行を可能にします。これらの機能は、理論的なホワイトペーパーや遠いロードマップとしてではなく、今日、122のバリデーターを持つメインネットで本番環境に存在しています。

コスタス・チャルキアスの50以上の出版物、8つの米国特許、および暗号技術革新(zkLogin、BPQS、Winterfell STARK、HashWires)を通じた先見の明のあるリーダーシップは、技術的には有能だが想像力に欠ける競合他社からSuiを区別する知的基盤を提供します。彼の量子コンピューティングの画期的な研究(2025年7月)、AIインフラサポート(Swarm Networkの支援)、および公開コミュニケーション(Token 2049、Korea Blockchain Week、London Real)は、トップティアの開発者や機関パートナーを引き付けるソートリーダーシップを確立しています。四半期ごとの指標ではなく、2030年以降のタイムフレームでアーキテクチャを設計する意欲は、プラットフォームインフラに必要な長期的な戦略的思考を示しています。

本番環境での展開(AtomaメインネットAI推論、3DOSの79,909台のプリンターネットワーク、Talusエージェントフレームワーク)を通じたエコシステムの検証は、技術的能力が実世界の有用性につながることを証明しています。機関パートナーシップ(Alibaba Cloud、スイス銀行のカストディ、Grayscale/Franklin Templeton製品)は、ブロックチェーンネイティブの愛好家を超えた主流の認知度を示しています。開発者成長指標(ハッカソン勝者の50%がAIに焦点を当て、包括的なSDKカバレッジ、AIコーディングアシスタント)は、長期的な採用をサポートする持続可能なエコシステム拡張を示しています。

ロボット経済、量子耐性金融システム、自律型AIエージェント協調のためのブロックチェーンインフラとしての戦略的ポジショニングは、既存のブロックチェーンユースケースの漸進的な改善に焦点を当てる競合他社とは異なる差別化された価値提案を生み出します。モルガン・スタンレーが2050年までに10億体のヒューマノイドロボットを予測し、NISTが2030年までに量子耐性アルゴリズムを義務付け、マッキンゼーがエージェントAIから40%の生産性向上を予測している中、Suiの技術的能力は、分散型インフラを必要とするマクロな技術トレンドと正確に合致しています。

ブロックチェーン上で高度なコンピューティングアプリケーションを構築する組織にとって、Suiは比類ない技術的能力(297K TPS、480ミリ秒のファイナリティ)、未来志向の量子耐性アーキテクチャ(最初から量子対応を設計した唯一のブロックチェーン)、実績のあるロボット工学インフラ(マルチロボット協調を実証した唯一のブロックチェーン)、優れたプログラミングモデル(Move言語のセキュリティと表現力)、およびシーケンシャル実行チェーンでは物理的に不可能なAI/ロボット工学アプリケーションを可能にするリアルタイムパフォーマンスを提供します。このプラットフォームは、漸進的な改善ではなく、ブロックチェーンの次の10年間のための根本的なアーキテクチャの再考を表しています。

Suiの自律型インテリジェンスのための量子対応基盤

· 約41分
Dora Noda
Software Engineer

Suiブロックチェーンは、その基盤となる暗号技術的俊敏性とオブジェクト中心のアーキテクチャにより、競合他社とは一線を画し、AI統合、ロボット協調、量子耐性セキュリティを同時に推進する唯一の主要なレイヤー1ブロックチェーンとしての地位を確立しています。これはマーケティング上のポジショニングではなく、アーキテクチャ上の現実です。共同創設者兼チーフクリプトグラファーのコスタス・「クリプトス」・チャルキアスは、Suiのコアデザインにこれらの機能を当初から体系的に組み込み、彼が「Visaの速度さえも凌駕する」と表現するインフラを構築し、同時に10年以内に「すべての現代暗号技術を破壊する」可能性のある量子脅威に対して安全性を維持しています。

技術基盤はすでに本番環境に対応しています。390ミリ秒のコンセンサスファイナリティによりリアルタイムAIエージェント協調が可能になり、並列実行はピーク時に1秒あたり297,000トランザクションを処理し、EdDSA署名スキームはハードフォークを必要とせずにポスト量子暗号への実績ある移行パスを提供します。一方、BitcoinとEthereumは、後方互換性のあるアップグレードパスがないまま、量子コンピューティングによる存続の危機に直面しています。チャルキアスのビジョンは、3つの収束する柱に焦点を当てています。AIを協調レイヤーとして、サブ秒のファイナリティを必要とする自律型ロボットシステム、そして2035年以降も安全性を維持する暗号フレームワークです。会議、研究論文、技術実装における彼の発言は、投機的な約束ではなく、2022年のMysten Labs設立時に確立されたロードマップの体系的な実行を示しています。

これはブロックチェーンの部族主義を超えて重要です。2030年までに、NISTの指令により現在の暗号化標準は廃止される必要があります。製造ロボットからAIエージェントに至るまでの自律型システムは、大規模なトラストレスな協調を必要とします。Suiのアーキテクチャは、競合他社が解決策を後付けしようと奔走する中、これら両方の不可避性を同時に解決します。問題はこれらの技術が収束するかどうかではなく、どのプラットフォームがその収束を無傷で乗り切るかです。

息子をクリプトスと名付けた暗号学者

コスタス・チャルキアスは、ブロックチェーンと新興技術の交差点に並外れた信頼性をもたらします。Mysten Labsを共同設立する前は、MetaのDiemプロジェクトとNoviウォレットのリードクリプトグラファーを務め、R3のCordaブロックチェーンでマイク・ハーン(サトシ・ナカモトに関連するBitcoinの最初の開発者の一人)と協力し、50以上の科学論文、8つの米国特許、1,374の学術引用を持つIDベース暗号の博士号を取得しています。彼のこの分野への献身は、息子をクリプトスと名付けるほどです。「私はブロックチェーンと暗号技術に深く関わっているので、妻を説得してクリプトスという名前の子供を授かることができました」と、Suiブログのインタビューで彼は説明しました。

彼のキャリアの軌跡は、大規模な実用暗号技術への一貫した焦点を明らかにしています。Facebookでは、WhatsAppのセキュリティインフラと数十億人に対応する認証システムを構築しました。R3では、エンタープライズブロックチェーン向けのゼロ知識証明とポスト量子署名を先駆的に開発しました。彼の初期のキャリアには、株式市場のテクニックを使用してサッカーの試合結果を予測するAI搭載プラットフォームであるBetmanagerの設立が含まれており、この経験がブロックチェーンとAIの統合に関する現在の彼の視点に影響を与えています。AIへの露出、本番環境での暗号技術、ブロックチェーンインフラのこの融合は、彼をこれらのドメインを結びつけるシステムを設計する上で独自の位置づけにしています。

チャルキアスの技術哲学は、「暗号技術的俊敏性」を重視しています。これは、永続性を前提とするのではなく、基盤となるプロトコルに柔軟性を組み込むことです。プラハで開催されたEmergence Conference(2024年12月)で、彼はこの世界観を明確に述べました。「最終的に、ブロックチェーンはトランザクション速度でVisaさえも凌駕するでしょう。それが常識となるでしょう。これにどうやって逃れられるのか分かりません。」しかし、速度だけでは十分ではありません。彼の仕事は、パフォーマンスと将来を見据えたセキュリティを一貫して組み合わせ、量子コンピューターが今日行動を必要とする脅威をもたらしていることを認識しており、危険が現実化するまで待つべきではありません。この二重の焦点、つまり現在のパフォーマンスと将来の回復力が、AI、ロボット工学、量子耐性におけるSuiのアーキテクチャ上の決定を定義しています。

インテリジェントエージェントのために構築されたアーキテクチャ

Suiの技術基盤は、EthereumやSolanaのようなアカウントベースのブロックチェーンとは根本的に異なります。すべてのエンティティは、グローバルに一意な32バイトのID、バージョン番号、所有権フィールド、および型付けされたコンテンツを持つオブジェクトとして存在します。このオブジェクト中心モデルは、美的嗜好ではなく、大規模な並列実行を可能にするものです。AIエージェントが所有オブジェクトとして動作する場合、単一ライター操作ではコンセンサスを完全にバイパスし、約400ミリ秒のファイナリティを実現します。複数のエージェントが共有オブジェクトを介して協調する場合、SuiのMysticetiコンセンサスは390ミリ秒のレイテンシを提供します。これは依然としてサブ秒ですが、ビザンチンフォールトトレラントな合意を介して行われます。

MetaのDiemのために開発され、Sui向けに強化されたMoveプログラミング言語は、型システムレベルでリソースの安全性を強制します。資産は、許可なく誤ってコピー、破壊、または作成されることはありません。貴重なデータやモデルの重みを管理するAIアプリケーションにとって、これはSolidityスマートコントラクトを悩ませる脆弱性クラス全体を防ぎます。チャルキアスは、ドバイで開催されたSui Basecamp 2025でこれを強調しました。「私たちは、Suiにゼロ知識証明とプライバシー保護技術を最初から導入しました。そのため、誰もが望むだけのプライバシーを持つKYCシステムを作成できるようになりました。」

明示的な依存関係宣言により、並列トランザクション実行は理論上の限界に達します。遡及的な検証を必要とするオプティミスティック実行とは異なり、Suiのスケジューラは、一意のオブジェクトIDを介して重複しないトランザクションを事前に識別します。独立した操作は、バリデーターコア間で干渉なく並行して実行されます。このアーキテクチャは、テストでピーク時297,000 TPSのスループットを実証しました。これは理論上の最大値ではなく、本番ハードウェアで測定されたパフォーマンスです。AIアプリケーションにとって、これは数千の推論リクエストが同時に処理され、複数の自律型エージェントがブロックすることなく協調し、リアルタイムの意思決定が人間が知覚できる速度で動作することを意味します。

2024年に導入されたMysticetiコンセンサスプロトコルは、チャルキアスと共同著者が数学的に最適であることを証明したものを達成します。それはコミットメントのための3つのメッセージラウンドです。明示的なブロック認証を排除し、未認証のDAG構造を実装することで、Mysticetiは以前のNarwhal-Bullsharkコンセンサスからレイテンシを80%削減しました。このプロトコルは、DAGパターンから導出された直接的および間接的な決定ルールを使用して、2ラウンドごとではなく毎ラウンドブロックをコミットします。リアルタイムの制御フィードバックを必要とするロボットアプリケーションにとって、このサブ秒のファイナリティは譲れないものとなります。Korea Blockchain Week 2025で、チャルキアスはSuiを「アプリケーションとAIのための協調レイヤー」と位置づけ、決済、ゲーム、AIのパートナーがこのパフォーマンス基盤をどのように活用しているかを強調しました。

Walrus: AIのデータ問題を解決する

AIワークロードは、従来のブロックチェーン経済学と互換性のない規模のストレージを必要とします。トレーニングデータセットはテラバイト規模に及び、モデルの重みはギガバイトを必要とし、推論ログは急速に蓄積されます。Suiは、Walrusという分散型ストレージプロトコルを通じてこれに対処します。これは、オンチェーンストレージに典型的な100倍のレプリケーションではなく、消失訂正符号を使用して4〜5倍のレプリケーションを実現します。「Red Stuff」アルゴリズムは、データをスライバーに分割し、ストレージノード全体に分散させ、2/3のノードが利用できない場合でも回復可能です。メタデータと可用性証明はSuiのブロックチェーン上に存在し、実際のデータはWalrusに格納され、エクサバイト規模で暗号的に検証可能なストレージを作成します。

Walrusテストネットの最初の1ヶ月で、ネットワークは25以上のコミュニティノードにわたって4,343 GBを超えるデータを保存し、アーキテクチャの実現可能性を検証しました。TradePort、Tusky、Decrypt Mediaなどのプロジェクトは、メディアの保存と取得のためにWalrusを統合しました。AIアプリケーションにとって、これは実用的なシナリオを可能にします。ライセンス条件がスマートコントラクトにエンコードされたプログラマブルアセットとしてトークン化されたトレーニングデータセット、バージョン管理されたモデルの重み、監査証跡のために不変にログに記録された推論結果、費用対効果の高いAI生成コンテンツの保存などです。Sui初のブロックチェーン統合パートナーとして発表されたAtoma NetworkのAI推論レイヤーは、自動コード生成、ワークフロー自動化、DeFiリスク分析のためにこのストレージ基盤を活用しています。

統合はストレージを超えて計算オーケストレーションにまで及びます。Suiのプログラマブルトランザクションブロック(PTB)は、最大1,024の異種操作をアトミックにバンドルし、オールオアナッシングで実行します。AIワークフローは、Walrusからトレーニングデータを取得し、スマートコントラクトでモデルの重みを更新し、オンチェーンで推論結果を記録し、データ貢献者に報酬を分配する、これらすべてを単一のアトミックトランザクションで行うことができます。このコンポーザビリティは、Moveの型安全性と組み合わされ、他の環境でのクロスコンタクトコールの脆弱性なしに、複雑なAIシステムのためのビルディングブロックを作成します。

チャルキアスは、Just The Metricsポッドキャスト(2025年7月)で、マーケティングよりも機能性を強調し、「ヘルスケアデータ管理における非効率性」を実用的な応用分野として指摘しました。ヘルスケアAIは、機関間の協調、機密データのプライバシー保護、規制遵守のための検証可能な計算を必要とします。Suiのアーキテクチャは、オンチェーン協調、Walrusストレージ、ゼロ知識プライバシーを組み合わせることで、これらの要件を概念的にではなく技術的に解決します。2024年に発表されたGoogle Cloudとの提携は、SuiデータをBigQueryに統合して分析を行い、GoogleのVertex AIプラットフォームをMove言語でトレーニングしてAI支援開発を行うことで、この方向性を強化しました。

ロボットがサブ秒決済を必要とするとき

ロボット工学のビジョンは、発表されたパートナーシップよりも技術的な能力を通じてより具体的に実現されます。Suiのオブジェクトモデルは、ロボット、ツール、タスクを、きめ細かなアクセス制御を備えたファーストクラスのオンチェーン市民として表現します。ロボットがアカウントレベルの権限を介してやり取りするアカウントベースのシステムとは異なり、Suiのオブジェクトは、基本的な操作からマルチシグネチャ要件を持つ完全な制御まで、多段階の権限システムを可能にします。PassKeysとFaceIDの統合はヒューマン・イン・ザ・ループのシナリオをサポートし、zkTunnelsはリアルタイムのリモート操作のためのガスフリーコマンド送信を可能にします。

ソーシャルメディアでの議論中、チャルキアス(「Kostas Kryptos」として投稿)は、NASA、Meta、Uber出身のSuiエンジニアがネットワーク上で犬のような四足歩行ロボットをテストしていることを明らかにしました。オブジェクトベースのアーキテクチャはロボット工学の協調に適しています。各ロボットは、その状態と能力を表すオブジェクトを所有し、タスクは実行パラメータを持つ転送可能なオブジェクトとして存在し、リソース割り当ては集中管理ではなくオブジェクト構成を通じて行われます。製造施設では、各ユニットが自律的にタスクを受け入れ、共有オブジェクトを通じてピアと協調し、暗号検証付きで操作を実行し、提供されたサービスに対するマイクロペイメントを決済するロボットフリートを展開できます。これらすべては、中央機関や人間の介入なしに行われます。

Sui Basecamp 2025とLondon Realポッドキャスト(2025年4月)で議論された「インターネットレス」トランザクションモードは、ロボット工学の現実世界の制約に対処します。チャルキアスは、スペインとポルトガルでの停電中にシステムが機能を維持した方法について説明し、プリセット形式を使用してトランザクションサイズが単一バイトに最適化されたことを述べました。災害地域、農村地域、または信頼性の低い接続環境で動作する自律型システムにとって、この回復力は極めて重要になります。ロボットはピアツーピアで即座に協調するためにトランザクションを実行し、接続が回復したときに広範なネットワークと同期できます。

3DOSプロジェクトは、このビジョンを実用的に例示しています。これは、マシンが自律的に部品を印刷するオンデマンド製造を可能にするブロックチェーンベースの3Dプリンティングネットワークです。将来のイテレーションでは、コンポーネントの故障を検出し、スマートコントラクトを介して交換品を注文し、オンチェーンディスカバリを通じて近くの3Dプリンターを特定し、印刷と配送を調整し、コンポーネントをインストールする自己修復ロボットが想定されています。これらはSFではなく、既存の機能の論理的な拡張です。ESP32とArduinoマイクロコントローラの統合はすでに基本的なIoTデバイスをサポートしており、BugDarはロボットスマートコントラクトのセキュリティ監査を提供し、マルチシグネチャ承認は重要な操作に対する人間の監視を伴う段階的な自律性を可能にします。

量子時計は刻々と進んでいる

コスタス・チャルキアスの口調は、量子コンピューティングについて語るとき、哲学的から緊急へと変わります。2025年7月の研究報告書で、彼は率直に警告しました。「政府は量子コンピューティングがもたらすリスクを十分に認識しています。世界中の機関は、ECDSAやRSAのような古典的なアルゴリズムを2030年または2035年までに廃止するよう指令を出しています。」彼のTwitterでの発表は、Mysten Labsの画期的な研究がIACR ePrint Archiveに公開されたことと同時に行われ、Sui、Solana、Near、CosmosのようなEdDSAベースのブロックチェーンが、BitcoinやEthereumにはない量子移行のための構造的優位性を持っていることを示しました。

この脅威は、大きな数を効率的に因数分解するショアのアルゴリズムを実行する量子コンピューターに由来します。これは、RSA、ECDSA、BLS暗号の数学的困難さの根底にあるものです。105キュービットを持つGoogleのWillow量子プロセッサは、古典的な暗号化を破ることができるマシンへの加速された進歩を示しています。「今保存して後で解読する」攻撃は緊急性を高めます。敵対者は今日暗号化されたデータを収集し、量子コンピューターがそれを遡及的に解読するのを待ちます。ブロックチェーン資産について、チャルキアスはDecrypt Magazineに次のように説明しました。「誰かがBitcoinやEthereumの秘密鍵をまだ持っていたとしても、ポスト量子安全な所有権の証明を生成できない可能性があります。これは、その鍵が元々どのように生成されたか、そしてその関連データが時間の経過とともにどれだけ露出されたかに起因します。」

Bitcoinの特定の脆弱性は、公開鍵が露出している「スリーピング」ウォレットに由来します。サトシ・ナカモトの推定100万BTCは、ハッシュ化されたアドレスの背後に隠されるのではなく、公開鍵がオンチェーンで可視化されるペイ・トゥ・パブリック・キー形式を使用する初期のアドレスに存在します。量子コンピューターが十分にスケールアップすると、これらのウォレットは即座に空にされる可能性があります。チャルキアスの評価は次のとおりです。「量子コンピューターが登場すると、サトシのウォレットを含む数百万のウォレットが即座に空にされる可能性があります。公開鍵が可視であれば、最終的には解読されるでしょう。」Ethereumも同様の課題に直面していますが、露出した公開鍵が少ないため、差し迫ったリスクは軽減されています。両チェーンは、ポスト量子アルゴリズムに関するコンセンサスが形成されると仮定して、移行のために前例のない協調を伴うコミュニティ全体のハードフォークを必要とします。

SuiのEdDSA基盤は、エレガントな回避策を提供します。ECDSAのランダムな秘密鍵とは異なり、EdDSAはRFC 8032に従ってハッシュ関数を使用してシードから決定論的に鍵を導出します。この構造的な違いにより、楕円曲線データを露出することなく、基盤となるシードの知識を証明するzk-STARKs(ポスト量子安全)を介したゼロ知識証明が可能になります。ユーザーは同じシードのランダム性からポスト量子鍵ペアを構築し、同一の所有権を実証するZK証明を提出し、アドレスを維持しながら量子安全スキームに移行できます。ハードフォークは必要ありません。チャルキアスは2022年6月のSui AMAでこれを詳述しました。「EdDSAのような決定論的アルゴリズムを使用している場合、内部でハッシュ関数を使用するため、Stark証明を使用してEdDSA鍵生成における秘密鍵のピラミッドの知識を証明する方法があります。」

戦略的堀としての暗号技術的俊敏性

Suiは、コードベース全体で統一された型エイリアスを介して、複数の署名スキームを同時にサポートしています。EdDSA(Ed25519)、ECDSA(Ethereum互換性のため)、および計画されているポスト量子アルゴリズムです。チャルキアスは、暗号技術における永続性が幻想であることを認識し、この「暗号技術的俊敏性」を設計しました。このアーキテクチャは、セキュリティシステム全体を再構築するのではなく、「ロックコアを交換する」ことに似ています。NIST推奨のポスト量子アルゴリズムが展開されるとき、署名にはCRYSTALS-Dilithium、コンパクトな代替にはFALCON、ハッシュベーススキームにはSPHINCS+が、Suiは基本的なプロトコルの書き換えではなく、簡単な更新を通じてそれらを統合します。

移行戦略は、プロアクティブなアプローチと適応的なアプローチのバランスを取ります。新しいアドレスの場合、ユーザーは作成時にポスト量子鍵が事前量子公開鍵に署名するPQ-signs-PreQ構成を生成でき、将来のスムーズな移行を可能にします。既存のアドレスの場合、zk-STARK証明方法は、量子安全な所有権を証明しながらアドレスを維持します。階層化された防御は、高価値データを優先します。ウォレットの秘密鍵は即座にPQ保護を受け、一時的なプライバシーデータはより遅いアップグレードパスをたどります。ハッシュ関数の出力は、グローバーのアルゴリズムに対する衝突耐性のために256ビットから384ビットに拡張され、対称暗号化鍵長は2倍になります(AESはより大きな鍵で量子耐性を維持します)。

ゼロ知識証明システムは慎重な検討が必要です。Groth16(現在zkLoginを動かしている)のような線形PCPは、量子攻撃に対して脆弱なペアリングフレンドリーな楕円曲線に依存しています。Suiの移行ロードマップは、ハッシュベースのSTARKシステム(Mysten Labsが共同開発したWinterfellはハッシュ関数のみを使用し、おそらくポスト量子安全性を維持します)へと移行します。zkLoginの移行は、内部回路を更新しながら同じアドレスを維持し、OpenIDプロバイダーがPQ-JWTトークンを採用する際に協調を必要とします。ランダム性ビーコンと分散鍵生成プロトコルは、しきい値BLS署名からHashRandやHERBスキームのような格子ベースの代替へと移行します。これらはオンチェーンAPIには見えない内部プロトコルの変更です。

チャルキアスの専門知識はここで極めて重要です。BPQS(Blockchain Post-Quantum Signature)、XMSSハッシュベーススキームのバリアントの著者として、彼は理論的知識を超えた実装経験をもたらします。彼の2022年6月のコミットメントは先見の明がありました。「私たちは、ボタン一つで人々がポスト量子鍵に実際に移行できるような方法でチェーンを構築します。」NISTの期限、つまり古典的アルゴリズムの廃止が2030年、完全なPQ採用が2035年は、タイムラインを劇的に圧縮します。Suiの先行は有利な位置につけていますが、チャルキアスは緊急性を強調します。「もしあなたのブロックチェーンがソブリン資産、暗号通貨の国家財産、ETF、またはCBDCをサポートしているなら、あなたのコミュニティが長期的な信頼性と大規模採用を重視するならば、間もなくポスト量子暗号標準を採用することが求められるでしょう。」

AIエージェントはすでに18億ドルの価値を生み出している

エコシステムはインフラを超えて本番アプリケーションへと移行しています。ブロックチェーンデータ追跡と分析に特化したDolphin Agent(DOLA)は、18億ドル以上の時価総額を達成し、AI強化型ブロックチェーンツールの需要を検証しました。SUI Agentsは、Twitterペルソナ作成、トークン化、分散型エコシステム内での取引を伴うワンクリックAIエージェント展開を提供します。Sentient AIは、Suiのセキュリティとスケーラビリティを活用した会話型チャットボットのために150万ドルを調達しました。DeSci Agentsは、エピタロンやラパマイシンなどの科学的化合物を24時間365日AI駆動のエンゲージメントを通じて促進し、トークンペアリングを通じて研究と投資を結びつけます。

Sui初のブロックチェーンAI推論パートナーとしてのAtoma Networkの統合は、自動コード生成と監査、ワークフロー自動化、DeFiリスク分析、ゲームアセット生成、ソーシャルメディアコンテンツ分類、DAO管理にわたる機能を実現します。このパートナーシップの選択は、技術的要件を反映していました。Atomaは、インタラクティブAIのための低レイテンシ、スケールのための高スループット、AI資産のための安全な所有権、検証可能な計算、費用対効果の高いストレージ、プライバシー保護オプションを必要としていました。Suiはこれら6つすべてを提供しました。Sui Basecamp 2025で、チャルキアスはAeon、AtomaのAIエージェント、Nautilusの検証可能なオフチェーン計算に関する作業などのプロジェクトを、「Suiがインテリジェントで分散型システムの次の波の基盤としてどのように機能するか」の例として強調しました。

Google Cloudとの提携は、分析のためのSuiブロックチェーンデータへのBigQueryアクセス、AI支援開発のためのMoveプログラミング言語でのVertex AIトレーニング、簡素化されたアクセスのためのOAuth認証情報(Google)を使用したzkLoginサポート、およびネットワークパフォーマンスとスケーラビリティをサポートするインフラストラクチャを通じて統合を深めます。Alibaba CloudのChainIDE統合は、Moveコード生成のための自然言語プロンプトを可能にします。開発者は英語、中国語、または韓国語で「10% APYのステーキングコントラクトを作成する」と書くと、構文的に正しく、文書化され、セキュリティチェック済みのMoveコードを受け取ることができます。このAI支援開発は、Moveの安全保証を維持しながら、ブロックチェーン構築を民主化します。

AIアプリケーションにとって、技術的優位性は複合的に作用します。オブジェクト所有権モデルは、独立して動作する自律型エージェントに適しています。並列実行は、干渉なく数千の同時AI操作を可能にします。サブ秒のファイナリティは、インタラクティブなユーザーエクスペリエンスをサポートします。Walrusストレージは、トレーニングデータセットを経済的に処理します。スポンサー付きトランザクションは、ユーザーのガス料金の摩擦を取り除きます。zkLoginは、シードフレーズの障壁を排除します。プログラマブルトランザクションブロックは、複雑なワークフローをアトミックにオーケストレーションします。形式検証オプションは、AIエージェントの正確性を数学的に証明します。これらは disconnectedな機能ではなく、一貫した開発環境を形成する統合された機能です。

競合他社の比較

Suiのピーク時297,000 TPSと390ミリ秒のコンセンサスレイテンシは、Ethereumの平均11.3 TPSと12〜13分のファイナリティを桁違いに上回ります。最も近いパフォーマンス競合であるSolanaと比較すると、Solanaの400ミリ秒のスロットタイムにもかかわらず、Suiは32倍速いファイナリティ(0.4秒対12.8秒)を達成します。これは、Solanaが経済的ファイナリティのために複数の確認を必要とするためです。Phoenix Groupの2025年8月の実測レポートでは、Suiが3,900 TPSを処理したのに対し、Solanaは92.1 TPSであり、理論上のパフォーマンスではなく運用上のパフォーマンスを反映しています。Suiのトランザクションコストは予測可能で低く(平均約0.0087ドル、1セント未満)、Solanaの過去の混雑や停止問題はありません。

アーキテクチャの違いがパフォーマンスのギャップを説明します。Suiのオブジェクト中心モデルは、固有の並列化を可能にします。1秒あたり300,000の単純な転送は、コンセンサス協調を必要としません。EthereumとBitcoinは、すべてのトランザクションを完全なコンセンサスを通じて順次処理します。SolanaはSealevelを通じて並列化しますが、遡及的な検証を必要とするオプティミスティック実行を使用します。同じくMove言語を使用するAptosは、Suiの状態アクセス方式ではなく、Block-STMオプティミスティック実行を実装しています。予測可能な低レイテンシを必要とするAIおよびロボット工学アプリケーションにとって、Suiの明示的な依存関係宣言は、オプティミスティックなアプローチでは保証できない決定論を提供します。

量子ポジショニングはさらに顕著に異なります。BitcoinとEthereumはsecp256k1 ECDSA署名を使用しており、後方互換性のあるアップグレードパスはありません。量子移行には、ハードフォーク、アドレス変更、資産移行、およびチェーン分割を引き起こす可能性のあるコミュニティガバナンスが必要になります。SolanaはSuiのEdDSAの利点を共有しており、同様のzk-STARK移行戦略を可能にし、Winternitz Vaultハッシュベースワンタイム署名を導入しています。NearとCosmosもEdDSAの恩恵を受けています。AptosはEd25519を使用していますが、量子対応ロードマップはそれほど開発されていません。チャルキアスの2025年7月の研究論文は、「Sui、Solana、Near、Cosmos、その他のEdDSAベースのチェーンには有効だが、BitcoinとEthereumには有効ではない」と明確に述べています。

エコシステムの成熟度は一時的に競合他社に有利に働きます。Solanaは2020年に立ち上げられ、確立されたDeFiプロトコル、NFTマーケットプレイス、開発者コミュニティを持っています。Ethereumの2015年の立ち上げは、スマートコントラクト、機関投資家の採用、ネットワーク効果において先行者利益をもたらしました。Suiは2023年5月に立ち上げられ、わずか2年半ですが、20億ドル以上のTVLと65.9Kのアクティブアドレスが急速に成長しており、Solanaの1610万にははるかに及びません。技術的優位性は機会を生み出します。今日Suiで構築する開発者は、成熟した混雑したプラットフォームに参加するのではなく、エコシステムの成長のために位置づけられます。チャルキアスのLondon Realインタビューは、この自信を反映しています。「正直なところ、Mysten Labsとそれが触れるものがAppleの今日の姿を凌駕したとしても、私は全く驚かないでしょう。」

一見異なるビジョン間の相乗効果

AI、ロボット工学、量子耐性の物語は、それらの技術的相互依存性を認識するまでは無関係に見えます。AIエージェントは低レイテンシと高スループットを必要とし、Suiはその両方を提供します。ロボット協調は、中央機関なしでのリアルタイム操作を要求し、Suiのオブジェクトモデルとサブ秒のファイナリティがそれを提供します。ポスト量子セキュリティは、暗号技術の柔軟性と将来を見据えたアーキテクチャを必要とし、Suiはこれを最初から構築しました。これらは別々の製品ラインではなく、2030年から2035年の技術ランドスケープにおける統一された技術要件です。

自律型製造を考えてみましょう。AIシステムは需要予測と材料の可用性を分析し、最適な生産スケジュールを決定します。ロボットエージェントは、ブロックチェーン協調を通じて検証済みの指示を受け取り、集中管理なしで真正性を確保します。各ロボットは、所有オブジェクトとしてタスクを並行して処理し、必要に応じて共有オブジェクトを通じて協調します。ロボットAがロボットBに材料を提供し、ロボットBがロボットCのためにコンポーネントを処理するなど、提供されたサービスに対するマイクロペイメントは即座に決済されます。システムは接続が途絶えた場合でもインターネットレスで機能し、ネットワークが回復したときに同期します。そして決定的に、すべての通信はポスト量子暗号スキームを通じて量子敵対者に対して安全に保たれ、「今保存して後で解読する」攻撃から知的財産と運用データを保護します。

ヘルスケアデータ管理は、もう一つの収束の例です。AIモデルは、暗号的可用性証明付きでWalrusに保存された医療データセットでトレーニングされます。ゼロ知識証明は患者のプライバシーを保護しながら研究を可能にします。ロボット手術システムは、監査証跡と責任文書のためにブロックチェーンを通じて協調します。ポスト量子暗号化は、機密性の高い医療記録を長期的な脅威から保護します。協調レイヤー(Suiのブロックチェーン)は、信頼なしでの機関間のデータ共有、プライバシーを侵害しないAI計算、および定期的なインフラ交換なしでの将来性のあるセキュリティを可能にします。

Sui Basecamp 2025でのチャルキアスのビジョンステートメントは、この統合を捉えています。Suiを「インテリジェントで分散型システムの次の波の基盤」として位置づけ、「AIネイティブで計算負荷の高いアプリケーションをサポートする能力を拡大している」と述べています。Suiを計算、Walrusをストレージ、Scionを接続性、zkLoginをIDとするモジュラーアーキテクチャは、チームメンバーが「狭い金融台帳」ではなく「ブロックチェーンオペレーティングシステム」と表現するものを生み出しています。インターネットレスモード、量子安全暗号、サブ秒のファイナリティは、機能チェックリストではなく、信頼性の低いインフラを持つ敵対的な環境で動作する自律型システムの前提条件です。

技術的リーダーシップを支えるイノベーション手法

Mysten Labsのアプローチを理解することで、実行の一貫性が説明されます。チャルキアスは、「Build Beyond」ブログ投稿でその哲学を明確に述べました。「Mysten Labsは、誰も実装したことのない、いくつかの仮定が正確ではないかもしれない新しい理論をこの分野で見つけるのが非常に得意です。しかし、私たちはそれを既存の技術と結びつけ、最終的にこれが新しい製品を生み出す原動力となります。」これは体系的なプロセスを表しています。実用的な可能性を秘めた学術研究を特定し、エンジニアリングの厳密さによって未検証の仮定に挑戦し、本番システムと統合し、展開を通じて検証します。

Mysticetiコンセンサスプロトコルがその例です。学術研究は、ビザンチンコンセンサスコミットメントの理論的最小値として3つのメッセージラウンドを確立しました。以前の実装では、ブロックごとにクォーラム署名を伴う1.5ラウンドトリップが必要でした。Mysten Labsは、明示的な認証を排除する未認証のDAG構造を設計し、投票メカニズムではなくDAGパターンを介して最適なコミットルールを実装し、以前のNarwhal-Bullsharkコンセンサスからレイテンシを80%削減しました。その結果、形式的証明とパフォーマンスベンチマークを伴う査読済み論文が発表され、数十億のトランザクションを処理する本番展開が行われました。

同様の手法が暗号技術にも適用されます。BPQS(チャルキアスのブロックチェーンポスト量子署名スキーム)は、ブロックチェーンの制約に合わせてXMSSハッシュベース署名を適応させます。Winterfellは、ポスト量子セキュリティのためにハッシュ関数のみを使用する初のオープンソースSTARKプロバーを実装しています。zkLoginは、OAuth認証とゼロ知識証明を組み合わせ、プライバシーを保護しながら追加の信頼できる当事者を排除します。各イノベーションは、形式分析に裏打ちされた新しい暗号学的構成を通じて、実用的な障壁(ポスト量子セキュリティ、ZK証明のアクセシビリティ、ユーザーオンボーディングの摩擦)に対処します。

チーム構成はこの能力を強化します。Meta出身のエンジニアは数十億人向けの認証を構築し、NASA出身のエンジニアは安全性が重要な分散システムを開発し、Uber出身のエンジニアはリアルタイム協調をグローバルにスケールさせました。チャルキアスは、Facebook/Diem、R3/Corda、および学術研究から暗号技術の専門知識をもたらします。これは、その場で学ぶ従来のスタートアップチームではなく、企業優先事項に制約されずに、以前に構築したシステムを実行するベテランです。a16z、Coinbase Ventures、Binance Labsからの3億3600万ドルの資金調達は、投機的な技術ではなく、実行能力に対する投資家の信頼を反映しています。

誇大広告を超えた課題と考慮事項

技術的優位性は市場採用を保証しません。これは技術史において繰り返し学ばれた教訓です。Suiの65.9Kのアクティブアドレスは、Solanaの1610万に比べて見劣りします。ネットワーク効果は複合的に作用します。開発者はユーザーが集まる場所に構築し、ユーザーはアプリケーションが存在する場所に集まり、確立されたプラットフォームにロックイン効果をもたらします。Ethereumの「遅くて高価な」ブロックチェーンは、純粋な既存の優位性を通じて、技術的に優れた代替手段よりも桁違いに多くの開発者のマインドシェアを占めています。

「ブロックチェーンオペレーティングシステム」というポジショニングは希薄化のリスクを伴います。金融、ソーシャルアプリケーション、ゲーム、AI、ロボット工学、IoT、分散型ストレージのすべてで同時に優位に立とうとすると、特定の分野での卓越性ではなく、すべてのドメインで凡庸になる可能性があります。この懸念を指摘する批評家は、概念実証を超える限定的なロボット工学の展開、生産ユーティリティではなく主に投機段階にあるAIプロジェクト、そして5年から10年先の脅威に対する量子セキュリティの準備を挙げています。これに対する反論は、モジュラーコンポーネントが集中開発を可能にするというものです。AIアプリケーションを構築するチームは、ロボット工学の統合を気にすることなく、Atoma推論とWalrusストレージを使用します。

ポスト量子暗号は、些細ではないオーバーヘッドを導入します。CRYSTALS-Dilithium署名は、セキュリティレベル2で3,293バイトを測定するのに対し、Ed25519は64バイトであり、50倍以上大きいです。ネットワーク帯域幅、ストレージコスト、処理時間は比例して増加します。バッチ検証の改善は、古典的スキームの効率的なバッチ処理と比較して限定的です(独立検証と比較して20〜50%の高速化)。移行リスクには、移行中のユーザーエラー、エコシステム参加者(ウォレット、dApps、取引所)間の協調、後方互換性要件、および実際の量子コンピューターなしでの大規模テストの困難さが含まれます。タイムラインの不確実性は計画の課題を複合的にします。量子コンピューティングの進歩は予測不可能であり、NIST標準は進化し続けており、PQスキームに対する新しい暗号解読攻撃が出現する可能性があります。

市場のタイミングは、おそらく最大の危険をもたらします。Suiの利点は、量子コンピューターが古典暗号を脅かし、自律型システムが普及してトラストレスな協調を必要とし、AIエージェントが安全なインフラを必要とする重要な経済的価値を管理する、2030年から2035年のタイムフレームで最も劇的に実現します。この収束の前にブロックチェーンの採用が停滞した場合、技術的リーダーシップは無関係になります。逆に、採用がより早く爆発的に増加した場合、Suiの新しいエコシステムは、優れたパフォーマンスにもかかわらず、ユーザーを引き付けるためのアプリケーションと流動性を欠く可能性があります。投資テーゼは、Suiの技術だけでなく、ブロックチェーンの成熟と新興技術の採用のタイミングの一致を信じることを必要とします。

第一原理に基づく10年間の賭け

コスタス・チャルキアスが息子をクリプトスと名付けたのは、魅力的な逸話ではなく、コミットメントの深さを示すものです。彼のキャリアの軌跡、つまりAI研究から暗号技術へ、学術出版からMetaでの本番システムへ、R3でのエンタープライズブロックチェーンからMysten Labsでのレイヤー1アーキテクチャへは、大規模な基盤技術への一貫した焦点を実証しています。量子耐性に関する研究は、GoogleのWillow発表以前、ポスト量子暗号が理論的な懸念に過ぎなかった頃に始まりました。ロボット工学の統合は、AIエージェントが数十億ドルの評価額を命じるようになる前に始まりました。これらの機能を可能にするアーキテクチャ上の決定は、それらの重要性が市場に認識される前に下されました。

この先見的な姿勢は、暗号通貨で一般的な反応的な開発とは対照的です。Ethereumは、展開後に現れるスケーリングのボトルネックに対処するためにレイヤー2ロールアップを導入します。Solanaは、ネットワーク停止や混雑に対応してQUIC通信とステーク加重QoSを実装します。Bitcoinは、トランザクション手数料が高騰するにつれて、ブロックサイズ増加とLightning Networkの採用について議論します。Suiは、メインネットを立ち上げる前に、並列実行、オブジェクト中心のデータモデル、暗号技術的俊敏性を設計しました。これは、発見された問題ではなく、予想される要件に対処するためです。

研究文化はこのアプローチを強化します。Mysten Labsは、機能を主張する前に、形式的証明を伴う学術論文を発表します。Mysticetiコンセンサス論文は、正当性証明とパフォーマンスベンチマークとともに査読付きの場に掲載されました。量子移行研究はIACR ePrint Archiveに提出され、マーケティング上の主張ではなく、数学的構成を通じてEdDSAの利点を実証しています。zkLogin論文(arXiv 2401.11735)は、展開前にゼロ知識認証を詳述しています。チャルキアスは、GitHubへの活発な貢献(kchalkias)を維持し、LinkedInやTwitterで技術的洞察を投稿し、量子脅威に関するPQCSAワークショップで発表し、Suiのプロモーションに専念するのではなく、暗号技術コミュニティと実質的に関わっています。

究極の検証は、量子コンピューターが成熟し、自律型システムが普及し、AIエージェントが兆ドル規模の経済を管理する5〜10年後に訪れます。Suiがロードマップを一貫して実行し、2030年のNIST期限前にポスト量子署名を展開し、大規模なロボット協調を実証し、数百万のリクエストを処理するAI推論レイヤーをサポートするならば、それは文明を再形成する技術のインフラ層となります。量子コンピューターの登場が予測よりも遅れたり、自律型システムの採用が停滞したり、競合他社が解決策をうまく後付けしたりした場合、Suiの早期投資は時期尚早と判明する可能性があります。この賭けは、Suiの技術的能力(Suiは約束されたパフォーマンスを実証的に提供します)ではなく、市場のタイミングと問題の緊急性に焦点を当てています。

Emergence Conferenceでのチャルキアスの視点は、これを簡潔にまとめています。「最終的に、ブロックチェーンはトランザクション速度でVisaさえも凌駕するでしょう。それが常識となるでしょう。これにどうやって逃れられるのか分かりません。」この不可避性の主張は、正しい技術的方向性、十分な実行品質、および一致したタイミングを前提としています。Suiは、これらの仮定が成り立つ場合に活用できる位置にあります。オブジェクト中心のアーキテクチャ、暗号技術的俊敏性、サブ秒のファイナリティ、および体系的な研究手法は、後付けではなく、今後10年間で出現する技術ランドスケープのために設計された基盤的な選択です。Suiが市場リーダーシップを獲得するか、これらの機能がすべてのブロックチェーンで必要不可欠なものになるかにかかわらず、コスタス・チャルキアスとMysten Labsは、量子時代の自律型インテリジェンスのためのインフラを、1つの暗号プリミティブ、1ミリ秒のレイテンシ削減、1つの概念実証ロボットごとに設計しています。

分散型 AI 推論市場: Bittensor、Gensyn、Cuckoo AI

· 約108分
Dora Noda
Software Engineer

はじめに

分散型 AI 推論/トレーニング市場は、グローバルな計算リソースとコミュニティモデルをトラストレスな方法で活用することを目指しています。BittensorGensynCuckoo Network (Cuckoo AI) のようなプロジェクトは、ブロックチェーン技術がオープンな AI マーケットプレイスをどのように強化できるかを示しています。各プラットフォームは、コンピューティングパワー、機械学習モデル、そして時にはデータといった主要な AI 資産を、オンチェーンの経済単位にトークン化します。以下では、これらのネットワークを支える技術アーキテクチャ、リソースのトークン化方法、ガバナンスとインセンティブ構造、モデル所有権の追跡方法、収益分配メカニズム、そして発生する攻撃対象領域 (シビル攻撃、共謀、フリーライディング、ポイズニングなど) について詳しく掘り下げます。最後に、Bittensor、Gensyn、Cuckoo AI のすべての主要な側面をまとめた比較表を掲載します。

技術アーキテクチャ

Bittensor: サブネット上の分散型「ニューラルインターネット」

Bittensor は、多くの専門的なサブネットにまたがる AI モデルノードのネットワークを調整する、カスタムのレイヤー 1 ブロックチェーン (Substrate ベースの Subtensor チェーン) 上に構築されています。各サブネットは、特定の AI タスク (例えば、言語生成用のサブネット、画像生成用の別のサブネットなど) に焦点を当てた独立したミニネットワークです。Bittensor の参加者は、それぞれ異なる役割を担います:

  • マイナー – ハードウェア上で機械学習モデルを実行し、サブネットのタスクに対する推論の回答を提供します (トレーニングを行うことさえあります)。本質的に、マイナーはクエリに回答する AI モデルをホストするノードです。
  • バリデーター – マイナーのモデルにプロンプトでクエリを送り、応答の品質を評価し、どのマイナーが価値ある結果を提供しているかについての意見を形成します。バリデーターは事実上、マイナーのパフォーマンスをスコアリングします。
  • サブネットオーナー – サブネットを作成・定義し、そのサブネットでどのようなタスクが実行され、どのように検証が行われるかのルールを設定します。例えば、サブネットオーナーは、特定のデータセットやモダリティのためのサブネットを指定し、検証手順を定義することができます。
  • デリゲーター – ノードを運営しないトークン保有者は、自身の Bittensor トークン (TAO) をマイナーやバリデーターにデリゲート (ステーク) して、最高のパフォーマーを支援し、報酬の一部を得ることができます (プルーフ・オブ・ステークネットワークのステーキングに似ています)。

Bittensor のコンセンサスメカニズムは斬新です。従来のブロック検証の代わりに、Bittensor は「プルーフ・オブ・インテリジェンス」の一形態である Yuma コンセンサス を使用します。Yuma コンセンサスでは、バリデーターによるマイナーの評価がオンチェーンで集計され、報酬の分配が決定されます。12 秒ごとのブロックで、ネットワークは新しい TAO トークンをミントし、どのマイナーが有用な作業を提供したかに関するバリデーターのコンセンサスに従って分配します。バリデーターのスコアは、ステーク加重中央値スキームで結合されます。外れ値の意見は切り捨てられ、正直な多数派の意見が優先されます。つまり、ほとんどのバリデーターがあるマイナーが高品質であると同意すれば、そのマイナーは高い報酬を得ます。もしあるバリデーターが他から大きく逸脱した場合 (共謀やエラーの可能性がある)、そのバリデーターは報酬が少なくなることでペナルティを受けます。このようにして、Bittensor のブロックチェーンはマイナーとバリデーターのフィードバックループを調整します。マイナーは最高の AI 出力を生み出すために競争し、バリデーターはそれらの出力をキュレーションしてランク付けし、両者が追加した価値に比例してトークンを獲得します。このアーキテクチャは、しばしば「分散型ニューラルネットワーク」や「グローバルブレイン」と表現され、モデルが互いのシグナルから学び、集合的に進化します。特筆すべきは、Bittensor が最近チェーンをアップグレードして EVM 互換性 (スマートコントラクト用) をサポートし、リソース割り当ての制御をさらに分散化するために、サブネット固有のトークンとステーキングのシステムである dTAO を導入したことです (詳細は後述)。

Gensyn: トラストレスな分散コンピューティングプロトコル

Gensyn は、機械学習のための分散コンピューティングプロトコルという角度から分散型 AI にアプローチしています。そのアーキテクチャは、AI タスク (モデルのトレーニングや推論ジョブの実行など) を持つ開発者 (サブミッター) と、世界中に余剰の GPU/TPU リソースを持つ計算プロバイダー (ソルバー) を接続します。当初、Gensyn は Substrate L1 チェーンを計画していましたが、より強力なセキュリティと流動性を求めて Ethereum 上のロールアップとして構築する方向に転換しました。したがって、Gensyn ネットワークは Ethereum のレイヤー 2 ( Ethereum ロールアップ) であり、ジョブの投稿と支払いを調整し、計算はプロバイダーのハードウェア上でオフチェーンで行われます。

Gensyn の設計における中心的な革新は、オフチェーン作業の検証システムです。Gensyn は、オプティミスティック検証 (不正証明) と暗号技術を組み合わせて、ソルバーがトレーニング/推論タスクを実行したと主張した際に、その結果が正しいことを保証します。実際には、プロトコルには複数の参加者の役割が含まれます:

  • サブミッター – ジョブを要求する当事者 (例えば、モデルのトレーニングが必要な人)。ネットワークの手数料を支払い、モデル/データまたはタスクの仕様を提供します。
  • ソルバー – ML タスクに入札し、自身のハードウェアで実行するノード。要求に応じてモデルをトレーニングまたは推論を実行し、結果と計算の証明を提出します。
  • ベリファイア/チャレンジャー – ソルバーの作業を監査またはスポットチェックできるノード。Gensyn は Truebit スタイルのスキームを実装しており、デフォルトではソルバーの結果は受け入れられますが、ベリファイアが不正な計算を疑った場合、一定期間内に異議を申し立てることができます。チャレンジでは、計算ステップを対話的に「二分探索」する (不正証明プロトコル) ことで、不一致を特定します。これにより、チェーンは高価なタスク全体をやり直すのではなく、計算の最小限の重要な部分のみをオンチェーンで実行することで紛争を解決できます。

重要なのは、Gensyn が単純なアプローチの巨大な冗長性を避けるように設計されていることです。多くのノードがすべて同じ ML ジョブを繰り返す (コスト削減を台無しにする) 代わりに、Gensyn の 「プルーフ・オブ・ラーニング」 アプローチは、トレーニングのメタデータを使用して学習の進捗があったことを検証します。例えば、ソルバーは中間モデルの重みの暗号ハッシュやチェックポイント、およびこれらがトレーニングの更新に従って進んだことを示す簡潔な証明を提供するかもしれません。この確率的な学習証明は、トレーニング全体を再実行するよりもはるかに安価にチェックでき、完全な複製なしでのトラストレスな検証を可能にします。ベリファイアが異常を検出した場合にのみ、最後の手段としてより重いオンチェーン計算がトリガーされます。このアプローチは、総当たり的な検証と比較してオーバーヘッドを劇的に削減し、分散型 ML トレーニングをより実現可能にします。したがって、Gensyn のアーキテクチャは暗号経済学的なゲームデザインを重視しています。ソルバーはステークやボンドを預け、もし不正行為 (誤った結果を提出) をすれば、それを見つけた正直なベリファイアにそのステークを失います。ブロックチェーンによる調整 (支払いと紛争解決のため) と、オフチェーンの計算および巧妙な検証を組み合わせることで、Gensyn は、信頼性を維持しながらどこでもアイドル状態の GPU を活用できる ML コンピューティングのマーケットプレイス を作り出します。その結果、どんな開発者でも手頃な価格で、グローバルに分散されたトレーニングパワーにオンデマンドでアクセスできる、ハイパースケールの「コンピューティングプロトコル」が実現します。

Cuckoo AI: フルスタックの分散型 AI サービスプラットフォーム

Cuckoo Network (または Cuckoo AI) は、より垂直統合されたアプローチを取り、単なる生の計算能力だけでなく、エンドツーエンドの分散型 AI サービス を提供することを目指しています。Cuckoo は、すべてを調整するために独自のブロックチェーン (当初は Arbitrum Orbit、Ethereum 互換のロールアップフレームワーク上の Cuckoo Chain と呼ばれるレイヤー 1) を構築しました。これは、ジョブと GPU をマッチングするだけでなく、AI アプリケーションをホストし、支払いを 1 つのシステムで処理します。設計はフルスタックです。トランザクションとガバナンスのためのブロックチェーン、分散型 GPU/CPU リソースレイヤー、そしてその上にユーザー向けの AI アプリケーションと API を組み合わせています。言い換えれば、Cuckoo は ブロックチェーンコンピューティングAI アプリケーション の 3 つのレイヤーすべてを単一のプラットフォーム内に統合しています。

Cuckoo の参加者は 4 つのグループに分かれます:

  • AI アプリビルダー (コーディネーター) – Cuckoo 上に AI モデルやサービスをデプロイする開発者です。例えば、開発者は Stable Diffusion 画像ジェネレーターや LLM チャットボットをサービスとしてホストするかもしれません。彼らはコーディネーターノードを運営し、サービスの管理を担当します。ユーザーのリクエストを受け付け、それをタスクに分割し、それらのタスクをマイナーに割り当てます。コーディネーターはネイティブトークン ($CAI) をステークしてネットワークに参加し、マイナーを利用する権利を得ます。彼らは本質的に、ユーザーと GPU プロバイダーの間のインターフェースとなるレイヤー 2 のオーケストレーターとして機能します。
  • GPU/CPU マイナー (タスクノード) – リソースプロバイダーです。マイナーは Cuckoo タスククライアントを実行し、AI アプリの推論タスクを実行するためにハードウェアを提供します。例えば、マイナーはコーディネーターから画像生成リクエスト (特定のモデルとプロンプト付き) を割り当てられ、GPU を使用して結果を計算します。マイナーもまた、コミットメントと良好な行動を保証するために $CAI をステークする必要があります。彼らは正しく完了した各タスクに対してトークン報酬を獲得します。
  • エンドユーザー – AI アプリケーションの消費者です。彼らは Cuckoo のウェブポータルや API を介して対話します (例えば、CooVerse を介してアートを生成したり、AI パーソナリティとチャットしたりします)。ユーザーは使用ごとに暗号通貨で支払うか、あるいは自身のコンピューティングを提供 (またはステーク) して利用コストを相殺することも可能です。重要な側面は検閲耐性です。もし 1 つのコーディネーター (サービスプロバイダー) がブロックされたりダウンしたりしても、ユーザーは同じアプリケーションを提供する別のコーディネーターに切り替えることができます。なぜなら、分散型ネットワークでは複数のコーディネーターが同様のモデルをホストできるからです。
  • ステーカー (デリゲーター) – AI サービスやマイニングハードウェアを運営しないコミュニティメンバーも、$CAI を運営者にステークすることで参加できます。信頼できるコーディネーターやマイナーにステークで投票することで、評判のシグナルを送り、その見返りとしてネットワーク報酬の一部を得ます。この設計は Web3 の評判レイヤーを構築します。良い行為者はより多くのステーク (したがって信頼と報酬) を引き付け、悪い行為者はステークと評判を失います。エンドユーザーでさえもステークできる場合があり、ネットワークの成功と彼らの利害を一致させます。

Cuckoo チェーン (現在はスタンドアロンチェーンから共有セキュリティロールアップへの移行プロセス中) は、これらすべての相互作用を追跡します。ユーザーが AI サービスを呼び出すと、コーディネーターノードはマイナーのためのオンチェーンタスク割り当てを作成します。マイナーはオフチェーンでタスクを実行し、結果をコーディネーターに返します。コーディネーターはそれを検証し (例えば、出力画像やテキストが意味不明でないことを確認)、最終結果をユーザーに届けます。ブロックチェーンは支払い決済を処理します。各タスクに対して、コーディネーターのスマートコントラクトはマイナーに $CAI で支払います (しばしばマイクロペイメントを日々の支払いに集約します)。Cuckoo はトラストネスと透明性を強調しています。すべての参加者はトークンをステークし、すべてのタスクの割り当てと完了が記録されるため、ステークを失う脅威とパフォーマンスの公開性によって不正行為が抑制されます。ネットワークのモジュラー設計は、新しい AI モデルやユースケースを簡単に追加できることを意味します。テキストから画像への生成を概念実証として開始しましたが、そのアーキテクチャは他の AI ワークロード (例: 言語モデルの推論、音声文字起こしなど) をサポートするのに十分な汎用性があります。

Cuckoo のアーキテクチャの注目すべき点は、当初、AI トランザクションのスループットを最大化するために独自のレイヤー 1 ブロックチェーンを立ち上げたことです (テスト中に 1 日あたり 30 万トランザクションのピークに達しました)。これにより、AI タスクスケジューリングのためのカスタム最適化が可能になりました。しかし、チームはスタンドアロン L1 の維持がコストと複雑さを伴うことに気づき、2025 年半ばまでにカスタムチェーンを廃止し、Ethereum 上のロールアップ/AVS (アクティブ検証サービス) モデルに移行することを決定しました。これは、Cuckoo が独自のコンセンサスを実行するのではなく、Ethereum や Arbitrum のような L2 からセキュリティを継承し、その共有セキュリティレイヤー上で分散型 AI マーケットプレイスを運営し続けることを意味します。この変更は、経済的セキュリティを向上させ (Ethereum の堅牢性を活用)、Cuckoo チームが低レベルのチェーンメンテナンスではなく製品に集中できるようにすることを目的としています。要約すると、Cuckoo のアーキテクチャは、誰もがハードウェアを接続したり AI モデルサービスをデプロイしたりでき、世界中のユーザーがより低コストで、大手テックインフラへの依存を減らして AI アプリにアクセスできる分散型 AI サービス提供プラットフォームを構築します。

資産のトークン化メカニズム

これらのネットワークに共通するテーマは、計算、モデル、データを、取引や収益化が可能なオンチェーン資産や経済単位に変換することです。しかし、各プロジェクトはこれらのリソースを異なる方法でトークン化することに焦点を当てています:

  • コンピューティングパワー: 3 つのプラットフォームはすべて、計算作業を報酬トークンに変換します。Bittensor では、有用な計算 (マイナーによる推論やトレーニング) はバリデーターのスコアを介して定量化され、各ブロックで TAO トークン で報酬が与えられます。本質的に、Bittensor は貢献された知性を「測定」し、その貢献を表す商品として TAO を発行します。Gensyn は、計算を商品として 明示的に扱います。そのプロトコルは、GPU 時間が製品であり、価格がトークン建ての需要と供給によって設定されるマーケットプレイスを作成します。開発者はトークンを使用して計算を購入し、プロバイダーはハードウェアサイクルを販売してトークンを獲得します。Gensyn チームは、あらゆる デジタルリソース (計算、データ、アルゴリズム) が同様のトラストレスな市場で表現され、取引できると述べています。Cuckoo は、完了したタスクの支払いとして発行される ERC-20 トークン $CAI を介して計算をトークン化します。GPU プロバイダーは、AI 推論作業を行うことで実質的に CAI を「マイニング」します。Cuckoo のシステムはタスクのオンチェーン記録を作成するため、完了した各 GPU タスクはトークンで支払われる作業の原子単位と考えることができます。3 つすべてに共通する前提は、そうでなければアイドル状態またはアクセス不能な計算能力が、トークン化された流動性のある資産になるということです。これは、プロトコルレベルのトークン発行 (Bittensor や初期の Cuckoo のように) または計算ジョブの売買注文のオープンマーケット (Gensyn のように) を通じて実現されます。

  • AI モデル: AI モデルをオンチェーン資産 (例: NFT やトークン) として表現することはまだ初期段階です。Bittensor はモデル自体をトークン化しません。モデルはマイナーの所有物としてオフチェーンに残ります。代わりに、Bittensor はパフォーマンスの良いモデルに報酬を与えることで、間接的にモデルに価値を置きます。事実上、モデルの「知性」は TAO の収益に変換されますが、モデルの重みを表したり、他者がそのモデルを使用することを許可したりする NFT は存在しません。Gensyn の焦点は計算トランザクションであり、モデルのトークンを明示的に作成することではありません。Gensyn のモデルは通常、開発者によってオフチェーンで提供され (オープンソースまたはプロプライエタリ)、ソルバーによってトレーニングされ、返されます。モデルやその IP を所有するトークンを作成する組み込みのメカニズムはありません。(とはいえ、Gensyn マーケットプレイスは、当事者が選択すればモデルのアーティファクトやチェックポイントの取引を促進する可能性がありますが、プロトコル自体はモデルをトークン化された資産ではなく、計算のコンテンツと見なしています。) Cuckoo はその中間に位置します。「AI エージェント」やネットワークに統合されたモデルについて言及していますが、現在、各モデルを表す非代替性トークンは存在しません。代わりに、モデルはアプリビルダーによってデプロイされ、ネットワークを介して提供されます。そのモデルの使用権は、それが使用されたときに $CAI を稼ぐことができるという点で暗黙的にトークン化されています (それをデプロイしたコーディネーターを介して)。3 つのプラットフォームはすべて、モデルのトークン化の概念 (例えば、トークンを介してコミュニティにモデルの所有権を与える) を認識していますが、実用的な実装は限られています。業界として、AI モデルのトークン化 (例えば、所有権と利益分配権を持つ NFT として) はまだ模索中です。Bittensor のモデルが互いに価値を交換するアプローチは、モデルごとの明示的なトークンがない*「モデルマーケットプレイス」*の一形態です。Cuckoo チームは、分散型モデルの所有権は中央集権型 AI と比較して障壁を下げる有望な方法であると述べていますが、モデルの出力と使用状況をオンチェーンで検証する効果的な方法が必要です。要約すると、コンピューティングパワーは即座にトークン化されますが (作業に対してトークンを支払うのは簡単です)、モデルは間接的または願望的にトークン化されており (出力に対して報酬が与えられ、ステークや評判で表される可能性はありますが、これらのプラットフォームではまだ譲渡可能な NFT として扱われていません)。

  • データ: データのトークン化は最も困難なままです。Bittensor、Gensyn、Cuckoo のいずれも、完全に一般化されたオンチェーンのデータマーケットプレイス (データセットが強制力のある使用権で取引される場所) を統合していません。Bittensor ノードはさまざまなデータセットでトレーニングするかもしれませんが、それらのデータセットはオンチェーンシステムの一部ではありません。Gensyn は開発者がトレーニング用のデータセットを提供することを許可できますが、プロトコルはそのデータをトークン化しません。それは単にソルバーが使用するためにオフチェーンで提供されるだけです。Cuckoo も同様にユーザーデータをトークン化しません。主に推論タスクのために一時的な方法でデータ (ユーザーのプロンプトや出力など) を処理します。Cuckoo のブログは、*「分散型データは、重要なリソースであるにもかかわらず、トークン化が依然として困難である」*と明言しています。データは機密性が高く (プライバシーと所有権の問題)、現在のブロックチェーン技術で扱うのは困難です。したがって、計算は商品化され、モデルも徐々に商品化されつつありますが、データは特別な場合を除いて大部分がオフチェーンにとどまっています (これら 3 つ以外のいくつかのプロジェクトは、データユニオンやデータ貢献に対するトークン報酬を実験していますが、それは現在の範囲外です)。要約すると、これらのネットワークではコンピューティングパワーは今やオンチェーンの商品であり、モデルはトークンを通じて評価されますが、まだ資産として個別にトークン化されておらず、データのトークン化はまだ未解決の問題です (その重要性を認識することを超えて)。

ガバナンスとインセンティブ

これらの分散型 AI ネットワークが自律的かつ公正に機能するためには、堅牢なガバナンスとインセンティブ設計が不可欠です。ここでは、各プラットフォームがどのように自己を統治し (誰が意思決定を行い、アップグレードやパラメータの変更がどのように行われるか)、トークンエコノミクスを通じて参加者のインセンティブをどのように調整しているかを検証します。

  • Bittensor のガバナンス: 初期段階では、Bittensor の開発とサブネットのパラメータは、主にコアチームとメインサブネット上の 64 の「ルート」バリデーターのセットによって制御されていました。これは中央集権化の一点でした。少数の強力なバリデーターが報酬配分に過大な影響力を持ち、一部からは*「寡頭制の投票システム」*と呼ばれていました。これに対処するため、Bittensor は 2025 年に dTAO (分散型 TAO) ガバナンスを導入しました。dTAO システムは、リソース配分を市場主導かつコミュニティ制御に移行させました。具体的には、TAO 保有者は自分のトークンをサブネット固有の流動性プールにステークし (本質的に、どのサブネットがより多くのネットワーク発行量を得るべきかに「投票」する)、それらのサブネットプールの所有権を表すアルファトークンを受け取ります。より多くのステークを集めたサブネットは、アルファトークンの価格が高くなり、日々の TAO 発行量のより大きなシェアを得る一方、人気のない、またはパフォーマンスの低いサブネットからは資本 (したがって発行量) が流出します。これによりフィードバックループが生まれます。あるサブネットが価値ある AI サービスを生み出せば、より多くの人々が TAO をステークし (報酬を求めて)、そのサブネットは参加者に報酬を与えるための TAO をより多く得て、成長を促進します。サブネットが停滞すれば、ステーカーはより収益性の高いサブネットに引き上げます。事実上、TAO 保有者は、どの AI ドメインがより多くのリソースに値するかを財政的にシグナルを送ることで、ネットワークの焦点を集合的に統治します。これは、経済的成果に連動した、トークン加重によるオンチェーンガバナンスの一形態です。リソース配分以外にも、主要なプロトコルのアップグレードやパラメータの変更は、おそらく TAO 保有者が投票するガバナンス提案を通じて行われます (Bittensor には、Bittensor 財団と選出された評議会によって管理されるオンチェーン提案と国民投票のメカニズムがあり、Polkadot のガバナンスに似ています)。時間とともに、Bittensor のガバナンスはますます分散化され、財団が後退し、コミュニティが (TAO ステークを通じて) インフレ率や新しいサブネットの承認などを主導することが期待されます。dTAO への移行は、中央集権的な意思決定者を、インセンティブが一致したトークンステークホルダーの市場に置き換える、その方向への大きな一歩です。

  • Bittensor のインセンティブ: Bittensor のインセンティブ構造は、そのコンセンサスと密接に結びついています。すべてのブロック (12 秒) で、正確に 1 TAO が新たに発行され、各サブネットの貢献者にパフォーマンスに基づいて分割されます。各サブネットのブロック報酬のデフォルトの分割は、マイナーに 41%、バリデーターに 41%、サブネットオーナーに 18% です。これにより、すべての役割が報酬を得ることが保証されます。マイナーは推論作業を行うことで、バリデーターは評価努力で、そしてサブネットオーナー (そのサブネットのデータ/タスクをブートストラップした可能性がある) は「マーケットプレイス」やタスク設計を提供することで残余利益を得ます。これらのパーセンテージはプロトコルで固定されており、全員のインセンティブを高品質な AI 出力に向けることを目指しています。Yuma コンセンサスメカニズムは、品質スコアに応じて報酬を重み付けすることでインセンティブをさらに洗練させます。より良い回答を提供するマイナー (バリデーターのコンセンサスによる) は、その 41% のより高い部分を得て、正直なコンセンサスに密接に従うバリデーターは、バリデーター部分のより多くを得ます。パフォーマンスの悪い者は経済的に排除されます。さらに、マイナーやバリデーターを支援するデリゲーター (ステーカー) は、通常、そのノードの収益の一部を受け取ります (ノードはしばしば手数料を設定し、残りをデリゲーターに与えます。これは PoS ネットワークのステーキングに似ています)。これにより、パッシブな TAO 保有者は最高の貢献者をサポートし、利回りを得ることができ、実力主義をさらに強化します。したがって、Bittensor のトークン (TAO) はユーティリティトークンです。新しいマイナーの登録に必要であり (マイナーは参加するために少量の TAO を消費する必要があり、これによりシビルスパムと戦います)、影響力を高めたり、デリゲーションを通じて収益を得るためにステークすることができます。また、外部ユーザーが Bittensor のネットワークからサービスを利用したい場合 (例えば、Bittensor 上の言語モデルにクエリするために TAO を支払う)、支払いトークンとしても想定されていますが、これまでのところ内部の報酬メカニズムが主要な「経済」でした。全体的なインセンティブ哲学は、「価値ある知性」、つまり良い AI の成果を生み出すのに役立つモデルに報酬を与え、ネットワーク内のモデルの品質を継続的に向上させる競争を生み出すことです。

  • Gensyn のガバナンス: Gensyn のガバナンスモデルは、ネットワークが成熟するにつれて、コアチームの管理からコミュニティの管理へと進化するように構成されています。当初、Gensyn はGensyn 財団と、プロトコルのアップグレードと財務の決定を監督する選出された評議会を持つことになります。この評議会は、最初はコアチームのメンバーと初期のコミュニティリーダーで構成されることが期待されています。Gensyn は、ネイティブトークン (しばしば GENS と呼ばれる) のトークン生成イベント (TGE) を計画しており、その後、ガバナンスの権限はオンチェーン投票を通じてますますトークン保有者の手に渡ることになります。財団の役割は、プロトコルの利益を代表し、完全な分散化へのスムーズな移行を保証することです。実際には、Gensyn は、パラメータ (例: 検証ゲームの長さ、手数料率) の変更やアップグレードがコミュニティによって投票されるオンチェーン提案メカニズムを持つことになるでしょう。Gensyn は Ethereum のロールアップとして実装されているため、ガバナンスは Ethereum のセキュリティにも関連する可能性があります (例えば、最終的にトークン保有者の DAO に引き渡されるロールアップコントラクトのアップグレードキーを使用するなど)。Gensyn のライトペーパーの分散化とガバナンスのセクションでは、プロトコルは最終的にグローバルに所有されなければならないと強調しており、*「機械知能のためのネットワーク」*は、そのユーザーと貢献者に属するべきであるという精神と一致しています。要約すると、Gensyn のガバナンスは半中央集権的に始まりますが、GENS トークン保有者 (潜在的にステークや参加によって重み付けされる) が集合的に意思決定を行う DAO になるように設計されています。

  • Gensyn のインセンティブ: Gensyn の経済的インセンティブは、暗号経済学的なセキュリティによって補完された、単純な市場のダイナミクスです。開発者 (クライアント) は ML タスクの代金を Gensyn トークンで支払い、ソルバーはそれらのタスクを正しく完了することでトークンを獲得します。計算サイクルの価格はオープンマーケットで決定されます。おそらく、開発者は報奨金付きでタスクを提示し、ソルバーは入札するか、価格が期待に合えば単純にそれを受け入れることができます。これにより、アイドル状態の GPU の供給がある限り、競争がコストを公正なレートまで引き下げることが保証されます (Gensyn のチームは、ネットワークが世界中で最も安価な利用可能なハードウェアを見つけるため、クラウド価格と比較して最大 80% のコスト削減を見込んでいます)。一方、ソルバーは仕事に対してトークンを獲得するというインセンティブを持っています。そうでなければアイドル状態だったかもしれない彼らのハードウェアが収益を生み出します。品質を保証するために、Gensyn はソルバーに仕事を引き受ける際に担保をステークすることを要求します。もし彼らが不正行為をしたり、誤った結果を生成して捕まった場合、彼らはそのステークを失います (それはスラッシュされ、正直なベリファイアに与えられます)。ベリファイアは、不正なソルバーを捕まえた場合に**「ジャックポット」報酬を得る機会によってインセンティブを与えられます。これは、不正な計算を成功裏に特定したベリファイアに定期的に報酬を与える Truebit の設計に似ています。これにより、ソルバーは正直であり続け、一部のノードは監視役として行動する動機付けがされます。最適なシナリオ (不正行為なし) では、ソルバーは単にタスク料金を稼ぎ、ベリファイアの役割はほとんどアイドル状態です (または、参加しているソルバーの 1 人が他の人のベリファイアを兼ねるかもしれません)。したがって、Gensyn のトークンは、計算を購入するためのガス通貨と、プロトコルを保護するステーク担保の両方として機能します。ライトペーパーでは、非永続的なトークンを持つテストネットと、初期のテストネット参加者が TGE で実際のトークンで報酬を受け取ることが言及されています。これは、Gensyn がブートストラップ**のためにいくつかのトークン供給を割り当てたことを示しています。初期の採用者、テストソルバー、コミュニティメンバーに報酬を与えることです。長期的には、実際のジョブからの手数料がネットワークを維持するはずです。また、各タスク支払いのパーセンテージが財務省に入るか、または燃やされる小さなプロトコル手数料があるかもしれません。この詳細はまだ確認されていませんが、多くのマーケットプレイスプロトコルには、開発資金やトークンの買い戻しと燃焼のための手数料が含まれています。要約すると、Gensyn のインセンティブは、ML ジョブの正直な完了を中心に調整されています。仕事をすれば報酬を得る、不正を試みればステークを失う、他人を検証すれば不正を見つければ報酬を得る。これにより、信頼性の高い分散計算を達成することを目的とした、自己監視型の経済システムが生まれます。

  • Cuckoo のガバナンス: Cuckoo Network は、まだ開発段階にありますが、初日からエコシステムにガバナンスを組み込んでいます。CAIトークンは、そのユーティリティの役割に加えて、明示的にガバナンストークンです。Cuckooの哲学は、GPUノードオペレーター、アプリ開発者、さらにはエンドユーザーでさえも、ネットワークの進化について発言権を持つべきであるというものです。これは、コミュニティ主導のビジョンを反映しています。実際には、重要な決定(プロトコルのアップグレードや経済的な変更など)は、おそらくDAOメカニズムを通じて、トークン加重投票によって決定されるでしょう。例えば、Cuckooは報酬分配の変更や新機能の採用についてオンチェーン投票を行うことができ、CAI トークンは、そのユーティリティの役割に加えて、明示的にガバナンストークンです。Cuckoo の哲学は、GPU ノードオペレーター、アプリ開発者、さらにはエンドユーザーでさえも、ネットワークの進化について発言権を持つべきであるというものです。これは、コミュニティ主導のビジョンを反映しています。実際には、重要な決定 (プロトコルのアップグレードや経済的な変更など) は、おそらく DAO メカニズムを通じて、トークン加重投票によって決定されるでしょう。例えば、Cuckoo は報酬分配の変更や新機能の採用についてオンチェーン投票を行うことができ、CAI 保有者 (マイナー、開発者、ユーザーを含む) が投票します。すでに、オンチェーン投票評判システムとして使用されています。Cuckoo は各役割にトークンをステークすることを要求し、その後、コミュニティメンバーは (おそらくステークを委任するか、ガバナンスモジュールを通じて) どのコーディネーターやマイナーが信頼できるかに投票できます。これは評判スコアに影響を与え、タスクのスケジューリングに影響を与える可能性があります (例えば、より多くの票を持つコーディネーターはより多くのユーザーを引き付けるかもしれませんし、より多くの票を持つマイナーはより多くのタスクを割り当てられるかもしれません)。これはガバナンスとインセンティブの融合です。ガバナンストークンを使用して信頼を確立します。Cuckoo 財団またはコアチームは、これまでのところプロジェクトの方向性を導いてきました (例えば、L1 チェーンを廃止するという最近の決定) が、彼らのブログは分散型所有権への移行へのコミットメントを示しています。彼らは、独自のチェーンを運営することは高いオーバーヘッドを伴い、ロールアップに移行することで、よりオープンな開発と既存のエコシステムとの統合が可能になると特定しました。共有レイヤー (Ethereum のような) に移行すれば、Cuckoo はアップグレードのために、コミュニティが CAI を使用して投票する、より伝統的な DAO を実装する可能性が高いです。

  • Cuckoo のインセンティブ: Cuckoo のインセンティブ設計には 2 つのフェーズがあります。固定されたトークン割り当てによる初期のブートストラップフェーズと、使用量主導の収益分配を伴う将来の状態です。ローンチ時に、Cuckoo は 10 億の CAI トークンの**「フェアローンチ」**配布を実施しました。供給の 51% はコミュニティのために確保され、次のように割り当てられました:

    • マイニング報酬: 総供給の 30% が、AI タスクを実行する GPU マイナーへの支払いのために予約されました。
    • ステーキング報酬: ネットワークをステークして保護する人々のために供給の 11%。
    • エアドロップ: 採用インセンティブとして初期のユーザーとコミュニティメンバーに 5%。
    • (さらに 5% は、Cuckoo 上での構築を奨励するための開発者助成金でした。)

    この大規模な割り当ては、初期のネットワークでは、実際のユーザー需要が低くても、マイナーとステーカーが発行プールから報酬を得ていたことを意味します。実際、Cuckoo の初期フェーズでは、ステーキングとマイニングに高い APY 利回りが特徴で、これにより参加者を成功裏に引き付けましたが、トークンだけを目的とした「イールドファーマー」も引き付けました。チームは、報酬率が下がると多くのユーザーが去ったことに気づき、これらのインセンティブが真の利用に結びついていなかったことを示しています。この経験から学び、Cuckoo は報酬が実際の AI ワークロードと直接相関するモデルに移行しています。将来的には (そして部分的にはすでに)、エンドユーザーが AI 推論の代金を支払うと、その支払い (CAI またはおそらく CAI に変換された別の受け入れられたトークン) が貢献者の間で分割されます:

    • GPU マイナーは、提供した計算に対して大部分のシェアを受け取ります。
    • コーディネーター (アプリ開発者) は、モデルを提供し、リクエストを処理したサービスプロバイダーとして一部を受け取ります。
    • それらのマイナーやコーディネーターに委任したステーカーは、信頼できるノードの支援を継続的に奨励するために、少額の分け前またはインフレ報酬を得るかもしれません。
    • ネットワーク/財務省は、継続的な開発資金や将来のインセンティブ資金のために手数料を保持するかもしれません (または、ユーザーの手頃な価格を最大化するために手数料はゼロ/名目上かもしれません)。

    本質的に、Cuckoo は収益分配モデルに移行しています。Cuckoo 上の AI アプリが収益を生み出せば、その収益はそのサービスのすべての貢献者に公正な方法で分配されます。これにより、参加者がインフレだけでなく実際の利用から利益を得るようにインセンティブが調整されます。すでに、ネットワークはすべての当事者に CAI をステークすることを要求していました。これは、マイナーとコーディネーターがフラットな報酬だけでなく、おそらくステークベースの報酬も得られることを意味します (例えば、多くのユーザーが自分にステークしたり、自分自身がより多くステークしたりすると、コーディネーターはより高い報酬を得るかもしれません。これはプルーフ・オブ・ステークのバリデーターの稼ぎ方に似ています)。ユーザーインセンティブの観点から、Cuckoo はエアドロップポータルやフォーセット (一部のユーザーが悪用した) のようなものも導入して、初期の活動を促進しました。今後は、ユーザーはサービスを利用することでトークンリベートや、キュレーションに参加することでガバナンス報酬 (例えば、出力の評価やデータ提供で少額のトークンを獲得するなど) を通じてインセンティブを与えられるかもしれません。結論として、Cuckoo のトークン ($CAI) は多目的です。それはチェーン上のガス/手数料トークン (すべてのトランザクションと支払いがそれを使用します)、ステーキングと投票に使用され、そして行われた仕事に対する報酬の単位です。Cuckoo は、純粋に投機的なインセンティブを避けるために、トークン報酬をサービスレベルの KPI (重要業績評価指標)、例えば、稼働時間、クエリスループット、ユーザー満足度などに結び付けたいと明示的に言及しています。これは、トークン経済が単純な流動性マイニングから、より持続可能でユーティリティ主導のモデルへと成熟していることを反映しています。

モデルの所有権と IP 帰属

AI モデルの知的財産 (IP) と所有権の取り扱いは、分散型 AI ネットワークの複雑な側面です。各プラットフォームはわずかに異なる立場を取っており、一般的にこれはまだ完全な解決策がない進化中の分野です:

  • Bittensor: Bittensor のモデルはマイナーノードによって提供され、それらのマイナーはモデルの重み (オンチェーンで公開されることはない) を完全に管理し続けます。Bittensor は、特定のウォレットアドレスで実行されているという事実を超えて、誰がモデルを「所有」しているかを明示的に追跡しません。マイナーが去れば、彼らのモデルも一緒に去ります。したがって、Bittensor における IP の帰属はオフチェーンです。マイナーがプロプライエタリなモデルを使用しても、オンチェーンでそれを強制したり、知ったりするものはありません。Bittensor の哲学はオープンな貢献を奨励し (多くのマイナーは GPT-J などのオープンソースモデルを使用するかもしれません)、ネットワークはそれらのモデルのパフォーマンスに報酬を与えます。Bittensor はモデルの評判スコアを作成すると言えるかもしれません (バリデーターのランキングを通じて)。これはモデルの価値を認める一形態ですが、モデル自体の権利はトークン化されたり、分配されたりしません。注目すべきは、Bittensor のサブネットオーナーが IP の一部を所有していると見なされる可能性があることです。彼らはタスクを定義します (これにはデータセットや手法が含まれる場合があります)。サブネットオーナーは、サブネットを作成する際にNFT (サブネット UID と呼ばれる) を発行し、その NFT はそのサブネットの報酬の 18% を得る権利を与えます。これは、モデルのインスタンスではなく、モデルマーケットプレイス (サブネット) の作成を効果的にトークン化します。サブネットの定義 (例えば、特定のデータセットを持つ音声認識タスク) を IP と考えるなら、それは少なくとも記録され、報酬が与えられます。しかし、マイナーがトレーニングする個々のモデルの重みについては、オンチェーンの所有権記録はありません。帰属は、そのマイナーのアドレスに支払われる報酬という形で現れます。Bittensor は現在、例えば、複数の人が共同でモデルを所有し、自動的に収益分配を得るようなシステムを実装していません。モデルを実行している人 (マイナー) が報酬を得て、彼らが使用したモデルの IP ライセンスを尊重するかどうかは、オフチェーンで彼ら次第です。

  • Gensyn: Gensyn では、モデルの所有権は単純明快です。サブミッター (モデルのトレーニングを希望する人) がモデルのアーキテクチャとデータを提供し、トレーニング後、結果として得られるモデルのアーティファクトを受け取ります。作業を行うソルバーはモデルに対する権利を持たず、サービスに対して支払いを受ける請負業者のようなものです。したがって、Gensyn のプロトコルは従来の IP モデルを前提としています。提出したモデルとデータに対する法的権利を持っていた場合、トレーニング後もそれらを保持し続けます。計算ネットワークは所有権を主張しません。Gensyn は、マーケットプレイスがアルゴリズムやデータも他のリソースと同様に取引できることにも言及しています。これは、誰かがネットワークで使用するためにモデルやアルゴリズムを有料で提供し、そのモデルへのアクセスをトークン化するシナリオを示唆しています。例えば、モデル作成者が自分の事前トレーニング済みモデルを Gensyn に置き、他の人がネットワークを介してそれを有料でファインチューニングできるようにするかもしれません (これにより、モデルの IP が効果的に収益化されます)。プロトコルはライセンス条項を強制しませんが、支払い要件をエンコードすることは可能です。スマートコントラクトは、ソルバーにモデルの重みをアンロックするために料金を要求することができます。しかし、これらは投機的なユースケースです。Gensyn の主要な設計はトレーニングジョブを可能にすることです。帰属に関しては、複数の当事者がモデルに貢献した場合 (例えば、一方がデータを提供し、他方が計算を提供した場合)、それはおそらく彼らが Gensyn を使用する前に設定した契約や合意によって処理されるでしょう (例えば、スマートコントラクトがデータプロバイダーと計算プロバイダーの間で支払いを分割するなど)。Gensyn 自体は、「このモデルは X、Y、Z によって構築された」ということを、ジョブに対してどのアドレスに支払いが行われたかの記録を超えてオンチェーンで追跡しません。要約すると、Gensyn におけるモデルの IP はサブミッターに帰属し、いかなる帰属やライセンスも、プロトコル外の法的合意またはその上に構築されたカスタムスマートコントラクトを通じて処理されなければなりません。

  • Cuckoo: Cuckoo のエコシステムでは、モデル作成者 (AI アプリビルダー) は第一級の参加者です。彼らは AI サービスをデプロイします。アプリビルダーが言語モデルをファインチューニングしたり、カスタムモデルを開発して Cuckoo でホストしたりする場合、そのモデルは本質的に彼らの所有物であり、彼らはサービスオーナーとして行動します。Cuckoo は所有権を奪うのではなく、彼らが使用量を収益化するためのインフラを提供します。例えば、開発者がチャットボット AI をデプロイすると、ユーザーはそれと対話でき、開発者 (およびマイナー) は各インタラクションから CAI を獲得します。したがって、プラットフォームは使用収益をモデル作成者に帰属させますが、モデルの重みを明示的に公開したり、NFT に変換したりはしません。実際、モデルをマイナーの GPU で実行するために、コーディネーターノードはモデル (またはランタイム) を何らかの形でマイナーに送信する必要があるでしょう。これは IP の問題を提起します。悪意のあるマイナーがモデルの重みをコピーして配布する可能性はあるでしょうか?分散型ネットワークでは、プロプライエタリなモデルが使用される場合、そのリスクは存在します。Cuckoo の現在の焦点は、かなりオープンなモデル (Stable Diffusion、LLaMA 派生モデルなど) とコミュニティの構築にあり、スマートコントラクトを介した IP 権の強制はまだ見られません。プラットフォームは、将来的に IP 保護のために、暗号化されたモデル実行やセキュアエンクレーブのようなツールを統合する可能性がありますが、ドキュメントには具体的な言及はありません。それが追跡するのは、各タスクに対して誰がモデルサービスを提供したかです。コーディネーターはオンチェーンのアイデンティティであるため、彼らのモデルのすべての使用は彼らに帰属し、彼らは自動的に報酬のシェアを得ます。もし誰かにモデルを譲渡または売却する場合、事実上、彼らはコーディネーターノードの制御を移転することになります (コーディネーターの役割がトークン化されていれば、秘密鍵や NFT を渡すだけかもしれません)。現在、モデルのコミュニティ所有権 (トークンシェアを介して) は実装されていませんが、Cuckoo のビジョンは分散型のコミュニティ主導の AI を示唆しているため、人々が集合的に AI モデルに資金を提供したり、統治したりできるようにすることを探求するかもしれません。個人の所有権を超えたモデルのトークン化は、これらのネットワーク全体でまだ未解決の分野です。それは目標として認識されていますが (企業ではなくコミュニティが AI モデルを所有できるようにするため)、実際には上記の IP と検証の課題に対する解決策が必要です。

要約すると、Bittensor、Gensyn、Cuckoo におけるモデルの所有権は、従来の手段によってオフチェーンで処理されます。モデルを実行または提出する個人または団体が事実上の所有者です。ネットワークは、経済的報酬 (モデルの貢献者に彼らの IP や努力に対して支払う) の形で帰属を提供します。3 つのいずれも、まだスマートコントラクトレベルでモデルの使用に関するライセンスやロイヤリティの強制を組み込んでいません。帰属は評判と報酬を通じて行われます。例えば、Bittensor の最高のモデルは高い評判スコア (公開記録) とより多くの TAO を獲得し、これはその作成者への暗黙のクレジットとなります。将来的には、IP をより良く追跡するために、NFT に紐付けられたモデルの重み分散型ライセンスのような機能が見られるかもしれませんが、現在の優先事項は、ネットワークを機能させ、貢献を奨励することです。すべての人が、モデルの来歴と出力を検証することが、真のモデル資産市場を可能にする鍵であることに同意しており、この方向での研究が進行中です。

収益分配構造

3 つのプラットフォームはすべて、複数の当事者が協力して価値ある AI 出力を生み出したときに、経済的なパイをどのように分割するかを決定しなければなりません。AI サービスが使用されたとき、またはトークンが発行されたときに、誰が、いくら支払われるのでしょうか?それぞれに異なる収益分配モデルがあります:

  • Bittensor: インセンティブの項で述べたように、Bittensor の収益分配はプロトコルによってブロックレベルで定義されています。各ブロックの TAO 発行に対して、マイナーに 41%、バリデーターに 41%、サブネットオーナーに 18% です。これは、各サブネットで生成された価値に対する組み込みの収益分割です。サブネットオーナーのシェア (18%) は、「モデル/タスク設計」またはそのサブネットのエコシステムをブートストラップするためのロイヤリティのように機能します。マイナーとバリデーターが同等のシェアを得ることは、検証がなければマイナーは報酬を得られず (逆もまた然り)、彼らが共生的であり、それぞれが発行された報酬の同等の部分を得ることを保証します。外部ユーザーが TAO を支払ってモデルにクエリする場合を考えると、Bittensor のホワイトペーパーは、その支払いも同様に、回答したマイナーと回答を検証するのを助けたバリデーターの間で分割されることを想定しています (正確な分割はプロトコルまたは市場の力によって決定される可能性があります)。さらに、マイナー/バリデーターにステークするデリゲーターは、事実上のパートナーです。通常、マイナー/バリデーターは、獲得した TAO のパーセンテージをデリゲーターと共有します (これは設定可能ですが、多くの場合、大部分はデリゲーターに)。したがって、マイナーがブロックから 1 TAO を獲得した場合、それはステークに基づいて、例えば、デリゲーターと自分自身の間で 80/20 に分割されるかもしれません。これは、非オペレーターでさえも、彼らのサポートに比例してネットワークの収益のシェアを得ることを意味します。dTAO の導入により、別の共有レイヤーが追加されました。サブネットのプールにステークする人々はアルファトークンを取得し、これによりそのサブネットの発行の一部 (イールドファーミングのようなもの) を得る権利が与えられます。事実上、誰でも特定のサブネットの成功にステークし、アルファトークンを保持することでマイナー/バリデーターの報酬の一部を受け取ることができます (アルファトークンは、サブネットがより多くの使用量と発行を引き付けるにつれて価値が上がります)。要約すると、Bittensor の収益分配は、主要な役割についてはコードによって固定されており、社会的/ステーキングの取り決めによってさらに共有されます。これは比較的に透明で、ルールに基づいた分割です。すべてのブロックで、参加者は 1 TAO がどのように割り当てられるかを正確に知っており、したがって貢献ごとの「収益」を知っています。この明確さが、Bittensor が AI のためのビットコインに例えられる理由の 1 つです。参加者の報酬が数学的に設定される決定論的な通貨発行です。

  • Gensyn: Gensyn の収益分配は、タスクが個別に価格設定されるため、より動的で市場主導です。サブミッターがジョブを作成するとき、彼らは支払う意思のある報酬 (例えば X トークン) を付けます。ジョブを完了したソルバーは、その X (ネットワーク手数料を差し引いたもの) を受け取ります。ベリファイアが関与する場合、通常、次のようなルールがあります。不正が検出されなければ、ソルバーは全額の支払いを保持します。不正が検出された場合、ソルバーはスラッシュされ、ステークの一部または全部を失い、そのスラッシュされた金額はベリファイアに報酬として与えられます。したがって、ベリファイアはすべてのタスクから収益を得るのではなく、不正な結果を捕まえたときにのみ収益を得ます (加えて、実装によっては、参加に対する小さな基本料金があるかもしれません)。ここでは、モデルオーナーに支払うという組み込みの概念はありません。なぜなら、サブミッターがモデルオーナーであるか、モデルを使用する権利を持っていると想定されているからです。サブミッターが他の誰かの事前トレーニング済みモデルをファインチューニングし、支払いの一部が元のモデル作成者に渡るというシナリオを想像することはできますが、それはプロトコル外で処理されなければなりません (例えば、合意や、トークンの支払いを適宜分割する別のスマートコントラクトによって)。Gensyn のプロトコルレベルの共有は、本質的にクライアント -> ソルバー (-> ベリファイア) です。トークンモデルには、プロトコルの財務省や財団のための割り当てが含まれている可能性があります。例えば、すべてのタスクの支払いの小さなパーセンテージが財務省に行き、開発資金や保険プールに使用されるかもしれません (これは利用可能なドキュメントで明示的に述べられていませんが、多くのプロトコルがこれを行っています)。また、初期段階では、Gensyn はインフレを通じてソルバーを補助するかもしれません。テストネットユーザーは TGE で報酬を約束されており、これは事実上、初期のトークン配布からの収益分配です (初期のソルバーとサポーターは、ブートストラップを助けるためにトークンの一部を取得します。これはエアドロップやマイニング報酬に似ています)。時間とともに、実際のジョブが主流になるにつれて、インフレ報酬は減少し、ソルバーの収入は主にユーザーの支払いから得られるようになります。Gensyn のアプローチは、サービスごとの料金収益モデルとして要約できます。ネットワークは、仕事を必要とする人々から仕事をする人々への直接支払いを促進し、ベリファイアとおそらくトークンステーカーは、そのサービスを確保する役割を果たすときにのみ分け前を取ります。

  • Cuckoo: Cuckoo の収益分配は進化してきました。当初、有料のエンドユーザーが多くなかったため、収益分配は本質的にインフレの共有でした。トークン供給からの 30% のマイニングと 11% のステーキングの割り当ては、マイナーとステーカーがネットワークのフェアローンチプールによって発行されたトークンを共有していたことを意味します。実際には、Cuckoo は完了したタスクに比例してマイナーに日々の CAI 支払いのようなものを実行していました。これらの支払いは、主にマイニング報酬の割り当て (予約された固定供給の一部) から来ていました。これは、多くのレイヤー 1 ブロックチェーンがブロック報酬をマイナー/バリデーターに分配する方法に似ています。それは外部ユーザーによる実際の使用に結びついておらず、参加と成長を奨励するためのものでした。しかし、2025 年 7 月のブログで強調されているように、これは実際の需要ではなく、トークンファーミングによって動機付けられた使用につながりました。Cuckoo の次の段階は、サービス料金に基づく真の収益分配モデルです。このモデルでは、エンドユーザーが例えば画像生成サービスを使用し、1 ドル (暗号通貨換算) を支払うと、その 1 ドル相当のトークンが、おそらく次のように分割されます。GPU の仕事をしたマイナーに 0.70、モデルとインターフェースを提供したアプリ開発者 (コーディネーター) に 0.20、そしてステーカーまたはネットワークの財務省に 0.10。(注: 正確な比率は仮説です。Cuckoo はまだ公に指定していませんが、これは概念を示しています。) このようにして、サービスの提供に貢献したすべての人が収益の分け前を得ます。これは、例えば、AI のためのライドシェアリング経済に似ています。車両 (GPU マイナー) が大部分を得て、ドライバーまたはプラットフォーム (モデルサービスを構築したコーディネーター) が分け前を得て、そしておそらくプラットフォームのガバナンス/ステーカーが少額の手数料を得ます。Cuckoo が*「収益分配モデルと、使用メトリクスに直接結びついたトークン報酬」*に言及していることは、特定のサービスやノードが多くの量を処理する場合、そのオペレーターとサポーターがより多くを稼ぐことを示唆しています。彼らは、単にトークンをロックするためのフラットな利回り (当初のステーキング APY の場合) から離れています。具体的には、非常に人気のある AI アプリを動かすコーディネーターにステークすれば、そのアプリの手数料の一部を得ることができるかもしれません。これは、インフレのためだけにステークするのではなく、真のユーティリティへの投資としてのステーキングシナリオです。これにより、AI サービスにお金を払う実際のユーザーを引き付けることに全員のインセンティブが一致し、それがトークン保有者に価値を還元します。Cuckoo のチェーンにはトランザクション手数料 (ガス) もあったため、ブロックを生成したマイナー (当初は GPU マイナーも Cuckoo チェーンのブロック生成に貢献していました) もガス料金を得ていました。チェーンがシャットダウンされ、ロールアップに移行するに伴い、ガス料金は最小限になるか (または Ethereum 上で)、主要な収益は AI サービス料金自体になります。要約すると、Cuckoo は補助金主導モデル (ネットワークが参加者にトークンプールから支払う) から需要主導モデル (参加者が実際のユーザー支払いから稼ぐ) に移行しています。トークンは依然としてステーキングとガバナンスで役割を果たしますが、マイナーとアプリ開発者の日々の収益は、ますます AI サービスを購入するユーザーから得られるようになるはずです。このモデルは長期的により持続可能であり、Web2 の SaaS 収益分配に酷似していますが、透明性のためにスマートコントラクトとトークンを介して実装されています。

攻撃対象領域と脆弱性

AI を分散化することは、いくつかのインセンティブとセキュリティの課題をもたらします。ここでは、主要な攻撃ベクトル (シビル攻撃、共謀、フリーライディング、データ/モデルのポイズニング) を分析し、各プラットフォームがそれらをどのように軽減するか、または脆弱なままであるかを考察します:

  • シビル攻撃 (偽のアイデンティティ): オープンなネットワークでは、攻撃者が多くのアイデンティティ (ノード) を作成して、不釣り合いな報酬や影響力を得ようとする可能性があります。

    • Bittensor: シビル耐性は主に参入コストによって提供されます。Bittensor に新しいマイナーやバリデーターを登録するには、TAO を消費またはステークする必要があります。これはバーンまたはボンディング要件である可能性があります。これは、N 個の偽ノードを作成するには N 倍のコストがかかることを意味し、大規模なシビル集団を高価なものにします。さらに、Bittensor のコンセンサスは影響力をステークとパフォーマンスに結びつけます。ステークがなく、パフォーマンスの低いシビルはほとんど何も稼げません。攻撃者は、大きな報酬を得るためには、多額の投資を行い、かつシビルノードが実際に有用な作業に貢献する必要があります (これは典型的なシビル戦略ではありません)。とはいえ、攻撃者が実際に多くの資本を持っている場合、TAO の過半数を取得し、多くのバリデーターやマイナーを登録することができます。これは事実上、富によるシビルです。これは 51% 攻撃のシナリオと重なります。単一のエンティティがサブネット内のステークされた TAO の 50% 以上を制御する場合、彼らはコンセンサスを大きく揺るがすことができます。Bittensor の dTAO の導入は、ここで少し役立ちます。影響力をサブネット全体に分散させ、サブネットが繁栄するためにはコミュニティのステーキングサポートを必要とするため、1 つのエンティティがすべてを制御することが難しくなります。それでも、資金力のある敵対者によるシビル攻撃は懸念事項です。Arxiv の分析では、現在ステークがかなり集中しているため、過半数攻撃への障壁は望ましいほど高くないと明記されています。これを軽減するために、ウォレットごとのステークキャップ (例えば、1 つのウォレットが支配するのを防ぐために、有効ステークを 88 パーセンタイルでキャップするなど) のような提案がなされています。要約すると、Bittensor はシビルに対処するためにステーク加重アイデンティティ (比例したステークなしに安価にアイデンティティを生成することはできない) に依存しています。これは、非常にリソースの豊富な攻撃者を除いて、かなり効果的です。
    • Gensyn: Gensyn におけるシビル攻撃は、攻撃者がシステムを悪用するために多くのソルバーまたはベリファイアノードを立ち上げるという形で現れるでしょう。Gensyn の防御は純粋に経済的かつ暗号学的です。アイデンティティ自体は重要ではありませんが、作業を行うか、担保を投稿することが重要です。攻撃者が 100 個の偽のソルバーノードを作成しても、ジョブもステークもなければ、何も達成できません。タスクを獲得するためには、シビルノードは競争力のある入札を行い、作業を行うためのハードウェアを持っている必要があります。能力なしに安値で入札すれば、失敗してステークを失います。同様に、攻撃者は検証に選ばれることを期待して多くのベリファイアアイデンティティを作成する可能性があります (プロトコルがランダムにベリファイアを選択する場合)。しかし、数が多すぎると、ネットワークやジョブの投稿者がアクティブなベリファイアの数を制限するかもしれません。また、ベリファイアはそれをチェックするために計算を実行する必要がある可能性があり、これはコストがかかります。多くの偽のベリファイアを持つことは、実際に結果を検証できない限り役に立ちません。Gensyn におけるより適切なシビル攻撃の角度は、攻撃者がネットワークを偽のジョブや応答で満たして他人の時間を無駄にしようとする場合です。これは、サブミッターにもデポジットを要求することで軽減されます (偽のジョブを投稿する悪意のあるサブミッターは、支払いまたはデポジットを失います)。全体として、Gensyn が要求するステーク/ボンド検証のためのランダム選択の使用は、攻撃者が比例したリソースも持ち込まない限り、複数のアイデンティティを持つことによる利益がほとんどないことを意味します。それは安価な攻撃ではなく、よりコストのかかる攻撃になります。オプティミスティックセキュリティモデルは、少なくとも 1 人の正直なベリファイアを前提としています。シビルは、一貫して不正を行うためには、すべてのベリファイアを圧倒し、すべてが自分たちである必要がありますが、これもまた、ステークまたは計算能力の過半数を所有することに戻ります。したがって、Gensyn のシビル耐性は、オプティミスティックロールアップのそれに匹敵します。正直なアクターが 1 人いる限り、シビルは簡単にシステム的な損害を引き起こすことはできません。
    • Cuckoo: Cuckoo におけるシビル攻撃の防止は、ステーキングとコミュニティの審査に依存しています。Cuckoo のすべての役割 (マイナー、コーディネーター、場合によってはユーザーでさえも) は、$CAI のステーキングを必要とします。これは即座にシビルアイデンティティのコストを引き上げます。100 個のダミーマイナーを作成する攻撃者は、それぞれについてステークを取得してロックする必要があります。さらに、Cuckoo の設計には人間/コミュニティの要素があります。新しいノードは、オンチェーン投票を通じて評判を得る必要があります。評判のない新鮮なノードのシビル軍団は、多くのタスクを割り当てられたり、ユーザーに信頼されたりする可能性は低いです。特にコーディネーターはユーザーを引き付ける必要があります。実績のない偽のコーディネーターは利用されません。マイナーについては、コーディネーターは Cuckoo Scan で彼らのパフォーマンス統計 (成功したタスクなど) を見ることができ、信頼できるマイナーを好むでしょう。Cuckoo には比較的小さな数のマイナーしかいませんでした (ベータ版のある時点で 40 GPU)。そのため、多くのノードの奇妙な流入は目立つでしょう。潜在的な弱点は、攻撃者が評判システムもファーミングする場合です。例えば、彼らがシビルノードに多くの CAI をステークして評判が良く見せかけたり、偽の「ユーザー」アカウントを作成して自分自身をアップボートしたりする場合です。これは理論的には可能ですが、すべてがトークンキュレーションされているため、そうするにはトークンがかかります (本質的に、自分のステークで自分のノードに投票することになります)。Cuckoo チームは、シビルの行動が観察された場合 (特に、より中央集権的なロールアップサービスになりつつある現在、彼らは悪意のあるアクターを一時停止またはスラッシュすることができます)、ステーキングと報酬のパラメータを調整することもできます。結局のところ、シビルは利害関係 (ステーク) を要求し、コミュニティの承認を必要とすることによって抑制されます。正直な参加者が実際のハードウェアとステークにより良く費やすことができる多額の投資なしに、何百もの偽の GPU を持ってきて報酬を得ることは誰にもできません。
  • 共謀: ここでは、複数の参加者がシステムを悪用するために共謀することを考えます。例えば、Bittensor でバリデーターとマイナーが共謀したり、Gensyn でソルバーとベリファイアが共謀したりするなどです。

    • Bittensor: 共謀は現実的な懸念として特定されています。元の設計では、一握りのバリデーターが共謀して特定のマイナーや自分自身を常にアップボートし、報酬分配を不公平に歪めることができました (これはルートサブネットでの権力集中として観察されました)。Yuma コンセンサスはいくつかの防御を提供します。バリデーターのスコアの中央値を取り、逸脱するものを罰することで、彼らが多数派でない限り、小さな共謀グループがターゲットを劇的に押し上げるのを防ぎます。言い換えれば、10 人のバリデーターのうち 3 人が共謀してマイナーに非常に高いスコアを与えても、他の 7 人がそうしなければ、共謀者の外れ値スコアは切り捨てられ、マイナーの報酬は中央値スコアに基づきます (したがって、共謀は大きな助けにはなりません)。しかし、共謀者がバリデーターの 50% 以上 (またはバリデーター間のステークの 50% 以上) を形成する場合、彼らは事実上コンセンサスそのものです。彼らは偽の高いスコアに合意でき、中央値は彼らの見解を反映します。これは古典的な 51% 攻撃のシナリオです。残念ながら、Arxiv の研究では、トークンの集中度が高いため、参加者 (数で) のわずか 1〜2% の連合がステークの過半数を支配している Bittensor のサブネットがいくつか見つかりました。これは、少数の大口保有者による共謀が信頼できる脅威であったことを意味します。Bittensor が dTAO を通じて追求している緩和策は、影響力を民主化することです。任意の TAO 保有者がサブネットにステークを向けることを許可することで、閉鎖的なバリデーターグループの力を希薄化します。また、凹型ステーキング (過大なステークに対する収益の逓減) やステークキャップのような提案は、1 つの共謀エンティティがあまりにも多くの投票権を集める能力を打ち破ることを目的としています。Bittensor のセキュリティの前提は、現在、プルーフ・オブ・ステークに似ています。単一のエンティティ (またはカルテル) がアクティブなステークの 50% 以上を制御しないことです。それが維持される限り、正直なバリデーターが悪質なスコアリングを上書きし、共謀するサブネットオーナーが恣意的に自分の報酬を増やすことができないため、共謀は制限されます。最後に、サブネットオーナーとバリデーター間の共謀 (例えば、サブネットオーナーがバリデーターに賄賂を渡して、自分のサブネットのマイナーを高く評価させる) について、dTAO は直接的なバリデーターの制御を取り除き、それをトークン保有者の決定に置き換えます。トークン供給を買い占めない限り、「市場」と共謀することはより困難です。その場合、それはもはや共謀ではなく、乗っ取りです。したがって、Bittensor の主要な反共謀技術はアルゴリズムによるコンセンサス (中央値クリッピング)広範なトークン配布です。

    • Gensyn: Gensyn における共謀は、おそらくソルバーとベリファイア (または複数のベリファイア) がシステムを不正に操作するために共謀することを含むでしょう。例えば、ソルバーが偽の結果を生成し、共謀するベリファイアが意図的にそれに異議を唱えない (または、プロトコルがベリファイアに署名を求めた場合にそれが正しいと証明さえする) 可能性があります。これを軽減するために、Gensyn のセキュリティモデルは少なくとも 1 人の正直なベリファイアを必要とします。もしすべてのベリファイアがソルバーと共謀している場合、不正な結果は異議なく通ります。Gensyn は、多くの独立したベリファイア (誰でも検証できる) を奨励し、ベリファイアが共謀から離脱して異議を唱えることで大きな報酬を得ることができるというゲーム理論によってこれに対処します (なぜなら、彼らはソルバーのステークを得るからです)。本質的に、共謀に同意するグループがあっても、各メンバーは離反して自分のために報奨金を請求するインセンティブを持っています。これは古典的な囚人のジレンマの状況です。これにより、共謀グループが小さいか、効果がない状態に保たれることが期待されます。もう 1 つの潜在的な共謀は、複数のソルバーが価格を吊り上げたり、タスクを独占したりすることです。しかし、開発者はタスクをどこに投稿するかを選択でき (そしてタスクは簡単に独占できる同一の単位ではない)、価格におけるソルバーの共謀は世界的に調整するのが難しいでしょう。共謀していないソルバーは、仕事を勝ち取るために安値で入札することができます。オープンマーケットのダイナミクスは、少なくともいくつかの競争力のある参加者がいると仮定すれば、価格設定の共謀に対抗します。もう 1 つの角度: ソルバーを苦しめるためのベリファイアの共謀。例えば、ベリファイアが正直なソルバーを偽って告発して彼らのステークを盗むなどです。Gensyn の不正証明はバイナリでオンチェーンです。偽の告発は、オンチェーンの再計算でエラーが見つからなければ失敗し、おそらく悪意のあるベリファイアは何か (おそらくデポジットや評判) を失うでしょう。したがって、ソルバーを妨害しようとするベリファイアの共謀は、プロトコルの検証プロセスによって捕らえられます。要約すると、Gensyn のアーキテクチャは、共謀するセットの少なくとも 1 つの当事者が正直であるインセンティブを持つ限り堅牢です。これは、ビットコインで最終的に不正を暴露するために 1 人の正直なマイナーを必要とするのと同様のオプティミスティック検証の特性です。攻撃者がタスク内のすべてのベリファイアとソルバーを制御できる場合 (ネットワークの過半数など)、理論的には共謀は可能ですが、その場合、彼らは共謀を必要とせずに不正を行うことができます。暗号経済学的インセンティブは、共謀を維持することを非合理的にするように配置されています。

    • Cuckoo: Cuckoo における共謀は、いくつかの方法で発生する可能性があります:

      1. コーディネーターとマイナーの共謀 – 例えば、コーディネーターが常に友好的なマイナーのセットにタスクを割り当て、報酬を分割し、他の正直なマイナーを無視することができます。コーディネーターはタスクのスケジューリングに裁量権を持っているため、これは起こり得ます。しかし、友好的なマイナーが標準以下であれば、エンドユーザーは遅いまたは質の悪いサービスに気づき、去っていく可能性があるため、コーディネーターは品質を損なう純粋なえこひいきからインセンティブを失います。共謀が報酬を操作するためである場合 (例えば、マイナーにトークンを与えるために偽のタスクを提出するなど)、それはオンチェーンで検出され (おそらく同一の入力または実際のユーザーがいない多くのタスク)、罰せられる可能性があります。Cuckoo のオンチェーンの透明性は、異常なパターンがコミュニティまたはコアチームによってフラグ付けされる可能性があることを意味します。また、すべての参加者がステークしているため、共謀するコーディネーターとマイナーのリングは、システムを悪用していることが発覚した場合、ステークを失う可能性があります (例えば、ガバナンスが不正行為に対して彼らをスラッシュすることを決定した場合)。
      2. マイナー間の共謀 – 彼らは情報を共有したり、カルテルを結成したりして、例えば、評判でお互いに投票したり、特定のコーディネーターへのサービスを拒否してより高い料金を引き出したりするかもしれません。これらのシナリオは可能性が低いです。評判投票はステーカー (ユーザーを含む) によって行われ、マイナー自身がお互いに投票するわけではありません。そして、サービスの拒否は、コーディネーターを他のマイナーを探すか、警告を発するように促すだけです。現在比較的小規模であることを考えると、どんな共謀も隠すのは難しいでしょう。
      3. ガバナンスを操作するための共謀 – 大口の CAI 保有者が共謀して、自分たちに有利な提案 (法外な手数料の設定や財務省の転用など) を可決する可能性があります。これは、どのトークンガバナンスにもあるリスクです。最善の緩和策は、トークンを広く配布し (Cuckoo のフェアローンチは 51% をコミュニティに与えました)、活発なコミュニティの監督を持つことです。また、Cuckoo は L1 から移行したため、新しいチェーンに再定住するまで、即時のオンチェーンガバナンスは制限されるかもしれません。チームは暫定的にマルチシグ制御を保持している可能性が高く、皮肉なことに、一時的に中央集権化される代わりに、悪意のある部外者による共謀を防ぎます。 全体として、Cuckoo は共謀に対処するために透明性とステーキングに依存しています。コーディネーターが競争環境でユーザーを引き付けたいという理由で行動するという信頼の要素があります。共謀がサービスの質の低下や明らかな報酬の悪用につながる場合、ステークホルダーは悪意のあるアクターを投票で排除したり、ステークを停止したりすることができ、ネットワークは彼らをスラッシュまたはブロックすることができます。かなりオープンな性質 (ステークすれば誰でもコーディネーターやマイナーになれる) は、共謀には大規模な協調的な努力が必要であり、それは明白になることを意味します。Bittensor や Gensyn ほど数学的に防止されてはいませんが、経済的なステークとコミュニティガバナンスの組み合わせがチェック機能を提供します。
  • フリーライディング (フリーライダー問題): これは、参加者が同等の価値を貢献せずに報酬を得ようとすることを指します。例えば、実際には評価しないが報酬を得るバリデーター、計算する代わりに他人の答えをコピーするマイナー、または有用な入力を提供せずに報酬をファーミングするユーザーなどです。

    • Bittensor: Bittensor で知られているフリーライダー問題は、怠惰なバリデーターによる**「ウェイトコピー」です。バリデーターは、独立してマイナーを評価する代わりに、多数派の意見 (または別のバリデーターのスコア) を単にコピーすることができます。そうすることで、AI クエリを実行するコストを回避しながら、提出したスコアがコンセンサスに沿っているように見えれば報酬を得ることができます。Bittensor は、各バリデーターのコンセンサスへの整合性情報貢献度を測定することでこれに対抗します。バリデーターが常に他人をコピーするだけなら、彼らはうまく整合するかもしれませんが (そのため、重く罰せられることはありません)、独自の価値を加えません。プロトコル開発者は、正確だが純粋に冗長ではない評価を提供するバリデーターに、より高い報酬を与えることを議論しています。ノイズ注入 (意図的にバリデーターにわずかに異なるクエリを与える) のような技術は、コピーするのではなく、実際に作業することを強制する可能性がありますが、それが実装されているかどうかは不明です。Arxiv は、バリデーターの努力と報酬をより良く結びつけるために、パフォーマンス加重発行と複合スコアリング手法を提案しています。マイナーについては、考えられるフリーライダーの行動は、マイナーが他のマイナーにクエリを送り、その答えを中継することです (盗作の一形態)。Bittensor の設計 (分散型クエリ) は、マイナーのモデルが自身のデンドライトを介して他を呼び出すことを許可するかもしれません。マイナーが単に他人の答えを中継する場合、優れたバリデーターは、その答えがマイナーの主張するモデル能力と一貫して一致しないため、それに気づくかもしれません。アルゴリズム的に検出するのは難しいですが、元の結果を計算しないマイナーは、最終的にいくつかのクエリでスコアが悪くなり、評判を失うはずです。もう 1 つのフリーライダーのシナリオは、AI の作業をせずに報酬を得るデリゲーターでした。それは意図的なものです (トークン保有者を巻き込むため) ので、攻撃ではありませんが、トークン発行の一部がステークしただけの人々に渡ることを意味します。Bittensor はこれを、報酬の無駄遣いではなく、インセンティブの調整として正当化しています。要するに、Bittensor はバリデーターのフリーライダー問題を認識しており、インセンティブを調整しています (逸脱したりコピーしたりしない人々にブーストを与えるバリデータートラストスコアなど)。彼らの解決策は、本質的に努力と正確さをより明示的に報酬する**ことであり、何もしないことや盲目的にコピーすることが、時間とともにより少ない TAO をもたらすようにすることです。
    • Gensyn: Gensyn では、フリーライダーが稼ぐのは難しいでしょう。なぜなら、トークンを得るためには、計算を提供するか、誰かの不正を捕まえるかしなければならないからです。ソルバーは仕事を「偽る」ことはできません。有効な証明を提出するか、スラッシュされるリスクを負う必要があります。タスクをせずに支払いを受けるメカニズムはありません。ベリファイアは理論的にアイドル状態で、他の人が不正を捕まえることを期待することができますが、それでは何も稼げません (なぜなら、不正証明を提出した人だけが報酬を得るからです)。あまりにも多くのベリファイアがフリーライドしようとすると (実際にタスクを再計算しない)、誰もチェックしていないため、不正なソルバーがすり抜けるかもしれません。Gensyn のインセンティブ設計は、ジャックポット報酬によってこれに対処します。不正を捕まえて大きな支払いを得るには1 人のアクティブなベリファイアで十分なので、少なくとも 1 人が常に仕事をするのが合理的です。仕事をしていない他の人は、役に立たないことを除いてネットワークに害を与えません。彼らも報酬を得ません。したがって、システムは自然にフリーライダーを排除します。実際に検証するベリファイアだけが長期的には利益を上げます (他の人はノードにリソースを費やしても何も得られないか、ごくまれに偶然報酬を得るだけです)。プロトコルはまた、どのベリファイアが異議を唱える機会を得るかをランダム化して、すべてのベリファイアが「誰か他の人がやるだろう」と仮定するのを防ぐかもしれません。タスクは個別に支払われるため、一時的なテストネットのインセンティブを除いて、「仕事なしのステーキング報酬」に相当するものはありません。注意すべき領域はマルチタスク最適化です。ソルバーはタスク間で作業を再利用したり、秘密裏に誰か安い人に外注したりするかもしれません (中央集権型のクラウドを使用するなど)。しかし、それは本当に有害なフリーライディングではありません。時間通りに正しい結果を提供すれば、それをどのように行ったかは問題ではありません。それは攻撃というよりは裁定取引のようなものです。要約すると、Gensyn のメカニズム設計は、フリーライダーが利益を得る余地をほとんど残していません。なぜなら、配布されるすべてのトークンは、行われた仕事または罰せられた不正に対応しているからです。
    • Cuckoo: Cuckoo の初期フェーズは、意図せずしてフリーライダー問題を生み出しました。エアドロップと高利回りのステーキングは、トークンをファーミングするためだけにそこにいるユーザーを引き付けました。これらのユーザーは、フォーセットを通じてトークンを循環させたり、エアドロップタスクを悪用したりしました (例えば、無料のテストプロンプトを継続的に使用したり、報酬を請求するために多くのアカウントを作成したりするなど)。これは、長期的なネットワーク価値に貢献することなく行われました。Cuckoo はこれを問題として認識しました。本質的に、人々は AI の出力のためではなく、投機的な報酬を得るためにネットワークを「使用」していました。L1 チェーンを終了し、再焦点を当てるという決定は、これらのインセンティブの不整合を振り払うための一部でした。将来のトークン報酬を実際の使用量に結びつけることによって (つまり、サービスが実際に有料顧客によって使用されているために稼ぐ)、フリーライダーの魅力は減少します。また、マイナー側のフリーライディングのシナリオもあります。マイナーが参加し、タスクを割り当てられ、何らかの方法でそれらを実行せずに報酬を請求する可能性があります。しかし、コーディネーターは結果を検証しています。マイナーが出力なしまたは不正な出力を返した場合、コーディネーターはそれを完了したタスクとしてカウントしないため、マイナーは支払いを受けません。マイナーはまた、簡単なタスクを選り好みし、難しいタスクをドロップしようとするかもしれません (例えば、一部のプロンプトが遅い場合、マイナーはそれらを避けるために切断するかもしれません)。これは問題になる可能性がありますが、コーディネーターはマイナーの信頼性を記録することができます。マイナーが頻繁にドロップする場合、コーディネーターは彼らへの割り当てを停止するか、彼らのステークをスラッシュすることができます (そのようなメカニズムが存在する場合、または単に報酬を与えない場合)。ユーザーのフリーライディング – 多くの AI サービスには無料トライアルがあるため、ユーザーは支払わずにアウトプットを得るためにリクエストをスパムする可能性があります (補助金付きモデルがある場合)。それはプロトコルレベルというよりはサービスレベルの問題です。各コーディネーターは無料利用をどのように処理するかを決定できます (例えば、少額の支払いを要求したり、スロットルしたりするなど)。Cuckoo は当初、無料の景品 (ユーザーを引き付けるための無料の AI 画像生成など) を提供していたため、一部の人がそれを利用しましたが、それは予想される成長マーケティングの一部でした。それらのプロモーションが終了すると、ユーザーは支払わなければならなくなり、悪用する無料の昼食はなくなります。全体として、Cuckoo のトークン配布を実際のユーティリティにマッピングするという新しい戦略は、「意味のないループを行うためのトークンマイニング」というフリーライダー問題を排除することを明確に目的としています。
  • データまたはモデルのポイズニング: これは、AI モデルが劣化したり、出力が操作されたりするように、悪意を持って不正なデータや行動を導入すること、および有害または偏ったコンテンツが貢献される問題を指します。

    • Bittensor: Bittensor におけるデータポイズニングは、マイナーが意図的に不正確または有害な回答を与えること、またはバリデーターが意図的に良い回答を悪いと誤って評価することを意味します。マイナーが一貫してゴミや悪意のあるコンテンツを出力する場合、バリデーターは低いスコアを与え、そのマイナーはほとんど稼げず、最終的に脱落します。経済的インセンティブは品質を提供することにあるため、他人を「ポイズニング」することは攻撃者に利益をもたらしません (彼らの目標が純粋に自己の費用での妨害である場合を除く)。悪意のあるマイナーが他人をポイズニングすることはできるでしょうか?Bittensor では、マイナーは直接お互いをトレーニングしません (少なくとも設計上はそうではありません。ポイズニングされる可能性のあるグローバルモデルが更新されることはありません)。各マイナーのモデルは別々です。彼らは、マイナーが自分自身をファインチューニングするために他の人から興味深いサンプルを取ることができるという意味で学習しますが、それは完全に任意であり、それぞれ次第です。悪意のあるアクターが無意味な回答をスパムした場合、正直なバリデーターはそれをフィルタリングします (低いスコアを付けます)。したがって、正直なマイナーのトレーニングプロセスに大きな影響を与えることはありません (加えて、マイナーは低いスコアのピアの知識ではなく、高いスコアのピアの知識を使用する可能性が高いです)。したがって、古典的なデータポイズニング (モデルを破損させるために不正なトレーニングデータを注入する) は、Bittensor の現在の設定では最小限です。より関連性の高いリスクはモデル応答の操作です。例えば、バリデーターには明らかではない、微妙に偏った、または危険なコンテンツを出力するマイナーなどです。しかし、バリデーターも人間が設計した、または少なくともアルゴリズムのエージェントであるため、露骨な毒性やエラーは捕捉される可能性が高いです (一部のサブネットには、安全でないコンテンツをチェックする AI バリデーターさえあるかもしれません)。最悪のシナリオは、攻撃者が何らかの方法でバリデーターとマイナーの過半数を共謀させて、特定の不正確な出力を「正しい」として押し通す場合です。彼らは応答に関するネットワークのコンセンサスを偏らせることができます (すべての共謀するバリデーターが悪意のある回答をアップボートするなど)。しかし、外部ユーザーがそれによって害を受けるためには、実際にネットワークにクエリを送り、その出力を信頼する必要があります。Bittensor はまだ能力を構築している段階であり、エンドユーザーによる重要なクエリに広く使用されているわけではありません。その時までには、コンテンツフィルタリングとバリデーターの多様性を持って、そのようなリスクを軽減することを期待しています。バリデーター側では、悪意のあるバリデーターがポイズニングされた評価を与える可能性があります。例えば、競争を排除するために特定の正直なマイナーを一貫してダウンボートするなどです。十分なステークがあれば、彼らはそのマイナーを追い出すことに成功するかもしれません (マイナーの報酬が非常に低くなり、彼らが去る場合)。これはインセンティブメカニズムへの攻撃です。繰り返しになりますが、彼らが多数派でなければ、中央値クリッピングが外れ値のバリデーターを阻止します。彼らが多数派である場合、それは共謀/51% のシナリオと合流します。どの多数派もルールを書き換えることができます。解決策は分散化に戻ります。どの 1 つのエンティティも支配しないようにすることです。要約すると、Bittensor の設計は、そのスコアリングシステムを通じてポイズニングされたデータ/モデルの貢献を本質的に罰します。不正な貢献は低い重み、したがって低い報酬を得ます。ポイズニングするための永続的なモデルリポジトリはありません。すべてが動的で、継続的に評価されます。これにより回復力が提供されます。ネットワークは、バリデーターによって貢献がフィルタリングされるにつれて、悪意のあるアクターを徐々に「忘れる」か無視することができます。
    • Gensyn: ソルバーがトレーニング中のモデルをポイズニングしたい場合 (トレーニング中にバックドアやバイアスを導入するなど)、それを秘密裏に行おうとする可能性があります。Gensyn プロトコルは、トレーニングが指定されたアルゴリズム (確率的勾配降下法のステップなど) に従って進行したことを検証しますが、ソルバーが通常の検証メトリクスには現れない微妙なバックドアトリガーを導入したかどうかを必ずしも検出しません。これはより陰湿な問題です。計算の失敗ではなく、トレーニングの許容される自由度の範囲内での操作です (トリガーフレーズに向けて重みを調整するなど)。それを検出することは、ML セキュリティにおける活発な研究問題です。Gensyn には、サブミッターが最終モデルを自分で選択したテストセットで評価できるという事実を除いて、モデルポイズニングのための特別なメカニズムはありません。賢明なサブミッターは、常に返されたモデルをテストすべきです。いくつかの入力で失敗したり、奇妙な動作をしたりすることを発見した場合、結果に異議を唱えたり、支払いを拒否したりするかもしれません。おそらく、プロトコルはサブミッターが特定の受け入れ基準 (「モデルはこの秘密のテストセットで少なくとも X の精度を達成しなければならない」など) を指定できるようにし、ソルバーの結果が失敗した場合、ソルバーは全額の支払いを受けないようにすることができます。これにより、攻撃者は評価基準を満たさないため、ポイズニングが抑止されます。しかし、ポイズニングが通常のテストでの精度に影響を与えない場合、すり抜ける可能性があります。Gensyn のベリファイアは計算の完全性のみをチェックし、モデルの品質はチェックしないため、トレーニングログが有効に見える限り、意図的な過学習やトロイの木馬を捕まえません。したがって、これはタスクレベルでの信頼の問題として残ります。サブミッターは、ソルバーがモデルをポイズニングしないことを信頼するか、単一のソルバーの影響を薄めるために、異なるソルバーからの複数のトレーニング結果をアンサンブルするような方法を使用する必要があります。もう 1 つの角度はデータポイズニングです。サブミッターがトレーニングデータを提供する場合、悪意のあるソルバーはそのデータを無視して何か別のものでトレーニングしたり、ゴミデータを追加したりする可能性があります。しかし、それはおそらく精度を低下させ、サブミッターは出力モデルのパフォーマンスでそれに気づくでしょう。ソルバーはその後、全額の支払いを受けません (おそらく、彼らはパフォーマンス目標を達成したいからです)。したがって、パフォーマンスを低下させるポイズニングは、ソルバーの報酬にとって自己破壊的です。パフォーマンスに中立だが悪意のあるポイズニング (バックドア) だけが本当の危険であり、それは典型的なブロックチェーン検証の範囲外です。それは機械学習のセキュリティの課題です。Gensyn の最善の緩和策は、おそらく社会的です。既知の評判の良いモデルを使用し、複数のトレーニングランを行い、オープンソースツールを使用することです。推論タスク (Gensyn が推論ジョブにも使用される場合) では、共謀するソルバーが特定の回答を偏らせる不正確な出力を返す可能性があります。しかし、ベリファイアは同じモデルを実行すれば不正な出力を捕まえるので、それはポイズニングというよりは単なる不正行為であり、不正証明が対処します。要約すると、Gensyn はプロセスを保護しますが、意図は保護しません。トレーニング/推論が正しく行われたことを保証しますが、結果が良いか、隠れた悪意がないことを保証するわけではありません。それは未解決の問題として残っており、Gensyn のホワイトペーパーはまだそれを完全には解決していないでしょう (ほとんど誰も解決していません)。
    • Cuckoo: Cuckoo は現在、推論 (既存のモデルの提供) に焦点を当てているため、データ/モデルのポイズニングのリスクは、出力操作またはコンテンツポイズニングに比較的に限定されています。悪意のあるマイナーは、実行するように与えられたモデルを改ざんしようとするかもしれません。例えば、Stable Diffusion のチェックポイントが提供された場合、それを、すべての画像に微妙な透かしや広告を挿入する可能性のある別のモデルと交換するかもしれません。しかし、モデルオーナーであるコーディネーターは、通常、出力形式の期待を持ってタスクを送信します。マイナーが一貫して仕様外の出力を返す場合、コーディネーターはそのマイナーにフラグを立てて禁止します。また、マイナーは、出力に著しく影響を与えることなくモデルを簡単に変更することはできません。もう 1 つのシナリオは、Cuckoo がコミュニティでトレーニングされたモデルを導入する場合です。その場合、マイナーやデータプロバイダーは、トレーニングデータをポイズニングしようとするかもしれません (例えば、多くの間違ったラベルや偏ったテキストを入力するなど)。Cuckoo は、クラウドソースデータの検証または貢献者の重み付けを実装する必要があります。これはまだ機能ではありませんが、チームのパーソナライズされた AI (AI ライフコーチや学習アプリの言及など) への関心は、最終的にユーザー提供のトレーニングデータを扱う可能性があり、それには慎重なチェックが必要になることを意味します。コンテンツの安全性については、Cuckoo のマイナーは推論を実行するため、モデルが通常は出力しない有害なコンテンツを出力することを心配するかもしれません。しかし、マイナーは任意に出力を変更するインセンティブを持っていません。彼らは創造性ではなく、正しい計算に対して報酬を受けます。どちらかといえば、悪意のあるマイナーは時間を節約するために完全な計算をスキップするかもしれません (例えば、ぼやけた画像や一般的な応答を返すなど)。コーディネーターやユーザーはそれに気づき、そのマイナーをダウンレートします (そして、おそらくそのタスクの支払いはしません)。プライバシーは別の側面です。悪意のあるマイナーはユーザーデータを漏洩または記録するかもしれません (ユーザーが機密性の高いテキストや画像を入力した場合など)。これはポイズニングではありませんが、機密性への攻撃です。Cuckoo のプライバシーに関するスタンスは、プライバシー保護手法を模索しているということです (エコシステムにおけるプライバシー保護 VPN の言及は、将来の焦点を示唆しています)。彼らは、セキュアエンクレーブや分割推論のような技術を組み込んで、マイナーからデータをプライベートに保つことができます。まだ実装されていませんが、既知の考慮事項です。 最後に、Cuckoo のブログは、モデルのトークン化を実現可能にする鍵として、モデルの出力を効果的に検証し、安全な分散型モデル運用を保証することを強調しています。これは、AI を真に分散化するためには、ポイズニングされた出力や誤動作するモデルのようなものから保護しなければならないことを認識していることを示しています。おそらく、彼らは暗号経済学的インセンティブ (悪意のあるアクターに対するステークスラッシュ) とユーザー評価システム (ユーザーが悪質な出力をフラグ付けでき、それらのマイナーは評判を失う) の組み合わせを使用するつもりでしょう。評判システムはここで役立ちます。マイナーが 1 つでも明らかに悪意のある、または不正確な結果を返した場合、ユーザー/コーディネーターは彼らをダウンボートでき、将来の収益能力に大きな影響を与えます。これを知っているマイナーは、一貫して正しくあり、ポイズニングを紛れ込ませないようにインセンティブを与えられます。 本質的に、Cuckoo は信頼するが検証するというアプローチに依存しています。誰かが不正行為をした場合、特定して削除する (罰としてステークを失う) という、より伝統的な方法です。まだ微妙なモデルポイズニングに対する専門的な防御策はありませんが、特定のアプリオーナー (コーディネーター) が担当する構造は、監督のレイヤーを追加します。これらのオーナーは、自分たちの収益と評判がそれに依存しているため、モデルの完全性を損なうものがないことを保証する動機付けがあります。

結論として、分散型 AI ネットワークは新しい攻撃対象領域を導入しますが、暗号学的、ゲーム理論的、およびコミュニティガバナンスによる防御の組み合わせも展開しています: シビル耐性は、主に経済的なステークを参加に要求することによって処理されます。共謀耐性は、インセンティブの調整 (正直な行動がより収益性が高い) と、小さな共謀グループの影響を制限するコンセンサスメカニズムから生まれます。フリーライダー防止は、報酬を実際の有用な作業と密接に結びつけ、何も貢献しない者を罰するか排除することによって達成されます。ポイズニングおよび関連する攻撃は依然として困難ですが、システムは継続的な評価と悪意のあるアクターをスラッシュまたは追放する能力を通じて、露骨なケースを軽減します。これらのプラットフォームは、安全で自己持続可能な分散型 AI エコシステムを確保するために、これらの設計を積極的に研究し、反復しています。これは、Bittensor の Yuma と dTAO への継続的な調整、および Cuckoo のトークノミクスの転換によって証明されています。

比較評価

Bittensor、Gensyn、Cuckoo AI の違いと類似点を強調するために、次の表は主要な側面における並列比較を提供します:

側面Bittensor (TAO)GensynCuckoo AI (CAI)
技術スタックカスタム L1 (Substrate ベースの Subtensor チェーン) と 93 以上の専門 AI サブネット。独自のチェーン上で EVM 互換 (最近のアップグレード後)。Ethereum ベースのロールアップ (当初は L1 を計画、現在は ETH ロールアップ)。オンチェーン検証を伴うオフチェーン計算。Arbitrum Orbit レイヤー 2 チェーン (EVM ロールアップ) としてローンチ。フルスタックプラットフォーム (独自のチェーン + コンピューティング + アプリ UI)。カスタム L1 から Ethereum 共有セキュリティ (ロールアップ/AVS) に移行中。
主要な焦点モデルの分散型 AI ネットワーク (「ニューラルインターネット」)。ノードは、タスク (LLM、ビジョンなど) 全体で集合的なモデル推論とトレーニングに貢献する。ML のための分散型コンピューティングマーケットプレイス。ブロックチェーンを介して作業を検証しながら、グローバルな GPU によるオフチェーンのモデルトレーニングと推論に重点を置く。分散型 AI サービスプラットフォーム。分散 GPU マイナーを使用したモデル提供/推論 (例: 生成アート、LLM API) に焦点を当てる。エンドユーザーアプリケーションをバックエンドの GPU マーケットプレイスと統合する。
主要な役割サブネットオーナー: サブネット内のタスクと検証を定義 (18% の報酬を獲得)。
マイナー: AI モデル (推論/トレーニング) を実行し、回答を提供。
バリデーター: クエリを投げかけ、マイナーの出力をスコアリング (品質をキュレーション)。
デリゲーター: マイナー/バリデーターに TAO をステークして増幅し、シェアを獲得。
サブミッター (開発者): ML ジョブ (モデル/データ付き) と支払いを投稿。
ソルバー: 自身のハードウェアでタスクを計算し、結果を提出。
ベリファイア (ウォッチャー): ソルバーの結果をチェック。不正な場合は不正証明を介して異議を申し立てることができる。
(サブミッターがモデルを提供するため、明確な「オーナー」の役割はなし。トークン保有者を介したガバナンスの役割)。
AI アプリビルダー (コーディネーター): AI モデルサービスをデプロイし、CAI をステークし、マイナーへのタスクを管理。
マイナー (GPU/CPU プロバイダー): CAI をステークし、割り当てられた推論タスクを実行し、結果を返す。
エンドユーザー: AI アプリを使用 (暗号通貨で支払うか、リソースを貢献)。
ステーカー (デリゲーター): コーディネーター/マイナーにステークし、ガバナンスで投票し、報酬のシェアを獲得。
コンセンサスと検証Yuma コンセンサス: カスタムの「プルーフ・オブ・インテリジェンス」 – AI 出力のバリデーターのスコアが集計され (ステーク加重中央値)、マイナーの報酬が決定される。基盤となるチェーンのコンセンサスはブロックに対して PoS に似ている (Substrate) が、ブロックの有効性は各エポックの AI コンセンサスにかかっている。外れ値のスコアリングと 50% までの共謀に耐性がある。オプティミスティック検証 (Truebit スタイル): ベリファイアが異議を唱えない限り、ソルバーの結果は正しいと仮定。対話的なオンチェーンの不正証明を使用して、不正なステップを特定。また、再実行なしでトレーニングの進捗を検証するために計算の暗号学的証明 (プルーフ・オブ・ラーニング) を実装中。Ethereum がトランザクションの基本コンセンサスを提供。プルーフ・オブ・ステークチェーン + コーディネーターによるタスク検証: Cuckoo Chain はブロック生成に PoS バリデーターを使用 (当初はマイナーもブロックの保護を支援)。AI タスクの結果は、コーディネーターノードによって検証される (マイナーの出力を期待されるモデルの動作と照合)。まだ専門的な暗号証明はなく、ステークと評判に依存 (不正行為が自動的な数学的証明検出ではなく、スラッシングやダウンボートにつながる範囲でトラストレス)。台帳のセキュリティのために Ethereum コンセンサス (ロールアップ) に移行中。
トークンとユーティリティTAO トークン: Subtensor 上のネイティブ通貨。ステーキング (登録とコンセンサスへの影響に必要)、トランザクション手数料/支払い (例: AI クエリの支払い)、および貢献 (マイニング/検証) に対する報酬として使用。TAO には継続的なインフレがあり (12 秒ブロックごとに 1 TAO)、これが報酬メカニズムを駆動する。また、ガバナンス (サブネットへの dTAO ステーキング) でも使用される。Gensyn トークン (ERC-20、名称未定): プロトコルの支払い単位 (開発者はソルバーにそれで支払う)。ステーク担保として機能 (ソルバー/ベリファイアはトークンをボンドし、不正行為でスラッシュされる)。ガバナンスで使用される (Gensyn 財団の DAO を介したプロトコルアップグレードの投票)。供給に関する詳細はまだない。おそらく一部は初期採用 (テストネットなど) を奨励するために割り当てられる。CAI トークン (ERC-20): Cuckoo Chain のネイティブトークン (10 億の固定供給)。多目的: Cuckoo Chain 上のトランザクションのガス料金、ネットワークの役割 (マイナー、コーディネーターは CAI をロックする必要がある) のためのステーキング、プロトコルの決定に関するガバナンス投票、および貢献に対する報酬 (マイニング/ステーキング報酬は初期割り当てから)。ミーム的な魅力もある (コミュニティトークンの側面)。
資産のトークン化計算: はい – AI 計算作業は TAO 報酬を介してトークン化される (TAO を知性のための「ガス」と考える)。モデル: 間接的に – モデルはパフォーマンスに基づいて TAO を稼ぐが、モデル/重み自体はオンチェーン資産ではない (モデルの NFT はない)。サブネットの所有権は、モデルマーケットプレイスのシェアを表すためにトークン化される (サブネットオーナー NFT + アルファトークン)。データ: トークン化されていない (データはオフチェーン。Bittensor はデータセットではなくモデルの出力に焦点を当てる)。計算: はい – アイドル状態の計算はオンチェーンの商品となり、ジョブマーケットプレイスでトークンと交換される。モデル: 明示的にはない – モデルは開発者によってオフチェーンで提供され、結果が返される。組み込みのモデルトークンはない (ただし、当事者が設定すればプロトコルはライセンスを促進できる)。データ: ない – データセットはサブミッターとソルバーの間でオフチェーンで処理される (暗号化または保護される可能性があるが、オンチェーン資産として表現されない)。Gensyn のビジョンには、計算のようにアルゴリズムやデータを取引する可能性が含まれているが、コア実装は計算中心。計算: はい – GPU 時間は日々の CAI 支払いとタスク報奨金を介してトークン化される。ネットワークは計算能力をマイナーが CAI と「交換」するリソースとして扱う。モデル: 部分的に – プラットフォームはモデルをサービスとして統合する。しかし、モデル自体は NFT としてミントされない。モデルの価値は、それを使用するユーザーから CAI を稼ぐコーディネーターの能力に捉えられる。将来の計画はコミュニティ所有のモデルを示唆しているが、現在モデルの IP はオフチェーン (コーディネーターを運営する者が所有)。データ: 一般的なデータのトークン化はない。ユーザーの入出力は一時的。(Cuckoo は Beancount などのアプリと提携しているが、データはチェーン上のトークンで表現されない)。
ガバナンス分散型、トークン保有者主導 (dTAO): 当初は 64 人の選出されたバリデーターがルートコンセンサスを運営。現在はガバナンスはオープン – TAO 保有者がサブネットにステークして発行を指示 (市場ベースのリソース配分)。プロトコルのアップグレードと変更は、オンチェーン提案 (TAO 投票、Bittensor 財団/評議会が促進) を介して決定される。財団が徐々に制御を譲り、完全にコミュニティによって統治されることを目指す。段階的な分散化: Gensyn 財団 + 選出された評議会が初期の決定を管理。トークンローンチ後、ガバナンスはトークン保有者が提案に投票する DAO に移行する (多くの DeFi プロジェクトと同様)。Ethereum の共有セキュリティ環境は、主要な変更がコミュニティと潜在的にレイヤー 1 のガバナンスを伴うことを意味する。ガバナンスの範囲には、経済パラメータ、コントラクトのアップグレード (セキュリティ監査の対象) が含まれる。まだ稼働していないが、メインネット後のライトペーパーで概説されている。コミュニティと財団の混合: Cuckoo は「フェアローンチ」の精神でローンチ (インサイダー向けのプレマインなし)。コミュニティ DAO が意図されており、主要な決定とプロトコルのアップグレードについて CAI が投票する。実際には、コアチーム (Cuckoo Network 開発者) が主要な決定 (チェーンの廃止など) を主導してきたが、彼らはその根拠を透明に共有し、コミュニティの利益のための進化として位置づけている。オンチェーンガバナンス機能 (提案、投票) は、新しいロールアップが導入されたときに実装される可能性が高い。ステーキングはまた、評判システム (信頼できるノードに対するステーク加重投票) を通じて非公式にガバナンスの影響力を与える。
インセンティブモデル貢献に連動したインフレ報酬: ブロックごとに約 1 TAO がパフォーマンスに基づいて参加者に分配される。品質 = より多くの報酬。マイナーとバリデーターは継続的に (ブロックごとに) 稼ぎ、加えてデリゲーターは分け前を得る。TAO はエンドユーザーがサービスを支払うためにも使用され (トークンの需要側を創出)、トークン経済は長期的な参加 (ステーキング) とモデルの絶え間ない改善を奨励するように設計されている。これはビットコインのマイナーに似ているが、「AI をマイニング」する。潜在的な問題 (ステークの集中化が報酬の不整合につながる) は、インセンティブの調整を通じて対処されている。市場主導、成果報酬: 継続的なインフレ利回りはない (初期のインセンティブの可能性を除く)。ソルバーは仕事を成功裏に完了したときにのみ支払いを受ける。ベリファイアは不正を捕まえたときにのみ支払いを受ける (ジャックポットインセンティブ)。これにより直接的な経済が生まれる: 開発者の支出 = プロバイダーの収益。トークンの価値は、計算に対する実際の需要に結びついている。ブートストラップのために、Gensyn はおそらくローンチ時にテストネットユーザーに報酬を与える (一度きりの配布) が、定常状態では使用量ベース。これにより、インセンティブはネットワークのユーティリティと密接に一致する (AI ジョブが増加すれば、トークンの使用量が増加し、すべての保有者に利益をもたらす)。ハイブリッド (インフレから使用料へ移行): 当初、51% のコミュニティプールからのマイニングとステーキングの割り当ては、外部の使用量に関係なく GPU マイナー (供給の 30%) とステーカー (11%) に報酬を与えた。これはネットワーク効果を始動させるためだった。時間とともに、特に L1 廃止後、収益分配に重点が置かれる: マイナーとアプリ開発者は、実際のユーザー支払い (例: 画像生成の手数料を分割) から稼ぐ。ステーカーの利回りは、実際の使用量の一部から得られるか、生産的なノードのみをサポートするように調整される。したがって、初期のインセンティブは「ネットワークを成長させる」 (高い APY、エアドロップ) であり、後には「ネットワークが実際に有用であれば成長する」 (顧客からの収益) となる。この移行は、フリーライダーを排除し、持続可能性を確保するために設計されている。
セキュリティと攻撃緩和策シビル: 高価な登録 (TAO ステーク) がシビルを抑止。共謀: 中央値コンセンサスが 50% のステークまでの共謀に抵抗。dTAO はトークン保有者の投票を強化することでバリデーターの寡頭制を打破。不正: コンセンサスから逸脱するバリデーターは報酬シェアを失う (正直なスコアリングを奨励)。ステークが高度に集中している場合、51% 攻撃が可能 – 研究では、これを軽減するためにステークキャップとパフォーマンススラッシングを追加することが示唆されている。モデル攻撃: 不良または悪意のあるモデルの出力は、低いスコアによって罰せられる。単一障害点なし – ネットワークはグローバルに分散化されている (TAO マイナーは世界中に存在し、擬似匿名的)。シビル: 参加には経済的なステークが必要。ステーク/仕事のない偽のノードは何も得られない。検証: 少なくとも 1 人の正直なベリファイアが必要 – そうであれば、どんな不正な結果も捕らえられ、罰せられる。不正行為が割に合わないようにするために暗号経済学的インセンティブを使用 (ソルバーはデポジットを失い、ベリファイアは得る)。共謀: すべての当事者が共謀しない限り安全 – 1 人の正直者が不正を明らかにすることでスキームを破る。信頼: ハードウェアや企業への信頼に依存せず、経済的なゲーム理論と暗号学にのみ依存。攻撃: タスクが分散されているため、検閲や DoS が困難。攻撃者は正直なノードを上回る入札をするか、一貫して不正証明を打ち破る必要がある (過半数の制御なしではあり得ない)。しかし、微妙なモデルのバックドアは検出を逃れる可能性があり、これは既知の課題 (ユーザーテストと、単なる正しい実行を超えた将来の監査によって軽減される可能性がある)。全体的なセキュリティは、計算のためのオプティミスティックロールアップに類似。シビル: すべてのアクターは CAI をステークする必要があり、シビルのハードルを上げる。加えて、評判システム (ステーキング + 投票) は、評判のないシビルアイデンティティがタスクを得られないことを意味する。ノードの不正行為: コーディネーターはパフォーマンスの悪い、または疑わしいマイナーをドロップできる。ステーカーはサポートを撤回できる。プロトコルは証明された不正に対してステークをスラッシュできる (L1 にはコンセンサスのためのスラッシング条件があった。同様のことがタスクの不正にも適用できる)。共謀: 部分的に信頼ベース – 共謀が支配するのを防ぐために、オープンな競争とコミュニティの監督に依存。タスクと支払いはオンチェーンで公開されているため、露骨な共謀は特定され、社会的にまたはガバナンスを通じて罰せられる可能性がある。ユーザー保護: ユーザーは、1 つが検閲されたり破損したりした場合にプロバイダーを切り替えることができ、単一の制御点がないことを保証。ポイズニング/コンテンツ: 設計上、マイナーは提供されたモデルをそのまま実行する。悪意を持って出力を変更した場合、評判と報酬を失う。システムは合理的なアクターに賭けている: 全員がステークされた価値と将来の収益の可能性を持っているため、ネットワークへの信頼を損なう攻撃からインセンティブを失う (インセンティブをユーティリティと一致させることに関する L1 実験からの重い教訓によって強化されている)。

表: Bittensor、Gensyn、Cuckoo AI のアーキテクチャ、焦点、役割、コンセンサス、トークン、資産のトークン化、ガバナンス、インセンティブ、セキュリティにおける機能比較。

Camp Network:AIの数十億ドル規模の知的財産問題に挑むブロックチェーン 🏕️

· 約6分
Dora Noda
Software Engineer

生成AIの台頭は爆発的と言っても過言ではありません。驚くべきデジタルアートから人間らしいテキストまで、AIは前例のない規模でコンテンツを生成しています。しかし、このブームには暗い側面があります。AIはどこからトレーニングデータを得ているのでしょうか?多くの場合、インターネット上の膨大な領域、すなわち人間が作成したアート、音楽、文章などから取得されており、これらのクリエイターはクレジットや報酬を受け取っていません。

そこで登場するのが Camp Network です。これは単なる暗号プラットフォームではなく、AI時代におけるクリエイターの所有権とコントロールを提供することを目的とした「自律的知的財産レイヤー」です。Camp Network が注目すべきプロジェクトである理由を見ていきましょう。


大きなアイデアは?

Camp Network の本質は、知的財産(IP)をグローバルかつ検証可能なレジストリとして機能するブロックチェーンです。独立したアーティストからソーシャルメディアユーザーまで、誰でも自分のコンテンツをオンチェーンで登録できるようにし、所有権と出所の永続的かつ改ざん不可能な記録を作ります。

なぜ重要なのでしょうか?AI が Camp に登録されたコンテンツを使用した場合、ネットワークのスマートコントラクトが自動的にライセンス条件を適用できます。これにより、元のクリエイターは帰属表示を受け、ロイヤリティが即座に支払われる可能性があります。Camp のビジョンは、報酬が後付けではなく、プロトコル自体に組み込まれた新しいクリエイターエコノミーを構築することです。


技術スタックの裏側

Camp は概念だけではなく、高性能かつ開発者フレンドリーな実装がなされています。

  • モジュラーアーキテクチャ:Camp は Celestia をデータ可用性レイヤーとした主権ロールアップとして構築されています。この設計により、秒間 50,000 トランザクションを目指す高速かつ低コストな動作が可能で、Ethereum のツール(EVM)との完全互換性も保たれます。
  • Proof of Provenance(PoP):Camp 独自のコンセンサスメカニズムです。エネルギー集約型のマイニングに依存せず、ネットワークのセキュリティはコンテンツの出所検証に結び付けられます。各トランザクションが IP の出所を強化し、所有権を「設計上強制可能」にします。
  • デュアル VM 戦略:パフォーマンス最大化のため、Camp は Solana Virtual Machine(SVM) を EVM 互換性と共に統合しています。これにより、開発者はリアルタイム AI インタラクションなど高スループットが求められるユースケースに最適な環境を選択できます。
  • クリエイター & AI ツールキット:Camp は二つの主要フレームワークを提供します
    • Origin Framework:クリエイターが IP を登録し、NFT としてトークン化し、ライセンス規則を埋め込むためのユーザーフレンドリーなシステム。
    • mAItrix Framework:開発者がオンチェーン IP と安全かつ許可制でやり取りできる AI エージェントを構築・デプロイするためのツールキット。

人材・パートナーシップ・進捗

アイデアは実行力が伴って初めて価値がありますが、Camp はその点で順調に進んでいるようです。

チームと資金調達

プロジェクトは The Raine Group(メディア&IP取引)、Goldman SachsFigmaCoinList の経験豊富なメンバーで構成されています。この金融・テック・暗号エンジニアリングの融合により、1kxBlockchain CapitalMaven 11 といったトップ VC から 3,000 万ドル の資金調達に成功しました。

エコシステムの拡大

Camp は積極的にパートナーシップを構築しています。最大のハイライトは KOR Protocol への戦略的出資です。KOR は音楽 IP をトークン化するプラットフォームで、Deadmau5Black Mirror などの大物アーティストと提携しています。この提携により、Camp は権利クリア済みのハイプロファイルコンテンツを大量に取り込むことができます。他の主要パートナーは以下の通りです:

  • RewardedTV:Camp を利用してオンチェーンコンテンツ権利を管理する分散型動画配信プラットフォーム。
  • Rarible:IP 資産の取引を可能にする NFT マーケットプレイス。
  • LayerZero:他ブロックチェーンとの相互運用性を確保するクロスチェーンプロトコル。

ロードマップとコミュニティ

数万人規模のユーザーを惹きつけたインセンティブテストネットキャンペーンを成功させた後、Camp は 2025 年第3四半期のメインネットローンチ を目指しています。ローンチと同時にネイティブトークン $CAMP のトークンジェネレーションイベントが開催され、ガス代、ステーキング、ガバナンスに利用されます。プロジェクトはすでに、ローンチ初日からプラットフォーム上で構築・利用したいという情熱的なコミュニティを育成しています。


競合比較

Camp Network はこの領域で唯一無二というわけではありません。a16z 支援の Story ProtocolSony 連携の Soneium といった競合プロジェクトが存在します。しかし、Camp は以下の点で差別化されています。

  1. ボトムアップアプローチ:競合が大手企業の IP 保有者を対象にするのに対し、Camp はトークンインセンティブを通じて 独立クリエイターや暗号コミュニティ をエンパワーメントします。
  2. 包括的ソリューション:IP レジストリから AI エージェントフレームワークまで、ワンストップで提供するツール群が揃っています。
  3. パフォーマンスとスケーラビリティ:モジュラーアーキテクチャとデュアル VM の組み合わせにより、AI とメディアの高スループット要求に応えられます。

結論

Camp Network は、Web3 時代における知的財産の基盤レイヤーとなる有力な候補です。革新的な技術、強力なチーム、戦略的パートナーシップ、そしてコミュニティ第一の姿勢が組み合わさり、生成 AI がもたらす最も喫緊の課題に対する実用的な解決策を提示しています。

真の試練はメインネットのローンチと実世界での採用です。しかし、これまでの明確なビジョンと堅実な実行力を見る限り、Camp Network はデジタルクリエイターにとってより公平な未来を築く鍵となるプロジェクトであることは間違いありません。

Meet BeFreed.ai – BlockEden.xyz ビルダーのための学習燃料

· 約5分
Dora Noda
Software Engineer

なぜ BlockEden.xyz が関心を持つのか

Web3 のスピードが命の世界では、迅速さがすべてです。プロダクションレベルの RPC やステーキングインフラを提供するため、私たちのチームとコミュニティは常にイノベーションの最前線に立ち続けなければなりません。つまり、密度の高いプロトコル、画期的な暗号論文、急速に変化するガバナンススレッドを把握し続ける必要があります。コミュニティが新しいアイデアを早く吸収し理解できれば、次世代の分散型アプリケーションをより速く構築できます。ここで BeFreed.ai の出番です。

BeFreed.ai とは何か

BeFreed.ai はサンフランシスコ拠点のスタートアップで、シンプルながら強力なミッションを掲げています。AI 時代に学習を楽しく、個人的なものにすることです。彼らは、ビルダーやクリエイターの過酷なライフスタイルに合わせたインテリジェントなマイクロラーニングコンパニオンを開発しました。

コア要素

  • 複数フォーマット → ワンクリック: BeFreed.ai は長大な書籍や詳細な動画、複雑な技術文書まで、幅広いコンテンツを瞬時に要約、フラッシュカード、詳細ノート、さらにはポッドキャスト形式の音声へと変換します。
  • 適応エンジン: プラットフォームは利用者と共に学習します。学習速度や関心に注意を払い、次に提示する情報を最も関連性の高いものに絞ります。画一的なカリキュラムを強制しません。
  • 組み込みチャット & 「なぜこれ」エクスプラナー: 質問がありますか? すぐに聞くだけで OK。BeFreed.ai はその場で複雑なトピックを明確にし、新たな洞察を全体的な目標に結びつけて説明します。学習プロセスがより意味深いものになります。
  • 4.3万人規模の学習コミュニティ: 学習はしばしば共同作業です。BeFreed.ai は 43,000 人以上の学習者が進捗を共有し、洞察に反応し、重要なポイントをハイライトする活気あるコミュニティを育み、モチベーションと勢いを保ちます。

BlockEden.xyz ビルダーにとっての重要性

BlockEden.xyz エコシステムの献身的なビルダーにとって、BeFreed.ai は単なる学習ツールではなく、戦略的優位性です。以下のようにエッジを研ぎ澄ますことができます。

  • 時間のレバレッジ: 300 ページのホワイトペーパーを 10 分間の音声ブリーフに変換し、重要なガバナンス投票の前に聞くことができます。
  • コンテキスト保持: フラッシュカードやマインドマップを使って、スマートコントラクトインデックス作成時に必要なプロトコル詳細を確実に定着させます。
  • クロススキル成長: 開発環境を離れることなくスキルセットを拡張。デザイン思考の基礎、グロースループの理解、Go の並行処理のヒントなどをダウンタイムに取得できます。
  • 共通語彙: チームレベルのプレイリストを作成し、全員が同じ要約・一貫した情報源から学ぶことで、協働とアラインメントが向上します。

BeFreed.ai を BlockEden.xyz のワークフローに組み込む

BeFreed.ai を既存の開発プロセスに統合するのはシームレスで、すぐに効果が現れます。

  1. スペックを投入: 最新のトークノミクス PDF や YouTube の開発者コールの URL を BeFreed に貼り付け、即座に消化しやすい要約を取得。
  2. フラッシュカードをエクスポート: CI 実行中に重要概念を復習。コンテキストスイッチの疲労よりもはるかに効果的な反復学習が可能です。
  3. ドキュメントにリンク: 各 API リファレンス横に BeFreed の要約 URL を埋め込み、新メンバーが迅速にキャッチアップできるようにします。
  4. 最新情報を保持: 新興 L2 に関する週次ダイジェストを BeFreed で設定し、得た知識を BlockEden.xyz のマルチチェーン RPC サービスで即座にプロトタイピングに活かします。

はじめに

BeFreed.ai は iOS、Android、Web で利用可能です。次の BlockEden.xyz プロジェクトスプリントでぜひ試してみて、学習と構築の速度がどれだけ向上するか体感してください。私たちのチームはすでにより緊密な統合を検討中です—例えば、マージされた PR の説明を自動的に包括的な学習セットに変換する Webhook など、未来を想像してください。

MCP を通じた AI と Web3 の接続:全体像の分析

· 約21分
Dora Noda
Software Engineer

はじめに

AI と Web3 は強力な方法で融合しており、現在では AI 汎用インターフェースが分散型ウェブの結合組織として構想されています。この融合から生まれた重要な概念が MCP であり、これは (Anthropic によって導入された) 「モデルコンテキストプロトコル」の略称であるか、より広範な議論では メタバース接続プロトコルとして緩やかに説明されています。本質的に、MCP は AI システムが外部ツールやネットワークと自然で安全な方法でインターフェースするための標準化されたフレームワークであり、潜在的には AI エージェントを Web3 エコシステムの隅々まで「プラグイン」 することを可能にします。このレポートでは、AI 汎用インターフェース (大規模言語モデルエージェントやニューラルシンボリックシステムなど) が MCP を介して Web3 の世界にあるすべてを接続する方法について、歴史的背景、技術アーキテクチャ、業界の状況、リスク、そして将来の可能性を網羅的に分析します。

1. 開発の背景

1.1 Web3 の進化と未実現の約束

「Web3」という言葉は、ブロックチェーンを動力源とする分散型ウェブを説明するために 2014 年頃に作られました。そのビジョンは野心的なものでした:ユーザー所有権を中心としたパーミッションレスなインターネットです。熱狂的な支持者たちは、Web2 の中央集権的なインフラをブロックチェーンベースの代替手段、例えば Ethereum Name Service (DNS の代替)、Filecoin や IPFS (ストレージの代替)、そして DeFi (金融インフラの代替) に置き換えることを想像しました。理論上、これにより巨大テックプラットフォームからコントロールを奪い、個人にデータ、アイデンティティ、資産に対する自己主権を与えるはずでした。

現実は期待に届きませんでした。 長年の開発と誇大広告にもかかわらず、Web3 の主流への影響は限定的でした。平均的なインターネットユーザーは、分散型ソーシャルメディアに殺到したり、プライベートキーの管理を始めたりはしませんでした。主な理由としては、劣悪なユーザーエクスペリエンス、遅くて高価なトランザクション、注目を集めた詐欺事件、そして規制の不確実性が挙げられます。分散型の「所有権ウェブ」は、ニッチなコミュニティを超えて**「実現に失敗した」**と広く見なされています。2020 年代半ばには、暗号資産の支持者でさえ、Web3 が平均的なユーザーにパラダイムシフトをもたらさなかったことを認めました。

一方、AI は革命の最中にありました。資本と開発者の才能が暗号資産から AI へと移行するにつれて、ディープラーニングと基盤モデル (GPT-3, GPT-4 など) の変革的な進歩が一般の人々の想像力を捉えました。生成 AI は、暗号資産アプリケーションが苦戦していた方法で、コンテンツ、コード、意思決定を生み出すという明確な実用性を示しました。実際、大規模言語モデルがわずか数年で与えた影響は、ブロックチェーンの 10 年間のユーザー採用を著しく上回りました。この対照的な状況から、「Web3 は暗号資産に浪費された」、そして真の Web 3.0 は AI の波から生まれている、と揶揄する声も上がりました。

1.2 AI 汎用インターフェースの台頭

数十年にわたり、ユーザーインターフェースは静的なウェブページ (Web1.0) からインタラクティブなアプリ (Web2.0) へと進化しましたが、常にボタンをクリックしたりフォームに入力したりするという制約の中にありました。現代の AI、特に大規模言語モデル (LLM) の登場により、新しいインターフェースのパラダイムが生まれました:自然言語です。ユーザーは平易な言葉で意図を表現するだけで、AI システムが多くのドメインにわたって複雑なアクションを実行できるようになりました。この変化は非常に profound であり、一部では 「Web 3.0」を以前のブロックチェーン中心の定義ではなく、AI 駆動エージェントの時代 (「エージェントウェブ」) として再定義することが提案されています。

しかし、自律型 AI エージェントの初期の実験では、重大なボトルネックが露呈しました。これらのエージェント (例えば AutoGPT のようなプロトタイプ) はテキストやコードを生成できましたが、外部システムや相互に通信するための堅牢な方法を欠いていました。相互運用性のための*「共通の AI ネイティブ言語」*が存在しなかったのです。ツールやデータソースとの各統合は特注のハックであり、AI 同士の対話には標準プロトコルがありませんでした。実際には、AI エージェントは優れた推論能力を持っていても、ウェブアプリやオンチェーンサービスを使用する必要があるタスクの実行に失敗することがありました。それは単に、それらのシステムと「対話する」方法を知らなかったからです。この不一致 (強力な頭脳、原始的な I/O) は、まるで不器用な GUI の背後に閉じ込められた超賢いソフトウェアのようでした。

1.3 融合と MCP の出現

2024 年までに、AI がその潜在能力を最大限に発揮し (そして Web3 がその約束を果たす) ためには、融合が必要であることが明らかになりました:AI エージェントは Web3 の能力 (分散型アプリ、コントラクト、データ) へのシームレスなアクセスを必要とし、Web3 は AI が提供できるより多くの知性と使いやすさを必要としています。これが MCP (モデルコンテキストプロトコル) が生まれた背景です。2024 年後半に Anthropic によって導入された MCP は、LLM にとって自然に感じられる AI とツールの通信のためのオープンスタンダードです。これは、AI「ホスト」(ChatGPT, Claude など) が MCP サーバーを介してさまざまな外部ツールやリソースを見つけて使用するための、構造化され発見可能な方法を提供します。言い換えれば、MCP は、AI エージェントがウェブサービス、API、さらにはブロックチェーン機能に、各統合をカスタムコーディングすることなくプラグインできるようにする共通のインターフェースレイヤーです。

MCP を 「AI インターフェースの USB-C」 と考えてみてください。USB-C がデバイスの接続方法を標準化したように (各デバイスに異なるケーブルが不要になったように)、MCP は AI エージェントがツールやデータに接続する方法を標準化します。開発者は、各サービス (Slack vs. Gmail vs. Ethereum ノード) ごとに異なる API コールをハードコーディングする代わりに、MCP 仕様を一度実装すれば、MCP 互換の AI はそのサービスの使い方を理解できます。主要な AI プレイヤーはすぐにその重要性を認識しました:Anthropic は MCP をオープンソース化し、OpenAI や Google のような企業は自社のモデルでそのサポートを構築しています。この勢いは、MCP (または類似の 「メタ接続プロトコル」) が、ついに AI と Web3 をスケーラブルな方法で接続するバックボーンになる可能性を示唆しています。

特筆すべきは、一部の技術者が、この AI 中心の接続性こそが Web3.0 の真の実現であると主張していることです。Simba Khadder の言葉を借りれば、「MCP は LLM とアプリケーション間の API を標準化することを目指しており」、これは REST API が Web 2.0 を可能にしたのと同様です。つまり、Web3 の次の時代は、単なるブロックチェーンではなく、インテリジェントなエージェントインターフェースによって定義されるかもしれません。分散化そのものを目的とするのではなく、AI との融合によって、自然言語と自律エージェントの背後に複雑さを隠すことで、分散化を有用なものにすることができるのです。このレポートの残りの部分では、AI 汎用インターフェースが (MCP のようなプロトコルを介して) Web3 の世界にあるすべてを接続する方法について、技術的および実践的に掘り下げていきます。

2. 技術アーキテクチャ:Web3 技術を橋渡しする AI インターフェース

AI エージェントを Web3 スタックに組み込むには、ブロックチェーンネットワークとスマートコントラクト、分散型ストレージ、アイデンティティシステム、トークンベースの経済など、複数のレベルでの統合が必要です。大規模な基盤モデルからハイブリッドなニューラルシンボリックシステムまで、AI 汎用インターフェースは、これらのコンポーネントを接続する**「ユニバーサルアダプター」**として機能します。以下では、そのような統合のアーキテクチャを分析します:

図:MCP のアーキテクチャの概念図。AI ホスト (Claude や ChatGPT のような LLM ベースのアプリ) が MCP クライアントを使用して、さまざまな MCP サーバーにプラグインする様子を示しています。各サーバーは、外部ツールやサービス (例:Slack, Gmail, カレンダー, ローカルデータ) へのブリッジを提供し、これはユニバーサルハブを介して接続される周辺機器に類似しています。この標準化された MCP インターフェースにより、AI エージェントは一つの共通プロトコルを通じてリモートサービスやオンチェーンリソースにアクセスできます。

2.1 Web3 クライアントとしての AI エージェント (ブロックチェーンとの統合)

Web3 の中核には、ブロックチェーンとスマートコントラクトがあります。これらは、トラストレスな方法でロジックを強制できる分散型ステートマシンです。AI インターフェースはこれらとどのように関わることができるでしょうか?考慮すべき 2 つの方向性があります:

  • AI がブロックチェーンから読み取る: AI エージェントは、意思決定のコンテキストとしてオンチェーンデータ (例:トークン価格、ユーザーの資産残高、DAO の提案) を必要とする場合があります。従来、ブロックチェーンデータを取得するには、ノードの RPC API やサブグラフデータベースとのインターフェースが必要でした。MCP のようなフレームワークを使用すると、AI は標準化された*「ブロックチェーンデータ」* MCP サーバーにクエリを送信して、ライブのオンチェーン情報を取得できます。例えば、MCP 対応エージェントは、特定のトークンの最新の取引量を尋ねたり、スマートコントラクトの状態を問い合わせたりすることができ、MCP サーバーはブロックチェーンへの接続の低レベルな詳細を処理し、AI が使用できる形式でデータを返します。これにより、AI を特定のブロックチェーンの API 形式から切り離すことで、相互運用性が向上します。

  • AI がブロックチェーンに書き込む: より強力な機能として、AI エージェントは Web3 統合を通じてスマートコントラクトの呼び出しやトランザクションを実行できます。例えば、AI は分散型取引所で自律的に取引を実行したり、特定の条件が満たされた場合にスマートコントラクトのパラメータを調整したりすることができます。これは、AI がブロックチェーンのトランザクション機能をラップした MCP サーバーを呼び出すことで実現されます。具体的な例の一つは、EVM チェーン用の thirdweb MCP サーバーで、これにより MCP 互換の AI クライアントは、チェーン固有のメカニズムを抽象化することで、Ethereum, Polygon, BSC などと対話できます。このようなツールを使用すると、AI エージェントは*「人間の介入なしに」*オンチェーンアクションをトリガーでき、自律的な dApps を可能にします。例えば、市場状況が変化したときにトランザクションに署名して自己リバランスを行う AI 駆動の DeFi ボールトなどです。

内部的には、これらの対話は依然としてウォレット、キー、ガス代に依存しますが、AI インターフェースには (適切なセキュリティサンドボックスを備えた) ウォレットへの制御されたアクセス権が与えられ、トランザクションを実行できます。オラクルやクロスチェーンブリッジも重要な役割を果たします:Chainlink のようなオラクルネットワークは AI とブロックチェーンの間のブリッジとして機能し、AI の出力を信頼できる方法でオンチェーンに供給できます。例えば、Chainlink のクロスチェーン相互運用性プロトコル (CCIP) は、信頼できると見なされた AI モデルが、ユーザーに代わって複数の異なるチェーンにまたがる複数のコントラクトを同時にトリガーすることを可能にします。要約すると、AI 汎用インターフェースは、標準化されたプロトコルを通じてブロックチェーンデータを消費し、ブロックチェーンのトランザクションを生成できる、新しいタイプの Web3 クライアントとして機能できます。

2.2 ニューラルシンボリックの相乗効果:AI の推論とスマートコントラクトの組み合わせ

AI と Web3 の統合における興味深い側面の一つは、AI の学習能力 (ニューラルネット) とスマートコントラクトの厳密なロジック (シンボリックルール) を組み合わせたニューラルシンボリックアーキテクチャの可能性です。実際には、これは AI エージェントが非構造化された意思決定を処理し、特定のタスクを検証可能な実行のためにスマートコントラクトに渡すことを意味する可能性があります。例えば、AI が市場センチメントを分析し (曖昧なタスク)、その後、事前に設定されたリスクルールに従う決定論的なスマートコントラクトを介して取引を実行する、といった具合です。MCP フレームワークと関連する標準は、AI にコントラクト関数を呼び出したり、行動する前に DAO のルールを問い合わせたりするための共通のインターフェースを提供することで、このような引き継ぎを可能にします。

具体的な例として、SingularityNET の AI-DSL (AI ドメイン固有言語) があります。これは、彼らの分散型ネットワーク上の AI エージェント間の通信を標準化することを目指しています。これはニューラルシンボリック統合への一歩と見なすことができます:エージェントが互いに AI サービスやデータを要求するための形式言語 (シンボリック) です。同様に、DeepMind の AlphaCode のようなプロジェクトも、最終的にはスマートコントラクトがオンチェーンでの問題解決のために AI モデルを呼び出せるように接続される可能性があります。現在、大規模な AI モデルを直接オンチェーンで実行することは非現実的ですが、ハイブリッドなアプローチが登場しています。例えば、特定のブロックチェーンでは、ゼロ知識証明や信頼できる実行環境を介して ML 計算の検証が可能であり、オフチェーンの AI 結果のオンチェーン検証を可能にしています。要約すると、技術アーキテクチャは、AI システムとブロックチェーンのスマートコントラクトを補完的なコンポーネントとして想定しており、共通のプロトコルを介して編成されます:AI は知覚とオープンエンドなタスクを処理し、ブロックチェーンは完全性、メモリ、および合意されたルールの強制を提供します。

2.3 AI のための分散型ストレージとデータ

AI はデータを糧としており、Web3 はデータストレージと共有のための新しいパラダイムを提供します。分散型ストレージネットワーク (IPFS/Filecoin, Arweave, Storj など) は、AI モデルのアーティファクトのリポジトリとしても、トレーニングデータのソースとしても機能し、ブロックチェーンベースのアクセス制御を備えています。AI 汎用インターフェースは、MCP などを通じて、Web2 API からと同じくらい簡単に分散型ストレージからファイルや知識を取得できます。例えば、AI エージェントは、適切なキーや支払いがあれば、Ocean Protocol の市場からデータセットを、または分散型ストレージから暗号化されたファイルを取得することができます。

特に Ocean Protocol は、自らを**「AI データ経済」プラットフォームとして位置づけており、ブロックチェーンを使用してデータや AI サービスさえもトークン化**しています。Ocean では、データセットはアクセスをゲートするデータトークンによって表現されます。AI エージェントはデータトークンを取得し (おそらく暗号資産で支払うか、何らかのアクセス権を介して)、その後 Ocean MCP サーバーを使用して実際のデータを分析のために取得できます。Ocean の目標は、プライバシーを保護しながら共有を奨励することで、AI のために「休眠中のデータ」を解き放つことです。したがって、Web3 に接続された AI は、以前はサイロ化されていた、個人のデータ保管庫からオープンな政府データまで、広大で分散化された情報コーパスにアクセスできる可能性があります。ブロックチェーンは、データの使用が透明であり、公正に報酬が支払われることを保証し、より多くのデータが AI に利用可能になり、より多くの AI の貢献 (訓練済みモデルなど) が収益化されるという好循環を促進します。

分散型アイデンティティシステムもここで役割を果たします (次のサブセクションで詳しく説明します):これらは、誰または何が特定のデータにアクセスできるかを制御するのに役立ちます。例えば、医療 AI エージェントは、患者の個人 IPFS ストレージから医療データセットを復号化する前に、検証可能なクレデンシャル (HIPAA または同様の規制への準拠のオンチェーン証明) を提示する必要があるかもしれません。このようにして、技術アーキテクチャは、データが AI に流れることを保証しつつ、オンチェーンのガバナンスと監査証跡によって権限を強制します。

2.4 分散環境におけるアイデンティティとエージェント管理

自律型 AI エージェントが Web3 のようなオープンなエコシステムで活動する場合、アイデンティティと信頼が最も重要になります。分散型アイデンティティ (DID) フレームワークは、暗号学的に検証可能な AI エージェントのデジタルアイデンティティを確立する方法を提供します。各エージェント (またはそれを展開する人間/組織) は、DID と、その属性と権限を特定する関連する検証可能なクレデンシャルを持つことができます。例えば、AI 取引ボットは、特定の制限内で運用できることを証明する規制サンドボックスによって発行されたクレデンシャルを保持することができます。また、AI コンテンツモデレーターは、信頼できる組織によって作成され、バイアステストを受けたことを証明できます。

オンチェーンのアイデンティティレジストリと評判システムを通じて、Web3 の世界は AI の行動に対する説明責任を強制できます。AI エージェントが実行するすべてのトランザクションは、その ID にまで追跡でき、何か問題が発生した場合、クレデンシャルは誰がそれを作成したか、または誰が責任を負うかを教えてくれます。これは重大な課題に対処します:アイデンティティがなければ、悪意のある攻撃者が偽の AI エージェントを立ち上げてシステムを悪用したり、誤情報を広めたりする可能性があり、誰もボットと正当なサービスを区別できません。分散型アイデンティティは、堅牢な認証を可能にし、本物の AI エージェントと偽物を区別することで、そのリスクを軽減します。

実際には、Web3 と統合された AI インターフェースは、アイデンティティプロトコルを使用してその行動と要求に署名します。例えば、AI エージェントが MCP サーバーを呼び出してツールを使用する際、その分散型アイデンティティに紐づいたトークンや署名を含めることで、サーバーは呼び出しが承認されたエージェントからのものであることを検証できます。ブロックチェーンベースのアイデンティティシステム (Ethereum の ERC-725 や台帳にアンカーされた W3C DID など) は、この検証がトラストレスでグローバルに検証可能であることを保証します。**「AI ウォレット」**という新しい概念もこれに関連しています。これは本質的に、AI エージェントにアイデンティティにリンクされた暗号資産ウォレットを与え、キーの管理、サービスの支払い、または (不正行為に対して没収される可能性のある) 債券としてのトークンのステーキングを可能にするものです。例えば、ArcBlock は、*「AI エージェントにはウォレットが必要」*であり、分散環境で責任を持って活動するためには DID が必要であると議論しています。

要約すると、技術アーキテクチャは、AI エージェントを Web3 のファーストクラス市民として想定しており、それぞれがオンチェーンのアイデンティティとおそらくシステムへのステークを持ち、MCP のようなプロトコルを使用して対話します。これにより信頼のウェブが生まれます:スマートコントラクトは協力する前に AI のクレデンシャルを要求でき、ユーザーは特定のオンチェーン認証を満たす AI にのみタスクを委任することを選択できます。これは、AI の能力とブロックチェーンの信頼保証の融合です。

2.5 AI のためのトークン経済とインセンティブ

トークン化は Web3 の特徴であり、AI 統合の領域にも及びます。トークンを介して経済的インセンティブを導入することで、ネットワークは AI 開発者とエージェント自身の両方から望ましい行動を奨励できます。いくつかのパターンが現れています:

  • サービスへの支払い: AI モデルとサービスはオンチェーンで収益化できます。SingularityNET は、開発者が AI サービスを展開し、各呼び出しに対してネイティブトークン (AGIX) でユーザーに課金できるようにすることで、これを先駆けました。MCP が有効になった未来では、あらゆる AI ツールやモデルがプラグアンドプレイのサービスとなり、その使用がトークンやマイクロペイメントを介して計測されることが想像できます。例えば、AI エージェントが MCP を介してサードパーティのビジョン API を使用する場合、サービスプロバイダーのスマートコントラクトにトークンを転送することで、自動的に支払いを処理できます。Fetch.ai も同様に、*「自律型経済エージェント」*がサービスやデータを取引する市場を構想しており、新しい Web3 LLM (ASI-1) は価値交換のために暗号資産トランザクションを統合すると考えられます。

  • ステーキングと評判: 品質と信頼性を保証するために、一部のプロジェクトでは開発者やエージェントにトークンのステーキングを要求します。例えば、DeMCP プロジェクト (分散型 MCP サーバーマーケットプレイス) は、有用な MCP サーバーを作成した開発者に報酬を与えるためにトークンインセンティブを使用し、サーバーのセキュリティへのコミットメントの証としてトークンをステークさせることを計画しています。評判もトークンに結びつけられる可能性があります。例えば、一貫して優れた

zkMLと暗号学的証明による検証可能なオンチェーンAI

· 約53分
Dora Noda
Software Engineer

イントロダクション:ブロックチェーン上で検証可能なAIの必要性

AIシステムの影響力が増すにつれて、その出力が信頼できるものであることを保証することが重要になります。従来のメソッドは制度的な保証(本質的には 「ただ信頼してください」)に依存しており、暗号学的な保証は提供されません。これは、スマートコントラクトやユーザーが、重いモデルをオンチェーンで再実行することなくAI由来の結果を信頼しなければならないブロックチェーンのような分散型コンテキストでは特に問題となります。ゼロ知識機械学習 (zkML) は、ML計算の 暗号学的な検証 を可能にすることでこの問題に対処します。本質的に、zkMLはプルーバーが 「出力 $Y$ は、入力 $X$ に対してモデル $M$ を実行した結果である」 という簡潔な証明を、$X$ や $M$ の内部詳細を 明かすことなく 生成することを可能にします。これらのゼロ知識証明 (ZKP) は、誰でも(あるいはどのコントラクトでも)効率的に検証でき、AIへの信頼を 「ポリシーから証明へ」 と移行させます。

AIのオンチェーン検証可能性とは、ブロックチェーンが計算自体を実行する代わりに、正しい実行の証明を検証することによって、高度な計算(ニューラルネットワークの推論など)を組み込むことができることを意味します。これには広範な影響があります。スマートコントラクトはAIの予測に基づいて意思決定を行うことができ、分散型自律エージェントはアルゴリズムに従ったことを証明でき、クロスチェーンまたはオフチェーンの計算サービスは検証不可能なオラクルではなく 検証可能な出力 を提供できます。最終的に、zkMLは トラストレスでプライバシーを保護するAI への道を提供します。例えば、AIモデルの決定が正しく、承認されていることを、プライベートデータや独自のモデルの重みを公開することなく証明できます。これは、安全な医療分析からブロックチェーンゲーム、DeFiオラクルまで、幅広いアプリケーションにとって鍵となります。

zkMLの仕組み:ML推論を簡潔な証明に圧縮する

大まかに言うと、zkMLは暗号学的証明システムとML推論を組み合わせることで、複雑なモデル評価を小さな証明に「圧縮」できるようにします。内部的には、MLモデル(例:ニューラルネットワーク)は、多くの算術演算(行列乗算、活性化関数など)からなるサーキットまたはプログラムとして表現されます。すべての中間値を公開する代わりに、プルーバーはオフチェーンで完全な計算を実行し、その後 ゼロ知識証明プロトコル を使用して、すべてのステップが正しく行われたことを証明します。ベリファイアは、証明といくつかの公開データ(最終出力やモデルの識別子など)のみを与えられ、モデルを再実行することなく、その正当性を 暗号学的に確信 することができます。

これを達成するために、zkMLフレームワークは通常、モデルの計算をZKPに適した形式に変換します:

  • サーキットコンパイル: SNARKベースのアプローチでは、モデルの計算グラフは 算術サーキット または多項式制約の集合にコンパイルされます。ニューラルネットワークの各層(畳み込み、行列乗算、非線形活性化)は、入力に対して出力が正しいことを保証する制約を持つサブサーキットになります。ニューラルネットワークには、多項式に自然に適さない非線形演算(ReLU、Sigmoidなど)が含まれるため、これらを効率的に処理するために ルックアップテーブル のような技術が使用されます。例えば、ReLU(出力 = max(0, 入力))は、input≥0の場合は出力が入力と等しく、それ以外はゼロであることを検証するカスタム制約またはルックアップによって強制できます。最終結果は、プルーバーが満たさなければならない暗号学的制約の集合であり、これによりモデルが正しく実行されたことが暗黙的に証明されます。
  • 実行トレースと仮想マシン: 別の方法は、zkVM アプローチで行われるように、モデルの推論をプログラムトレースとして扱うことです。例えば、JOLT zkVMはRISC-V命令セットを対象としています。MLモデル(またはそれを計算するコード)をRISC-Vにコンパイルし、各CPU命令が適切に実行されたことを証明できます。JOLTは 「ルックアップ特異点」 技術を導入し、高価な算術制約を、各有効なCPU操作のための高速なテーブルルックアップに置き換えます。すべての操作(加算、乗算、ビット単位演算など)は、事前計算された有効な結果の巨大なテーブルでのルックアップを介してチェックされ、これを効率的に保つために特殊な引数(Lasso/SHOUT)が使用されます。これにより、プルーバーの作業負荷が劇的に削減されます。複雑な64ビット操作でさえ、多くの算術制約の代わりに、証明内で単一のテーブルルックアップになります。
  • 対話型プロトコル (GKRサムチェック): 3番目のアプローチは、GKR(Goldwasser–Kalai–Rotblum)のような対話型証明を使用して、層状の計算を検証します。ここでは、モデルの計算は層状の算術サーキットとして見なされます(各ニューラルネットワーク層はサーキットグラフの1つの層です)。プルーバーは通常通りモデルを実行しますが、その後、各層の出力がその入力に対して正しいことを証明するために サムチェックプロトコル に参加します。Lagrangeのアプローチ(DeepProve、次に詳述)では、プルーバーとベリファイアは、各層の計算を再実行することなく、その一貫性をチェックする対話型多項式プロトコル(Fiat-Shamirヒューリスティックにより非対話型にされる)を実行します。このサムチェックメソッドは、一枚岩の静的サーキットを生成するのを避け、代わりに最小限の暗号操作(主にハッシュ化または多項式評価)で段階的に 計算の一貫性 を検証します。

どのアプローチであっても、結果は推論全体の正当性を証明する 簡潔な証明(通常は数キロバイトから数十キロバイト)です。この証明は ゼロ知識 であり、秘密の入力(プライベートデータやモデルパラメータ)を隠しておくことができることを意味します。それらは証明に影響を与えますが、ベリファイアには公開されません。意図された公開出力または表明のみが公開されます。これにより、「モデル $M$ を患者データ $X$ に適用すると診断 $Y$ が得られることを、$X$ やモデルの重みを公開せずに証明する」 といったシナリオが可能になります。

オンチェーン検証の実現: 証明が生成されると、ブロックチェーンに投稿できます。スマートコントラクトには、プリコンパイルされた暗号プリミティブを使用して、証明をチェックするための検証ロジックを含めることができます。例えば、Ethereumには多くのzk-SNARKベリファイアで使用されるBLS12-381ペアリング操作のためのプリコンパイルがあり、SNARK証明のオンチェーン検証を効率的にします。STARK(ハッシュベースの証明)はサイズが大きくなりますが、慎重な最適化や、場合によってはいくつかの信頼の仮定(例えば、StarkWareのL2は、SNARKよりも高いガス代がかかるものの、オンチェーンのベリファイアコントラクトによってEthereum上でSTARK証明を検証します)によって、オンチェーンで検証することが可能です。重要なのは、チェーンがMLモデルを実行する必要がなく、元の計算よりも はるかに安価な 検証のみを実行する点です。要約すると、zkMLは 高価なAI推論を、ブロックチェーン(または任意のベリファイア)がミリ秒から数秒でチェックできる小さな証明に圧縮します

Lagrange DeepProve:zkMLのブレークスルーのアーキテクチャとパフォーマンス

Lagrange Labsによる DeepProve は、速度とスケーラビリティに焦点を当てた最先端のzkML推論フレームワークです。2025年に発表されたDeepProveは、Ezklのような以前のソリューションよりも劇的に高速な新しい証明システムを導入しました。その設計は、サムチェック付きGKR対話型証明プロトコル とニューラルネットワークサーキット向けの特殊な最適化を中心にしています。以下にDeepProveの仕組みとそのパフォーマンス達成方法を説明します:

  • ワンタイム前処理: 開発者は、訓練済みのニューラルネットワーク(現在サポートされているタイプには、多層パーセプトロンや一般的なCNNアーキテクチャが含まれます)から始めます。モデルは標準的なグラフ表現であるONNX形式にエクスポートされます。次に、DeepProveのツールがONNXモデルを解析し、効率的な体演算のために 量子化(重みを固定小数点/整数形式に変換)します。この段階で、暗号プロトコルのための証明鍵と検証鍵も生成します。このセットアップはモデルごとに1回行われ、推論ごとに繰り返す必要はありません。DeepProveは統合の容易さを強調しています:「モデルをONNXにエクスポート → ワンタイムセットアップ → 証明を生成 → どこでも検証」

  • 証明 (推論 + 証明生成): セットアップ後、プルーバー(ユーザー、サービス、またはLagrangeの分散型プルーバーネットワークによって実行可能)は新しい入力 $X$ を受け取り、それに対してモデル $M$ を実行して出力 $Y$ を得ます。この実行中、DeepProveは各層の計算の 実行トレース を記録します。SNARKアプローチのようにすべての乗算を事前に静的サーキットに変換するのではなく、DeepProveは 線形時間のGKRプロトコル を使用して各層をその場で検証します。各ネットワーク層について、プルーバーは層の入力と出力にコミットし(例えば、暗号学的ハッシュや多項式コミットメントを介して)、その後、出力が層の関数に従って入力から実際に得られたものであることを証明するためにサムチェック引数に参加します。サムチェックプロトコルは、実際の値を明らかにすることなく、層の計算をエンコードする多項式の評価の合計の正しさをベリファイアに繰り返し納得させます。非線形操作(ReLU、softmaxなど)は、DeepProveでは ルックアップ引数 を通じて効率的に処理されます。活性化関数の出力が計算された場合、DeepProveは各出力がその関数のために事前計算されたテーブルからの有効な入力-出力ペアに対応することを証明できます。層ごとに証明が生成され、その後、モデル全体のフォワードパスをカバーする 1つの簡潔な証明に集約 されます。暗号技術の重い処理は最小限に抑えられます。DeepProveのプルーバーは、巨大な制約システムを解くのではなく、主に通常の数値計算(実際の推論)といくつかの軽い暗号コミットメントを実行します。

  • 検証: ベリファイアは、最終的な簡潔な証明といくつかの公開値(通常はモデルのコミットされた識別子($M$ の重みへの暗号コミットメント)、入力 $X$(プライベートでない場合)、および主張された出力 $Y$)を使用して正しさをチェックします。DeepProveのシステムでの検証には、サムチェックプロトコルのトランスクリプトと最終的な多項式またはハッシュコミットメントの検証が含まれます。これは古典的なSNARKの検証(数回のペアリングかもしれない)よりも複雑ですが、モデルを再実行するよりもはるかに安価 です。Lagrangeのベンチマークでは、中規模のCNNに対するDeepProve証明の検証には、ソフトウェアで 0.5秒 程度かかります。これは、例えば、数十万のパラメータを持つ畳み込みネットワークが正しく実行されたことを確認するのに約0.5秒かかることを意味し、検証のためにGPUでそのCNNをナイーブに再計算するよりも 500倍以上高速 です。(実際、DeepProveはCNNで最大 521倍、MLPで 671倍 の検証高速化を再実行と比較して測定しました。)証明サイズはオンチェーンで送信するのに十分小さく(数十KB)、検証は必要であればスマートコントラクトで実行できますが、0.5秒の計算には慎重なガス最適化またはレイヤー2での実行が必要になるかもしれません。

アーキテクチャとツール: DeepProveはRustで実装されており、開発者向けにツールキット(zkml ライブラリ)を提供しています。ONNXモデルグラフをネイティブにサポートしているため、PyTorchやTensorFlowからのモデル(エクスポート後)と互換性があります。証明プロセスは現在、数百万パラメータまでのモデルを対象としています(テストには400万パラメータの密結合ネットワークが含まれます)。DeepProveは、多線形多項式コミットメント(層の出力にコミットするため)、計算を検証するためのサムチェックプロトコル、非線形操作のためのルックアップ引数など、暗号コンポーネントの組み合わせを活用しています。特筆すべきは、Lagrangeのオープンソースリポジトリが、以前の研究(ScrollのCenoプロジェクトからのサムチェックとGKRの実装)に基づいていることを認めており、zkMLとゼロ知識ロールアップ研究の交差点を示していることです。

リアルタイムのスケーラビリティを達成するために、LagrangeはDeepProveをその プルーバーネットワーク(特殊なZKプルーバーの分散型ネットワーク)と組み合わせています。重い証明生成はこのネットワークにオフロードできます。アプリケーションが推論の証明を必要とするとき、ジョブをLagrangeのネットワークに送信し、そこで多くのオペレーター(セキュリティのためにEigenLayerにステークされている)が証明を計算して結果を返します。このネットワークは、信頼性の高い証明生成を経済的にインセンティブ付けします(悪意のあるまたは失敗したジョブはオペレーターをスラッシングします)。プルーバー間で作業を分散させることで(そして潜在的にGPUやASICを活用することで)、Lagrangeプルーバーネットワーク はエンドユーザーから複雑さとコストを隠します。その結果、高速でスケーラブル、かつ分散型のzkMLサービスが実現します:「検証可能なAI推論を高速かつ手頃な価格で」

パフォーマンスのマイルストーン: DeepProveの主張は、以前の最先端技術であるEzklに対するベンチマークによって裏付けられています。約26.4万パラメータを持つCNN(CIFAR-10スケールのモデル)に対して、DeepProveの証明時間は約1.24秒であったのに対し、Ezklでは 約196秒 であり、約 158倍高速 でした。400万パラメータを持つより大きな密結合ネットワークでは、DeepProveは約2.3秒で推論を証明したのに対し、Ezklでは約126.8秒(約54倍高速)でした。検証時間も短縮されました。DeepProveは26.4万CNNの証明を約0.6秒で検証しましたが、Ezklの証明(Halo2ベース)をCPUで検証するにはそのテストで5分以上かかりました。この高速化は、DeepProveのほぼ線形な複雑さから来ています。そのプルーバーは操作の数に対してほぼ O(n) でスケールしますが、サーキットベースのSNARKプルーバーはしばしば超線形なオーバーヘッド(FFTと多項式コミットメントのスケーリング)を持ちます。実際、DeepProveの プルーバーのスループット は、プレーンな推論ランタイムの1桁以内に収まることがあります。最近のGKRシステムは、大規模な行列乗算において生の実行よりも10倍未満の遅さであり、これはZKにおける印象的な成果です。これにより、リアルタイムまたはオンデマンドの証明 がより実現可能になり、対話型アプリケーションにおける検証可能なAIへの道が開かれます。

ユースケース: LagrangeはすでにWeb3およびAIプロジェクトと協力してzkMLを適用しています。ユースケースの例としては、検証可能なNFTの特性(ゲームキャラクターやコレクティブルのAI生成による進化が、承認されたモデルによって計算されたことを証明する)、AIコンテンツの来歴(ディープフェイクと戦うために、画像やテキストが特定のモデルによって生成されたことを証明する)、DeFiリスクモデル(独自のデータを明らかにすることなく、金融リスクを評価するモデルの出力を証明する)、および医療や金融における プライベートAI推論(病院が患者データを公開することなく、正しさを保証する証明付きでAI予測を得ることができる)などがあります。AIの出力を 検証可能かつプライバシー保護 にすることで、DeepProveは分散システムにおける 「信頼できるAI」 への扉を開きます。これは 「ブラックボックスモデルへの盲目的な信頼」 の時代から 「客観的な保証」 の時代への移行を意味します。

SNARKベースのzkML:EzklとHalo2アプローチ

zkMLへの従来のアプローチは、zk-SNARK (Succinct Non-interactive Arguments of Knowledge) を使用してニューラルネットワークの推論を証明します。Ezkl (ZKonduit/Modulus Labsによる) は、このアプローチの代表的な例です。これはHalo2証明システム(BLS12-381上の多項式コミットメントを持つPLONKスタイルのSNARK)を基盤としています。Ezklは、開発者がPyTorchやTensorFlowモデルを取得し、ONNXにエクスポートし、Ezklがそれを自動的にカスタム算術サーキットにコンパイルするツールチェーンを提供します。

仕組み: ニューラルネットワークの各層は制約に変換されます:

  • 線形層(密結合または畳み込み)は、入力、重み、出力間のドット積を強制する乗算-加算制約の集合になります。
  • 非線形層(ReLU、sigmoidなど)は、そのような関数が多項式ではないため、ルックアップまたは区分的制約 を介して処理されます。例えば、ReLUは、ブールセレクタ $b$ と、$y = x \cdot b$、$0 \le b \le 1$、そして $x>0$ の場合に $b=1$ を保証する制約によって実装できます(これは一つの方法です)。あるいは、より効率的には、$x$ の値の範囲に対して $x \mapsto \max(0,x)$ をマッピングするルックアップテーブルを使用します。Halo2のルックアップ引数は16ビット(またはそれ以下)の値のチャンクをマッピングできるため、大きなドメイン(すべての32ビット値など)は通常、いくつかの小さなルックアップに 「チャンク化」 されます。このチャンク化は制約の数を増やします。
  • 大きな整数の演算や除算(もしあれば)も同様に小さな部分に分割されます。結果として、特定のモデルアーキテクチャに合わせた大規模な R1CS/PLONK制約 の集合ができあがります。

Ezklはその後、Halo2を使用して、秘密の入力(モデルの重み、プライベートな入力)と公開の出力が与えられた場合にこれらの制約が成り立つという証明を生成します。ツールと統合: SNARKアプローチの利点の一つは、よく知られたプリミティブを活用することです。Halo2はすでにEthereumのロールアップ(例:Zcash、zkEVM)で使用されているため、実戦でテストされており、オンチェーンベリファイアがすぐに利用できます。Ezklの証明はBLS12-381曲線を使用しており、これはEthereumがプリコンパイルを介して検証できるため、スマートコントラクトでEzklの証明を検証するのは簡単です。チームはまた、ユーザーフレンドリーなAPIも提供しています。例えば、データサイエンティストはPythonでモデルを扱い、EzklのCLIを使用して、サーキットに関する深い知識がなくても証明を生成できます。

長所: Ezklのアプローチは、SNARKの一般性とエコシステムから恩恵を受けます。それは合理的に複雑なモデルをサポートし、すでに 「実用的な統合(DeFiリスクモデルからゲーミングAIまで)」 を実現し、現実世界のMLタスクを証明しています。モデルの計算グラフのレベルで動作するため、ML固有の最適化を適用できます。例えば、重要でない重みを枝刈りしたり、パラメータを量子化してサーキットサイズを削減したりします。これはまた、モデルの機密性 が自然に保たれることを意味します。重みはプライベートなウィットネスデータとして扱うことができるため、ベリファイアは 何らかの 有効なモデルが出力を生成したこと、あるいはせいぜいモデルへのコミットメントしか見ることができません。SNARK証明の検証は非常に高速 であり(通常、オンチェーンで数ミリ秒以下)、証明サイズも小さい(数キロバイト)ため、ブロックチェーンでの使用に理想的です。

短所: パフォーマンスがアキレス腱です。サーキットベースの証明は、特にモデルが大きくなるにつれて、大きなオーバーヘッドを伴います。歴史的に、SNARKサーキットは、プルーバーにとってモデルを単に実行するよりも 百万倍もの作業 になる可能性があると指摘されています。Halo2とEzklはこれを最適化していますが、それでも、大規模な行列乗算のような操作は 大量の 制約を生成します。モデルに数百万のパラメータがある場合、プルーバーはそれに対応する数百万の制約を処理し、その過程で重いFFTや多重指数演算を実行する必要があります。これにより、証明時間が長くなり(重要でないモデルでもしばしば数分から数時間)、メモリ使用量も多くなります。例えば、比較的小さなCNN(例:数十万パラメータ)でさえ、Ezklを単一のマシンで実行すると証明に数十分かかることがあります。DeepProveのチームは、DeepProveが数分でできる特定のモデルの証明にEzklが数時間かかったと述べています。大規模なモデルはメモリに収まらないか、複数の証明に分割する必要があるかもしれません(その場合、再帰的な集約が必要になります)。Halo2は 「適度に最適化」 されていますが、ルックアップを「チャンク化」したり、広範なビット操作を処理したりする必要がある場合は、追加のオーバーヘッドが発生します。要約すると、スケーラビリティは限定的 です。Ezklは小から中規模のモデルにはうまく機能しますが(そして実際、ベンチマークではいくつかの初期の代替案、例えばナイーブなStarkベースのVMを 上回りました)、モデルサイズがある点を超えると苦戦します。

これらの課題にもかかわらず、Ezklや同様のSNARKベースのzkMLライブラリは重要な足がかりです。それらは、検証済みML推論がオンチェーンで可能である ことを証明し、活発に利用されています。特筆すべきは、Modulus Labs のようなプロジェクトが、SNARKを使用して(重い最適化を伴い)1800万パラメータのモデルをオンチェーンで検証したことを実証したことです。コストは些細なものではありませんでしたが、それはその軌道を示しています。さらに、Mina Protocol は独自のzkMLツールキットを持っており、SNARKを使用してMina上のスマートコントラクト(Snarkベース)がMLモデルの実行を検証できるようにしています。これは、SNARKベースのzkMLに対するマルチプラットフォームサポートの拡大を示しています。

STARKベースのアプローチ:MLのための透明でプログラム可能なZK

zk-STARK (Scalable Transparent ARguments of Knowledge) は、zkMLへのもう一つのルートを提供します。STARKはハッシュベースの暗号技術(多項式コミットメントのためのFRIなど)を使用し、信頼できるセットアップを回避します。これらはしばしばCPUやVMをシミュレートし、実行トレースが正しいことを証明することによって動作します。MLの文脈では、ニューラルネットワーク用のカスタムSTARKを構築するか、汎用STARK VMを使用してモデルコードを実行するかのいずれかが可能です。

汎用STARK VM (RISC Zero, Cairo): 簡単なアプローチは、推論コードを書いてSTARK VMで実行することです。例えば、Risc0 はRISC-V環境を提供し、そこでは任意のコード(例:ニューラルネットワークのC++またはRust実装)を実行し、STARKを介して証明できます。同様に、StarkWareの Cairo 言語は任意の計算(LSTMやCNNの推論など)を表現でき、それらはStarkNetのSTARKプルーバーによって証明されます。利点は柔軟性です。各モデルに対してカスタムサーキットを設計する必要がありません。しかし、初期のベンチマークでは、ナイーブなSTARK VMはML用の最適化されたSNARKサーキットと比較して遅いことが示されました。あるテストでは、Halo2ベースの証明(Ezkl)はCairo上のSTARKベースのアプローチよりも約 3倍速く、2024年のあるベンチマークではRISC-V STARK VMよりも 66倍速い ことさえありました。この差は、STARKですべての低レベル命令をシミュレートするオーバーヘッドと、STARK証明の定数が大きいこと(ハッシュは速いが大量に必要、STARKの証明サイズは大きいなど)によるものです。しかし、STARK VMは改善されており、透明なセットアップ(信頼できるセットアップ不要)と ポスト量子セキュリティ という利点があります。STARKフレンドリーなハードウェアとプロトコルが進歩するにつれて、証明速度は向上するでしょう。

DeepProveのアプローチ vs STARK: 興味深いことに、DeepProveがGKRとサムチェックを使用することで得られる証明は、精神的にはSTARKに似ています。それは対話的でハッシュベースの証明であり、構造化された参照文字列を必要としません。トレードオフは、その証明がSNARKよりも大きく、検証が重いことです。しかし、DeepProveは、慎重なプロトコル設計(MLの層状構造に特化)が、証明時間において汎用STARK VMとSNARKサーキットの両方を大幅に上回ることができることを示しています。DeepProveは 特注のSTARKスタイル のzkMLプルーバーと考えることができます(彼らは簡潔さのためにzkSNARKという用語を使用していますが、0.5秒の検証は典型的なSNARK検証よりも大きいため、従来のSNARKの小さな定数サイズの検証はありません)。従来のSTARK証明(StarkNetのものなど)は、検証に数万の体演算を伴うことが多いのに対し、SNARKは数十回程度で検証します。したがって、一つの トレードオフ が明らかです:SNARKはより小さな証明とより速いベリファイアをもたらし、STARK(またはGKR)は証明サイズと検証速度を犠牲にして、より簡単なスケーリングと信頼できるセットアップ不要を提供します。

新たな改善: JOLT zkVM(前述のJOLTxで議論)は実際にはSNARK(PLONK風のコミットメントを使用)を出力していますが、STARKの文脈にも適用できるアイデアを具現化しています(Lassoルックアップは理論的にはFRIコミットメントと共に使用できます)。StarkWareなどは、一般的な操作の証明を高速化する方法を研究しています(例えば、Cairoで大きな整数演算のためにカスタムゲートやヒントを使用するなど)。また、Privacy & Scaling Explorations (PSE) による Circomlib-ML もあり、これはCNN層などのためのCircomテンプレートを提供します。これはSNARK指向ですが、概念的に類似したテンプレートをSTARK言語用に作成することもできます。

実際には、STARKを活用する 非Ethereumエコシステム には、StarkNet(誰かがベリファイアを書けばMLのオンチェーン検証が可能になるかもしれないが、コストは高い)や Risc0のBonsai サービス(様々なチェーンで検証可能なSTARK証明を発行するオフチェーン証明サービス)があります。2025年現在、ブロックチェーン上のほとんどのzkMLデモは(ベリファイアの効率性から)SNARKを好んでいますが、STARKアプローチは、その透明性と高セキュリティまたは耐量子設定での可能性から、依然として魅力的です。例えば、分散型計算ネットワークは、信頼できるセットアップなしで誰でも作業を検証できるようにSTARKを使用するかもしれません。これは長寿のために有用です。また、一部の特殊なMLタスクは、STARKフレンドリーな構造を活用するかもしれません。例えば、XOR/ビット操作を多用する計算は、SNARKの体演算よりもSTARK(ブール代数とハッシュでは安価なため)の方が速い可能性があります。

MLにおけるSNARK vs STARKの概要:

  • パフォーマンス: SNARK(Halo2など)はゲートあたりの証明オーバーヘッドが大きいですが、強力な最適化と検証のための小さな定数の恩恵を受けます。STARK(汎用)は定数オーバーヘッドが大きいですが、より線形にスケールし、ペアリングのような高価な暗号を回避します。DeepProveは、アプローチをカスタマイズする(サムチェック)ことで、ほぼ線形の証明時間(高速)をSTARKのような証明で実現することを示しています。JOLTは、汎用VMでさえルックアップを多用することで高速化できることを示しています。経験的に、数百万の操作までのモデルでは、十分に最適化されたSNARK(Ezkl)は処理できますが、数十分かかる可能性があり、一方DeepProve(GKR)は数秒でできます。2024年のSTARK VMは、特化されていない限り、SNARKの中間かそれ以下でした(テストではRisc0は遅く、Cairoはカスタムヒントなしでは遅かった)。
  • 検証: SNARK証明は最も速く検証されます(ミリ秒単位、オンチェーンでのデータは最小限で約数百バイトから数KB)。STARK証明はより大きく(数十KB)、多くのハッシュステップのため検証に時間がかかります(数十ミリ秒から数秒)。ブロックチェーンの観点から言えば、SNARKの検証は例えば約20万ガスかかるかもしれませんが、STARKの検証は数百万ガスかかる可能性があり、L1には高すぎることが多く、L2や簡潔な検証スキームでは許容範囲です。
  • セットアップとセキュリティ: Groth16のようなSNARKはサーキットごとに信頼できるセットアップを必要としますが(任意のモデルには不親切)、ユニバーサルSNARK(PLONK、Halo2)は、特定のサイズまでの任意のサーキットに再利用できる一度きりのセットアップを持ちます。STARKはセットアップを必要とせず、ハッシュの仮定(および古典的な多項式複雑性の仮定)のみを使用し、ポスト量子セキュア です。これにより、STARKは長寿のために魅力的です。量子コンピュータが出現しても証明は安全なままですが、現在のSNARK(BLS12-381ベース)は量子攻撃によって破られます。

これらの違いを、まもなく比較表にまとめます。

MLのためのFHE (FHE-o-ML):プライベート計算 vs. 検証可能計算

完全準同型暗号 (FHE) は、暗号化されたデータ上で直接計算を実行できる暗号技術です。MLの文脈では、FHEは一種の プライバシー保護推論 を可能にします。例えば、クライアントは暗号化された入力をモデルホストに送信し、ホストはそれを復号せずに暗号文上でニューラルネットワークを実行し、クライアントが復号できる暗号化された結果を返します。これにより データ機密性 が保証されます。モデルの所有者は入力について何も知ることができず(そして、クライアントは出力のみを知り、モデルの内部については知らない可能性があります)。しかし、FHE自体は、ZKPのように 正当性の証明を生成しません。クライアントは、モデルの所有者が実際に正直に計算を実行したと信頼しなければなりません(暗号文が操作された可能性があります)。通常、クライアントがモデルを持っているか、特定の出力分布を期待している場合、露骨な不正は検出できますが、微妙なエラーや間違ったモデルバージョンの使用は、暗号化された出力だけからは明らかになりません。

パフォーマンスのトレードオフ: FHEは計算が非常に重いことで知られています。FHE下でディープラーニング推論を実行すると、桁違いの速度低下が発生します。初期の実験(例:2016年のCryptoNets)では、暗号化されたデータ上で小さなCNNを評価するのに数十秒かかりました。2024年までに、CKKS(近似算術用) やより良いライブラリ(Microsoft SEAL、ZamaのConcrete)などの改善により、このオーバーヘッドは減少しましたが、依然として大きいです。例えば、あるユーザーは、ZamaのConcrete-MLを使用してCIFAR-10分類器を実行するのに、自分のハードウェアで推論ごとに 25〜30分 かかったと報告しています。最適化後、Zamaのチームは192コアサーバーでその推論を約40秒で達成しました。40秒でさえ、平文の推論(0.01秒かもしれない)と比較して非常に遅く、約 $10^3$–$10^4\times$ のオーバーヘッドを示しています。より大きなモデルやより高い精度は、コストをさらに増加させます。さらに、FHE操作は多くのメモリを消費し、時折 ブートストラップ(ノイズ削減ステップ)を必要とし、これは計算コストが高いです。要約すると、スケーラビリティは大きな問題 です。最先端のFHEは小さなCNNや単純なロジスティック回帰を処理できるかもしれませんが、大規模なCNNやTransformerへのスケーリングは現在の実用的な限界を超えています。

プライバシーの利点: FHEの大きな魅力は データプライバシー です。入力はプロセス全体を通じて完全に暗号化されたままでいられます。これは、信頼できないサーバーがクライアントのプライベートデータについて何も知ることなく計算できることを意味します。逆に、モデルが機密(独自)である場合、モデルパラメータを暗号化し、クライアント側でFHE推論を実行することも考えられますが、クライアントが重いFHE計算を行わなければならない場合、強力なサーバーにオフロードするという考えが無意味になるため、これはあまり一般的ではありません。通常、モデルは公開されているか、サーバーが平文で保持しており、データはクライアントの鍵で暗号化されます。そのシナリオでのモデルのプライバシーは、デフォルトでは 提供されません(サーバーはモデルを知っており、クライアントは出力を知りますが重みは知りません)。モデルとデータの両方を互いに秘密に保つことができる、よりエキゾチックな設定(安全な二者間計算やマルチキーFHEなど)もありますが、それらはさらに複雑さを増します。対照的に、ZKPを介したzkMLは、モデルのプライバシーデータのプライバシー を同時に保証できます。プルーバーはモデルとデータの両方を秘密のウィットネスとして持ち、ベリファイアに必要なものだけを明らかにします。

オンチェーン検証は不要 (そして不可能): FHEでは、結果はクライアントに暗号化されて返されます。クライアントはそれを復号して実際の予測を取得します。その結果をオンチェーンで使用したい場合、クライアント(または復号鍵を持つ者)は平文の結果を公開し、それが正しいことを他の人に納得させる必要があります。しかし、その時点で、信頼は再びループに戻ります。ZKPと組み合わせない限り。原則として、FHEとZKPを組み合わせることは可能です。例えば、計算中にデータをプライベートに保つためにFHEを使用し、その後、平文の結果が正しい計算に対応するというZK証明を生成します。しかし、それらを組み合わせることは、FHE ZKPのパフォーマンスペナルティを支払うことを意味し、今日の技術では非常に非現実的です。したがって、実際にはFHE-of-MLとzkMLは異なるユースケースに対応します:

  • FHE-of-ML: 二者間(クライアントとサーバー)の機密性 が目標である場合に理想的です。例えば、クラウドサービスがMLモデルをホストし、ユーザーはクラウドにデータを明らかにすることなく機密データでクエリできます(そしてモデルが機密である場合、FHEフレンドリーなエンコーディングを介してデプロイするかもしれません)。これはプライバシー保護MLサービス(医療予測など)に最適です。ユーザーは依然としてサービスが忠実にモデルを実行することを信頼する必要がありますが(証明がないため)、少なくとも データ漏洩 は防がれます。Zamaのような一部のプロジェクトは、スマートコントラクトが暗号化された入力で動作できる 「FHE対応EVM (fhEVM)」 を探求していますが、それらの計算をオンチェーンで検証するには、コントラクトが何らかの方法で正しい計算を強制する必要があり、これはZK証明や特殊なセキュアハードウェアを必要とする可能性が高い未解決の課題です。
  • zkML (ZKP): 検証可能性と公開監査可能性 が目標である場合に理想的です。誰でも(またはどのコントラクトでも)「モデル $M$ が $X$ で正しく評価され、$Y$ を生成した」 ことを確認したい場合、ZKPが解決策です。それらはボーナスとしてプライバシーも提供しますが(必要に応じて $X$、$Y$、または $M$ を証明のプライベートな入力として扱うことで隠すことができます)、その主な特徴は正しい実行の証明です。

補完的な関係: ZKPは ベリファイア を保護し(彼らは秘密について何も知らず、計算が正しく行われたことだけを知ります)、一方FHEは計算を行う当事者から プルーバー のデータを保護することに注意する価値があります。一部のシナリオでは、これらを組み合わせることができます。例えば、信頼できないノードのネットワークがFHEを使用してユーザーのプライベートデータで計算し、その後、計算がプロトコルに従って行われたことをユーザー(またはブロックチェーン)にZK証明で提供することができます。これにより、プライバシーと正当性の両方がカバーされますが、今日のアルゴリズムではパフォーマンスコストが莫大です。近い将来、より実現可能なのは、Trusted Execution Environments (TEE) + ZKPFunctional Encryption + ZKP のようなハイブリッドです。これらは私たちの範囲を超えていますが、同様のものを提供することを目指しています(TEEは計算中にデータ/モデルを秘密に保ち、その後ZKPがTEEが正しいことを行ったことを証明できます)。

要約すると、FHE-of-MLは入力/出力の機密性を優先 し、zkMLは検証可能な正当性(プライバシーの可能性あり)を優先 します。以下の表1は、主要な特性を対比しています:

アプローチプルーバーのパフォーマンス (推論と証明)証明サイズと検証プライバシー機能信頼できるセットアップ?ポスト量子?
zk-SNARK (Halo2, Groth16, PLONKなど)重いプルーバーオーバーヘッド(最適化なしで通常のランタイムの最大10^6倍、実際には10^3–10^5倍)。特定のモデル/サーキットに最適化。中規模モデルで数分、大規模モデルで数時間の証明時間。最近のzkML SNARK(GKR付きDeepProve)はこれを大幅に改善(ほぼ線形のオーバーヘッド、例:数百万パラメータモデルで数分の代わりに数秒)。非常に小さな証明(多くは100KB未満、時には数KB程度)。検証は高速:数回のペアリングまたは多項式評価(通常、オンチェーンで50ms未満)。DeepProveのGKRベースの証明はより大きく(数十〜数百KB)、約0.5秒で検証(モデルの再実行よりはるかに高速)。データ機密性: はい – 入力は証明内でプライベートにでき、公開されません。モデルプライバシー: はい – プルーバーはモデルの重みにコミットし、それらを公開しません。出力の隠蔽: オプション – 証明は出力を明らかにせずにステートメントについてのものであることができます(例:「出力はプロパティPを持つ」)。しかし、出力自体がオンチェーンで必要な場合、通常は公開されます。全体として、SNARKは完全な ゼロ知識 の柔軟性を提供します(隠したい部分を隠せます)。スキームによる。Groth16/EZKLはサーキットごとに信頼できるセットアップが必要。PLONK/Halo2はユニバーサルセットアップ(一度きり)を使用。DeepProveのサムチェックGKRは透明(セットアップ不要)– その設計のボーナス。古典的なSNARK(BLS12-381曲線)は PQセキュアではない(楕円曲線離散対数問題に対する量子攻撃に脆弱)。一部の新しいSNARKはPQセキュアなコミットメントを使用しますが、Ezklで使用されるHalo2/PLONKはPQセキュアではありません。GKR(DeepProve)はハッシュコミットメント(例:Poseidon/Merkle)を使用し、これらはPQセキュアであると推測されています(ハッシュの原像困難性に依存)。
zk-STARK (FRI, ハッシュベースの証明)プルーバーのオーバーヘッドは高いが、より 線形 なスケーリング。通常、大規模タスクではネイティブより10^2–10^4倍遅く、並列化の余地あり。汎用STARK VM(Risc0, Cairo)は2024年にMLでSNARKと比較して遅いパフォーマンスを示した(例:一部のケースでHalo2より3倍–66倍遅い)。特殊なSTARK(またはGKR)は線形オーバーヘッドに近づき、大規模サーキットでSNARKを上回ることができます。証明はより大きい:しばしば数十KB(サーキットサイズ/log(n)と共に増加)。ベリファイアは複数のハッシュとFFTチェックを行う必要があり、検証時間は小さなεに対して約O(n^ε)(例:証明サイズに応じて約50msから500ms)。オンチェーンでは、これはより高価です(StarkWareのL1ベリファイアは証明ごとに数百万ガスかかることがあります)。一部のSTARKは、プルーバー時間を犠牲にしてサイズを圧縮するために再帰的証明をサポートします。データとモデルのプライバシー: STARKはトレースデータをランダム化する(多項式評価にブラインディングを追加する)ことでゼロ知識にすることができ、SNARKと同様にプライベートな入力を隠すことができます。多くのSTARK実装は完全性に焦点を当てていますが、zk-STARKの変種はプライバシーを可能にします。したがって、はい、SNARKのように入力/モデルを隠すことができます。出力の隠蔽: 理論的には同様に可能ですが(プルーバーが出力を公開として宣言しない)、通常は出力が公開/検証したいものであるため、めったに使用されません。信頼できるセットアップは不要。 透明性はSTARKの特徴です – 共通のランダム文字列のみを必要とします(Fiat-Shamirが導出可能)。これにより、オープンエンドな使用(任意のモデル、いつでも、モデルごとのセレモニーなし)に魅力的です。はい、STARKはハッシュと情報理論的なセキュリティの仮定(ランダムオラクルやFRIにおける特定のコードワード復号の困難性など)に依存しています。これらは量子攻撃者に対して安全であると考えられています。したがって、STARK証明はPQ耐性があり、検証可能なAIを将来にわたって保証する上で利点があります。
MLのためのFHE (推論に適用される完全準同型暗号)プルーバー = 暗号化データ上で計算を行う当事者。 計算時間は非常に高い:平文推論より10^3–10^5倍遅いのが一般的。ハイエンドハードウェア(多コアサーバー、FPGAなど)でこれを緩和できます。一部の最適化(低精度推論、レベル化FHEパラメータ)はオーバーヘッドを削減できますが、基本的なパフォーマンスヒットがあります。FHEは現在、小さなモデルや単純な線形モデルには実用的ですが、ディープネットワークはトイサイズを超えると依然として困難です。証明は生成されません。結果は暗号化された出力です。正当性をチェックするという意味での 検証 はFHE単独では提供されません – 計算を行う当事者が不正をしないと信頼します。(セキュアハードウェアと組み合わせれば、アテステーションが得られるかもしれませんが、そうでなければ、悪意のあるサーバーは不正な暗号化結果を返し、クライアントは違いを知らずに間違った出力に復号する可能性があります)。データ機密性: はい – 入力は暗号化されているため、計算を行う当事者はそれについて何も知りません。モデルプライバシー: モデルの所有者が暗号化された入力で計算を行っている場合、モデルは彼らの側で平文です(保護されていません)。役割が逆の場合(クライアントがモデルを暗号化して保持し、サーバーが計算する)、モデルは暗号化されたままにできますが、このシナリオはあまり一般的ではありません。FHE/MPCを組み合わせて両方を保護する安全な二者間MLのような技術もありますが、これらはプレーンなFHEを超えています。出力の隠蔽: デフォルトでは、計算の出力は暗号化されています(秘密鍵を持つ当事者、通常は入力の所有者のみが復号可能)。したがって、出力は計算サーバーから隠されています。出力を公開したい場合、クライアントは復号して公開できます。セットアップは不要。各ユーザーは暗号化のために独自の鍵ペアを生成します。信頼は鍵が秘密に保たれることに依存します。FHEスキーム(例:BFV, CKKS, TFHE)のセキュリティは、格子問題(Learning With Errors)に基づいており、これらは量子攻撃に耐性があると考えられています(少なくとも効率的な量子アルゴリズムは知られていません)。したがって、FHEは一般的に ポスト量子セキュア と考えられています。

表1:機械学習推論のためのzk-SNARK、zk-STARK、およびFHEアプローチの比較(パフォーマンスとプライバシーのトレードオフ)。

Web3アプリケーションへのユースケースと影響

zkMLを介したAIとブロックチェーンの融合は、Web3における強力な新しいアプリケーションパターンを解き放ちます:

  • 分散型自律エージェントとオンチェーンでの意思決定: スマートコントラクトやDAOは、正当性の保証付きでAI駆動の意思決定を組み込むことができます。例えば、取引を実行する前に市場状況を分析するためにニューラルネットワークを使用するDAOを想像してみてください。zkMLを使用すると、DAOのスマートコントラクトは、アクションが受け入れられる前に、承認されたMLモデル(既知のハッシュコミットメントを持つ)が最新のデータで実行され、推奨されたアクションを生成したというzkSNARK証明を要求できます。これにより、悪意のあるアクターが偽の予測を注入するのを防ぎます – チェーンが AIの計算を検証します。時間が経てば、DeFiやゲームで意思決定を行う完全にオンチェーンの自律エージェント(オフチェーンAIをクエリするか、簡略化されたモデルを含むコントラクト)を持つことさえ可能になり、そのすべての動きはzk証明を介して正しく、ポリシーに準拠していることが証明されます。これにより、自律エージェントの「思考」がブラックボックスではなく、透明で検証可能になるため、信頼性が向上します。

  • 検証可能な計算市場: Lagrangeのようなプロジェクトは、効果的に 検証可能な計算マーケットプレイス を作成しています – 開発者は重いML推論をプルーバーのネットワークにアウトソースし、結果と共に証明を受け取ることができます。これは分散型クラウドコンピューティングに似ていますが、信頼が組み込まれています。サーバーを信頼する必要はなく、証明だけを信頼すればよいのです。これはオラクルやオフチェーン計算にとってパラダイムシフトです。Ethereumの今後のDSC(分散型シーケンシングレイヤー)やオラクルネットワークのようなプロトコルは、これを使用して暗号学的な保証付きのデータフィードや分析フィードを提供できます。例えば、オラクルは「入力Yに対するモデルXの結果」を提供し、誰もがオラクルの言葉を信頼するのではなく、添付された証明をオンチェーンで検証できます。これにより、ブロックチェーン上で サービスとしての検証可能なAI が可能になります。どのコントラクトも計算(「私のプライベートモデルでこれらの信用リスクをスコアリングして」など)を要求し、有効な証明がある場合にのみ回答を受け入れることができます。Gensyn のようなプロジェクトは、これらの検証技術を使用して分散型のトレーニングおよび推論マーケットプレイスを探求しています。

  • NFTとゲーミング – 来歴と進化: ブロックチェーンゲームやNFTコレクティブルでは、zkMLは特性やゲームの動きが正当なAIモデルによって生成されたことを証明できます。例えば、ゲームがAIにNFTペットの属性を進化させることを許可するかもしれません。ZKがなければ、賢いユーザーはAIや結果を改変して優れたペットを手に入れるかもしれません。zkMLを使用すると、ゲームは 「ペットの新しいステータスは、ペットの古いステータスに対して公式の進化モデルによって計算された」 という証明を要求でき、不正を防ぎます。ジェネレーティブアートNFTについても同様です。アーティストはジェネレーティブモデルをコミットメントとしてリリースできます。後でNFTをミントするときに、各画像が特定のシードを与えられてそのモデルによって生成されたことを証明し、真正性を保証します(そして、アーティストのIPを保護するために、正確なモデルを公開することなくそれを行うことさえできます)。この 来歴検証 は、検証可能なランダム性に似た方法で真正性を保証します – ここでは検証可能な創造性です。

  • 機密領域におけるプライバシー保護AI: zkMLは 入力を公開することなく結果の確認 を可能にします。医療では、患者のデータがクラウドプロバイダーによってAI診断モデルに通されるかもしれません。病院は診断と、そのモデル(製薬会社が非公開で保有している可能性がある)が患者データで正しく実行された という証明を受け取ります。患者データはプライベートなままであり(証明では暗号化またはコミットされた形式のみが使用された)、モデルの重みは独自のままです – それでも結果は信頼されます。規制当局や保険会社も、承認されたモデルのみが使用されたことを検証できます。金融では、企業は監査人や規制当局に対して、そのリスクモデルが内部データに適用され、特定のメトリクスを生成した ことを、基礎となる機密性の高い財務データを明らかにすることなく証明できます。これにより、手動の信頼ではなく、暗号学的な保証によるコンプライアンスと監督が可能になります。

  • クロスチェーンおよびオフチェーンの相互運用性: ゼロ知識証明は基本的にポータブルであるため、zkMLは クロスチェーンAI の結果を促進できます。あるチェーンがオフチェーンで実行されるAI集約的なアプリケーションを持っているかもしれません。その結果の証明を別のブロックチェーンに投稿でき、そのブロックチェーンはそれをトラストレスに受け入れます。例えば、ソーシャルメディア全体のセンチメントを集約するためにAIを使用するマルチチェーンDAOを考えてみましょう(オフチェーンデータ)。AI分析(大規模データに対する複雑なNLP)はオフチェーンのサービスによって行われ、その後、「分析は正しく行われ、出力センチメントスコア = 0.85」 という証明を小さなブロックチェーン(または複数のチェーン)に投稿します。すべてのチェーンは、それぞれが分析を再実行する必要なく、その結果を検証し、ガバナンスロジックで使用できます。この種の 相互運用可能な検証可能計算 は、Lagrangeのネットワークが複数のロールアップやL1に同時にサービスを提供することでサポートしようとしているものです。これにより、チェーン間で結果を移動する際に、信頼できるブリッジやオラクルの仮定が不要になります。

  • AIアライメントとガバナンス: より未来志向の観点から、zkMLは AIガバナンスと安全性 のためのツールとして注目されています。例えば、Lagrangeのビジョンステートメントでは、AIシステムがより強力になるにつれて(超知能でさえ)、合意されたルールに従うことを保証するために暗号学的検証が不可欠になると主張しています。AIモデルにその推論や制約の証明を生成させることを要求することで、人間はある程度の制御を維持します – 「検証できないものは信頼できない」。これは推測的であり、技術的な側面だけでなく社会的な側面も関わりますが、この技術は、自律的に実行されているAIエージェントが、承認されたモデルを使用しており、改ざんされていないことを証明することを強制できます。分散型AIネットワークは、貢献を検証するためにオンチェーン証明を使用するかもしれません(例:モデルを共同でトレーニングするノードのネットワークは、各更新が忠実に計算されたことを証明できます)。したがって、zkMLは、分散型または制御されていない環境であっても、AIシステムが人間定義のプロトコルに対して説明責任を負い続けることを保証する 上で役割を果たす可能性があります。

結論として、zkMLと検証可能なオンチェーンAI は、AIアプリケーションにおける信頼、透明性、プライバシーを向上させる可能性のある、高度な暗号技術と機械学習の融合を表しています。主要なアプローチ – zk-SNARK、zk-STARK、FHE – を比較することで、パフォーマンスとプライバシーの間のトレードオフのスペクトルが見え、それぞれが異なるシナリオに適しています。EzklのようなSNARKベースのフレームワークやLagrangeのDeepProveのような革新により、実質的なニューラルネットワーク推論を現実的な労力で証明することが可能になり、検証可能なAIの現実世界での展開への扉が開かれました。STARKベースおよびVMベースのアプローチは、より大きな柔軟性とポスト量子セキュリティを約束しており、これは分野が成熟するにつれて重要になるでしょう。FHEは、検証可能性の解決策ではありませんが、機密性の高いML計算という補完的なニーズに対応し、ZKPとの組み合わせや特定のプライベートな文脈では、ユーザーがデータプライバシーを犠牲にすることなくAIを活用できるようにします。

Web3への影響 は重要です。AIの予測に反応するスマートコントラクト(それが正しいと知っている)、結果がトラストレスに販売される計算市場、zkMLによって保護された デジタルアイデンティティ(Worldcoinの虹彩AIによる人格証明のように、生体認証画像を漏らすことなく人間であることを確認する)、そして一般的にブロックチェーンアプリケーションを豊かにする新しいクラスの 「証明可能なインテリジェンス」 が予見できます。非常に大規模なモデルのパフォーマンス、開発者のエルゴノミクス、特殊なハードウェアの必要性など、多くの課題が残っていますが、その軌道は明確です。あるレポートが指摘したように、「今日のZKPは小さなモデルをサポートできるが、中規模から大規模なモデルはそのパラダイムを壊す」。しかし、急速な進歩(DeepProveによる従来技術に対する50倍–150倍の高速化)がその境界を押し広げています。継続的な研究(ハードウェアアクセラレーションや分散証明など)により、ますます大きく複雑なAIモデルが証明可能になることが期待できます。zkMLは、ニッチなデモから、信頼できるAIインフラストラクチャの不可欠なコンポーネント へとすぐに進化するかもしれません。これにより、AIがユビキタスになるにつれて、それが 監査可能で、分散化され、ユーザーのプライバシーとセキュリティに沿った 方法で行われることが保証されます。

ETHDenver 2025: フェスティバルから見る主要な Web3 トレンドとインサイト

· 約36分

「再生者の年 (Year of The Regenerates)」と銘打たれた ETHDenver 2025 は、世界最大級の Web3 の祭典としての地位を確固たるものにしました。BUIDLWeek (2 月 23 日~ 26 日)、メインイベント (2 月 27 日~ 3 月 2 日)、そしてカンファレンス後のマウンテンリトリートにわたり、このフェスティバルには 25,000 人以上の参加者が見込まれました。125 以上の国からビルダー、開発者、投資家、クリエイターがデンバーに集結し、イーサリアムの分散化とイノベーションの精神を祝いました。そのコミュニティのルーツに忠実に、ETHDenver は参加無料で、コミュニティ資金によって運営され、ハッカソンやワークショップからパネルディスカッション、ピッチイベント、パーティーまで、コンテンツが溢れていました。分散化を守る*「再生者 (Regenerates)」*の物語は、競争の激しい技術環境の中にあっても、公共財と協調的な構築を強調するトーンを設定しました。その結果、1 週間にわたるエネルギッシュなビルダー活動と未来志向の議論が繰り広げられ、Web3 の新たなトレンドと業界専門家にとって実用的なインサイトのスナップショットが提供されました。

ETHDenver 2025

登壇者が注目した新たな Web3 トレンド

ETHDenver 2025 では、単一の物語が支配することはなく、代わりに幅広い Web3 トレンドが主役となりました。 昨年 (EigenLayer を介したリステーキングが注目を集めた) とは異なり、2025 年のアジェンダはあらゆるものが散りばめられていました。分散型物理インフラネットワーク (DePIN) から AI エージェント、規制遵守から現実世界資産のトークン化 (RWA)、さらにプライバシー、相互運用性など、多岐にわたりました。実際、ETHDenver の創設者である John Paller 氏は、マルチチェーンのコンテンツに関する懸念に対し、「スポンサーの 95% 以上、コンテンツの 90% が ETH/EVM に沿ったものである」と述べましたが、非イーサリアムエコシステムの存在は相互運用性が主要なテーマであることを強調していました。主要な登壇者はこれらのトレンド分野を反映しており、例えば、zk ロールアップとレイヤー 2 スケーリングは Alex Gluchowski 氏 (Matter Labs/zkSync CEO) によって、マルチチェーンのイノベーションは Mysten Labs (Sui) の Adeniyi Abiodun 氏と Injective の Albert Chon 氏によって強調されました。

AI と Web3 の融合は、強力な底流として現れました。 多くの講演やサイドイベントが分散型 AI エージェントと「DeFi+AI」のクロスオーバーに焦点を当てていました。専用の AI Agent Day ではオンチェーン AI のデモが披露され、14 のチーム (Coinbase の開発者キットや NEAR の AI ユニットを含む) の集合体は、Web3 インフラをプールすることでパーミッションレスで無料の AI アクセスを提供するためのイニシアチブであるオープン・エージェント・アライアンス (OAA) を発表しました。これは、ビルダーにとってのフロンティアとして、自律エージェントと AI 駆動の DApp への関心が高まっていることを示しています。AI と密接に関連して、DePIN (分散型物理インフラ) ももう一つのバズワードでした。複数のパネル (Day of DePINDePIN Summit など) では、ブロックチェーンと物理ネットワーク (通信からモビリティまで) を橋渡しするプロジェクトが探求されました。

Cuckoo AI Network は ETHDenver 2025 で注目を集め、クリエイターや開発者向けに設計された革新的な分散型 AI モデル提供マーケットプレイスを披露しました。ハッカソンとコミュニティ主導のサイドイベントの両方で説得力のある存在感を示し、Cuckoo AI は GPU/CPU リソースを収益化し、オンチェーン AI API を簡単に統合できる能力に興味をそそられた開発者から大きな注目を集めました。専用のワークショップとネットワーキングセッションで、Cuckoo AI は分散型インフラがどのようにして高度な AI サービスへのアクセスを効率的に民主化できるかを強調しました。これは、イベントのより広範なトレンド、特にブロックチェーンと AI、DePIN、公共財への資金提供との交差点に直接合致しています。ETHDenver の投資家や開発者にとって、Cuckoo AI は、分散型アプローチが次世代の AI 駆動 DApp とインフラをどのように強化できるかの明確な例として浮上し、Web3 エコシステム内で魅力的な投資機会として位置づけられました。

プライバシー、アイデンティティ、セキュリティは依然として最重要課題でした。 登壇者やワークショップでは、ゼロ知識証明 (zkSync の存在)、アイデンティティ管理と検証可能なクレデンシャル (ハッカソンには専用のプライバシー & セキュリティトラックがありました)、法規制の問題 (オンチェーンの法律サミットがフェスティバルのトラックの一部でした) といったトピックが取り上げられました。もう一つの注目すべき議論は、資金調達の未来と資金調達の分散化でした。Dragonfly Capital の Haseeb Qureshi 氏と Legion (「ICO のような」プラットフォーム) の Matt O’Connor 氏によるICO 対 VC ファンディングに関するメインステージでの討論は、参加者を魅了しました。この討論は、従来の VC ルートに挑戦するコミュニティトークンセールのような新たなモデルを浮き彫りにしました。これは、資金調達を行う Web3 スタートアップにとって重要なトレンドです。専門家にとっての教訓は明らかです。2025 年の Web3 は多分野にわたるものであり、金融、AI、現実資産、文化にまたがっています。情報を常に把握するということは、一つのハイプサイクルだけでなく、イノベーションの全スペクトルに目を向けることを意味します。

スポンサーとその戦略的重点分野

2025 年の ETHDenver のスポンサーリストは、レイヤー 1、レイヤー 2、Web3 インフラプロジェクトの錚々たる顔ぶれであり、各社がイベントを活用して戦略的目標を推進していました。クロスチェーンおよびマルチチェーンプロトコルが強力な存在感を示しました。例えば、Polkadot はトップスポンサーとして 8 万ドルの高額な報奨金プールを提供し、ビルダーにクロスチェーン DApp やアプリチェーンの作成を奨励しました。同様に、BNB Chain、Flow、Hedera、Base (Coinbase の L2) はそれぞれ、自社のエコシステムと統合するプロジェクトに最大 5 万ドルを提供し、イーサリアム開発者を引きつけようとする姿勢を示しました。Solana や Internet Computer のような伝統的に独立したエコシステムでさえ、スポンサー付きのチャレンジに参加しました (例: Solana は DePIN イベントを共催し、Internet Computer は「ICP でのみ可能」な報奨金を提供)。このエコシステム間の存在感は一部のコミュニティから精査されましたが、ETHDenver のチームはコンテンツの大部分がイーサリアムに沿ったものであると指摘しました。最終的な効果として、相互運用性が中心的なテーマとなり、スポンサーは自社のプラットフォームをイーサリアムユニバースの補完的な拡張機能として位置づけることを目指しました。

スケーリングソリューションとインフラプロバイダーもまた、前面に出ていました。Optimism や Arbitrum のような主要なイーサリアム L2 は、大きなブースを構え、スポンサー付きのチャレンジ (Optimism の報奨金は最大 4 万ドル) を提供し、開発者をロールアップにオンボーディングすることに注力していることを再確認させました。ZkSync や Zircuit (L2 ロールアップアプローチを披露するプロジェクト) のような新規参入者は、ゼロ知識技術を強調し、SDK も提供しました (ZkSync はユーザーフレンドリーなログインのための Smart Sign-On SDK を推進し、ハッカソンチームはこれを熱心に利用しました)。リステーキングとモジュラーブロックチェーンインフラもスポンサーの関心事でした。EigenLayer (リステーキングのパイオニア) は独自の 5 万ドルのトラックを持ち、「Restaking & DeFAI (Decentralized AI)」に関するイベントを共催し、そのセキュリティモデルを AI のトピックと結びつけました。オラクルと相互運用性ミドルウェアは、Chainlink や Wormhole などが代表し、それぞれが自社のプロトコルを使用するための報奨金を発行しました。

特筆すべきは、Web3 のコンシューマーアプリケーションとツールが、ユーザーエクスペリエンスを向上させるためにスポンサーの支援を受けていたことです。Uniswap の存在感 (最大級のブースの一つ) は、単なる見せ物ではありませんでした。この DeFi の巨人は、イベントを利用して、統合された法定通貨のオフランプのような新しいウォレット機能を発表し、DeFi の使いやすさに焦点を当てたスポンサーシップと一致させました。Galxe (Gravity)Lens Protocol のようなアイデンティティとコミュニティに焦点を当てたプラットフォームは、オンチェーンソーシャルとクレデンシャルに関するチャレンジを後援しました。主流のテクノロジー企業も関心を示しました。PayPal と Google Cloud は、暗号資産における決済の未来について議論するために、ステーブルコイン/決済に関するハッピーアワーを主催しました。このスポンサーの組み合わせは、戦略的関心がコアインフラからエンドユーザーアプリケーションまで多岐にわたることを示しており、それらすべてが ETHDenver に集結し、開発者にリソース (API、SDK、助成金) を提供しました。Web3 の専門家にとって、レイヤー 1、レイヤー 2、さらには Web2 のフィンテック企業からの多額のスポンサーシップは、業界がどこに投資しているかを浮き彫りにしています。それは、相互運用性、スケーラビリティ、セキュリティ、そして次世代のユーザーにとって暗号資産を役立つものにすることです。

ハッカソンのハイライト: 革新的なプロジェクトと受賞者

ETHDenver の中心にあるのは、伝説的な #BUIDLathon です。これは、数千人の開発者が参加する世界最大のブロックチェーンハックフェストに成長したハッカソンです。2025 年、このハッカソンはイノベーションを促進するために、記録的な 1,043,333 ドル以上の賞金プールを提供しました。60 以上のスポンサーからの報奨金は、主要な Web3 ドメインをターゲットとし、コンペティションを次のようなトラックに分けました: DeFi & AINFT & ゲーミングインフラ & スケーラビリティプライバシー & セキュリティ、そして DAO & 公共財。このトラック設計自体が示唆に富んでいます。例えば、DeFi と AI を組み合わせることは、AI 駆動の金融アプリケーションの出現を示唆しており、専用の公共財トラックは、再生金融とオープンソース開発へのコミュニティの焦点を再確認するものです。各トラックは、自社の技術の最良の使用例に対して賞金を提供するスポンサーによって支援されました (例: DeFi のための Polkadot と Uniswap、相互運用性のための Chainlink、スケーリングソリューションのための Optimism)。主催者は審査にクアドラティック・ボーティングを導入し、コミュニティがトッププロジェクトを浮かび上がらせるのを助け、最終的な受賞者は専門家の審査員によって選ばれました。

その結果、最先端のプロジェクトが多数生まれ、その多くが Web3 の未来を垣間見せてくれます。注目すべき受賞者には、オンチェーンマルチプレイヤーゲーム**「0xCaliber」がありました。これは、古典的な FPS ゲーム内でリアルタイムのブロックチェーンインタラクションを実行する一人称シューティングゲームです。0xCaliber は、真のオンチェーンゲーミングを実証して審査員を驚かせました。プレイヤーは暗号資産で購入し、オンチェーンの弾丸を「撃ち」、クロスチェーンのトリックを使って戦利品を収集し、現金化します。これらすべてがリアルタイムで行われます。このようなプロジェクトは、Web3 ゲーミングの成熟度 (Unity ゲームエンジンとスマートコントラクトの統合) と、エンターテイメントと暗号経済を融合させる創造性を示しています。もう一つの際立ったハックのカテゴリーは、AI とイーサリアムを融合させたものでした。チームは、Open Agents Alliance の発表に触発され、スマートコントラクトを使用して AI サービスを調整する「エージェント」プラットフォームを構築しました。例えば、あるハッカソンプロジェクトは、AI 駆動のスマートコントラクト監査人 (コントラクトのセキュリティテストケースを自動生成) を統合し、カンファレンスで観察された分散型 AI トレンド**と一致していました。

インフラとツーリングのプロジェクトも目立ちました。一部のチームは、zkSync の Smart Sign-On のようなスポンサーのツールキットを使用して、DApp のためのウォレットレスなログインフローを作成し、アカウント抽象化とユーザーエクスペリエンスに取り組みました。他のチームは、クロスチェーンブリッジやレイヤー 2 の統合に取り組み、相互運用性への開発者の継続的な関心を反映していました。公共財 & DAO トラックでは、いくつかのプロジェクトが現実世界の社会的影響に取り組みました。例えば、ホームレスを支援するための分散型アイデンティティと援助のための DApp (NFT とコミュニティ資金を活用、以前の ReFi ハックを彷彿とさせるアイデア) などです。再生金融 (ReFi) のコンセプト、例えば新しいメカニズムを介して公共財に資金を提供するようなものは、ETHDenver の再生のテーマを反映して、引き続き登場しました。

最終的な受賞者はメインイベントの終わりまでに祝福されましたが、真の価値はイノベーションのパイプラインにありました。400 以上のプロジェクト提出があり、その多くはイベント後も存続します。ETHDenver のハッカソンは、将来のスタートアップを生み出す実績があります (実際、過去の BUIDLathon プロジェクトのいくつかは、自らスポンサーに成長しました)。投資家や技術者にとって、このハッカソンは最先端のアイデアへの窓を提供し、次世代の Web3 スタートアップがオンチェーンゲーミング、AI を注入した DApp、クロスチェーンインフラ、社会的影響をターゲットにしたソリューションなどの分野で出現する可能性を示唆しています。開発者に約 100 万ドルの報奨金が支払われたことで、スポンサーはこれらのイノベーションを育成するために、言葉だけでなく実際に行動で示したことになります。

ネットワーキングイベントと投資家との交流

ETHDenver はコードを書くだけの場ではありません。つながりを作ることも同様に重要です。2025 年、このフェスティバルは、スタートアップ、投資家、コミュニティビルダー向けに調整された公式および非公式のイベントでネットワーキングをさらに強化しました。目玉イベントの一つは、Bufficorn Ventures (BV) Startup Rodeo でした。これは、厳選された 20 のスタートアップがサイエンスフェア形式の展示会で投資家にデモを行う、エネルギッシュなショーケースです。3 月 1 日にメインホールで開催された Startup Rodeo は、ピッチコンテストというよりも「スピードデート」のようだと評されました。創設者たちはテーブルに陣取り、参加しているすべての投資家がアリーナを歩き回りながら、1 対 1 でプロジェクトを売り込みました。この形式により、初期段階のチームでさえ、VC や戦略的パートナー、提携先と有意義な対面時間を確保できました。多くのスタートアップは、ETHDenver に集中している Web3 ファンドの存在を活用し、これを顧客と資金を見つけるための出発点として利用しました。

カンファレンスの最終日には、メインステージで BV BuffiTank Pitchfest が注目を集めました。これは、ETHDenver コミュニティから選ばれた「最も革新的な」初期段階のスタートアップ 10 社が登場する、より伝統的なピッチコンペティションです。これらのチーム (ハッカソンの受賞者とは別) は、トップ VC や業界リーダーのパネルにビジネスモデルを売り込み、称賛と潜在的な投資オファーを競いました。Pitchfest は、ETHDenver がディールフローの創出源としての役割を果たしていることを示していました。これは、特に SporkDAO コミュニティに関連する、*「すでに組織化され…投資、顧客、露出を求めている」*チームを明確にターゲットにしていました。受賞者への報酬は単純な賞金ではなく、Bufficorn Ventures のポートフォリオや他のアクセラレーターコホートに参加するという約束でした。本質的に、ETHDenver は Web3 版のミニ「マネーの虎」を創出し、コミュニティの最高のプロジェクトに投資家の注目を集めました。

これらの公式ショーケース以外にも、1 週間は投資家と創設者の交流会で満載でした。Belong が編集したガイドによると、注目すべきサイドイベントには、2 月 27 日に CertiK Ventures が主催した**「VC と会おう」ハッピーアワー**、3 月 1 日の StarkNet VC & Founders Lounge、さらには**「Pitch & Putt」というゴルフをテーマにしたピッチイベントのようなカジュアルな催しもありました。これらの集まりは、創設者がベンチャーキャピタリストと気軽に交流できるリラックスした環境を提供し、しばしばカンファレンス後のフォローアップミーティングにつながりました。多くの新興 VC ファーム**の存在もパネルで感じられました。例えば、EtherKnight Stage のセッションでは、Reflexive Capital、Reforge VC、Topology、Metalayer、Hash3 のような新しいファンドが、どのトレンドに最も興奮しているかを強調しました。初期の兆候によれば、これらの VC は、分散型ソーシャルメディア、AI、新しいレイヤー 1 インフラなどの分野に熱心でした (各ファンドは、競争の激しい VC 環境で差別化するためにニッチを切り開いています)。

ETHDenver のネットワーキングを活用しようとする専門家にとって、重要な教訓はサイドイベントやターゲットを絞った交流会の価値です。取引やパートナーシップは、ステージ上よりもコーヒーやカクテルを飲みながら生まれることがよくあります。ETHDenver 2025 の無数の投資家向けイベントは、Web3 の資金調達コミュニティが、低迷する市場であっても積極的に才能とアイデアを探していることを示しています。洗練されたデモと明確な価値提案 (しばしばイベントのハッカソンの勢いを活用) を準備してきたスタートアップは、受容的な聴衆を見つけました。一方、投資家はこれらの交流を利用して、開発者コミュニティの動向を測りました。今年の最も優秀なビルダーはどのような問題を解決しているのか?要するに、ETHDenver はネットワーキングが BUIDLing と同じくらい重要であることを再確認させました。それは、偶然の出会いがシード投資につながったり、洞察に満ちた会話が次の大きなコラボレーションの火付け役になったりする場所なのです。

Web3 におけるベンチャーキャピタルのトレンドと投資機会

ETHDenver 2025 を通じて、微妙ながらも重要な物語は、Web3 ベンチャーキャピタル自体の進化する状況でした。より広範な暗号資産市場の浮き沈みにもかかわらず、ETHDenver の投資家は、有望な Web3 プロジェクトに対する強い意欲を示しました。現地の Blockworks の記者たちは、「マクロの逆風にもかかわらず、どれだけ多くのプライベートキャピタルが暗号資産に流れ込み続けているか」を指摘し、最もホットなアイデアのシードステージの評価額はしばしば非常に高額でした。実際、暗号資産ネイティブのファンドから Web3 に手を出す伝統的なテック投資家まで、多数の VC が存在していたことは、ETHDenver が依然としてディールメイキングのハブであることを明確にしました。

VC が議論し、後援していた内容から、新たなテーマ別の焦点を読み取ることができました。AI x 暗号資産のコンテンツ (ハッカソントラック、パネルなど) の普及は、開発者のトレンドであるだけでなく、**「DeFi と AI の出会い」**という結びつきに対するベンチャーの関心を反映しています。多くの投資家は、ベンチャーが後援する AI ハックハウスやサミットが証明するように、ブロックチェーン上で機械学習や自律エージェントを活用するスタートアップに注目しています。同様に、DePIN と現実世界資産 (RWA) のトークン化への強い焦点は、ファンドがブロックチェーンを実体経済の資産や物理デバイスに接続するプロジェクトに機会を見出していることを示しています。専用の RWA Day (2 月 26 日) は、トークン化された資産の未来に関する B2B イベントであり、ベンチャースカウトがその分野で次の Goldfinch や Centrifuge (つまり、現実世界の金融をオンチェーンにもたらすプラットフォーム) を積極的に探していることを示唆しています。

もう一つの観察可能なトレンドは、資金調達モデルの実験の増加でした。前述の ICO 対 VC の議論は、単なるカンファレンスの演劇ではありませんでした。それは、よりコミュニティ中心の資金調達への実際のベンチャーの動きを反映しています。ETHDenver の一部の VC は、ハイブリッドモデル (例: 初期ラウンドにコミュニティを巻き込むベンチャー支援のトークンローンチ) へのオープンな姿勢を示しました。さらに、公共財への資金提供とインパクト投資も議論の対象となりました。ETHDenver の再生の精神に基づき、投資家でさえ、次の DeFi や NFT のブームを追いかけるだけでなく、オープンソースのインフラと開発者を長期的にどのように支援するかについて議論しました。*「未来への資金提供: オンチェーンスタートアップのための進化するモデル」*のようなパネルでは、従来の VC 資金を補完するために、助成金、DAO の財務投資、クアドラティック・ファンディングなどの代替案が探求されました。これは、プロジェクトが資本化される方法が成熟していることを示しています。ベンチャーキャピタル、エコシステムファンド、コミュニティ資金が連携して機能する混合モデルです。

機会の観点から、Web3 の専門家と投資家は、ETHDenver のベンチャーダイナミクスからいくつかの実用的なインサイトを得ることができます。(1) インフラは依然として王様である – 多くの VC は、業界のバックボーンとして、つるはしとシャベル (L2 スケーリング、セキュリティ、開発ツール) が依然として価値の高い投資であると表明しました。(2) AI/ブロックチェーンの融合や DePIN のような新しい垂直分野は、新たな投資フロンティアである – これらの分野で最新情報を入手したり、そこでスタートアップを見つけたりすることは、やりがいのあることかもしれません。(3) コミュニティ主導のプロジェクトや公共財は、新しい資金調達方法を見出すかもしれない – 賢明な投資家は、これらを持続的に支援する方法を見つけ出しています (例えば、分散型ガバナンスや共有所有権を可能にするプロトコルへの投資)。全体として、ETHDenver 2025 は、Web3 のベンチャー環境は競争が激しいものの、確信に満ちていることを示しました。DeFi、NFT、ゲーミングなどの未来を構築する人々には資本が利用可能であり、弱気市場で生まれたアイデアでさえ、適切なトレンドをターゲットにすれば支援を見つけることができます。

開発者向けリソース、ツールキット、サポートシステム

ETHDenver は常にビルダー中心であり、2025 年も例外ではありませんでした。Web3 開発者向けの豊富なリソースとサポートを備えたオープンソース開発者カンファレンスとしても機能しました。BUIDLWeek 中、参加者は様々な分野にわたるライブワークショップ、技術ブートキャンプ、ミニサミットにアクセスできました。例えば、開発者は Bleeding Edge Tech Summit に参加して最新のプロトコルを試したり、On-Chain Legal Summit に立ち寄ってコンプライアンスに準拠したスマートコントラクト開発について学んだりすることができました。主要なスポンサーやブロックチェーンチームは、実践的なセッションを実施しました。Polkadot のチームは、パラチェーンを立ち上げるためのハッカーハウスやワークショップを主催しました。EigenLayer は、開発者にそのセキュリティレイヤーの活用方法を教えるための「リステーキングブートキャンプ」を主導しました。Polygon と zkSync は、ゼロ知識技術でスケーラブルな DApp を構築するためのチュートリアルを提供しました。これらのセッションは、コアエンジニアとの貴重な対面時間を提供し、開発者が統合に関する支援を受け、新しいツールキットを直接学ぶことを可能にしました。

メインイベント期間中、会場には専用の #BUIDLHub とメーカースペースが設けられ、ビルダーは協力的な環境でコーディングし、メンターにアクセスすることができました。ETHDenver の主催者は、詳細な BUIDLer ガイドを公開し、現場でのメンターシッププログラムを促進しました (スポンサーからの専門家が技術的な問題でチームの障害を取り除くために待機していました)。開発者向けツール企業も多数参加していました。Alchemy や Infura (ブロックチェーン API) から Hardhat や Foundry (スマートコントラクト開発) まで。多くがイベントで新しいリリースやベータツールを発表しました。例えば、MetaMask のチームは、ガス代の抽象化と DApp 開発者向けの改善された SDK を特徴とする主要なウォレットアップデートをプレビューし、アプリがユーザーのためにガス代をカバーする方法を簡素化することを目指しました。いくつかのプロジェクトはSDK やオープンソースライブラリをローンチしました。Coinbase の AI エージェント用 「Agent Kit」 と共同の Open Agents Alliance ツールキットが紹介され、Story.xyz は独自のハッカソンイベント中にオンチェーン知的財産ライセンスのための Story SDK を宣伝しました。

報奨金とハッカーサポートが、開発者体験をさらに向上させました。62 のスポンサーから 180 以上の報奨金が提供され、ハッカーは事実上、特定の課題のメニューから選択することができ、それぞれにドキュメント、オフィスアワー、時には特注のサンドボックスが付属していました。例えば、Optimism の報奨金は、開発者に最新の Bedrock オペコードを使用するよう挑戦し (彼らのエンジニアが支援のために待機)、Uniswap のチャレンジは、オフランプ統合のための新しい API へのアクセスを提供しました。公式の ETHDenver モバイルアプリや Discord チャンネルのような調整と学習のためのツールは、開発者にスケジュールの変更、サイドクエスト、さらには ETHDenver の求人掲示板を介した求人情報を知らせ続けました。

注目すべきリソースの一つは、クアドラティック・ファンディングの実験とオンチェーン投票への重点でした。ETHDenver はハッカソンの審査にクアドラティック・ボーティングシステムを統合し、多くの開発者にその概念を紹介しました。さらに、Gitcoin や他の公共財グループの存在は、開発者がイベント後に自分たちのプロジェクトのための助成金について学ぶことができることを意味しました。要するに、ETHDenver 2025 は、開発者に最先端のツール (SDK、API)専門家の指導、そしてプロジェクトを継続するためのフォローアップサポートを提供しました。業界の専門家にとって、これは教育、ツール、資金提供を通じて開発者コミュニティを育成することが重要であることの再認識です。ハイライトされたリソースの多く (新しい SDK や改善された開発環境など) は現在公開されており、世界中のチームに ETHDenver で共有されたものの肩の上に立って構築する機会を提供しています。

ETHDenver 体験を豊かにするサイドイベントとコミュニティの集まり

ETHDenver を真に際立たせているのは、そのフェスティバルのような雰囲気です。公式・非公式を問わず、数十のサイドイベントがメインカンファレンスの周りで豊かな経験のタペストリーを創り出しました。2025 年、公式コンテンツが開催された National Western Complex を超えて、街全体がミートアップ、パーティー、ハッカソン、コミュニティの集まりで賑わいました。これらのサイドイベントは、しばしばスポンサーや地元の Web3 グループによって主催され、より広範な ETHDenver 体験に大きく貢献しました。

公式面では、ETHDenver 自身のスケジュールにテーマ別のミニイベントが含まれていました。会場にはNFT アートギャラリー、ブロックチェーンアーケード、DJ チルドーム、さらにはリラックスするための禅ゾーンのようなゾーンがありました。主催者はまた、オープニングやクロージングパーティーなどの夜のイベントも開催しました。例えば、Story Protocol による 2 月 26 日の**「Crack’d House」非公式オープニングパーティーは、芸術的なパフォーマンスとハッカソンの授賞式を融合させました。しかし、真に増殖したのはコミュニティ主導のサイドイベント**でした。イベントガイドによると、ETHDenver の Luma カレンダーでは 100 以上のサイドイベントが追跡されていました。

いくつかの例が、これらの集まりの多様性を示しています:

  • 技術サミット & ハッカーハウス: ElizaOS と EigenLayer は、AI+Web3 愛好家のために 9 日間の Vault AI Agent Hacker House レジデンシーを実施しました。StarkNet のチームは、数日間のハッカーハウスを主催し、その ZK ロールアップ上のプロジェクトのためのデモナイトで締めくくりました。これらは、開発者がメインのハッカソンの外で特定の技術スタックで協力するための集中した環境を提供しました。
  • ネットワーキングミキサー & パーティー: 毎晩、選択肢のリストが提供されました。2 月 27 日の Builder Nights Denver は、MetaMask、Linea、EigenLayer、Wormhole などがスポンサーとなり、イノベーターたちが食事や飲み物を片手にカジュアルなトークを交わすために集まりました。Belong が支援する 3VO’s Mischief Minded Club Takeover は、コミュニティトークン化のリーダーたちのためのハイレベルなネットワーキングパーティーでした。純粋に楽しみたい人々のために、BEMO Rave (Berachain などと共に) や rAIve the Night (AI をテーマにしたレイブ) は、暗号資産の群衆を夜遅くまで踊らせ続け、音楽、アート、暗号文化を融合させました。
  • 特定関心事の集まり: ニッチなコミュニティも自分たちの場所を見つけました。Meme Combat は、純粋にミーム愛好家が暗号資産におけるミームの役割を祝うためのイベントでした。House of Ink は、NFT アーティストやコレクターを対象とし、没入型アート会場 (Meow Wolf Denver) をデジタルアートのショーケースに変えました。2 月 26 日の SheFi Summit は、World of Women や Celo のようなグループの支援を受け、Web3 の女性たちが講演やネットワーキングのために集まり、多様性と包括性へのコミットメントを強調しました。
  • 投資家 & コンテンツクリエーターのミートアップ: VC イベントについてはすでに触れましたが、さらに、2 月 28 日の KOL (キーオピニオンリーダー) Gathering では、暗号資産のインフルエンサーやコンテンツクリエーターがエンゲージメント戦略について議論し、ソーシャルメディアと暗号コミュニティの交差点を示しました。

重要なことに、これらのサイドイベントは単なるエンターテイメントではありませんでした。それらはしばしば、それ自体がアイデアと関係性のインキュベーターとして機能しました。例えば、Tokenized Capital Summit 2025 は、オンチェーンでの資本市場の未来を深く掘り下げ、参加したフィンテック起業家とブロックチェーン開発者の間のコラボレーションを 촉発した可能性があります。On-Chain Gaming Hacker House は、ゲーム開発者がベストプラクティスを共有する場を提供し、ブロックチェーンゲームプロジェクト間の相互作用につながるかもしれません。

大規模なカンファレンスに参加する専門家にとって、ETHDenver のモデルは、価値はメインステージ上と同じくらい、その外にもあることを強調しています。非公式なプログラミングの幅広さにより、参加者は自分の経験を調整することができました。目標が投資家に会うこと、新しいスキルを学ぶこと、共同創設者を見つけること、あるいは単にリラックスして仲間意識を築くことであっても、そのためのイベントがありました。多くのベテランは新参者にこうアドバイスします。「講演に参加するだけでなく、ミートアップに行って挨拶をしなさい。」Web3 のようなコミュニティ主導の空間では、これらの人間的なつながりが、しばしば DAO のコラボレーション、投資取引、あるいは少なくとも、大陸を越えて続く友情に変わります。ETHDenver 2025 の活気に満ちたサイドシーンは、コアカンファレンスを増幅させ、デンバーでの 1 週間を多次元的なイノベーションのフェスティバルに変えました。

主要な教訓と実用的なインサイト

ETHDenver 2025 は、イノベーションとコラボレーションが花開いた Web3 業界を実証しました。この分野の専門家にとって、この詳細な分析からいくつかの明確な教訓と行動項目が浮かび上がります:

  • トレンドの多様化: このイベントは、Web3 がもはや一枚岩ではないことを明らかにしました。AI 統合、DePIN、RWA トークン化のような新たな領域は、DeFi や NFT と同じくらい顕著です。実用的なインサイト: 常に情報を入手し、適応性を保つこと。 リーダーは、次の成長の波に乗るために、これらの台頭する垂直分野に研究開発や投資を割り当てるべきです (例: AI が自社の DApp をどのように強化できるか、または現実世界の資産が DeFi プラットフォームにどのように統合されるかを調査する)。
  • クロスチェーンが未来: 主要な非イーサリアムプロトコルが積極的に参加することで、エコシステム間の壁は低くなっています。相互運用性とマルチチェーンのユーザーエクスペリエンスは、MetaMask が Bitcoin/Solana のサポートを追加したことから、Polkadot や Cosmos ベースのチェーンがイーサリアム開発者を惹きつけたことまで、大きな注目を集めました。実用的なインサイト: マルチチェーンの世界を前提に設計すること。 プロジェクトは、他のチェーンの流動性やユーザーを活用する統合やブリッジを検討すべきであり、専門家は孤立するのではなく、コミュニティを越えたパートナーシップを求めるかもしれません。
  • コミュニティ & 公共財の重要性: 「再生者の年」というテーマは単なる美辞麗句ではありませんでした。それは、公共財への資金提供に関する議論、ハックのためのクアドラティック・ボーティング、SheFi Summit のようなイベントを通じて、コンテンツに浸透していました。倫理的で持続可能な開発とコミュニティの所有権は、イーサリアムの精神における重要な価値です。実用的なインサイト: 再生の原則を取り入れること。 オープンソースイニシアチブを支援すること、公正なローンチメカニズムを使用すること、またはビジネスモデルをコミュニティの成長と一致させることを通じて、Web3 企業は純粋に収奪的でないことで、好意と長寿を得ることができます。
  • 投資家心理 – 慎重かつ大胆: 弱気市場の噂にもかかわらず、ETHDenver は VC が積極的にスカウトしており、Web3 の次の章に大きく賭ける意欲があることを示しました。しかし、彼らはまた、投資方法を再考しています (例: より戦略的に、プロダクトマーケットフィットに対する監視を強化し、コミュニティ資金調達へのオープンな姿勢)。実用的なインサイト: スタートアップであれば、ファンダメンタルズとストーリーテリングに集中すること。 際立っていたプロジェクトは、明確なユースケースと、しばしば動作するプロトタイプ (週末に構築されたものも) を持っていました。投資家であれば、カンファレンスはインフラ (L2、セキュリティ、開発ツール) が依然として優先度が高いことを確認しましたが、AI、ゲーミング、ソーシャルにおけるテーゼを通じて差別化することで、ファンドを最前線に位置づけることができます。
  • 開発者体験の向上: ETHDenver は、アカウント抽象化ツールからオンチェーン AI ライブラリまで、Web3 開発の障壁を下げる多くの新しいツールキット、SDK、フレームワークを浮き彫りにしました。実用的なインサイト: これらのリソースを活用すること。 チームは、発表された最新の開発ツールを試すべきです (例: より簡単なログインのために zkSync Smart SSO を試す、または AI プロジェクトのために Open Agents Alliance のリソースを使用する) เพื่อ開発を加速し、競争の先を行くために。さらに、企業は才能とアイデアを発掘する方法として、ハッカソンやオープンな開発者フォーラムに引き続き関与すべきです。ETHDenver がハッカーを創業者に変えることに成功したことは、そのモデルの証明です。
  • サイドイベントの力: 最後に、サイドイベントの爆発的な増加は、ネットワーキングにおける重要な教訓を教えてくれました – 機会はしばしばカジュアルな場で現れます。ハッピーアワーでの偶然の出会いや、小さなミートアップでの共通の関心が、キャリアを決定づけるつながりを生み出すことがあります。実用的なインサイト: 業界のカンファレンスに参加する人は、公式のアジェンダを超えて計画すること。 自分の目標に合ったサイドイベント (投資家に会う、ニッチなスキルを学ぶ、人材を募集するなど) を特定し、積極的に関与すること。デンバーで見たように、1 週間のエコシステムに完全に没頭した人々は、知識だけでなく、新しいパートナー、採用者、友人を得て帰りました。

結論として、ETHDenver 2025 は Web3 業界の勢いの縮図でした – 最先端の技術談義、情熱的なコミュニティのエネルギー、戦略的な投資の動き、そして真剣なイノベーションと楽しさを融合させた文化のブレンドです。専門家は、このイベントからのトレンドとインサイトを、Web3 が向かう先のロードマップとして見るべきです。実用的な次のステップは、これらの学び (AI への新たな焦点、L2 チームとのつながり、ハッカソンプロジェクトからのインスピレーションなど) を戦略に変換することです。ETHDenver のお気に入りのモットーの精神に基づき、これらのインサイトを基に #BUIDL し、デンバーに集まった多くの人々が思い描いた分散型の未来を形作る手助けをする時です。