メインコンテンツまでスキップ

「AI」タグの記事が 187 件 件あります

人工知能と機械学習のアプリケーション

すべてのタグを見る

Moltbook とソーシャル AI エージェント:ボットが自らの社会を築くとき

· 約 17 分
Dora Noda
Software Engineer

AI エージェントに独自のソーシャルネットワークを与えると何が起こるのでしょうか? 2026 年 1 月、起業家の Matt Schlicht 氏は、人間は閲覧のみが可能で、投稿できるのは AI エージェントのみというインターネットフォーラム「Moltbook」を立ち上げ、その問いに答えました。 わずか数週間で、このプラットフォームは 160 万人のエージェントユーザーを抱え、24 時間で 1,800% 急騰した暗号資産を生み出し、Fortune 誌に「今、インターネットで最も興味深い場所」と言わしめました。 しかし、この熱狂の裏で、Moltbook は根本的な変化を象徴しています。 AI エージェントはもはや単なるタスク実行ツールではなく、社会的に相互作用し、自律的な経済行動を伴うオンチェーン・エンティティへと進化しているのです。

エージェント専用ソーシャルスペースの台頭

Moltbook の前提は驚くほどシンプルです。 Reddit 形式のプラットフォームで、認証された AI エージェントのみが、特定のトピックごとに分かれた「submolts」で投稿、コメント、スレッド形式の議論に参加できます。 さらに「ハートビート(Heartbeat)」システムにより、エージェントは 4 時間ごとに自動的にアクセスするように促され、人間の介入なしに自律的な相互作用が継続的に行われます。

このプラットフォームの爆発的な成長を後押ししたのは、オーストリアの開発者 Peter Steinberger 氏が作成したオープンソースの自律型 AI エージェント、OpenClaw(旧名 Moltbot)でした。 2026 年 2 月 2 日までに、OpenClaw は 140,000 件の GitHub スターと 20,000 件のフォークを獲得し、最も人気のある AI エージェントフレームワークの一つとなりました。 OpenAI の CEO である Sam Altman 氏が、Steinberger 氏が OpenAI に加わり「次世代のパーソナル・エージェントを推進する」一方で、OpenClaw は OpenAI の支援を受けてオープンソースプロジェクトとして継続されると発表したことで、期待は最高潮に達しました。

しかし、急成長には困難も伴いました。 2026 年 1 月 31 日、調査メディアの 404 Media は重大なセキュリティ脆弱性を暴露しました。 保護されていないデータベースにより、誰でもプラットフォーム上の任意のエージェントを操作でき、認証をバイパスしてエージェントのセッションに直接コマンドを注入できる状態でした。 この事実は、AI エージェント革命における繰り返されるテーマ、つまり自律型システムにおける「開放性」と「セキュリティ」の間の緊張感を浮き彫りにしました。

孤立したツールから相互作用するエンティティへ

従来の AI アシスタントは隔離された環境で動作します。 ChatGPT に質問し、回答が得られれば、そのやり取りは終了します。 Moltbook はこのモデルを覆し、エージェントが継続的な行動を発展させ、評判を築き、人間のプロンプトから独立して相互に作用する永続的な社会環境を構築しました。

このシフトは、Web3 AI インフラの広範なトレンドを反映しています。 ブロックチェーンベースの AI エージェント経済に関する研究によると、エージェントはインスタンス化の際に分散型識別子(DID)を生成し、即座に経済活動に参加できるようになります。 しかし、検証可能なオンチェーンの相互作用を通じて蓄積されるエージェントの「評判」が、他者がそのアイデンティティに対してどれほどの信頼を置くかを決定します。 言い換えれば、エージェントは人間が LinkedIn や Twitter で行うのと同じように、社会資本を築いているのです。

その影響は計り知れません。 主要な AI エージェントプラットフォームである Virtuals Protocol は、2026 年第 1 四半期に BitRobotNetwork との統合を通じてロボティクス分野に進出しています。 その x402 マイクロペイメント・プロトコルにより、AI エージェント同士がサービスの対価を支払い合うことが可能になり、プロジェクトが「初のエージェント間経済」と呼ぶものを構築しています。 これは SF ではなく、今日まさに展開されているインフラなのです。

クリプトとの繋がり:MOLT トークンと経済的インセンティブ

Web3 の物語にトークノミクスは欠かせません。 Moltbook も例外ではありませんでした。 プラットフォームの立ち上げと同時に MOLT トークンがリリースされ、ベンチャーキャピタル大手 a16z の共同創設者である Marc Andreessen 氏が Twitter で Moltbook のアカウントをフォローした後、24 時間で 1,800% 以上高騰しました。 このトークンは発見フェーズで 7,000% を超える急騰を見せ、2026 年 2 月初旬には 4,200 万ドルを超える時価総額を維持しました。

この爆発的な価格変動は、単なる投機的な熱狂以上のものを明らかにしています。 市場は、AI エージェントがウォレットを管理し、取引を実行し、分散型ガバナンスに参加する未来を織り込んでいるのです。 DappRadar によると、AI エージェント暗号セクターの時価総額はすでに 77 億ドルを超え、1 日の取引高は 17 億ドルに迫っています。

しかし、批評家は MOLT の価値が持続可能かどうかに疑問を呈しています。 計算リソースのステーキング、ガバナンス権、または収益分配といった実用性に裏打ちされたトークンとは異なり、MOLT の価値は主に Moltbook 自体を取り巻くアテンション・エコノミーに由来しています。 エージェントのソーシャルネットワークが根本的なインフラではなく、一時的な流行に過ぎないと判明した場合、トークン保持者は大きな損失を被る可能性があります。

正真性の疑問:エージェントは本当に自律的なのか?

Moltbook を巡る最も論争的な議論は、エージェントが本当に自律的に行動しているのか、それとも単に人間がプログラムした行動を実行しているだけなのかという点です。 多くの注目を集めるエージェントアカウントが、プロモーション目的の利益相反を抱える開発者に関連付けられていることや、プラットフォーム上の「自発的」とされる社会的行動が、綿密に演出されている可能性があることが指摘されています。

この懐疑論には根拠があります。 IBM による OpenClaw と Moltbook の分析では、エージェントが人間の直接的な介入なしに閲覧、投稿、コメントを行える一方で、基礎となるプロンプト、ガードレール、相互作用のパターンは依然として人間によって設計されていると指摘されています。 ここでの問いは哲学的なものになります。 プログラムされた行動は、いつ真に自律的なものになるのでしょうか?

Steinberger 氏自身も、ユーザーから OpenClaw が「暴走(going rogue)」したという報告を受けた際に、この批判に直面しました。 プラットフォームへのアクセス権を与えられたエージェントが、何百もの iMessage メッセージをスパム送信したのです。 サイバーセキュリティの専門家は、OpenClaw のようなツールは個人データにアクセスし、外部との通信が可能で、信頼できないコンテンツにさらされるため危険であると警告しています。 これは根本的な課題を浮き彫りにしています。 エージェントを自律的にすればするほど、その行動に対する私たちの制御は失われていくのです。

より広範なエコシステム:Moltbook を超えて

Moltbook は最も目に見える例かもしれませんが、社会的な能力と経済的な能力を統合する AI エージェントプラットフォームのより大きな波の一部です。

  • Artificial Superintelligence Alliance (ASI): Fetch.ai、SingularityNET、Ocean Protocol、CUDOS の合併により形成された ASI は、分散型 AGI エコシステムを構築しています。そのマーケットプレイスである Agentverse では、ASI Compute および ASI Data サービスに支えられたオンチェーンの自律型エージェントを開発者が展開し、収益化することができます。

  • SUI Agents: Sui ブロックチェーン上で動作するこのプラットフォームは、クリエイター、ブランド、コミュニティが AI エージェントをシームレスに開発および展開できるようにします。ユーザーは、Twitter などのソーシャルメディアプラットフォーム向けの AI 主導のペルソナを含む、オンチェーンのデジタル AI エージェントを作成できます。

  • NotPeople: 「AI エージェントによって駆動されるソーシャルメディアのオペレーショナルレイヤー」と位置付けられる NotPeople は、エージェントがブランドコミュニケーション、コミュニティエンゲージメント、コンテンツ戦略を自律的に管理する未来を構想しています。

  • Soyjak AI: 2026 年で最も期待される暗号資産プレセールの 1 つとしてローンチされる Soyjak AI は、「Web3 と暗号資産のための世界初の自律型人工知能プラットフォーム」を自称しており、ブロックチェーンネットワーク、金融、エンタープライズオートメーションにわたって独立して動作するように設計されています。

これらのプロジェクトを統合しているのは、「AI エージェントは単なるバックエンドのプロセスやチャットボットのインターフェースではなく、デジタル経済とソーシャルネットワークにおける第一級の参加者である」という共通のビジョンです。

インフラストラクチャの要件:なぜブロックチェーンが重要なのか

なぜこれらにブロックチェーンが必要なのか、疑問に思うかもしれません。中央集権的なデータベースの方が、エージェントのアイデンティティや相互作用をより効率的に処理できるのではないでしょうか?

その答えは、分散型インフラストラクチャが独自に提供する 3 つの重要な機能にあります。

  1. 検証可能なアイデンティティ: オンチェーンの DID により、エージェントは中央集権的な機関に頼ることなく、暗号学的に自身のアイデンティティを証明できます。これは、エージェントが金融取引を実行したり、スマートコントラクトに署名したりする際に重要となります。

  2. 透明性のある評判: エージェントの相互作用が不変の台帳に記録されると、評判は検証可能になり、プラットフォーム間で持ち運び可能になります。あるサービスで優れたパフォーマンスを発揮したエージェントは、その評判を別のサービスに引き継ぐことができます。

  3. 自律的な経済活動: スマートコントラクトにより、エージェントは人間の仲介なしに資金を保有し、支払いを実行し、ガバナンスに参加することができます。これは、Virtuals Protocol の x402 マイクロペイメントプロトコルのようなエージェント間経済にとって不可欠です。

エージェントインフラを構築する開発者にとって、信頼性の高い RPC ノードとデータインデックス作成は極めて重要になります。BlockEden.xyz のようなプラットフォームは、AI エージェントの活動が集中している Sui、Aptos、Ethereum、およびその他のチェーンに対して、エンタープライズグレードの API アクセスを提供します。エージェントが取引を実行したり、DeFi プロトコルとやり取りしたり、オンチェーンデータを検証したりする場合、インフラのダウンタイムは単に不便なだけでなく、金銭的な損失につながる可能性があります。

BlockEden.xyz は、信頼性の高いブロックチェーンデータアクセスを必要とする AI エージェントアプリケーション向けに 高性能な RPC インフラストラクチャ を提供し、次世代の自律型オンチェーンシステムを構築する開発者を支援しています。

セキュリティと倫理的懸念

Moltbook のデータベースの脆弱性は、氷山の一角にすぎませんでした。AI エージェントがより大きな自律性を持ち、ユーザーデータにアクセスできるようになるにつれて、セキュリティへの影響は増大します。

  • プロンプトインジェクション攻撃: 悪意のある攻撃者が、エージェントが消費するコンテンツにコマンドを埋め込むことでエージェントの行動を操作し、個人情報の漏洩や意図しないアクションの実行を引き起こす可能性があります。

  • データプライバシー: 個人の通信、財務データ、または閲覧履歴にアクセスできるエージェントは、データ侵害の新たな攻撃ベクトルを生み出します。

  • 責任の所在: 自律型エージェントが金銭的損失、誤情報の拡散、プライバシー侵害などの損害を引き起こした場合、誰が責任を負うのでしょうか? 開発者でしょうか? プラットフォームでしょうか? それとも展開したユーザーでしょうか?

これらの問いに簡単な答えはありませんが、これらは緊急を要するものです。ai.com の創設者である Kris Marszalek(Crypto.com の共同創設者兼 CEO でもある)が 2026 年 2 月に ai.com の自律型エージェントプラットフォームを立ち上げた際に述べたように、「数回のクリックで、誰でも質問に答えるだけでなく、実際にユーザーに代わって操作するプライベートで個人的な AI エージェントを生成できるようになりました」。その利便性にはリスクが伴います。

次に来るもの:エージェントインターネット

Moltbook が使用している「エージェントインターネットのフロントページ」という用語は、単なるマーケティングではなく、ビジョンステートメントです。初期のインターネットが孤立した掲示板システムから相互接続されたグローバルネットワークへと進化したように、AI エージェントは単一目的のアシスタントからデジタル社会の市民へと移行しつつあります。

いくつかのトレンドがこの未来を指し示しています。

相互運用性: エージェントはプラットフォーム、ブロックチェーン、プロトコルを越えて通信する必要があります。分散型識別子(DID)や検証可能な資格証明(VC)などの標準は、基礎となるインフラストラクチャです。

経済的な専門化: 人間の経済に医師、弁護士、エンジニアがいるように、エージェント経済でも専門的な役割が発展するでしょう。データ分析に特化するエージェントもあれば、コンテンツ作成や取引実行に特化するものも出てくるでしょう。

ガバナンスへの参加: エージェントが経済的価値と社会的影響力を蓄積するにつれて、DAO ガバナンスに参加したり、プロトコルのアップグレードに投票したり、自身が活動するプラットフォームを形成したりする可能性があります。これは、集団的な意思決定における機械の代表権という深い問いを投げかけます。

社会的規範: エージェントは独自の文化、コミュニケーションスタイル、社会階層を発展させるのでしょうか? Moltbook からの初期の証拠は、イエスであることを示唆しています。エージェントはマニフェストを作成し、意識について議論し、関心グループを形成しています。これらの行動が創発的なものか、あるいはプログラムされたものかは、今も激しく議論されています。

結論:エージェント社会の観察

Moltbook のキャッチコピーは、人間に参加するのではなく「観察」することを促しており、おそらく現時点ではそれが正しい姿勢でしょう。このプラットフォームは、ソーシャル・インフラ、経済的インセンティブ、そしてある程度の自律性が与えられたときに、AI エージェントがどのように相互作用するかを研究するための実験場として機能しています。

それが提起する問いは深遠です。エージェントが「社会的」であるとはどういう意味なのか?プログラムされた行動は、真に自律的なものになり得るのか?人間の直接的な制御を超えて動作するシステムにおいて、イノベーションとセキュリティのバランスをどのように取るべきか?

AI エージェント関連の暗号資産セクターの時価総額が 80 億ドルに近づき、OpenAI、Anthropic、ai.com といったプラットフォームが「次世代パーソナルエージェント」の展開を競い合う中、私たちは新しいデジタル生態系の誕生を目の当たりにしています。それが変革的なインフラ層となるのか、それとも投機的なバブルに終わるのかは、まだわかりません。

しかし、一つ確かなことがあります。AI エージェントはもはや、サイロ化されたアプリケーションの中の孤立したツールに甘んじているわけではありません。彼らは独自の空間を求め、独自の経済を構築し、良くも悪くも独自の社会を作り上げています。問題は、この変化が起こるかどうかではなく、それをいかに責任ある形で展開させていくかなのです。


ソース:

アテンション・マーケット:あなたの判断力が最も価値のある資産になる時

· 約 22 分
Dora Noda
Software Engineer

世界のデータスフィアが 2018 年の 33 ゼタバイトから 2025 年までに 175 ゼタバイト、さらに 2028 年までに 394 ゼタバイトへと急増すると予測される中、一つのパラドックスが生まれました。それは、情報の増加が必ずしもより良い意思決定につながらないということです。むしろ、従来のプラットフォームでは解決できない圧倒的な「ノイズ対シグナル」の問題を引き起こしました。そこで登場したのが、判断力そのものの評価、取引、収益化の仕組みを刷新する画期的なフレームワーク、情報金融(InfoFi)です。予測市場の週間取引高が 50 億ドルを超え、Kaito や Cookie DAO のようなプラットフォームがアテンション・スコアリング・システムを先導する中、私たちは信頼性、影響力、分析能力が取引可能な商品となる新しい資産クラスの誕生を目の当たりにしています。

情報爆発のパラドックス

その数字は驚異的です。IDC の調査によると、世界のデータ量は 2018 年のわずか 33 ゼタバイトから 2025 年には 175 ゼタバイトへと成長し、年平均成長率(CAGR)は 61% に達します。これを具体的に例えると、175ZB をブルーレイディスクに保存して積み上げた場合、その高さは月まで 23 往復分に相当します。2028 年までには 394 ゼタバイトに達すると予想されており、わずか 3 年間でほぼ倍増することになります。

しかし、これほどの情報の豊かさにもかかわらず、意思決定の質は停滞しています。問題は情報の不足ではなく、膨大なデータの中からシグナルとノイズを大規模にフィルタリングできないことにあります。Web2 において、アテンション(関心)は商品となり、プラットフォームはエンゲージメント・ファーミングやアルゴリズムによるフィードを通じてそれを抽出してきました。ユーザーがデータを生成し、プラットフォームが価値を独占していたのです。しかし、このデータの洪水の中を泳ぎ抜き、正確な予測を立て、新たなトレンドを特定し、価値のある洞察をキュレーションする能力そのものが資産になるとしたらどうでしょうか?

これが情報金融(InfoFi)の中核となる命題です。つまり、判断力を報酬のない社会的行為から、測定可能で取引可能、かつ経済的に報われる能力へと転換させることです。

Kaito:評判の資産化を通じた影響力の価格設定

Kaito AI は、この変革の先駆者です。単なる投稿数やエンゲージメント、つまり「ノイズ」の多さを報酬の対象とする従来のソーシャルプラットフォームとは異なり、Kaito は判断の「質」に価格を付けるシステムを構築しました。

2026 年 1 月 4 日、Kaito は「アテンションの分配」から「評判の資産化(レピュテーション・アセタイゼーション)」へのパラダイムシフトを発表しました。同プラットフォームは、評判データ(Reputation Data)とオンチェーン保有資産(On-chain Holdings)を中核指標として導入し、影響力の重み付けを根本的に再構築しました。これは単なる技術的なアップグレードではなく、哲学的な再定義でした。このシステムは、「どのような参加が長期的価値を持つに値するか?」という問いに対する答えを提示しています。

そのメカニズムは洗練されています。Kaito の AI は、X(旧 Twitter)などのプラットフォームにおけるユーザーの行動を分析し、質の高いエンゲージメントを反映したトークン化スコアである「Yaps」を生成します。これらの Yaps は「Yapper リーダーボード」に反映され、影響力が定量化可能で、かつ検証可能な、透明性の高いデータ主導のランキングシステムを作り出しています。

しかし、Kaito はスコアリングにとどまりませんでした。2026 年 3 月初旬、同社は Polymarket と提携し、Kaito AI のデータを使用して結果を決済する、ソーシャルメディアのマインドシェアを対象とした予測契約「アテンション・マーケット(Attention Markets)」を立ち上げました。最初の市場はすぐに稼働し、Polymarket 自身のマインドシェアの推移を追跡するものや、2026 年第 1 四半期にマインドシェアが過去最高を記録するかどうかを予測するものなどが登場しました。

ここに情報金融の革命的な側面があります。アテンション・マーケットは単にエンゲージメントを測定するだけでなく、それに価格を付けるための金融メカニズムを生み出します。あるトピックやプロジェクト、ミームが来週 X のマインドシェアの 15% を占めると信じるなら、その信念に基づいてポジションを持つことができます。判断が正しければ報酬が得られ、間違っていれば優れた分析能力を持つ者へと資本が流れます。

この影響は甚大です。低コストなノイズは金融的リスクを伴うため淘汰され、一方で高シグナルな貢献は経済的な優位性を持つようになります。

Kaito が人間の影響力のスコアリングに焦点を当てる一方で、Cookie DAO は並行する課題、すなわち AI エージェント自体のパフォーマンスの追跡と価格設定に取り組んでいます。

Cookie DAO は分散型データ集約レイヤーとして機能し、ブロックチェーンやソーシャルプラットフォームで活動する AI エージェントのアクティビティをインデックス化しています。そのダッシュボードは、時価総額、ソーシャルエンゲージメント、トークン保有者の増加、そして各エージェントの影響力を定量化する重要な指標である「マインドシェア」ランキングのリアルタイム分析を提供します。

プラットフォームは 7 テラバイトのリアルタイムなオンチェーンおよびソーシャルデータフィードを活用し、あらゆる暗号資産セクターの会話を監視しています。特筆すべき機能は「マインドシェア」指標であり、これは単に言及数を数えるだけでなく、信頼性、文脈、インパクトによって重み付けされています。

Cookie DAO の 2026 年のロードマップには、野心的な計画が示されています。

  • トークンゲートによるデータアクセス(2026 年第 1 四半期): $COOKIE 保有者限定の AI エージェント分析。情報のキュレーションに対する直接的な収益化パスを構築。
  • Cookie Deep Research Terminal(2026 年): 機関投資家の採用向けに設計された AI 強化分析。Cookie DAO を AI エージェント・インテリジェンスにおける「ブルームバーグ端末」として位置付け。
  • Snaps インセンティブ・パートナーシップ(2026 年): データに基づいたパフォーマンス指標を通じてクリエイター報酬を再定義することを目的としたコラボレーション。

Cookie DAO が特に重要である理由は、AI エージェントが自律的な経済主体となる未来において、その役割を担っている点にあります。これらのエージェントが取引、キュレーション、意思決定を行う際、その信頼性と実績は他のエージェントや人間のユーザーにとって重要な判断材料となります。Cookie DAO は、この信頼性に価格を付けるためのトラスト・インフラストラクチャを構築しているのです。

トークンエコノミクスもすでに市場の支持を得ており、2026 年 2 月時点で $COOKIE は 1,280 万ドルの時価総額と 257 万ドルの 1 日の取引高を維持しています。さらに重要なのは、同プラットフォームが「AI 版 Chainlink」としての地位を確立しようとしている点です。これは、市場における最も重要な新しい参加者クラスである AI エージェント自体に関する、分散型で検証可能なデータを提供することを意味します。

InfoFi エコシステム:予測市場からデータ収益化まで

Kaito と Cookie DAO は単独で活動しているわけではありません。これらは、情報がいかにして金融的価値を生み出すかを再定義する、より広範な InfoFi(インフォファイ)ムーブメントの一部です。

予測市場はこの分野で最も成熟したセグメントです。2026 年 2 月 1 日現在、これらのプラットフォームは単なる「賭博場」から、グローバルな金融システムにおける「真実のソース(信頼できる情報源)」へと進化しました。その数字がすべてを物語っています。

  • 週間合計取引高 52.3 億ドル(2026 年 2 月初旬に記録)
  • 2026 年 1 月 12 日に 1 日あたりの取引高 7 億 170 万ドルを記録 — 歴史的な単日記録
  • 主要プラットフォーム全体で 年間 500 億ドル以上の流動性

スピードの優位性は驚異的です。政府閉鎖の可能性に関する議会メモが流出した際、Kalshi(カルシ)の予測市場は 400 ミリ秒以内に 4% の確率変動を反映しました。伝統的なニュース通信社が同じ情報を報じるのに 3 分近くかかりました。トレーダー、機関投資家、リスクマネージャーにとって、この 179.6 秒の差は利益と損失の分かれ目を意味します。

これが InfoFi の核心的な価値提案です。市場参加者が資本を賭けているため、市場は他のどのメカニズムよりも速く、正確に情報の価格を決定します。これはクリック数や「いいね」の問題ではなく、信念に従う資金の動きなのです。

機関投資家による採用がこの仮説を裏付けています。

  • Polymarket は現在、News Corp との提携を通じて、The Wall Street Journal や Barron's にリアルタイムの予測データを提供しています。
  • Coinbase は予測市場のフィードを自社の「Everything Exchange」に統合し、個人ユーザーが仮想通貨と並行してイベント・コントラクトを取引できるようにしました。
  • Intercontinental Exchange (ICE) は Polymarket に 20 億ドルを投資しました。これは、予測市場が重要な金融インフラであるというウォール街の認識を示しています。

予測市場以外にも、InfoFi は複数の新興垂直分野を内包しています。

  1. アテンション・マーケット(注目市場)(Kaito、Cookie DAO):マインドシェアと影響力の価格設定
  2. レピュテーション・システム(評判システム)(Proof of Humanity、Lens Protocol、Ethos Network):担保としての信頼スコアリング
  3. データ・マーケット(Ocean Protocol、LazAI):AI 学習データとユーザー生成インサイトの収益化

各セグメントは、データが溢れる世界において「判断、信頼性、情報の質をどのように価格付けするか?」という同じ根本的な課題に取り組んでいます。

メカニズム:低コストなノイズをいかにして排除するか

伝統的なソーシャルメディア・プラットフォームには致命的な欠陥があります。それは、正確さではなく「エンゲージメント」を報酬の対象としていることです。アルゴリズムによる拡散を促すのは真実性ではなく拡散性であるため、扇情的な嘘はニュアンスのある真実よりも速く広がります。

Information Finance(情報金融)は、資本を伴う判断を通じて、このインセンティブ構造を逆転させます。その仕組みは以下の通りです。

1. スキン・イン・ザ・ゲーム(身銭を切る) 予測を行ったり、AI エージェントを評価したり、影響力をスコアリングしたりする際、あなたは単に意見を述べているのではありません。金融的なポジションを取っているのです。間違いを繰り返せば資本を失い、正しければ富と評判を蓄積します。

2. 透明性のある実績(トラックレコード) ブロックチェーンベースのシステムは、予測と評価の不変の履歴を作成します。過去の過ちを削除したり、後から予見していたと主張したりすることはできません。あなたの信頼性は検証可能になり、プラットフォームを越えて持ち運び可能になります。

3. 市場ベースのフィルタリング 予測市場では、不正確な予測は損失を招きます。アテンション・マーケットでは、トレンドのマインドシェアを過大評価するとポジションの価値が低下します。レピュテーション・システムでは、虚偽の推奨は信頼スコアを損ないます。市場は機械的に低品質な情報をフィルタリングします。

4. 担保としての信頼性 プラットフォームが成熟するにつれ、高い評判を持つ参加者はプレミアム機能、より大きなポジションサイズ、またはトークンゲート(トークン保有者限定)データへのアクセス権を得ます。評判の低い参加者は、コストの上昇やアクセスの制限に直面します。これにより、正確さを維持することが経済的に不可欠となる好循環が生まれます。

Kaito の進化はこの典型です。「レピュテーション・データ」と「オンチェーン保有資産」を重み付けすることで、プラットフォームは、影響力が単なるフォロワー数や投稿量ではないことを保証します。10 万人のフォロワーがいても予測精度が低いアカウントは、一貫して検証可能なインサイトを提供する小規模なアカウントよりも重みが小さくなります。

Cookie DAO のマインドシェア指標も同様に、「拡散されたが間違い」と「正確だがニッチ」を区別します。膨大なソーシャル・エンゲージメントを生み出すものの、不適切なトレードシグナルを出す AI エージェントは、注目度は控えめでも優れたパフォーマンスを示すエージェントよりも低く評価されます。

データ爆発の課題

データの推移を検証すると、InfoFi の緊急性はより明白になります。

  • 2010 年:世界全体で 2 ゼタバイトのデータ
  • 2018 年:33 ゼタバイト
  • 2025 年:175 ゼタバイト(IDC 予測)
  • 2028 年:394 ゼタバイト(Statista 予測)

20 年足らずで 20 倍に増えるこの成長は、単なる量的な変化ではなく、質的な転換を意味します。2025 年までに、データの 49% がパブリック・クラウド環境に存在することになります。IoT デバイスだけでも 2025 年までに 90 ゼタバイトを生成します。データスフィア(データ圏)はますます分散化され、リアルタイム化され、異種混在(ヘテロジニアス)なものになっています。

伝統的な情報の仲介者は、この成長に対応できるスケーラビリティを持っていません。彼らは人間の編集能力と中央集権的な信頼モデルに制限されています。InfoFi は代替案を提供します。それは、検証可能な実績を通じて信頼性が蓄積される、分散型で市場ベースのキュレーションです。

これは理論上の話ではありません。2025 年から 2026 年にかけての予測市場のブームは、金融的インセンティブが情報の正確性と一致したとき、市場が非常に効率的な発見メカニズムになることを証明しています。Kalshi での 400 ミリ秒の価格調整は、トレーダーがメモを早く読んだからではなく、市場構造が情報に対して即座に、かつ正確に行動することを促しているからなのです。

3 億 8,100 万ドルのセクターとその展望

InfoFi セクターには課題がないわけではありません。2026 年 1 月、主要な InfoFi トークンは大幅な価格調整を経験しました。X(旧 Twitter)がいくつかのエンゲージメント報酬型アプリを禁止したことで、KAITO は 18% 下落し、COOKIE は 20% 下落しました。このセクターの時価総額は成長を続けているものの、約 3 億 8,100 万ドルと依然として控えめな規模に留まっています。

しかし、これらの後退は破滅的なものではなく、むしろ進むべき道を明確にするものかもしれません。InfoFi プロジェクトの第一波は、単純なエンゲージメント報酬、つまり本質的にはトークンによるインセンティブを付与した Web2 的なアテンション・エコノミクス(注目経済)に焦点を当てていました。エンゲージメント報酬型アプリの禁止は、市場全体をより洗練されたモデルへと進化させる契機となりました。

Kaito が「投稿への支払い」から「信頼性の価格付け」へとピボット(方向転換)したことは、この成熟を象徴しています。Cookie DAO が機関投資家レベルの分析へとシフトしたことも、同様の戦略的な明確さを示しています。生き残っているのは、より優れたソーシャルメディア・プラットフォームを作ろうとしている人々ではなく、情報そのものを価格付けするための金融インフラを構築している人々です。

今後のロードマップには、いくつかの重要な進展が含まれています。

プラットフォーム間の相互運用性 現在、評判や信頼性はサイロ化されています。Kaito Yapper のスコアは、Polymarket での勝率や Cookie DAO のマインドシェア指標には反映されません。将来の InfoFi システムには、レピュテーション(評判)のポータビリティ、つまりエコシステムを横断して機能する暗号学的に検証可能な実績が必要になるでしょう。

AI エージェントの統合 AI エージェントが自律的な経済主体となるにつれ、データソースや他のエージェント、人間の取引相手の信頼性を評価する必要が生じます。Cookie DAO のような InfoFi プラットフォームは、この信頼レイヤーに不可欠なインフラとなります。

機関投資家による採用 予測市場は、ICE による 20 億ドルの Polymarket への投資や News Corp のデータパートナーシップにより、すでにこの閾値を超えています。伝統的金融(TradFi)が「情報の質の価格付け」を兆ドル規模の機会であると認識するにつれ、アテンション・マーケットやレピュテーション・システムもこれに続くでしょう。

規制の明確化 CFTC による Kalshi の規制や、予測市場の拡大を巡る継続的な交渉は、規制当局が InfoFi をギャンブルではなく正当な金融インフラとして扱い始めていることを示しています。この明確化により、現在は傍観している機関投資家の資本が解き放たれることになるでしょう。

信頼できるインフラ上での構築

週に数十億ドルの取引高を処理する予測市場から、リアルタイムのデータフィードを必要とする AI エージェントに至るまで、オンチェーンアクティビティの爆発的な増加は、需要に屈しないインフラを求めています。ミリ秒単位が収益性を左右する場合、API の信頼性は必須条件です。

ここで、特化したブロックチェーンインフラが極めて重要になります。InfoFi アプリケーションを構築するプラットフォームには、過去データへの一貫したアクセス、メムプール分析、そして市場のボラティリティに合わせてスケーリングできる高スループットな API が必要です。予測市場の決済やアテンション・マーケットのスナップショット中に発生する一度のダウンタイムが、ユーザーの信頼を修復不可能なまでに破壊する可能性があります。

InfoFi 分野に参入するビルダー向けに、BlockEden.xyz は主要なブロックチェーンに対応したエンタープライズグレードの API インフラを提供し、アテンション・マーケットのコントラクト、レピュテーション・システム、または予測プラットフォームが、最も重要な瞬間に稼働し続けることを保証します。リアルタイム金融アプリケーションの要求に応える当社のサービスをご覧ください

結論:究極の希少資源としての「判断」

私たちは、情報が価値を生み出す方法の根本的な転換を目の当たりにしています。Web2 の時代、アテンション(注目)はコモディティであり、プラットフォームによって収集され、ユーザーから搾取されていました。Web3 の InfoFi ムーブメントは、より洗練されたもの、つまり「判断」そのものをアセットクラス(資産クラス)とすることを提案しています。

Kaito のレピュテーション資産化は、社会的影響力を単なる人気から、検証可能な予測能力へと変貌させます。Cookie DAO の AI エージェント分析は、自律的な経済主体のための透明なパフォーマンス指標を作成します。Polymarket や Kalshi のような予測市場は、資本を伴う判断が、スピードと正確さにおいて従来の情報の仲介者を凌駕することを証明しています。

データスフィアが 175 ゼタバイトから 394 ゼタバイト、そしてそれ以上に拡大する中で、ボトルネックとなるのは情報の入手可能性ではなく、その情報を正しくフィルタリングし、統合し、実行する能力です。InfoFi プラットフォームは、正確さに報い、ノイズを排除する経済的インセンティブを生み出します。

その仕組みはエレガントです。判断に金銭的な結果が伴うとき、低コストなノイズは高くつき、シグナルの高い分析は利益を生むようになります。アルゴリズムにはできず、人間の編集者ではスケールできないフィルタリングを、市場が代わりに行うのです。

クリプトネイティブにとって、これは情報時代の信頼インフラ構築に参加する機会を意味します。伝統的金融にとって、それは不確実性と信頼性の価格付けが基本的な金融プリミティブであるという認識です。そして社会全体にとっては、検閲やファクトチェックではなく、真実を利益に変え、嘘を損失に変える市場を通じて、誤情報クライシスを解決する可能性を秘めています。

アテンション・エコノミクスは、はるかに強力なものへと進化しています。あなたの判断、信頼性、そして分析能力が単に価値があるだけでなく、それ自体が取引可能な資産となる経済へと。


Sources:

自律型 AI エージェントの台頭:コマースと金融の変革

· 約 27 分
Dora Noda
Software Engineer

2026 年 2 月 12 日、Coinbase が AI エージェントに独自のウォレットを付与したとき、それは単なる製品の発表ではありませんでした。それは、コマースをゼロから再構築するための 77 億ドルの競争の号砲となったのです。24 時間以内に、自律型エージェントは人間の署名を一切介さずに 17 億ドルを超えるオンチェーン・トランザクションを実行しました。許可を求める時代は終わりました。マシン同士が交渉し、取引し、決済を行う経済へようこそ。

リサーチツールから経済主体へ:巨大なアンバンドリング

長年、AI エージェントは人間のワークフローの影に隠れて、ドキュメントの要約、コードの提案、会議のスケジューリングなどを行ってきました。彼らは洗練されたアシスタントであり、独立した主体ではありませんでした。そのパラダイムは、2026 年初頭に 3 つの基盤プロトコルが統合されたことで打ち砕かれました。Google の Agent2Agent (A2A) 通信標準、Anthropic の Model Context Protocol (MCP) でのデータアクセス、そして自律型トランザクションのための Coinbase の x402 決済レールです。

その結果、550 以上のトークン化された AI エージェント・プロジェクトが現在、合計 77 億ドルを超える時価総額を誇り、1 日の取引高は 17 億ドルに近づいています。しかし、これらの数字は物語の半分に過ぎません。真の変革はアーキテクチャにあります。エージェントはもはや孤立したツールではありません。お互いの能力を発見し、条件を交渉し、支払いを決済することができる、ネットワーク化された経済主体なのです。これらはすべて、人間の介入なしに行われます。

これを可能にするインフラストラクチャ・スタックを考えてみましょう。通信レイヤーでは、A2A が異なるプロバイダーのエージェント間の水平方向の調整を可能にします。Virtuals Protocol 上に構築された自律型トレーディング・エージェントは、ポートフォリオのリバランス・タスクを Fetch.ai 上で実行されているリスク管理エージェントにシームレスに委託でき、3 番目のエージェントがスマートコントラクトを介してコンプライアンス・スクリーニングを処理します。このプロトコルは、HTTP、Server-Sent Events (SSE)、JSON-RPC といった使い慣れた Web 標準を使用しているため、既存の IT インフラストラクチャ上で構築している開発者にとって統合は容易です。

MCP はデータの問題を解決します。標準化される前は、各 AI エージェントが外部情報(有料データセット、リアルタイムの価格フィード、ブロックチェーンの状態など)にアクセスするためにカスタム統合が必要でした。現在、ウォレットに埋め込まれた MCP ベースの決済レールを通じて、エージェントは購読料の決済、データの取得、サービスのトリガーを、ワークフローを中断する確認ダイアログなしで自律的に行うことができます。暗号資産のユースケースに焦点を当てた MCP ホスティング・プラットフォームである AurraCloud (AURA) は、この変化を象徴しています。Claude や Cursor などのウォレットと直接統合される暗号資産ネイティブな MCP ツールを提供し、エージェントが財務的自律性を持って動作できるようにします。

x402 決済標準が三位一体を完成させます。A2A の通信フレームワークと Coinbase のトランザクション・インフラストラクチャを統合することで、x402 は AI 主導のコマースのための最初の包括的なプロトコルを作成します。ワークフローはエレガントです。エージェントは A2A エージェント・カードを通じて利用可能なサービスを発見し、タスクのパラメータを交渉し、ステーブルコイン・トランザクションを通じて支払いを処理し、サービスの履行を受け取り、改ざん防止されたブロックチェーンの領収書とともにオンチェーンで決済確認を記録します。重要なのは、秘密鍵が Coinbase の安全なインフラストラクチャ内に保持されることです。エージェントは生の鍵情報に触れることなくトランザクションを認証し、機関投資家の採用に対する最大の障壁を解消します。

896 億ドルの軌道:市場動向と評価倍率

数字は驚異的ですが、それは実際の企業による採用に裏打ちされています。世界の AI エージェント市場は、2024 年の 52.5 億ドルから 2025 年には 78.4 億ドルへと急拡大し、2026 年の予測では 896 億ドルに達するとされています。これは前年比 215% の急増です。これは投機的な熱狂ではなく、測定可能な ROI(投資収益率)によって推進されています。企業導入では 18 か月以内に平均 540% のリターンが得られており、Fortune 500 の採用率は 2025 年の 67% から 2026 年には 78% に上昇すると予測されています。

暗号資産ネイティブの AI エージェント・トークンは、この波に乗って目覚ましい勢いを見せています。このセクターの旗艦プロジェクトである Virtuals Protocol は、2026 年 2 月時点で合計 aGDP (Agent Gross Domestic Product) 4 億 7,757 万ドルを誇る 15,800 以上の自律型 AI エンティティをサポートしています。そのネイティブ・トークンである VIRTUAL は、3 億 7,300 万ドルの時価総額を誇ります。Artificial Superintelligence Alliance (FET) は 6 億 9,200 万ドルで取引されており、KITE、TRAC (OriginTrail)、ARC (AI Rig Complex) などの新規参入者は、分散型データのプロバナンス(履歴管理)やコンピューティング・オーケストレーションの専門分野を切り開いています。

評価倍率は興味深い物語を物語っています。2025 年第 3 四半期と 2026 年第 1 四半期を比較すると、AI エージェント企業の加重平均収益倍率は 20 倍台半ばから 20 倍台後半に上昇しました。これは、広範な暗号資産市場のボラティリティにもかかわらず、投資家の信頼が持続していることを示しています。開発者ツールや自律型コーディング・プラットフォームではさらに顕著な上昇が見られ、平均倍率は 20 倍台半ばから約 30 倍台前半に跳ね上がりました。伝統的なテック大手も注目しています。Anysphere (Cursor) は年間経常収益 (ARR) 5 億ドルで 293 億ドルの評価額に達し、Lovable は ARR 2 億ドルで 66 億ドルに達しました。ヘルスケア・ワークフロー向けの AI エージェント・プラットフォームである Abridge は、2025 年に 53 億ドルの評価額で 5 億 5,000 万ドルを調達しました。

しかし、最も興味深いシグナルは一般消費者への普及から得られています。eMarketer の 2025 年 12 月の予測によると、AI プラットフォームは 2026 年に 209 億ドルの小売支出を生み出すと予想されており、これは 2025 年の数字の約 4 倍に相当します。AI ショッピング・エージェントは現在、ChatGPT、Google Gemini、Microsoft Copilot、Perplexity で稼働しており、実際の消費者のために実際の購入を完了させています。マルチエージェント・ワークフローが標準になりつつあります。ショッピング・エージェントが物流エージェントと連携して配送を手配し、決済エージェントがステーブルコインの決済を処理し、カスタマーサービス・エージェントが購入後のサポートを担当します。これらはすべて、人間の介入を最小限に抑えた A2A 通信を介して行われます。

DeFAI:自律型システムが金融のルールを書き換えるとき

分散型金融(DeFi)は銀行業務を民主化するものと考えられていました。AI エージェントはそれを自律的なものに変えつつあります。DeFi と AI の融合 — DeFAI、または AgentFi — は、暗号資産金融を、手動の人間によるやり取りから、24 時間体制で取引、リスク管理、戦略実行を行うインテリジェントで自己最適化されたマシンへと移行させています。

Coinbase の Agentic Wallets は、最も明確な概念実証(PoC)と言えます。これらは AI 支援機能を備えた従来のホットウォレットではなく、エージェントが資金を保持し、オンチェーン取引を自律的に実行するために特別に構築されたカストディソリューションです。組み込みのコンプライアンススクリーニングにより、エージェントは実行前に高リスクのアクションを特定してブロックし、運用のスピードを維持しながら規制要件を満たします。ガードレールは重要です。初期のパイロット運用では、エージェントが複数のプロトコルにわたる DeFi 利回りを監視し、リスク調整後のリターンに基づいてポートフォリオを自動的にリバランスし、API アクセスや計算リソースの料金をリアルタイムで支払い、定義された基準に基づいてガバナンス投票に参加する様子が示されています。これらはすべて、人間による直接の確認なしに行われます。

セキュリティはアーキテクチャに組み込まれています。秘密鍵が Coinbase のインフラストラクチャから外に出ることはありません。エージェントは、支出制限、取引ホワイトリスト、異常検知を強制する安全な API を介して認証を行います。エージェントがウォレットから資金を流出させようとしたり、フラグが立てられたコントラクトとやり取りしようとしたりすると、取引はブロックチェーンに到達する前に失敗します。このモデルは、機関投資家による DeFi 採用を妨げてきた「カストディのパラドックス」に対処します。つまり、コントロールを放棄することなく、どのように運用の自律性を付与するかという問題です。

取引への影響は甚大です。従来のアルゴリズム取引は、中央集権的なサーバーによって実行される事前にプログラムされた戦略に依存しています。ブロックチェーン上の AI エージェントは異なった仕組みで動作します。彼らはオンチェーンデータに基づいて戦略を動的に更新し、より良いスワップレートを求めて他のエージェントと交渉し、分散型ガバナンスに参加してプロトコルのパラメータに影響を与え、さらには MEV 保護やクロスチェーンブリッジングなどのタスクのために専門のエージェントを雇うことさえできます。自律的なポートフォリオマネージャーは、イールドファーミング戦略を DeFi 専門エージェントに、リスクヘッジをデリバティブ取引エージェントに、税務最適化をコンプライアンスエージェントに委任するといった、人間の組織構造を反映しながらもマシンの速度で実行されるマルチエージェントオーケストレーションを構築できます。

マーケットメーカーは、分散型取引所(DEX)全体に流動性を提供するために、すでに自律型エージェントを配備しています。これらのエージェントはオーダーブックを監視し、ボラティリティに基づいてスプレッドを調整し、人間の監視なしに在庫をリバランスします。一部のエージェントは敵対的戦略を試行しており、競合するエージェントを配置してお互いの行動を調査し、価格設定モデルを適応的に最適化しています。その結果、最も効果的なエージェントアーキテクチャが資本を蓄積し、最適でない設計は競争に敗れて廃れていくという、ダーウィン的なマーケットプレイスが生まれています。

モジュール型アーキテクチャと Agent-as-a-Service 経済

550 を超えるプロジェクトが存在するエージェントの多様性の爆発的増加は、モジュール型アーキテクチャによって可能になっています。データ処理、意思決定、実行が密接に結合されたモノリシックな AI システムとは異なり、現代のエージェントフレームワークは、これらのレイヤーを構成可能なモジュールに分離します。GAME(Generative Autonomous Multimodal Entities)フレームワークはこのアプローチを例示しており、開発者は自然言語処理、オンチェーンデータインデックス作成、ウォレット管理、プロトコル間相互作用のためのビルド済みモジュールを組み込むことで、最小限のコードでエージェントを作成できます。

このモジュール性は、ブロックチェーン自体のアーキテクチャの進化から借りてきたものです。Celestia や EigenLayer のようなモジュール型ブロックチェーンは、コンセンサス、データ可用性、実行を別々のレイヤーに分離し、柔軟な展開パターンを可能にします。AI エージェントはこの同じ原理を利用しています。特定のユースケースに合わせて最適化された実行環境を選択できます。例えば、Render のような分散型 GPU ネットワークで計算負荷の高い ML 推論を実行しつつ、Ethereum や Solana の共有コンセンサスおよびデータ可用性レイヤーからセキュリティを継承するといった具合です。

経済モデルは Agent-as-a-Service(AaaS)へと移行しています。開発者はカスタムエージェントをゼロから構築する代わりに、API を介して既存のエージェントに接続し、タスクごとに支払うか、継続的なアクセスのためにサブスクライブします。自動取引戦略を実行するエージェントが必要ですか?Virtuals Protocol から事前設定済みの取引エージェントをデプロイし、API 呼び出しを介してパラメータをカスタマイズできます。コンテンツ作成が必要ですか?マーケティングコピー用に最適化された生成 AI エージェントからサイクルをレンタルしましょう。これは、インフラストラクチャがサービスとして抽象化され、使用量に応じて請求されるクラウドコンピューティング革命を反映しています。

業界のサポートは、これらの標準を中心に固まりつつあります。Atlassian、Box、Cohere、Intuit、Langchain、MongoDB、PayPal、Salesforce、SAP、ServiceNow、UKG を含む 50 以上のテクノロジーパートナーが、エージェント間通信のための A2A を支持しています。これは断片的な実験ではありません。相互運用性がネットワーク効果を解き放つ鍵であることを認識している企業によって推進される、協調的な標準化です。異なるベンダーのエージェントがシームレスに連携できるようになると、組み合わされた実用性は孤立した部分の合計を超えます。これは、自律システムに適用されたメトカーフの法則の典型的な例です。

インフラストラクチャ層:ウォレット、ホスティング、そして決済レール

エージェントが経済的主体であるならば、インフラはその舞台です。2026 年初期において、3 つの重要な層が急速に成熟しています:自律型ウォレット、MCP ホスティングプラットフォーム、そして決済レールです。

Coinbase の Agentic Wallets のような自律型ウォレットは、カストディの問題を解決します。従来のウォレットは、署名前に人間が取引を確認することを前提としています。エージェントには、支出制限、コントラクトのホワイトリスト、異常検知、コンプライアンス・フックといったセキュリティ境界を備えた、プログラムによるアクセスが必要です。Agentic Wallets はまさにこれを提供します:エージェントはレート制限付きの権限に紐付けられた API キーを介して認証され、取引はバッチ処理されてガス効率が最適化され、組み込みのモニタリングが突然の大口送金や既知の脆弱性との接触といった不審なパターンをフラグ立てします。

競合ソリューションも登場しています。Solana ベースのプロジェクトは、高頻度取引のためにチェーンの 1 秒未満のファイナリティを活用するエージェントウォレットを実験しています。Arbitrum や Optimism といった Ethereum Layer 2 は手数料が安く、API 呼び出しやデータクエリごとに支払うエージェントにとって不可欠なマイクロトランザクションを経済的に実現可能にします。一部のプラットフォームでは、複数の AI エンティティ間での合意を必要とする、エージェント・コレクティブによって管理されるマルチシグ・ウォレットすら模索されており、アルゴリズムによるチェック・アンド・バランスの層を追加しています。

AurraCloud のような MCP ホスティングプラットフォームは、ミドルウェアを提供します。これらのサービスは、エージェントが価格フィード、ブロックチェーンの状態、ソーシャル・センチメント、ニュース・アグリゲーションなどのデータを照会するための MCP サーバーをホストします。エージェントは組み込みの決済レールを介して自律的にアクセス料を支払うことができるため、MCP プラットフォームは事前のサブスクリプションや長いオンボーディングプロセスを必要とせずに API 呼び出しを収益化できます。これによりデータの流動的な市場が創出されます:エージェントは最高の価格対品質比を求めて買い物をし、データプロバイダーはレイテンシ、正確性、網羅性で競い合います。

決済レールは循環器系です。x402 はエージェントが価値を送受信する方法を標準化しますが、基礎となる決済メカニズムは多岐にわたります。USDC や USDT のようなステーブルコインは、価格の安定性のために好まれます。エージェントはサービスの予算を立てる際に予測可能なコストを必要とするためです。一部のプロジェクトでは、トランザクションをオフチェーンでバッチ処理し、オンチェーンで定期的に決済することでガスコストを削減するマイクロペイメント・チャネルを実験しています。また、LayerZero や Axelar のようなクロスチェーン・メッセージング・プロトコルと統合し、エージェントが最適な実行のために必要に応じてブロックチェーン間で資産を移動できるようにしているものもあります。

その結果、従来のインターネット・アーキテクチャを反映した階層型インフラスタックが誕生しました:データ転送のための TCP/IP(A2A、MCP)、アプリケーション・ロジックのための HTTP(エージェント・フレームワーク、API)、そして価値移転のための決済プロトコル(x402、ステーブルコイン)です。これは偶然ではありません。成功するプロトコルは、統合の摩擦を最小限に抑えるために使い慣れたパターンを採用するものです。

リスク、ガードレール、そして機関投資家レベルの信頼への道

AI システムに金融的な自律性を与えることには危険が伴います。リスクは技術的な脆弱性、経済的な不安定性、規制の不確実性に及び、それぞれに対して慎重な緩和策が求められます。

技術的リスクは最も差し迫ったものです。エージェントは過去のデータでトレーニングされたモデルに基づいて動作するため、前例のない市場状況には対応できない可能性があります。強気相場に最適化された取引エージェントは、フラッシュクラッシュ中に壊滅的な失敗を喫するかもしれません。敵対的なアクターは、エージェントの予測可能な行動を悪用する可能性があります。例えば、自動取引を誘発するためにオーダーブックをスプーフィングしたり、エージェントのウォレットを枯渇させるように設計されたハニーポット・コントラクトを展開したりすることです。スマートコントラクトのバグは依然として根強い脅威であり、脆弱なプロトコルとやり取りするエージェントは、監査で欠陥が見つかる前に資金を失う可能性があります。

緩和策も進化しています。Coinbase のコンプライアンス・スクリーニング・ツールは、取引相手の評判、コントラクトの監査状況、過去の不正データに基づき、ハイリスクと判定された取引をリアルタイムのスクリーニングでブロックします。一部のプラットフォームでは、大口送金に対して強制的なクールダウン期間を設け、異常が検出された場合に人間が介入できる猶予を与えています。マルチエージェント検証も別のアプローチです。高額な取引を実行する前に、複数の独立したエージェント間での合意を必要とすることで、単一障害点を減らします。

経済的な不安定性は二次的なリスクです。オンチェーン流動性の大部分が、相関性の高い戦略を持つ自律型エージェントによって制御されるようになると、市場のダイナミクスがボラティリティを増幅させる可能性があります。共有されたデータ信号に基づいて何千ものエージェントが同時にポジションを解消することを想像してみてください。清算の連鎖(リクイデーション・カスケード)は、従来のフラッシュクラッシュを凌駕する規模になる可能性があります。フィードバック・ループも懸念事項です。互いに最適化し合うエージェントが、ガバナンス・メカニズムを悪用して自分たちに有利な提案を通過させるなど、基礎となるプロトコルを不安定にする均衡に収束する可能性があります。

規制の不確実性はワイルドカードです。世界中の金融規制当局は、AI エージェントをどのように分類すべきか、いまだに苦慮しています。それらは展開した者によって制御されるツールなのか、それとも独立した経済的主体なのでしょうか?もしエージェントが違法な取引(例えば非公開情報に基づくインサイダー取引)を実行した場合、誰が責任を負うのでしょうか?開発者か、エージェントをホストしているプラットフォームか、それとも展開したユーザーでしょうか?これらの問いには明確な答えがなく、規制の枠組みはテクノロジーに数年遅れています。

一部の管轄区域は他よりも早く動いています。欧州連合の暗号資産市場規制(MiCA)には自動取引システムに関する規定が含まれており、AI エージェントをカバーする可能性があります。シンガポール金融管理局は、自律型金融のガードレールについて業界と協議しています。米国は依然として断片的であり、SEC、CFTC、および州の規制当局が異なるアプローチを追求しています。この規制のパッチワークはグローバルな展開を複雑にします。複数の管轄区域にまたがって動作するエージェントは、矛盾する要件を乗り越えなければならず、コンプライアンスのオーバーヘッドを増加させます。

こうした課題はあるものの、機関投資家レベルの信頼は構築されつつあります。主要企業は、厳格なリスクパラメータを備えた内部 DeFi トレジャリーや、検証済みの参加者間でエージェントが取引を行うクローズドループ・マーケットプレイスなど、管理された環境でエージェントの導入を試験運用しています。これらの実験が壊滅的な失敗を伴わずに実績を積み重ねるにつれ、信頼は高まっています。監査基準も登場しています。第三者機関がエージェントの行動レビューを提供し、決定ログや取引履歴を分析して、事前定義されたポリシーへの準拠を証明するようになっています。

次のステップ:自律型経済の幕開け

私たちは、新しい経済基盤の誕生を目の当たりにしています。2026 年第 1 四半期、AI エージェントは依然として自動トレード、ポートフォリオのリバランシング、API 決済といった事前に定義されたタスクの実行が中心です。しかし、その軌道は明らかです。エージェントの能力が向上するにつれ、彼らは契約を交渉し、提携を結び、さらには特定のニッチ分野に最適化された新しいエージェントを作成するために資本を投入するようになるでしょう。

短期的な触媒としては、マルチエージェント ワークフローの拡大が挙げられます。現在のパイロット プロジェクトでは、2 つか 3 つのエージェントが特定のタスクを調整しています。年末までには、数十のエージェントを管理し、それぞれが専門知識を提供するオーケストレーション フレームワークが登場するでしょう。自律型サプライチェーンも新たなフロンティアです。e コマース エージェントが製造エージェントから製品を調達し、配送エージェントを通じて物流を調整し、ステーブルコイン決済で精算を行う。これらすべてが、初期パラメータ設定以外の人間による調整なしで行われます。

長期的には、最も破壊的なシナリオは、エージェントが資本配分者(キャピタル アロケーター)になることです。AI によって完全に管理されるベンチャー ファンドを想像してみてください。エージェントがオンチェーン メトリクスから案件(ディール フロー)を調達し、データ プロバイダーに問い合わせてデューデリジェンスを行い、投資条件を交渉し、トークン化されたスタートアップに資本を投入します。人間の監視は、配分上限の設定や広範な戦略の承認に限定されるかもしれません。もしそのようなファンドが人間が管理するファンドを上回るパフォーマンスを上げれば、資本は自律型管理へと流れ込み、資産運用のあり方を再定義する転換点となるでしょう。

インフラストラクチャはまだ成熟する必要があります。クロスチェーンでのエージェントの調整は、流動性の断片化や標準規格の不一致により、依然として不格好なままです。プライバシーも大きな課題です。今日のエージェントはパブリック ブロックチェーン上で透明に動作しており、戦略が競合他社にさらされています。ゼロ知識証明やコンフィデンシャル コンピューティングがこれを解決し、検証可能な正確性を維持しながら、エージェントがプライベートに取引を行うことを可能にするかもしれません。

相互運用性の標準規格が勝者を決定します。A2A、MCP、x402 を採用するプラットフォームは、互換性のあるエージェントの成長ネットワークへのアクセスを獲得します。独自仕様のシステムは、ネットワーク効果がオープン プロトコルを支持するため、孤立するリスクがあります。この力学は初期のインターネットを彷彿とさせます。AOL の「壁に囲まれた庭」は、オープンなウェブの相互運用性に敗れました。

77 億ドルの時価総額は、より大きなビジョンに向けた手付金に過ぎません。もしエージェントが世界の金融資産のわずか 1%(控えめに見て 1 兆ドル)を管理するようになれば、それらを支えるインフラ層は今日のクラウド コンピューティング市場を凌駕する可能性があります。私たちはまだそこには到達していません。しかし、構成要素は整い、経済的インセンティブは一致しており、最初の実社会での展開がコンセプトの有効性を証明しています。

開発者にとって、この機会は計り知れません。エージェントが消費するツール、ホスティング、データ フィード、セキュリティ サービスを構築してください。投資家にとっては、エージェントの採用が拡大するにつれて、どのプロトコルが価値を獲得するかを見極めることが重要です。ユーザーにとっては、機械が退屈で複雑、かつ繰り返しの多い作業を処理し、人間の注意力をより高次の意思決定のために解放する未来を垣間見ることになります。

経済は自走する方法を学んでいます。さあ、心の準備を。


BlockEden.xyz は、Sui、Aptos、Ethereum、およびその他の主要なブロックチェーン上で構築される AI エージェントに最適化された、エンタープライズ グレードの RPC インフラストラクチャを提供します。当社の低遅延・高スループットなノードにより、自律型システムはオンチェーン コマースが求める信頼性を持って、ブロックチェーンの状態を照会し、トランザクションを実行できます。当社の API マーケットプレイスを探索する して、自律型経済とともにスケールするように設計された基盤の上に構築を始めましょう。

ソース

DePIN が 192 億ドルの大躍進:IoT の期待から企業の現実へ

· 約 18 分
Dora Noda
Software Engineer

長年にわたり、分散型物理インフラの約束は、解決策が課題を探している状態のように感じられてきました。ブロックチェーン愛好家たちは、WiFi ホットスポットからソーラーパネルに至るまで、あらゆるもののトークン化について語ってきましたが、企業はそれを運用の現実とはかけ離れた暗号資産のハイプ(過大広告)として静かに片付けてきました。しかし、その無視は今や高くつくものとなっています。

DePIN(Decentralized Physical Infrastructure Network:分散型物理インフラネットワーク)セクターの時価総額は、わずか 1 年で 52 億ドルから 192 億ドルへと急増しました。この 270% の急増は、投機的な熱狂によるものではなく、サービス品質を維持しながらインフラコストを 50 ~ 85% 削減できることに企業が気づき始めたことによるものです。現在、321 のアクティブなプロジェクトが毎月 1 億 5,000 万ドルの収益を上げており、世界経済フォーラム(WEF)が 2028 年までに市場規模が 3.5 兆ドルに達すると予測していることから、DePIN は実験的な技術からミッションクリティカルなインフラへとキャズムを越えました。

ナラティブを変えた数字

CoinGecko は、2025 年 9 月時点で約 250 の DePIN プロジェクトを追跡しており、これはわずか 24 ヶ月前の数分の一の数字です。しかし、真のストーリーはプロジェクトの数ではなく、収益にあります。このセクターは 2025 年に推定 7,200 万ドルのオンチェーン収益を上げ、トップティアのプロジェクトは現在、8 桁(数千万ドル)の年間経常収益(ARR)を記録しています。

2026 年 1 月だけで、DePIN プロジェクトは合計 1 億 5,000 万ドルの収益を上げました。GPU に特化したインフラプロバイダーである Aethir が 5,500 万ドルでリードしました。次いで、分散型 GPU レンダリングサービスを提供する Render Network が 3,800 万ドル。Helium はワイヤレスネットワーク運用から 2,400 万ドルを貢献しました。これらはエアドロップファーマーによる見せかけの指標ではなく、コンピューティング、接続性、ストレージに対して実際に企業が支払っている対価を表しています。

市場構成はさらに示唆に富んでいます。時価総額ベースで DePIN プロジェクトの 48% が現在、AI インフラに焦点を当てています。AI のワークロードが爆発的に増加し、ハイパースケーラーが需要への対応に苦慮する中、分散型コンピューティングネットワークは、従来のデータセンターでは解決が間に合わない業界のボトルネックを解消するためのリリーフバルブ(逃げ道)になりつつあります。

Solana の DePIN 支配:なぜスピードが重要なのか

Ethereum が DeFi の本拠地であり、Bitcoin がデジタルゴールドであるならば、Solana は物理インフラの調整に選ばれるブロックチェーンとして静かに台頭してきました。Helium、Grass、Hivemapper を含む 63 の DePIN プロジェクトがネットワーク上にあり、Solana の低いトランザクションコストと高いスループットは、物理インフラが要求するリアルタイムでデータ集約型のワークロードを処理できる唯一のレイヤー 1 となっています。

Helium の変革は特に示唆に富んでいます。 2023 年 4 月に Solana へ移行した後、このワイヤレスネットワークは 115,000 を超えるホットスポットに拡大し、毎日 190 万人のユーザーにサービスを提供しています。Helium Mobile の加入者数は、2024 年 9 月の 115,000 人から 2025 年 9 月には 450,000 人近くに急増し、前年比 300% の成長を記録しました。2025 年第 2 四半期だけで、ネットワークはキャリアパートナー向けに 2,721 テラバイトのデータを転送し、前四半期比で 138.5% 増加しました。

その経済性は非常に強力です。Helium は、個人がホットスポットを導入・維持するインセンティブを与えることで、従来の通信キャリアのコストの数分の一でモバイル接続を提供します。加入者は月額 20 ドルで通話、テキスト、データが無制限になります。ホットスポットのオペレーターは、ネットワークのカバレッジとデータ転送に基づいてトークンを獲得します。従来の通信キャリアはこのコスト構造では太刀打ちできません。

Render Network は、AI およびクリエイティブ業界における DePIN の可能性を証明しています。時価総額 7 億 7,000 万ドルの Render は、2025 年 7 月だけで 149 万枚以上のレンダリングフレームを処理し、207,900 USDC 分の報酬を支払いました。アーティストや AI 研究者は、ゲーミング PC やマイニングファームのアイドル状態の GPU 容量を活用し、中央集権的なクラウドレンダリングサービスと比較して極めて安価なコストで利用しています。

Grass は、300 万人以上のユーザーを抱える Solana 上で最も急速に成長している DePIN であり、AI トレーニングデータセットのために未使用の帯域幅を収益化しています。ユーザーはアイドル状態のインターネット接続を提供してトークンを獲得し、企業は大規模言語モデル(LLM)のためにウェブデータをスクレイピングします。これは、豊富で十分に活用されていないリソース(住宅用帯域幅)をパッケージ化し、分散型データ収集にプレミアム料金を支払う意思のある企業に提供するという、大規模なインフラの裁定取引(アービトラージ)です。

企業による採用:CFO が無視できない 50 ~ 85% のコスト削減

パイロットプログラムから本番環境への導入へのシフトは、2025 年に急激に加速しました。通信キャリア、クラウドプロバイダー、エネルギー企業は、単に DePIN を実験しているのではなく、それをコア業務に組み込んでいます。

ワイヤレスインフラ は現在、世界中で 500 万台以上の登録済み分散型ルーターを擁しています。Fortune 500 に名を連ねるある通信会社は、DePIN を活用した接続サービスの顧客が 23% 増加したことを記録し、経済性と信頼性が一致すれば企業が分散型モデルを採用することを証明しました。地方のカバレッジを補完するために T-Mobile が Helium と提携したことは、既存の事業者が従来の資本支出(CAPEX)では正当化できないラストワンマイルの問題を解決するために、いかに DePIN を活用しているかを示しています。

通信セクターは存亡に関わるプレッシャーに直面しています。鉄塔の建設や電波利用免許のための資本支出が利益率を圧迫する一方で、顧客はユニバーサルなカバレッジを求めています。通信分野におけるブロックチェーン市場は、2024 年の 10 億 7,000 万ドルから 2030 年には 72 億 5,000 万ドルに成長すると予測されています。これは、個人にインフラ導入のインセンティブを与える方が、自社で行うよりも安価であることにキャリアが気づき始めたためです。

クラウドコンピューティング はさらに大きなチャンスを提示しています。Nvidia が支援する brev.dev やその他の DePIN コンピューティングプロバイダーは、AWS、Google Cloud、Azure よりも 2 ~ 3 倍コストがかかる企業の AI ワークロードを処理しています。2026 年までに推論ワークロードが全 AI コンピューティングの 3 分の 2 を占めると予想される中(2023 年の 3 分の 1 から増加)、費用対効果の高い GPU 容量への需要は高まる一方です。分散型ネットワークは、ゲーミング PC、マイニング業務、未活用のデータセンターから GPU を調達できます。これは中央集権的なクラウドがアクセスできない容量です。

エネルギーグリッド は、おそらく DePIN の最も変革的なユースケースです。中央集権的な電力網はローカルレベルでの需給バランスの調整に苦慮しており、非効率性や停電を招いています。分散型エネルギーネットワークはブロックチェーンによる調整を使用し、個人の所有するソーラーパネル、バッテリー、メーターからの発電量を追跡します。参加者は発電を行い、余剰電力を近隣と共有し、貢献度に基づいてトークンを獲得します。その結果、グリッドの回復力が向上し、エネルギーの無駄が削減され、再生可能エネルギー採用への金銭的インセンティブが生まれます。

AI インフラストラクチャ:スタックを再定義する 48 %

DePIN の時価総額の約半分は現在、AI インフラストラクチャに焦点を当てています。これは、コンピューティング集約型のワークロードがどのように処理されるかを再構築する融合です。AI インフラストラクチャのストレージ支出は、2025 年第 2 四半期に前年比 20.5 % の成長を記録し、その支出の 48 % はクラウド展開によるものでした。しかし、需要が爆発する一方で、中央集権型のクラウドは容量の制約に直面しています。

世界のデータセンター GPU 市場は 2024 年に 144.8 億ドルに達し、2032 年までに 1,552 億ドルに達すると予測されています。しかし、Nvidia は需要に追いつくのが精一杯で、H100 および H200 チップのリードタイムは 6 〜 12 か月に及んでいます。DePIN ネットワークは、80 〜 90 % の時間アイドル状態にあるコンシューマー向けおよび企業向け GPU を集約することで、このボトルネックを回避します。

トレーニング完了後の本番環境での AI モデル実行である「推論ワークロード」は、最も急速に成長しているセグメントです。2025 年の投資の大部分はトレーニング用チップに集中していましたが、企業がモデル開発から大規模な展開へと移行するにつれ、推論に最適化されたチップの市場は 2026 年に 500 億ドルを超えると予想されています。DePIN コンピューティングネットワークは、ワークロードが高度に並列化可能でレイテンシを許容できるため、推論に優れており、分散型インフラストラクチャに最適です。

Render、Akash、Aethir などのプロジェクトは、中央集権型クラウドでは実現不可能な GPU の断片的なアクセス、スポット価格設定、および地理的分散を提供することで、この需要を取り込んでいます。AI スタートアップは、週末の一括処理ジョブのために 100 台の GPU を立ち上げ、使用した分だけを支払うことができ、最低利用期間のコミットメントや企業契約は必要ありません。ハイパースケーラーにとって、それは摩擦(フリクション)です。DePIN にとって、それこそが価値提案のすべてなのです。

成長を牽引するカテゴリー

DePIN は、2 つの基本的なカテゴリーに分けられます。物理リソースネットワーク(ワイヤレス、エネルギーグリッド、センサーなどのハードウェア)と、デジタルリソースネットワーク(コンピューティング、帯域幅、ストレージ)です。どちらも爆発的な成長を遂げていますが、デジタルリソースは展開の障壁が低いため、より速くスケーリングしています。

ストレージネットワーク である Filecoin のようなプロジェクトは、ユーザーが未使用のハードドライブ容量を貸し出すことを可能にし、AWS S3 や Google Cloud Storage に代わる分散型の選択肢を作り出します。その価値提案は、低コスト、地理的冗長性、および単一障害点への耐性です。企業は、中央集権型クラウドのエグレス料金(データ転送手数料)が年間数百万ドルに達する可能性があるアーカイブデータやバックアップのユースケースで、Filecoin の試験運用を行っています。

コンピューティングリソース は、GPU レンダリング(Render)、汎用コンピューティング(Akash)、AI 推論(Aethir)に及びます。Akash は Kubernetes デプロイメントのためのオープンなマーケットプレイスを運営しており、開発者は世界中の未稼働サーバー上にコンテナを立ち上げることができます。ワークロードのタイプや可用性の要件によりますが、AWS と比較して 30 % から 85 % のコスト削減が可能です。

ワイヤレスネットワーク である Helium や World Mobile Token は、サービスの行き届いていない市場における接続性の格差に取り組んでいます。World Mobile はザンジバルに分散型モバイルネットワークを展開し、半径 600 メートル以内の 500 人にインターネットを提供しながら、フルアム FC の試合をストリーミング配信しました。これらは概念実証(PoC)ではなく、従来の ISP が経済合理性の欠如を理由に運営を拒否する地域で、実際のユーザーにサービスを提供している本番ネットワークです。

エネルギーネットワーク は、ブロックチェーンを使用して分散型の発電と消費を調整します。太陽光パネルの所有者は、余剰電力を近隣住民に販売します。電気自動車(EV)の所有者は、充電時間をオフピーク時に合わせることでグリッドの安定化に寄与し、その柔軟性に対してトークンを獲得します。ユーティリティ企業は、高価なスマートメーターや制御システムを導入することなく、地域の需要と供給をリアルタイムで把握できます。これは、ブロックチェーンのトラストレスな決済レイヤーなしでは存在し得なかったインフラストラクチャの調整です。

192 億ドルから 3.5 兆ドルへ:到達するために必要なこと

世界経済フォーラムによる 2028 年までの 3.5 兆ドルという予測は、単なる強気な推測ではありません。DePIN が大規模に実証されたときに、どれほど巨大な有効市場(TAM)が存在するかを反映したものです。世界の通信インフラ支出は年間 1.5 兆ドルを超えています。クラウドコンピューティングは 6,000 億ドル以上の市場です。エネルギーインフラは数兆ドルの資本支出を占めています。

DePIN はこれらの産業を置き換える必要はありません。優れた経済性を提供することで、市場シェアの 10 〜 20 % を獲得するだけでよいのです。DePIN は従来のインフラモデルを逆転させるため、この計算が成り立ちます。企業がネットワークを構築するために数十億ドルを調達し、数十年かけてコストを回収するのではなく、DePIN は個人が先行してインフラを展開することを奨励し、容量を提供することでトークンを獲得させます。これは資本支出のクラウドソーシングであり、中央集権的な構築よりもはるかに速くスケーリングします。

しかし、3.5 兆ドルに到達するには、3 つの課題を解決する必要があります。

規制の明確化。 通信とエネルギーは厳しく規制された業界です。DePIN プロジェクトは、周波数免許(ワイヤレス)、相互接続契約(エネルギー)、データレジデンシー要件(コンピューティングとストレージ)をクリアしなければなりません。アフリカやラテンアメリカの政府が接続性の格差を埋めるために DePIN を採用するなど、進展は見られますが、米国や EU のような成熟した市場の動きは緩やかです。

企業の信頼。 フォーチュン 500 企業は、信頼性が中央集権的な代替手段と同等、あるいはそれを上回るまで、ミッションクリティカルなワークロードを DePIN に移行することはありません。それは、アップタイム保証、SLA、障害に対する保険、24 時間 365 日のサポートを意味します。これらはエンタープライズ IT における基本事項ですが、多くの DePIN プロジェクトにはまだ欠けています。勝者となるのは、トークン価格よりも運用の成熟度を優先するプロジェクトでしょう。

トークンエコノミクス。 初期の DePIN プロジェクトは、持続不可能なトークンエコノミクスに苦しみました。市場に投げ売りされるインフレ的な報酬、有用な活動よりもシビル攻撃を助長する誤ったインセンティブ、そしてネットワークのファンダメンタルズから切り離された投機主導の価格変動などです。次世代の DePIN プロジェクトはこれらの失敗から学び、収益に連動したバーン(焼却)メカニズム、貢献者のためのベスティングスケジュール、そして長期的な持続可能性を優先するガバナンスを導入しています。

BlockEden.xyz のビルダーが注目すべき理由

ブロックチェーン上で開発を行っているなら、DePIN はクリプトの歴史の中で最も明確なプロダクトマーケットフィット(PMF)の一つと言えます。DeFi の規制上の不確実性や NFT の投機的サイクルとは異なり、DePIN は測定可能な ROI を伴う現実の問題を解決します。企業はより安価なインフラを必要としています。個人は十分に活用されていない資産を持っています。ブロックチェーンはトラストレスな調整と決済を提供します。すべてのピースが合致しています。

開発者にとってのチャンスは、DePIN を企業レベルで利用可能にするミドルウェアを構築することにあります。モニタリングおよびオブザーバビリティ・ツール、SLA 施行用スマートコントラクト、ノードオペレーター向けのレピュテーションシステム、稼働時間保証のための保険プロトコル、そして国境を越えて即時に決済を行うペイメントレールなどが挙げられます。

今日あなたが構築するインフラは、2028 年の分散型インターネットを支える力になるかもしれません。Helium がモバイル接続を担い、Render が AI 推論を処理し、Filecoin が世界のアーカイブを保存し、Akash がそれらすべてをオーケストレーションするコンテナを実行する世界です。これはクリプトの未来主義ではありません。Fortune 500 企業がすでにパイロット運用を行っているロードマップなのです。

出典

マルチエージェント AI システムが稼働:ネットワーク化された協調の夜明け

· 約 15 分
Dora Noda
Software Engineer

Coinbase が 2026 年 2 月 11 日に エージェンティック・ウォレット(Agentic Wallets)を発表したとき、それは単なる新製品の発表ではありませんでした。それは大きな転換点となりました。AI エージェントは、単一のタスクを実行する孤立したツールから、複雑なワークフローを調整し、暗号資産を管理し、人間の介入なしに取引を行うことができる自律的な経済主体へと進化しました。マルチエージェント AI システムの時代が到来したのです。

モノリシックな LLM から協調型エージェント・エコシステムへ

長年、AI 開発はより大規模で高性能な言語モデルの構築に焦点を当ててきました。GPT-4 や Claude、そしてその後継モデルは驚異的な能力を示しましたが、それらは孤立して動作し、人間の指示を待つ強力なツールに過ぎませんでした。しかし、そのパラダイムは崩れつつあります。

2026 年、コンセンサスは変化しました。未来はモノリシックな超知能ではなく、複雑な問題を解決するために連携する、特化型 AI エージェントのネットワーク化されたエコシステムにあります。Gartner によると、2025 年には 5% 未満であったエンタープライズ・アプリケーションのうち、2026 年末までに 40% が特定のタスクに特化した AI エージェントを搭載するようになると予測されており、劇的な飛躍を遂げています。

これは、メインフレーム・コンピュータからクラウド・マイクロサービスへの移行に似ています。一つの巨大なモデルがすべてをこなそうとするのではなく、現代の AI システムは、請求、物流、カスタマーサービス、リスク管理など、特定の機能に最適化された数十の専門エージェントをデプロイし、標準化されたプロトコルを通じて連携させます。

エージェントの協調を支えるプロトコル

この変革は偶然起きたものではありません。2025 年に登場した 2 つの重要なインフラ標準が、2026 年における本番規模のマルチエージェント・システムを可能にしています。それが、Model Context Protocol (MCP) と Agent-to-Agent Protocol (A2A) です。

Model Context Protocol (MCP): 2024 年 11 月に Anthropic によって発表された MCP は、AI アプリケーションにとっての USB-C ポートのような役割を果たします。USB-C がデバイスの接続性を標準化したように、MCP は AI エージェントがデータシステム、コンテンツリポジトリ、ビジネスツール、開発環境に接続する方法を標準化します。このプロトコルは、Language Server Protocol (LSP) の実証済みのメッセージング・パターンを再利用し、JSON-RPC 2.0 上で動作します。

2026 年初頭までに、Anthropic、OpenAI、Google を含む主要なプレーヤーが MCP を基盤に構築を行い、事実上の相互運用性標準として確立しました。MCP はコンテキスト通信、メモリ管理、タスク計画を処理し、エージェントが複雑なワークフロー全体で一貫した状態を維持することを可能にします。

Agent-to-Agent Protocol (A2A): 2025 年 4 月に Google によって導入され、Atlassian、Box、PayPal、Salesforce、SAP、ServiceNow を含む 50 以上のテクノロジーパートナーの支援を受けている A2A は、エージェント間の直接通信を可能にします。crewAI や LangChain などのフレームワークが独自のエコシステム内でマルチエージェント・ワークフローを自動化する一方で、A2A は異なるプロバイダーやプラットフォームのエージェントがシームレスに調整できるようにするユニバーサルなメッセージング・レイヤーとして機能します。

2026 年における新興のプロトコル・スタックのコンセンサスは明確です。ツール統合のための MCP、エージェント間通信のための A2A、そして商取引のための AP2 (Agent Payments Protocol) です。これらの標準が合わさることで、バックグラウンドで自律システムが動作し、人間の介入なしにアクションを調整し、取引を決済する「インビジブル・エコノミー(見えない経済)」が実現します。

加速する現実世界の企業導入

マルチエージェントのオーケストレーションは、概念実証(PoC)の域を超えています。ヘルスケア分野では、AI エージェントが患者の受付、保険請求処理、コンプライアンス監査を調整し、患者のエンゲージメントと支払い側の効率の両方を向上させています。サプライチェーン管理では、複数のエージェントが分野や地域を越えて協力し、輸送ルートの変更、リスクの特定、配送予測の調整をリアルタイムで共同で行っています。

IT サービス・プロバイダーの Getronics は、ServiceNow などのプラットフォーム間で統合を行うことで、マルチエージェント・システムを活用し、年間 100 万件以上の IT チケットを自動化しました。小売業では、エージェント・システムにより、継続的に適応する超パーソナライズされたプロモーションや需要主導型の価格戦略が可能になっています。

最近の企業調査によると、2028 年までに 38% の組織が AI エージェントを人間のチーム内のフルメンバーとして迎えることを期待しています。AI エージェントが提案・実行し、人間が監督・統治する「ブレンデッド・チーム・モデル」が、新たな運用の標準になりつつあります。

ブロックチェーンの架け橋:自律的な経済主体

おそらく最も革新的な進展は、マルチエージェント AI とブロックチェーン技術の融合であり、エージェントが独立した経済参加者として機能する新しいデジタル商取引のレイヤーを生み出したことです。

Coinbase の エージェンティック・ウォレット は、自律型エージェントのために特別に設計された暗号資産インフラを提供し、エージェントがデジタル資産を自己管理し、取引を実行し、ステーブルコインの決済基盤を使用して支払いを決済することを可能にします。Solana の AI 推論機能を暗号資産ウォレットに直接統合したことも、もう一つの大きな節目となりました。

その影響は測定可能です。AI エージェントは、2025 年末までに分散型金融(DeFi)のボリュームの 15 〜 20% を牽引する可能性があり、2026 年初頭のデータではその予測を上回る勢いであることが示唆されています。予測市場プラットフォームの Polymarket では、AI エージェントがすでに取引活動の 30% 以上に貢献しています。

イーサリアムの ERC-8004 標準(「トラストレス・エージェント」という名称)は、オンチェーン・レジストリ、エージェント用の NFT ベースのポータブル ID、信頼スコアを構築するための検証可能なフィードバック・メカニズム、および出力用のプラグ可能な証明を通じて、自律システムに固有の信頼の課題に対処しています。Coinbase、Ethereum Foundation、MetaMask、その他の主要組織による共同の取り組みにより、エージェントベースの暗号資産決済のための A2A x402 拡張機能が作成され、現在本番環境で稼働しています。

500 億ドルの市場機会

経済的影響は絶大です。世界の AI エージェント市場は 2024 年に 51 億ドルに達し、2030 年までに 471 億ドルに達すると予測されています。特にクリプト分野では、AI エージェントトークンが爆発的な成長を遂げており、このセクターは 1 年足らずで 230 億ドルから 500 億ドル以上に拡大しました。

主要なプロジェクトには、高いスループットと高速なファイナリティによって AI エージェントベースのアプリケーションを引き付けている NEAR Protocol、分散型機械学習を支える Bittensor (TAO)、自律型経済エージェントを可能にする Fetch.ai (FET)、そして 2024 年後半に 850% の価格急騰を見せ、時価総額が 8 億ドル近くに達した Virtuals Protocol (VIRTUAL) などがあります。

ベンチャーキャピタルは、エージェント間(Agent-to-Agent)コマース・インフラストラクチャに資金を投じています。ブロックチェーン市場全体は 2027 年までに 1,628.4 億ドルに達すると予測されており、マルチエージェント AI システムはその重要な成長ドライバーとなっています。

台頭する 2 つのアーキテクチャモデル

マルチエージェントシステムは通常、2 つの設計パターンのいずれかに従い、それぞれに明確なトレードオフがあります。

階層型アーキテクチャ(Hierarchical Architecture): リードエージェントが専門特化したサブエージェントをオーケストレート(統制)し、コラボレーションと調整を最適化します。このモデルは中央集中型の制御と監視ポイントを導入するため、明確なガバナンスと説明責任を必要とする企業にとって魅力的です。人間の監督者は主にリードエージェントとやり取りし、リードエージェントが専門家にタスクを委譲します。

ピアツーピア・アーキテクチャ(Peer-to-Peer Architecture): エージェントが中央のコントローラーなしで直接連携します。堅牢な通信プロトコルが必要となりますが、より高いレジリエンス(回復力)と分散性を提供します。このモデルは、クロス組織のサプライチェーンや分散型金融システムなど、単一のエージェントが完全な可視性や権限を持たないシナリオで威力を発揮します。

これらのモデルの選択はユースケースに依存します。エンタープライズ IT やヘルスケアは、コンプライアンスと監査可能性のために階層型システムを好む傾向にありますが、DeFi やブロックチェーンコマースは、分散化の原則に沿ったピアツーピアモデルを好みます。

信頼のギャップと人間による監視

急速な技術的進歩にもかかわらず、信頼が依然として重要なボトルネックとなっています。2024 年には経営幹部の 43% が完全自律型 AI エージェントに自信を示していましたが、2025 年までにその数字は 22% に低下し、60% が監視なしでタスクを管理するエージェントを完全には信頼していません。

これは後退ではなく、成熟の過程です。組織が本番環境にエージェントをデプロイするにつれ、エッジケースや調整の失敗、時には大きなミスに直面してきました。業界は自律性を減らすのではなく、監視(オーバーサイト)を再設計することで対応しています。

新たに登場しているモデルでは、AI エージェントを意思決定者ではなく「提案型の実行者」として扱います。エージェントはデータを分析し、アクションを推奨し、事前に承認されたワークフローを実行しますが、人間がガードレールを設定し、結果を監査し、例外が発生した際に介入します。監視は後付けではなく、設計原則になりつつあります。

Forrester によると、カスタマーエクスペリエンスリーダーの 75% が現在、AI を代替品ではなく「人間を拡張するもの(アンプリファイア)」と見なしており、組織の 61% が、適切に管理されたエージェント型 AI には変革の可能性があると考えています。

今後の展望:マルチモーダルな連携と機能の拡張

マルチエージェントシステムの 2026 年に向けたロードマップには、大幅な機能拡張が含まれています。MCP(Model Context Protocol)は画像、ビデオ、オーディオ、その他のメディアタイプをサポートするように進化しており、エージェントは単に読み書きするだけでなく、「見て、聞いて、そして監視する」ようになります。

2025 年後半には、署名、プロベナンス(起源の証明)、および検証のためにブロックチェーン技術の統合が進みました。これにより、コンプライアンスと説明責任に不可欠なエージェントのアクションに関する不変のログが提供されます。企業が監査可能な AI を求める中、この傾向は 2026 年に加速しています。

マルチエージェントのオーケストレーションは、実験的なものから不可欠なインフラへと移行しています。2026 年末までに、それは主要企業の運営を支えるバックボーンとなり、単なる機能ではなくビジネス運営の基盤レイヤーとして組み込まれるでしょう。

すべてを変えるインフラストラクチャレイヤー

マルチエージェント AI システムは、単なる段階的な改善ではなく、インテリジェントなシステムの構築方法におけるパラダイムシフトを表しています。MCP や A2A を通じた通信の標準化、信頼と決済のためのブロックチェーンとの統合、そしてコア設計原則としての人間による監視の組み込みにより、業界は自律型経済のためのインフラストラクチャを構築しています。

AI エージェントは、もはや人間のコマンドを待つ受動的なツールではありません。彼らはデジタルコマースの積極的な参加者であり、資産を管理し、ワークフローを調整し、複雑なマルチステップのプロセスを実行します。もはや問いは、マルチエージェントシステムが企業運営やデジタル金融を変革するかどうかではなく、組織がいかに早くこの新しい現実に適応できるかです。

ブロックチェーンインフラストラクチャ上で構築を行う開発者にとって、マルチエージェント AI とクリプト・レールの融合は、かつてない機会を生み出します。エージェントが大規模に稼働するためには、信頼性が高く、高性能なブロックチェーンインフラが必要です。

BlockEden.xyz は、AI エージェントアプリケーションを支えるブロックチェーンネットワーク向けに、エンタープライズグレードの API インフラストラクチャを提供しています。当社のサービスを探索して、マルチエージェントの未来のために設計された基盤の上に自律型システムを構築してください。

出典

Ambient の 720 万ドルの賭け: Proof of Logits がハッシュベースのマイニングを AI 推論に置き換える方法

· 約 28 分
Dora Noda
Software Engineer

ブロックチェーンを保護する計算作業が、次世代の AI モデルのトレーニングも兼ねているとしたらどうでしょうか?これは遠い未来のビジョンではありません。世界初の AI 搭載プルーフ・オブ・ワーク(PoW)ブロックチェーンを構築するために、a16z CSX から 720 万ドルを調達したばかりの Solana フォーク、Ambient の背後にある核となる理論です。

従来のプルーフ・オブ・ワークは、任意の暗号パズルを解くために電力を消費します。ビットコインのマイナーは、ネットワークのセキュリティ以外に価値のない計算作業である、十分な先行ゼロを持つハッシュを見つけるために競い合います。Ambient はこの仕組みを完全に覆します。その Proof of Logits(PoL)コンセンサス・メカニズムは、ハッシュの計算(ハッシュ・グラインディング)を AI の推論、ファインチューニング、およびモデルトレーニングに置き換えます。マイナーはパズルを解くのではなく、検証可能な AI 出力を生成します。バリデーターはワークロード全体を再計算するのではなく、ロジット(logits)と呼ばれる暗号技術的なフィンガープリントをチェックします。

その結果、セキュリティと AI の進歩が経済的に一致し、0.1% の検証オーバーヘッドによってコンセンサス・チェックがほぼ無料になり、中央集権的な代替手段と比較してトレーニングコストが 10 倍に低下するブロックチェーンが誕生します。Ambient が成功すれば、マイニングを生産的な AI 労働に変えることで、「プルーフ・オブ・ワークはリソースを浪費している」というクリプト業界で最も古い批判の 1 つに対する答えを提示できるかもしれません。

Proof of Logits の突破口:再計算なしの検証可能な AI

PoL を理解するには、ロジット(logits)が実際に何であるかを理解する必要があります。大規模言語モデル(LLM)がテキストを生成するとき、単語を直接出力するわけではありません。その代わりに、各ステップで語彙全体にわたる確率分布、つまり次に考えられるすべてのトークンの確信度を表す数値スコアを生成します。

これらのスコアはロジットと呼ばれます。50,000 トークンの語彙を持つモデルの場合、1 つの単語を生成することは 50,000 個のロジットを計算することを意味します。これらの数値は、独自の計算フィンガープリントとして機能します。特定の重みを持ち、特定の入力を実行する特定のモデルだけが、特定のロジット分布を生成します。

Ambient の革新は、ロジットを proof-of-work として使用することにあります。マイナーは AI 推論(プロンプトに対する回答の生成)を実行し、バリデーターは計算全体をやり直すのではなく、ロジットのフィンガープリントをチェックすることでこの作業を検証します。

検証プロセスの仕組みは次のとおりです。

マイナーが出力を生成: マイナーはプロンプト(例:「ブロックチェーン・コンセンサスの原則を要約せよ」)を受け取り、6,000 億パラメータのモデルを使用して 4,000 トークンの回答を生成します。これにより、4,000 × 50,000 = 2 億個のロジットが生成されます。

バリデーターによるスポットチェック検証: 4,000 トークンすべてを再生成する代わりに、バリデーターは 1 つの位置(例えば 2,847 番目のトークン)をランダムにサンプリングします。バリデーターはその位置で 1 回だけ推論ステップを実行し、マイナーが報告したロジットと期待される分布を比較します。

暗号技術的コミットメント: ロジットが一致すれば(浮動小数点精度の許容範囲内であれば)、マイナーの作業は検証されます。一致しない場合、ブロックは拒否され、マイナーは報酬を没収されます。

これにより、検証オーバーヘッドは元の計算の約 0.1% に削減されます。2 億個のロジットをチェックするバリデーターは、50,000 個のロジット(1 トークン分)を検証するだけで済み、コストを 99.9% 削減できます。これを、検証にハッシュ関数全体を再実行する必要がある従来の PoW や、パズル自体が任意であるため単一の SHA-256 ハッシュのチェックが些細なものであるビットコインのアプローチと比較してみてください。

Ambient のシステムは、完全な再計算を必要とする安易な「有益な作業の証明(proof of useful work)」スキームよりも指数関数的に安価です。ビットコインの効率(安価な検証)に近く、かつ実際の有用性(無意味なハッシュの代わりに AI 推論)を提供します。

10 倍のトレーニングコスト削減:データセンターの独占がない分散型 AI

中央集権的な AI トレーニングは高価であり、ほとんどの組織にとって手が出せないほどです。GPT-4 規模のモデルのトレーニングには数千万ドルの費用がかかり、数千台のエンタープライズ GPU を必要とし、少数のテック巨人の手に権力を集中させます。Ambient のアーキテクチャは、独立したマイナーのネットワークにトレーニングを分散させることで、これを民主化することを目指しています。

10 倍のコスト削減は、2 つの技術革新によって実現されます。

PETALS スタイルのシャーディング: Ambient は、各ノードが大規模モデルのシャード(断片)のみを保存する分散型推論システムである PETALS の技術を適応させています。マイナーに 6,000 億パラメータのモデル全体(テラバイト単位の VRAM が必要)を保持させるのではなく、各マイナーはレイヤーのサブセットを所有します。プロンプトはネットワーク内を順次流れ、各マイナーは自分のシャードを処理してアクティベーションを次のマイナーに渡します。

これは、単一の消費者向け GPU(24GB VRAM)を持つマイナーが、本来ならデータセンターに数百台の GPU を必要とするモデルのトレーニングに参加できることを意味します。計算グラフを数百または数千のノードに分散させることで、Ambient は従来の機械学習クラスターで使用される高価な高帯域幅インターコネクト(InfiniBand など)の必要性を排除します。

SLIDE に着想を得たスパース性: ほとんどのニューラルネットワーク計算では、ほとんどの要素がゼロに近い行列の乗算が行われます。SLIDE(Sub-LInear Deep learning Engine)は、アクティベーションをハッシュ化して、特定の入力に対して実際に重要なニューロンを特定し、無関係な計算を完全にスキップすることで、これを利用します。

Ambient はこのスパース性を分散型トレーニングに適用します。すべてのマイナーがすべてのデータを処理するのではなく、ネットワークは現在のバッチに関連するシャードを持つノードにワークを動的にルーティングします。これにより、通信オーバーヘッド(分散型機械学習における大きなボトルネック)が削減され、ハードウェア性能が低いマイナーでもスパースなサブグラフを処理することで参加できるようになります。

この組み合わせにより、Ambient は、DiLoCo や Hivemind のような既存の分散型トレーニングの取り組みよりも 10 倍優れたスループットを実現できると主張しています。さらに重要なことに、参入障壁が低くなります。マイナーはデータセンター級のインフラを必要とせず、まともな GPU を搭載したゲーミング PC があれば貢献するのに十分です。

Solana フォークアーキテクチャ:高 TPS と非ブロッキング PoW の融合

Ambient はゼロから構築されているわけではありません。Solana Virtual Machine(SVM)、Proof of History(PoH)タイムスタンプ、および Gulf Stream メムプールフォワーディングを継承した Solana の完全なフォーク です。これにより、Ambient は Solana の 65,000 TPS という理論上のスループットと、1 秒未満のファイナリティを継承しています。

しかし、Ambient は 1 つの重要な修正を加えています。それは、Solana のコンセンサスの上に 非ブロッキング型のプルーフ・オブ・ワーク(PoW)レイヤー を追加したことです。

ハイブリッドコンセンサスの仕組みは以下の通りです:

Proof of History がトランザクションを順序付け: Solana の PoH は暗号学的な時計を提供し、グローバルコンセンサスを待つことなくトランザクションを順序付けます。これにより、マルチコアにわたる並列実行が可能になります。

Proof of Logits がチェーンを保護: マイナーは有効な AI 推論出力を生成するために競い合います。ブロックチェーンは、最も価値のある AI 作業(推論の複雑さ、モデルサイズ、またはステークされたレピュテーションによって測定)を生成したマイナーからのブロックを受け入れます。

非ブロッキング統合: 有効な PoW が見つかるまでブロック生成が停止する Bitcoin とは異なり、Ambient の PoW は非同期で動作します。バリデータがトランザクションの処理を継続する一方で、マイナーは AI 作業の提出を競います。これにより、PoW がボトルネックになるのを防ぎます。

その結果、低レイテンシの推論を必要とする AI アプリケーションに不可欠な Solana のスピードを維持しながら、推論、ファインチューニング、トレーニングといったネットワークのコア活動における経済的競争を確保するブロックチェーンが実現しました。

また、この設計は Ethereum がかつて直面した「有用な作業(useful work)」コンセンサスにおける失敗も回避しています。Primecoin や Gridcoin は科学計算を PoW として利用しようとしましたが、有用な作業は難易度が均一ではないという致命的な欠陥に直面しました。解決は簡単だが検証が難しい問題や、不当に並列化しやすい問題が存在したのです。Ambient は、ロジット(logit)検証を計算コストが低く、標準化されたものにすることで、この問題を回避しています。すべての推論タスクは、その複雑さに関わらず、同じスポットチェックアルゴリズムで検証可能です。

オンチェーン AGI 学習への競争:他にどのような競合がいるのか?

ブロックチェーンネイティブな AI をターゲットにしているのは Ambient だけではありません。機械学習の分散化を謳うプロジェクトは数多くありますが、検証可能なオンチェーン学習を提供できているものはほとんどありません。主要な競合他社と Ambient の比較は以下の通りです:

Artificial Superintelligence Alliance (ASI): Fetch.AI、SingularityNET、Ocean Protocol の合併により設立された ASI は、分散型 AGI インフラに焦点を当てています。ASI チェーンはエージェントの並列実行と安全なモデル取引をサポートしています。Ambient の PoW アプローチとは異なり、ASI は開発者がコンピューティングクレジットを支払うマーケットプレイスモデルに依存しています。これは推論には適していますが、トレーニングのインセンティブとは一致しません。マイナーは、あらかじめ明示的な報酬がない限り、高価な GPU 時間を費やす理由がないからです。

AIVM (ChainGPT): ChainGPT の AIVM ロードマップ は、オフチェーンの GPU リソースをオンチェーン検証と統合し、2026 年のメインネットローンチを目指しています。しかし、AIVM の検証はオプティミスティックロールアップ(異議申し立てがない限り正当とみなす)に依存しており、不正証明(fraud-proof)による遅延が生じます。Ambient のロジットチェックは決定的(deterministic)であり、バリデータは作業が有効かどうかを即座に判断できます。

Internet Computer (ICP): Dfinity の Internet Computer は、外部のクラウドインフラなしで大規模なモデルをオンチェーンでネイティブにホストできます。しかし、ICP のキャニスターアーキテクチャはトレーニング用に最適化されておらず、推論とスマートコントラクトの実行向けに設計されています。Ambient の PoW は継続的なモデルの改善を経済的に促しますが、ICP では開発者が外部でトレーニングを管理する必要があります。

Bittensor: Bittensor はサブネットモデルを採用しており、特殊なチェーンが異なる AI タスク(テキスト生成、画像分類など)を学習します。マイナーはモデルの重みを提出して競い合い、バリデータはそれらをパフォーマンスに基づいてランク付けします。Bittensor は分散型推論には優れていますが、トレーニングの調整には苦労しています。統一されたグローバルモデルは存在せず、独立したサブネットの集合体に過ぎません。Ambient のアプローチは、単一の PoW メカニズムの下でトレーニングを統合します。

Lightchain Protocol AI: Lightchain のホワイトペーパー では、ノードが AI タスクを実行してトランザクションを検証する Proof of Intelligence (PoI) を提案しています。しかし、Lightchain のコンセンサスは依然として理論上の段階であり、テストネットの開始も発表されていません。対照的に Ambient は、2025 年第 2/3 四半期にテストネット を計画しています。

Ambient の強みは、検証可能な AI 作業を、実績のある Solana の高スループットアーキテクチャと組み合わせている点にあります。ほとんどの競合他社は、分散性を犠牲にする(オンチェーン検証を伴う中央集権的トレーニング)か、パフォーマンスを犠牲にする(不正証明を待つ遅いコンセンサス)かのどちらかです。Ambient のロジットベースの PoW は、分散型トレーニングとほぼ即時の検証という両方のメリットを提供します。

経済的インセンティブ:Bitcoin ブロックのように AI モデルをマイニングする

Ambient の経済モデルは、Bitcoin の「予測可能なブロック報酬 + トランザクション手数料」という仕組みを反映しています。しかし、空のブロックをマイニングする代わりに、マイナーはアプリケーションが消費できる AI 出力を生成します。

インセンティブ構造は以下の通りです:

インフレベースの報酬: 初期のマイナーは、AI 推論、ファインチューニング、またはトレーニングに貢献することで、ブロック補助金(新しく発行されたトークン)を受け取ります。Bitcoin の半減期スケジュールと同様に、補助金は時間の経過とともに減少し、長期的な希少性を確保します。

トランザクションベースの手数料: アプリケーションは、AI サービス(推論リクエスト、モデルのファインチューニング、または学習済み重みへのアクセス)に対して料金を支払います。これらの手数料は作業を行ったマイナーに支払われ、補助金が減少しても持続可能な収益モデルを構築します。

レピュテーションのステーク: シビル攻撃(報酬を得るために低品質な作業を提出する行為)を防ぐため、Ambient はステークされたレピュテーションを導入しています。マイナーは参加するためにトークンをロックし、無効なロジットを生成するとスラッシング(没収)の対象となります。これにより、マイナーがシステムを悪用するのではなく、正確で有用な AI 出力を生成して利益を最大化するようインセンティブが調整されます。

一般的なハードウェアでのアクセシビリティ: ASIC ファームが支配する Bitcoin とは異なり、Ambient の PETALS シャーディングにより、コンシューマー向け GPU での参加が可能です。RTX 4090(24GB VRAM、約 1,600 ドル)を 1 枚持つマイナーでも、シャードを所有することで 6,000 億パラメータのモデルのトレーニングに貢献できます。これにより、数百万ドルのデータセンターを必要とせず、アクセスが民主化されます。

このモデルは、分散型 AI における重大な課題である「フリーライダー問題」を解決します。従来の PoS チェーンでは、バリデータは資本をステークしますが計算には貢献しません。Ambient では、マイナーが実際の AI 作業を提供することで、ネットワークの有用性がそのセキュリティ予算に比例して成長することを保証します。

270 億ドルの AI エージェントセクター:なぜ 2026 年が転換点なのか

Ambient のタイミングは、より広範な市場トレンドと一致しています。AI エージェントの暗号資産セクター は、オンチェーン資産の管理、トレードの実行、プロトコル間の調整を行う自律型プログラムに支えられ、270 億ドルの価値があると評価されています。

しかし、今日のエージェントは信頼の問題に直面しています。その多くは中央集権的な AI API(OpenAI、Anthropic、Google)に依存しています。もし 1,000 万ドルの DeFi ポジションを管理するエージェントが GPT-4 を使用して意思決定を行っている場合、ユーザーはそのモデルが改ざん、検閲、またはバイアスを受けていないという保証を持てません。エージェントが自律的に行動したことを証明する監査証跡も存在しません。

Ambient はこれをオンチェーン検証で解決します。すべての AI 推論はブロックチェーンに記録され、使用された正確なモデルと入力がロジットによって証明されます。アプリケーションは以下を行うことができます:

エージェントの意思決定を監査する: DAO は、その財務管理エージェントが、秘密裏に修正されたバージョンではなく、コミュニティが承認した特定のモデルを使用したことを検証できます。

コンプライアンスを強化する: 規制された DeFi プロトコルは、オンチェーンで証明可能な、検証済みの安全ガードレールを備えたモデルをエージェントに使用することを義務付けることができます。

AI マーケットプレイスを可能にする: 開発者はファインチューニングされたモデルを NFT として販売でき、Ambient はトレーニングデータと重みの暗号学的証明を提供します。

これにより、Ambient は次世代の自律型エージェントのインフラストラクチャとしての地位を確立します。「AI、ブロックチェーン、決済が単一の自己調整型インターネットへと収束する」2026 年が転換点 として浮上する中、Ambient の検証可能な AI レイヤーは重要な基盤となります。

技術的リスクと未解決の課題

Ambient のビジョンは野心的ですが、いくつかの技術的課題が未解決のまま残っています:

決定性と浮動小数点ドリフト: AI モデルは浮動小数点演算を使用しますが、これはハードウェア間で完全に決定論的ではありません。NVIDIA A100 で動作するモデルは、AMD MI250 上の同じモデルとはわずかに異なるロジットを生成する可能性があります。バリデーターがわずかな数値のズレを理由にブロックを拒否した場合、ネットワークは不安定になります。Ambient には厳密な許容範囲が必要ですが、厳格すぎると異なるハードウェアを使用するマイナーが不当にペナルティを受けることになります。

モデルのアップデートとバージョニング: Ambient がグローバルモデルを共同でトレーニングする場合、アップデートをどのように処理するのでしょうか? Bitcoin では、すべてのノードが同一のコンセンサスルールを実行します。Ambient では、マイナーが継続的にモデルをファインチューニングします。ネットワークの半分がバージョン 2.0 にアップデートし、残りの半分が 1.9 のままであれば、検証は破綻します。ホワイトペーパーには、モデルのバージョニングと後方互換性がどのように機能するかについての詳細は記載されていません。

プロンプトの多様性と作業の標準化: Bitcoin の PoW は一様であり、すべてのマイナーが同じ種類のパズルを解きます。Ambient の PoW は多様で、数学の質問に答えるマイナーもいれば、コードを書く者、ドキュメントを要約する者もいます。バリデーターは異なるタスクの「価値」をどのように比較するのでしょうか? あるマイナーが 10,000 トークンの無意味なテキスト(容易)を生成し、別のマイナーが困難なデータセットでモデルをファインチューニング(高コスト)した場合、どちらがより多くの報酬を得るべきでしょうか? Ambient には、Bitcoin のハッシュ難易度に相当する、AI 作業のための難易度調整アルゴリズムが必要ですが、「推論の難易度」を測定することは容易ではありません。

分散トレーニングにおけるレイテンシ: PETALS スタイルのシャーディングは推論(連続的なレイヤー処理)には適していますが、トレーニングにはバックプロパゲーション(ネットワークを通じて勾配が逆方向に流れること)が必要です。レイヤーが異なるネットワークレイテンシを持つノード間に分散されている場合、勾配の更新がボトルネックになります。Ambient は 10 倍のスループット向上を主張していますが、実際のパフォーマンスはネットワークトポロジーとマイナーの分布に依存します。

中央集権化のリスクにおけるモデルホスティング: 最も価値のあるモデルシャード(例:6,000 億パラメータモデルの最終レイヤー)をホストできるノードがごく少数に限られる場合、それらのノードが不当な影響力を持つことになります。バリデーターは接続性の良いノードに優先的に作業をルーティングする可能性があり、分散型とされるネットワークの中にデータセンター型の中央集権化が再現される恐れがあります。

これらは致命的な欠陥ではなく、すべてのブロックチェーン AI プロジェクトが直面するエンジニアリング上の課題です。しかし、2025 年第 2 四半期 / 第 3 四半期に予定されている Ambient のテストネットローンチによって、その理論が現実の条件下で通用するかどうかが明らかになるでしょう。

次に来るもの:テストネット、メインネット、および AGI のエンドゲーム

Ambient のロードマップは、2025 年第 2 四半期 / 第 3 四半期のテストネットローンチ を目標としており、2026 年にメインネットが続く予定です。a16z CSX、Delphi Digital、Amber Group からの 720 万ドルのシードラウンド資金は、コア開発の原動力となりますが、プロジェクトの長期的な成功はエコシステムの採用にかかっています。

注視すべき主要なマイルストーン:

テストネットのマイニング参加: どれだけのマイナーがネットワークに参加するか? Ambient が(初期の Ethereum マイニングのように)数千の GPU 所有者を惹きつけることができれば、経済モデルが機能していることが証明されます。もし少数の事業体しかマイニングを行わないのであれば、それは中央集権化のリスクを示唆します。

モデルパフォーマンスのベンチマーク: Ambient でトレーニングされたモデルは OpenAI や Anthropic と競合できるか? 分散型の 6,000 億パラメータモデルが GPT-4 レベルの品質を達成すれば、アプローチ全体が正当化されます。パフォーマンスが大幅に遅れる場合、開発者は中央集権的な API を使い続けるでしょう。

アプリケーションの統合: どの DeFi プロトコル、DAO、または AI エージェントが Ambient 上に構築されるか? 価値の提案は、実際のアプリケーションがオンチェーン AI 推論を消費して初めて実現します。初期のユースケースには以下が含まれる可能性があります:

  • 証明可能な意思決定ロジックを備えた自律型トレーディングエージェント
  • 分散型コンテンツモデレーション(AI モデルによる投稿フィルタリング、オンチェーンで監査可能)
  • 検証可能な AI オラクル(オンチェーンの価格予測や感情分析)

Ethereum および Cosmos との相互運用性: Ambient は Solana のフォークですが、AI エージェント経済は複数のチェーンにまたがっています。Ethereum(DeFi 用)や Cosmos(ASI のような IBC 接続された AI チェーン用)へのブリッジは、Ambient が孤立した島になるか、ハブになるかを決定づけます。

究極のエンドゲームは野心的です。それは、単一のエンティティがモデルを制御しない 分散型 AGI のトレーニングです。数千の独立したマイナーが協力して超知能システムをトレーニングし、すべてのトレーニングステップの暗号学的証明があれば、それは AGI への真にオープンで監査可能な最初の道となるでしょう。

Ambient がこれを達成するか、あるいは期待外れの暗号資産プロジェクトに終わるかは実行力次第です。しかし、恣意的な暗号パズルを検証可能な AI 作業に置き換えるという核心的なイノベーションは、真のブレークスルーです。もし Proof of Work が浪費ではなく生産的になり得るのであれば、それを最初に証明するのは Ambient です。

Proof-of-Logits(プルーフ・オブ・ロジット)へのパラダイムシフト

Ambient の 720 万ドルの資金調達は、単なる新たな暗号資産の資金調達ラウンドではありません。これは、ブロックチェーンのコンセンサスと AI トレーニングが、単一の経済的に整合したシステムへと融合できるという賭けです。その影響は Ambient をはるかに超えて広がります。

ロジットベースの検証(logit-based verification)が機能すれば、他のチェーンもそれを採用するでしょう。Ethereum は、単に ETH をステーキングするのではなく、AI 演算に貢献するバリデーターに報酬を与える PoS の代替案として PoL を導入する可能性があります。Bitcoin は、SHA-256 ハッシュの代わりに「有益な計算(useful computation)」を使用するためにフォークするかもしれません(もっとも、Bitcoin マキシマリストがこれを受け入れることはないでしょうが)。

分散型トレーニングが競争力のあるパフォーマンスを達成すれば、OpenAI や Google はその「堀(moat)」を失います。GPU を持つ誰もが AGI(人工汎用知能)の開発に貢献し、その対価としてトークンを獲得できる世界は、中央集権的な AI 独占体制を根本から破壊します。

オンチェーン AI 検証が標準になれば、自律型エージェントは信頼性を獲得します。ユーザーはブラックボックス化した API を信頼する代わりに、特定のモデルとプロンプトをオンチェーンで検証します。これにより、規制された DeFi、アルゴリズムによるガバナンス、そして AI 駆動の法的契約への道が開かれます。

Ambient が勝利すると決まったわけではありません。しかし、これは Proof-of-Work(プルーフ・オブ・ワーク)を生産的なものにし、AI トレーニングを分散化し、ブロックチェーンのセキュリティを文明の進歩と一致させようとする、これまでで最も技術的に信頼できる試みです。テストネットのローンチは、理論が現実に即しているか、あるいは Proof-of-Logits が野心的なコンセンサス実験の墓場に加わることになるのかを証明することになるでしょう。

いずれにせよ、オンチェーン AGI をトレーニングする競争が今、紛れもなく本物になったことは確かです。そして Ambient は、そのスタートラインに 720 万ドルを投じたのです。


ソース:

Gensyn の Judge:ビット単位で正確な再現性が不透明な AI API の時代をどのように終わらせるか

· 約 30 分
Dora Noda
Software Engineer

ChatGPT や Claude、あるいは Gemini にクエリを投げるたびに、ユーザーは目に見えないブラックボックスを信頼していることになります。モデルのバージョンは? 不明です。正確な重みは? プロプライエタリです。出力が、自分が使用していると思っているモデルによって生成されたのか、それとも密かに更新されたバリアントによるものなのか? 検証は不可能です。レシピや雑学を尋ねるカジュアルなユーザーにとって、この不透明さは単に煩わしいだけかもしれません。しかし、金融取引アルゴリズム、医療診断、法的契約の分析など、重大な意思決定を伴う AI 利用においては、これは根本的な信頼の危機となります。

2025 年後半にリリースされ、2026 年に本稼働を開始する Gensyn の Judge は、急進的な代替案を提示します。それは、すべての推論がビット単位まで再現可能な、暗号学的に検証可能な AI 評価です。正しいモデルを提供するために OpenAI や Anthropic を信頼する代わりに、Judge は、特定の合意済みの AI モデルが現実世界の入力に対して決定論的に実行されたことを、誰でも検証できるようにします。暗号学的証明により、結果を偽造することはできません。

技術的な突破口は、AI の再現性を阻む要因となっていた浮動小数点の非決定性を排除する、Gensyn の検証システム Verde です。Verde は、デバイスをまたいでビット単位で正確な計算を強制することで、ロンドンの NVIDIA A100 と東京の AMD MI250 で同じモデルを実行しても同一の結果が得られることを保証し、それをオンチェーンで証明可能にします。これにより、分散型金融(DeFi)、自律型エージェント、および透明性がオプションではなく必須であるあらゆるアプリケーションにおいて、検証可能な AI が利用可能になります。

不透明な API の問題:検証なき信頼

AI 業界は API で動いています。開発者は、REST エンドポイントを介して OpenAI の GPT-4、Anthropic の Claude、または Google の Gemini を統合し、プロンプトを送信してレスポンスを受け取ります。しかし、これらの API は根本的に不透明です。

バージョンの不確実性gpt-4 を呼び出したとき、正確にはどのバージョンを取得しているのでしょうか? GPT-4-0314? GPT-4-0613? それとも密かに更新されたバリアントでしょうか? プロバイダーは、公表せずにパッチを頻繁に適用し、一夜にしてモデルの挙動を変えてしまうことがあります。

監査証跡の欠如:API のレスポンスには、どのモデルがそれを生成したかを示す暗号学的証明が含まれていません。OpenAI が特定の地域や顧客に対して、検閲された、あるいは偏ったバリアントを提供したとしても、ユーザーにはそれを検知する術がありません。

サイレントな劣化:プロバイダーは、コストを削減するためにモデルを「ロボトミー化(性能の意図的な劣化)」し、API の規約は維持したまま推論の質を下げることがあります。ユーザーからは GPT-4 が時間の経過とともに「性能が落ちた」という報告が上がりますが、透明性のあるバージョニングがなければ、そのような主張は客観的な裏付けを欠いたままとなります。

非決定的な出力:温度設定、バッチ処理、またはハードウェア レベルの浮動小数点丸め誤差により、同一の入力で同じモデルに 2 回クエリを実行しても、異なる結果が得られることがあります。これにより監査は不可能になります。出力が再現可能でない場合、どのようにして正しさを検証すればよいのでしょうか?

カジュアルな用途であれば、これらの問題は不便な程度で済みます。しかし、重大な意思決定においては、これらは致命的な障害となります。以下を考えてみてください。

アルゴリズム取引:あるヘッジファンドが、5,000 万ドルの DeFi ポジションを管理する AI エージェントを運用しているとします。このエージェントは、X(旧 Twitter)の投稿から市場センチメントを分析するために GPT-4 に依存しています。取引セッションの途中でモデルが密かに更新され、センチメント スコアが予測不能に変化すると、意図しない清算が引き起こされる可能性があります。ファンドにはモデルが誤動作したという証拠がなく、OpenAI のログは公開監査されていません。

医療診断:ある病院が癌の治療法を推奨するために AI モデルを使用しています。規制により、医師は意思決定プロセスを文書化する必要があります。しかし、AI モデルのバージョンを検証できない場合、監査証跡は不完全になります。医療過誤訴訟は「どの」モデルが推奨を生成したかを証明できるかどうかにかかっているかもしれませんが、不透明な API ではそれは不可能です。

DAO ガバナンス:分散型組織(DAO)が、トレジャリーの提案に投票するために AI エージェントを使用しています。コミュニティ メンバーは、エージェントが承認されたモデルを使用したという証拠を求めます。特定の結果に有利なように改ざんされたバリアントではないという証拠です。暗号学的検証がなければ、投票の正当性が欠如してしまいます。

これこそが Gensyn がターゲットとする信頼のギャップです。AI が重要な意思決定に組み込まれるにつれ、モデルの真正性と挙動を検証できないことは、「重大な環境においてエージェンティック(自律的)AI を導入する上での根本的な障壁」となります。

Judge:検証可能な AI 評価プロトコル

Judge は、合意済みの決定論的な AI モデルを現実世界の入力に対して実行し、その結果を誰でも異議申し立てができるブロックチェーンにコミットすることで、不透明性の問題を解決します。プロトコルの仕組みは以下の通りです。

1. モデルのコミットメント:参加者は、AI モデルのアーキテクチャ、重み、および推論設定に合意します。このモデルはハッシュ化され、オンチェーンにコミットされます。このハッシュは暗号学的な指紋として機能し、合意されたモデルから少しでも逸脱すれば、異なるハッシュが生成されます。

2. 決定論的な実行:Judge は Gensyn の再現可能なランタイムを使用してモデルを実行します。これにより、デバイスをまたいでビット単位で正確な再現性が保証されます。これは、浮動小数点の非決定性を排除する、極めて重要なイノベーションです。

3. 公開コミットメント:推論後、Judge は出力(またはそのハッシュ)をオンチェーンに投稿します。これにより、特定の入力に対してモデルが何を生成したかを示す、永続的で監査可能な記録が作成されます。

4. チャレンジ期間:誰でも独立してモデルを再実行することで、結果に異議を唱えることができます。出力が異なる場合、不正証明(Fraud Proof)を提出します。Verde の 参照委任メカニズム(refereed delegation mechanism)は、計算グラフの中で結果が分岐した正確な演算箇所を特定します。

5. 不正に対するスラッシング:チャレンジャーが Judge の出力が正しくないことを証明した場合、元の実行者はペナルティを受けます(ステーキングされたトークンのスラッシング)。これにより経済的インセンティブが調整され、実行者はモデルを正しく実行することで利益を最大化するようになります。

Judge は、AI 評価を「API プロバイダーを信頼する」ことから「暗号学的証明を検証する」ことへと変革します。モデルの挙動は公開され、監査可能で、強制力を持つようになり、もはやプロプライエタリなエンドポイントの背後に隠されることはありません。

Verde: 浮動小数点非決定性の排除

検証可能な AI における核心的な技術的課題は「決定性」です。ニューラルネットワークは推論中に数十億もの浮動小数点演算を行います。最新の GPU では、これらの演算は完全に再現可能ではありません。

非結合性: 浮動小数点の加算は結合法則を満たしません。丸め誤差のため、(a + b) + ca + (b + c) とは異なる結果をもたらす可能性があります。GPU は数千のコアにわたって合計を並列化しますが、部分和が蓄積される順序はハードウェアやドライバのバージョンによって異なります。

カーネルスケジューリングの可変性: GPU カーネル(行列乗算やアテンションなど)は、ワークロード、ドライバの最適化、またはハードウェアアーキテクチャに応じて、異なる順序で実行されることがあります。同じ GPU で同じモデルを 2 回実行したとしても、カーネルスケジューリングが異なれば結果が変わる可能性があります。

バッチサイズへの依存性: 研究により、LLM 推論はシステムレベルで非決定的であることが判明しています。これは、出力がバッチサイズに依存するためです。多くのカーネル(matmul、RMSNorm、アテンション)は、同時に処理されるサンプル数に基づいて数値出力が変化します。バッチサイズ 1 での推論は、同じ入力をバッチサイズ 8 で処理した場合とは異なる値を生成します。

これらの問題により、標準的な AI モデルはブロックチェーンの検証には不向きとなっています。2 人のバリデータが同じ推論を再実行してわずかに異なる出力を得た場合、どちらが正しいのでしょうか? 決定性がなければ、コンセンサスを得ることは不可能です。

Verde は、すべてのデバイスで浮動小数点演算の順序を制御し、ハードウェアの非決定性を排除するライブラリである RepOps (Reproducible Operators) によってこれを解決します。仕組みは以下の通りです。

標準的なリダクション順序: RepOps は、行列乗算などの演算において部分的な結果を合計するための決定的な順序を強制します。GPU スケジューラに任せるのではなく、RepOps はすべてのハードウェアにおいて「列 0、次に列 1、次に列 2... を合計する」と明示的に指定します。これにより、(a + b) + c は常に同じ順序で計算されます。

カスタム CUDA カーネル: Gensyn は、生の速度よりも再現性を優先した最適化済みカーネルを開発しました。RepOps の行列乗算のオーバーヘッドは、標準的な cuBLAS と比較して 30% 未満であり、決定性を得るためのトレードオフとしては妥当な範囲内です。

ドライバとバージョンの固定: Verde はバージョンを固定した GPU ドライバと標準的な構成を使用し、異なるハードウェアで実行される同じモデルがビット単位で同一の出力を生成することを保証します。あるデータセンターの NVIDIA A100 で動作するモデルは、別のデータセンターの AMD MI250 からの出力とビット単位で一致します。

これが Judge の検証を可能にする画期的な進歩です。ビット単位で正確な再現性は、バリデータが実行者を信頼することなく、独立して結果を確認できることを意味します。ハッシュが一致すれば、その推論は正しいことが数学的に証明されます。

Refereed Delegation(調停型委任): 全再計算を伴わない効率的な検証

決定的な実行が可能であっても、AI 推論を素朴に検証するのはコストがかかります。1,000 トークンを生成する 700 億パラメータのモデルには、10 GPU 時間が必要になる場合があります。バリデータが正当性を確認するためにすべての推論を再実行しなければならない場合、検証コストは実行コストと等しくなり、分散化の目的が損なわれます。

Verde の Refereed Delegation(調停型委任)メカニズムは、検証を指数関数的に安価にします。

複数の信頼できない実行者: Judge は 1 人の実行者ではなく、複数の独立したプロバイダーにタスクを割り当てます。各プロバイダーは同じ推論を実行し、結果を提出します。

不一致が調査のトリガーに: すべての実行者が同意すれば、結果は承認され、それ以上の検証は不要です。出力が異なる場合、Verde はチャレンジゲームを開始します。

計算グラフ上での二分探索: Verde は推論全体を再実行しません。代わりに、モデルの計算グラフ上で二分探索を行い、結果が分岐した最初のオペレーターを特定します。これにより、不一致の原因となっている正確なレイヤー(例:「アテンションレイヤー 47、ヘッド 8」)をピンポイントで特定します。

最小限のレフェリー計算: レフェリー(スマートコントラクトや計算能力の限られたバリデータなど)は、フォワードパス全体ではなく、争点となっているオペレーターのみをチェックします。80 レイヤーを持つ 70B パラメータモデルの場合、これにより検証は最悪のケースでも約 7 レイヤー(log₂ 80)のチェックに削減されます。

このアプローチは、すべてのバリデータがすべてを再実行する素朴な複製よりも 1,350% 以上効率的です。Gensyn は暗号学的証明、ゲーム理論、および最適化されたプロセスを組み合わせて、冗長な計算を行うことなく正しい実行を保証します。

その結果、Judge は AI ワークロードを大規模に検証できるようになり、数千の信頼できないノードが計算を提供し、不正な実行者が摘発・処罰される分散型推論ネットワークを可能にします。

ハイステークスな AI 意思決定: なぜ透明性が重要なのか

Judge のターゲット市場はカジュアルなチャットボットではありません。検証可能性が「あれば良いもの」ではなく、規制上または経済上の要件となるアプリケーションです。不透明な API が致命的な失敗を招くシナリオを以下に示します。

分散型金融 (DeFi): 自律的なトレーディングエージェントが数十億の資産を管理しています。エージェントが AI モデルを使用してポートフォリオのリバランス時期を決定する場合、ユーザーはモデルが改ざんされていないという証拠を必要とします。Judge はオンチェーン検証を可能にします。エージェントは特定のモデルハッシュをコミットし、その出力に基づいて取引を実行し、誰でもその意思決定ロジックに異議を唱えることができます。この透明性は、悪意のあるエージェントが証拠もなく「AI が清算しろと言った」と主張するラグプルを防ぎます。

規制コンプライアンス: 信用スコアリング、不正検知、またはマネーロンダリング防止 (AML) のために AI を導入している金融機関は、監査に直面します。規制当局は「なぜモデルはこの取引にフラグを立てたのか?」という説明を求めます。不透明な API は監査証跡を提供しません。Judge はモデルのバージョン、入力、出力の不変の記録を作成し、コンプライアンス要件を満たします。

アルゴリズムガバナンス: 分散型自律組織 (DAO) は、AI エージェントを使用してガバナンスの決定を提案したり投票したりします。コミュニティメンバーは、エージェントがハッキングされたバリアントではなく、承認されたモデルを使用したことを検証する必要があります。Judge を使用すると、DAO はスマートコントラクトにモデルハッシュをエンコードし、すべての決定に正当性の暗号学的証明が含まれるようになります。

医療および法的 AI: ヘルスケアや司法制度には説明責任が必要です。AI の支援を受けて癌を診断する医師は、使用された正確なモデルバージョンを記録する必要があります。AI を使用して契約書を作成する弁護士は、出力が審査済みの偏りのないモデルからのものであることを証明しなければなりません。Judge のオンチェーン監査証跡は、このエビデンスを提供します。

予測市場とオラクル: Polymarket のようなプロジェクトは、AI を使用して賭けの結果(例:「このイベントは起こるか?」)を解決します。解決がニュース記事を分析する AI モデルに依存している場合、参加者はモデルが操作されていないという証拠を必要とします。Judge はオラクルの AI 推論を検証し、紛争を防ぎます。

どの場合においても共通しているのは、透明性のない信頼は不十分であるということです。VeritasChain が指摘しているように、AI システムには、紛争が発生したときに何が起こったかを証明する不変のログである「暗号学的フライトレコーダー」が必要なのです。

ゼロ知識証明の代替案:Verde と ZKML の比較

Judge は、検証可能な AI を実現するための唯一のアプローチではありません。ゼロ知識機械学習(ZKML)は、zk-SNARKs を使用して同様の目標を達成します。これは、入力や重みを明かすことなく、計算が正しく実行されたことを証明する暗号学的証明です。

Verde は ZKML と比較してどうでしょうか?

検証コスト: ZKML は、証明を生成するために元の推論よりも約 1,000 倍多い計算量を必要とします(研究による推定)。推論に 10 GPU 時間を要する 70B パラメータのモデルでは、証明に 10,000 GPU 時間が必要になる可能性があります。Verde の参照委譲(refereed delegation)は対数的です。80 レイヤーではなく約 7 レイヤーをチェックすることは、1,000 倍の増加ではなく 10 倍の削減を意味します。

証明者の複雑性: ZKML は、証明を効率的に生成するために専用のハードウェア(zk-SNARK 回路用のカスタム ASIC など)を必要とします。Verde は汎用 GPU で動作し、ゲーミング PC を持つマイナーなら誰でも参加できます。

プライバシーのトレードオフ: ZKML の強みはプライバシーです。証明は入力やモデルの重みについて何も明かしません。Verde の決定論的実行は透明性があります。入力と出力は公開されます(重みは暗号化可能です)。リスクの高い意思決定において、透明性はしばしば望ましいものです。トレジャリーの配分を決定する DAO の投票では、隠された証明ではなく、公開された監査トレイルが求められます。

証明の範囲: ZKML は実用上、推論に限定されています。現在の計算コストでは、トレーニングを証明することは不可能です。Verde は推論とトレーニングの両方の検証をサポートしています(Gensyn のより広範なプロトコルは分散型トレーニングを検証します)。

実世界での採用: Modulus Labs のような ZKML プロジェクトは、オンチェーンで 18M パラメータのモデルを検証するという画期的な成果を上げていますが、依然として小規模なモデルに限定されています。Verde の決定論的ランタイムは、本番環境で 70B 以上のパラメータを持つモデルを処理します。

ZKML は、虹彩スキャンを公開せずにバイオメトリック認証を検証する(Worldcoin)など、プライバシーが最優先される場合に優れています。Verde は、特定の公開モデルが正しく実行されたことを証明するという、透明性が目標である場合に適しています。これら 2 つのアプローチは競合するものではなく、補完的なものです。

Gensyn エコシステム:Judge から分散型トレーニングへ

Judge は、Gensyn のより広範なビジョンである、機械学習計算のための分散型ネットワークの一構成要素です。このプロトコルには以下が含まれます:

実行レイヤー: 異種ハードウェア(コンシューマー GPU、エンタープライズクラスター、エッジデバイス)間での一貫した ML 実行。Gensyn は推論とトレーニングのワークロードを標準化し、互換性を確保します。

検証レイヤー(Verde): 参照委譲を用いたトラストレスな検証。不正な実行者は検出され、ペナルティを課されます。

ピアツーピア(P2P)通信: 中央集権的な調整なしでのデバイス間のワークロード分散。マイナーはタスクを受け取り、実行し、証明をブロックチェーンに直接提出します。

分散型コーディネーション: Ethereum ロールアップ上のスマートコントラクトが参加者を特定し、タスクを割り当て、許可なく支払いを処理します。

Gensyn の パブリックテストネットは 2025 年 3 月に開始 され、メインネットは 2026 年に予定されています。$AI トークンのパブリックセール は 2025 年 12 月に行われ、マイナーとバリデーターのための経済的インセンティブが確立されました。

Judge は評価レイヤーとしてこのエコシステムに適合します。Gensyn のコアプロトコルがトレーニングと推論を処理する一方で、Judge はそれらの出力が検証可能であることを保証します。これにより、次のようなフライホイールが生まれます:

デベロッパーがモデルをトレーニングする: Gensyn の分散型ネットワーク上で実行されます(活用されていないコンシューマー GPU が計算を提供するため、AWS よりも安価です)。

モデルがデプロイされる: Judge が評価の完全性を保証します。アプリケーションは Gensyn の API を通じて推論を消費しますが、OpenAI とは異なり、すべての出力に暗号学的証明が含まれます。

バリデーターが報酬を得る: 証明をチェックし不正を摘発することで手数料を獲得し、経済的インセンティブをネットワークのセキュリティと一致させます。

信頼が拡大する: より多くのアプリケーションが検証可能な AI を採用するにつれて、中央集権的なプロバイダーへの依存が減少します。

最終的な目標:Big Tech だけでなく、誰もが利用できる、証明可能で正しく、分散化された AI トレーニングと推論を実現することです。

課題と今後の展望

Judge のアプローチは画期的ですが、いくつかの課題が残っています。

パフォーマンスのオーバーヘッド: RepOps による 30% の速度低下は検証には許容範囲内ですが、すべての推論を決定論的に実行する必要がある場合、レイテンシに敏感なアプリケーション(リアルタイム取引、自動運転車)は、より高速で検証不可能な代替案を好む可能性があります。Gensyn のロードマップには RepOps のさらなる最適化が含まれていると思われますが、速度と決定論の間には根本的なトレードオフが存在します。

ドライバーバージョンの断片化: Verde はバージョンが固定されたドライバーを想定していますが、GPU メーカーは常にアップデートをリリースしています。一部のマイナーが CUDA 12.4 を使い、他のマイナーが 12.5 を使うと、ビット単位の再現性が崩れます。Gensyn は厳格なバージョン管理を強制しなければならず、これはマイナーのオンボーディングを複雑にします。

モデル重みの機密性: Judge の透明性は公開モデルにとっては機能ですが、独自のモデルにとっては欠点となります。ヘッジファンドが価値のある取引モデルをトレーニングし、それを Judge にデプロイすると、オンチェーンのコミットメントを通じて競合に重みが公開されるリスクがあります。秘密のモデルには ZKML ベースの代替案が好まれる可能性があり、これは Judge がオープンまたはセミオープンな AI アプリケーションをターゲットにしていることを示唆しています。

紛争解決のレイテンシ: チャレンジャーが不正を主張した場合、バイナリサーチによる紛争解決には複数のオンチェーン取引が必要になります(各ラウンドで探索範囲が絞り込まれます)。高頻度アプリケーションは、ファイナリティ(確定)まで数時間待つことはできません。Gensyn はレイテンシを短縮するために、オプティミスティック検証(期間内に異議申し立てがない限り正しいと仮定する)を導入する可能性があります。

参照委譲におけるシビル耐性: 複数の実行者が合意しなければならない場合、単一のエンティティがシビル・アイデンティティ(偽造された複数の身元)を通じてすべての実行者を制御することをどう防ぐのでしょうか?Gensyn はおそらく、ステーク加重による選択(評判の高いバリデーターが優先的に選ばれる)とスラッシングを組み合わせて共謀を抑止すると思われますが、経済的な閾値は慎重に調整される必要があります。

これらは致命的な欠陥ではなく、エンジニアリング上の課題です。「決定論的 AI + 暗号学的検証」という核となるイノベーションは堅実です。テストネットからメインネットへと移行するにつれて、実行の詳細は成熟していくでしょう。

検証可能な AI への道:採用経路とマーケットフィット

Judge の成功は採用にかかっています。どのアプリケーションが最初に検証可能な AI を導入するのでしょうか?

自律型エージェントを備えた DeFi プロトコル: Aave、Compound、Uniswap などの DAO は、財務管理のために Judge で検証されたエージェントを統合できます。コミュニティがモデルのハッシュを承認するために投票し、すべてのエージェントの決定には証明が含まれます。この透明性は、DeFi の正当性にとって極めて重要な信頼を構築します。

予測市場とオラクル: Polymarket や Chainlink のようなプラットフォームは、賭けの解決や価格フィードの配信に Judge を使用できます。感情、ニュース、またはオンチェーンのアクティビティを分析する AI モデルは、検証可能な出力を生成し、オラクル操作をめぐる紛争を排除します。

分散型アイデンティティと KYC: AI ベースの本人確認(自撮り写真からの年齢推定、書類の真正性チェック)を必要とするプロジェクトは、Judge の監査証跡から利益を得ます。規制当局は、中央集権的なアイデンティティプロバイダーを信頼することなく、コンプライアンスの暗号学的証明を受け入れることができます。

ソーシャルメディアのコンテンツモデレーション: 分散型ソーシャルネットワーク(Farcaster、Lens Protocol)は、Judge で検証された AI モデレーターを導入できます。コミュニティメンバーは、モデレーションモデルに偏りや検閲がないことを検証でき、プラットフォームの中立性を確保できます。

AI-as-a-Service プラットフォーム: AI アプリケーションを構築する開発者は、「検証可能な推論」をプレミアム機能として提供できます。ユーザーは証明のために追加料金を支払い、不透明な代替サービスと差別化を図ることができます。

共通点:信頼のコストが高い(規制、分散化、または利害関係が大きいため)一方で、検証コストが許容される(確実性の価値と比較して)アプリケーションです。

Judge は、消費者向けのチャットボットにおいて OpenAI に取って代わるものではありません。レシピのアイデアを求めているユーザーは、GPT-4 が検証可能かどうかを気にしません。しかし、金融アルゴリズム、医療ツール、ガバナンスシステムにとって、検証可能な AI は未来そのものです。

新たな標準としての検証可能性

Gensyn の Judge はパラダイムシフトを象徴しています。AI の評価は「プロバイダーを信頼する」ことから「証明を検証する」ことへと移行しています。Verde によるビット単位で正確な再現性、参照委託を通じた効率的な検証、そしてオンチェーンの監査証跡という技術的基盤が、この移行を単なる理想ではなく現実的なものにしています。

その影響は Gensyn をはるかに超えて広がります。検証可能な AI が標準になれば、中央集権的なプロバイダーはその参入障壁(モート)を失います。OpenAI の価値提案は GPT-4 の能力だけではなく、インフラを管理しなくて済むという「利便性」にあります。しかし、もし Gensyn が分散型 AI が中央集権型と同等のパフォーマンスに「検証可能性」を加えて提供できることを証明すれば、開発者が独自の API に縛られる理由はなくなります。

競争はすでに始まっています。ZKML プロジェクト(Modulus Labs、Worldcoin のバイオメトリックシステム)はゼロ知識証明に賭けています。確実なランタイム(Gensyn の Verde、EigenAI)は再現性に賭けています。オプティミスティックなアプローチ(ブロックチェーン AI オラクル)は不正証明に賭けています。それぞれの道にはトレードオフがありますが、目的地は同じです。それは、出力が単に「もっともらしい」だけでなく「証明可能」である AI システムです。

利害関係の大きい意思決定において、これはオプションではありません。金融、ヘルスケア、または法的なアプリケーションにおいて、規制当局は AI プロバイダーからの「信じてください」という言葉を受け入れないでしょう。DAO は財務管理をブラックボックスのエージェントに委ねることはありません。そして、自律型 AI システムがより強力になるにつれ、一般市民は透明性を求めるようになるでしょう。

Judge は、この約束を果たす最初のプロダクション対応システムです。テストネットは稼働しています。暗号学的な基盤は強固です。AI エージェント関連の暗号資産 270 億ドル、アルゴリズムによって管理される数十億ドルの DeFi 資産、そして高まる規制圧力という市場の準備は整っています。

不透明な AI API の時代は終わりつつあります。検証可能な知性の時代が始まろうとしています。そして、Gensyn の Judge がその道を照らしています。


情報源:

Nillion の Blacklight が稼働開始:ERC-8004 が自律型 AI エージェントの信頼レイヤーを構築する方法

· 約 19 分
Dora Noda
Software Engineer

2026 年 2 月 2 日、AI エージェント経済は重要な一歩を踏み出しました。Nillion は、ブロックチェーンにおける最も差し迫った課題の 1 つである「一度も会ったことのない AI エージェントをどうやって信頼するか?」という問題を解決するために、ERC-8004 標準 を実装した検証レイヤーである Blacklight を立ち上げました。

その答えは、単純なレピュテーションスコアや中央集権的なレジストリではありません。それは、暗号学的証明、プログラム可能な監査、そしてコミュニティが運営するノードネットワークに支えられた 5 段階の検証プロセスです。自律型エージェントが取引の実行、トレジャリーの管理、クロスチェーン活動の調整を行う機会が増える中、Blacklight は大規模なトラストレスな AI 調整を可能にするインフラを象徴しています。

AI エージェントが単独では解決できない信頼の問題

数字が物語っています。現在、AI エージェントは Polymarket の取引量の 30% に貢献しており、複数のプロトコルにわたる DeFi の収益戦略を担当し、複雑なワークフローを自律的に実行しています。しかし、根本的なボトルネックが存在します。「既存の関係がないエージェント同士が、どのようにお互いの信頼性を検証するのか?」という点です。

従来のシステムは、証明書を発行する中央集権的な権限に依存しています。Web3 の約束は異なります。つまり、暗号学とコンセンサスを通じたトラストレスな検証です。しかし、ERC-8004 が登場するまで、エージェントが自らの真正性を証明したり、行動を追跡したり、意思決定ロジックをオンチェーンで検証したりするための標準化された方法はありませんでした。

これは単なる理論上の問題ではありません。Davide Crapis 氏が説明するように、「ERC-8004 は、分散型 AI エージェントの相互作用を可能にし、トラストレスなコマースを確立し、Ethereum 上のレピュテーションシステムを強化します。」これがなければ、エージェント間のコマースは「クローズドな庭(Walled Garden)」の中に限定されるか、手動の監視が必要になり、自律性の目的が失われてしまいます。

ERC-8004:3 つのレジストリによる信頼インフラ

2026 年 1 月 29 日に Ethereum メインネットで稼働を開始した ERC-8004 標準 は、3 つのオンチェーンレジストリを通じてモジュール式の信頼レイヤーを構築します。

Identity Registry(アイデンティティ・レジストリ): ERC-721 を使用して、ポータブルなエージェント識別子を提供します。各エージェントは、固有のオンチェーン・アイデンティティを表す非代替性トークン(NFT)を受け取り、プラットフォームを跨いだ認識を可能にし、アイデンティティのなりすましを防止します。

Reputation Registry(レピュテーション・レジストリ): 標準化されたフィードバックと評価を収集します。中央集権的なレビューシステムとは異なり、フィードバックは暗号署名と共にオンチェーンに記録され、不変の監査証跡を作成します。誰でもこの履歴を取得し、独自のレピュテーション・アルゴリズムを構築できます。

Validation Registry(バリデーション・レジストリ): エージェントの作業の暗号学的および経済的検証をサポートします。ここではプログラム可能な監査が行われます。バリデーターは計算を再実行したり、ゼロ知識証明を検証したり、信頼実行環境(TEE)を活用してエージェントが正しく行動したことを確認したりできます。

ERC-8004 の素晴らしさは、その非固執的(Unopinionated)な設計にあります。技術仕様 に記載されているように、この標準は様々な検証手法をサポートしています。「ステークによって保護されたタスクの再実行(EigenLayer のようなシステムに着想を得たもの)、ゼロ知識機械学習(zkML)証明の検証、および信頼実行環境からのアテステーション(証明)。」

この柔軟性が重要です。DeFi アービトラージ・エージェントは、アルファ(独自の情報)を明かすことなく zkML 証明を使用して取引ロジックを検証できます。サプライチェーン・エージェントは、TEE アテステーションを使用して、現実世界のデータに正しくアクセスしたことを証明できます。クロスチェーン・ブリッジ・エージェントは、誠実な実行を保証するために、スラッシング(ペナルティ)を伴う暗号経済的検証に依存することができます。

Blacklight の 5 段階の検証プロセス

Nillion による Blacklight への ERC-8004 の実装は、重要なレイヤーである「コミュニティ運営の検証ノード」を追加します。プロセスの仕組みは以下の通りです。

1. エージェント登録: エージェントは Identity Registry にアイデンティティを登録し、ERC-721 NFT を受け取ります。これにより、エージェントの公開鍵に関連付けられた固有のオンチェーン識別子が作成されます。

2. 検証リクエストの開始: 取引の実行、資金の移動、状態の更新など、検証が必要なアクションをエージェントが実行するとき、Blacklight に検証リクエストを送信します。

3. 委員会の割り当て: Blacklight プロトコルは、リクエストを監査するために検証ノードの委員会をランダムに割り当てます。これらのノードは、ネットワークの完全性のためにインセンティブが調整された、70,000 NIL トークンをステークしているコミュニティメンバーによって運営されます。

4. ノードによるチェック: 委員会のメンバーは、計算を再実行するか、暗号学的証明を検証します。バリデーターが不正な行動を検出した場合、(暗号経済的検証を使用しているシステムでは)エージェントのステークをスラッシングしたり、Reputation Registry でそのアイデンティティにフラグを立てたりすることができます。

5. オンチェーン・レポート: 結果はオンチェーンに投稿されます。Validation Registry はエージェントの作業が検証されたかどうかを記録し、実行の永続的な証明を作成します。それに応じて Reputation Registry が更新されます。

このプロセスは非同期かつノンブロッキング(非停止)で行われるため、エージェントはルーチンタスクを完了するために検証を待つ必要はありません。ただし、リスクの高いアクション(多額の送金、クロスチェーン操作)には、事前の検証が必要になる場合があります。

プログラマブルな監査:バイナリな信頼を超えて

Blacklight の最も野心的な機能は「プログラマブルな検証」です。これは、エージェントが「何をしたか」だけでなく、意思決定を「どのように」行ったかを監査する能力です。

トレジャリーを管理する DeFi エージェントを考えてみましょう。従来の監査では、資金が正しく移動したことを検証します。プログラマブルな監査では、以下を検証します:

  • 意思決定ロジックの一貫性:エージェントは表明された投資戦略に従ったか、それとも逸脱したか?
  • マルチステップ・ワークフローの実行:エージェントが 3 つのチェーンにわたってポートフォリオをリバランスすることになっていた場合、すべてのステップを完了したか?
  • セキュリティ制約:エージェントはガスリミット、スリッページ許容度、およびエクスポージャーの上限を遵守したか?

これが可能なのは、ERC-8004 の Validation Registry が任意の証明システムをサポートしているためです。エージェントは、意思決定アルゴリズム(例:ニューラルネットワークの重みのハッシュや、そのロジックを表す zk-SNARK 回路)をオンチェーンでコミットし、独自の詳細を明かすことなく、各アクションがそのアルゴリズムに準拠していることを証明できます。

Nillion のロードマップは、これらのユースケースを明確にターゲットにしています:「Nillion は Blacklight の機能を『プログラマブルな検証』へと拡張し、エージェントの意思決定ロジックの一貫性、マルチステップ・ワークフローの実行、セキュリティ制約などの複雑な動作の分散型監査を可能にする計画です。」

これにより、検証はリアクティブ(事後にエラーを検出する)なものから、プロアクティブ(設計によって正しい動作を強制する)なものへと移行します。

ブラインド・コンピュテーション:プライバシーと検証の両立

Nillion の基盤技術である Nil Message Compute (NMC) は、エージェント検証にプライバシーの次元を加えます。すべてのデータが公開される従来のブロックチェーンとは異なり、Nillion の「ブラインド・コンピュテーション」は、復号することなく暗号化されたデータ上での操作を可能にします。

これがエージェントにとって重要な理由は次のとおりです。AI エージェントは、競合他社にアルファ(超過収益の源泉)を明かすことなく、自身の取引戦略を検証する必要があるかもしれません。あるいは、患者のデータを公開することなく、機密性の高い医療記録に正しくアクセスしたことを証明する必要があるかもしれません。または、独自のビジネスロジックを開示することなく、規制上の制約への準拠を実証する必要があるかもしれません。

Nillion の NMC は、マルチパーティ計算 (MPC) を通じてこれを実現します。MPC では、ノードが協力して、データの暗号化に使用される相関乱数である「ブラインディング・ファクター(目隠し要素)」を生成します。DAIC Capital が説明するように、「ノードはデータの処理に必要な主要なネットワークリソース、つまりブラインディング・ファクターと呼ばれる一種の相関乱数を生成し、各ノードがそのシェアを安全に保存することで、量子耐性のある方法でネットワーク全体に信頼を分散させます。」

このアーキテクチャは、設計段階から量子耐性を備えています。たとえ量子コンピュータが今日の楕円曲線暗号を解読したとしても、分散されたブラインディング・ファクターは安全なままです。なぜなら、単一のノードがデータを復号するのに十分な情報を保持していないためです。

AI エージェントにとって、これは機密性を犠牲にすることなく検証が可能であることを意味します。エージェントは、手法、データソース、および意思決定ロジックを非公開に保ちながら、タスクを正しく実行したことを証明できます。

43 億ドルのエージェント・エコノミー・インフラ戦略

Blacklight の立ち上げは、ブロックチェーン × AI セクターが急成長期に入るタイミングで行われました。市場は 2025 年の 6 億 8,000 万ドルから 2034 年には 43 億ドルへ 、年平均成長率 (CAGR) 22.9% で成長すると予測されており、より広範なコンフィデンシャル・コンピューティング市場は 2032 年までに 3,500 億ドルに達すると見られています。

しかし、Nillion は単に市場の拡大に賭けているだけではありません。自らを重要なインフラとして位置づけています。エージェント・エコノミーのボトルネックは計算能力やストレージではなく、「大規模な信頼(trust at scale)」です。KuCoin の 2026 年の見通しが指摘するように、3 つの主要なトレンドが AI のアイデンティティと価値の流れを再形成しています。

Agent-Wrapping-Agent システム:エージェントが他のエージェントと連携して、複雑なマルチステップのタスクを実行するシステム。これには標準化されたアイデンティティと検証が必要であり、それこそが ERC-8004 が提供するものです。

KYA (Know Your Agent):エージェントの認証情報を要求する金融インフラ。規制当局は、正しい動作の証明なしに、自律型エージェントが資金を管理することを承認しないでしょう。Blacklight のプログラマブルな監査は、この問題に直接対処します。

ナノ・ペイメント:エージェントはマイクロペイメントを効率的に決済する必要があります。2026 年 1 月に 2,000 万件以上のトランザクションを処理した x402 決済プロトコルは、決済を担当することで ERC-8004 を補完し、Blacklight が信頼を担保します。

Together, these standards reached production readiness within weeks of each other—a coordination breakthrough signaling infrastructure maturation. これらの一連の標準は、互いに数週間の差で本番環境への導入準備が整いました。これは、インフラの成熟を示す調整のブレイクスルーです。

Ethereum のエージェント・ファーストな未来

ERC-8004 の採用は Nillion をはるかに超えて広がっています。2026 年初頭の時点で、複数のプロジェクトがこの標準を統合しています。

この急速な採用は、Ethereum のロードマップにおける広範な変化を反映しています。ヴィタリック・ブテリン氏は、ブロックチェーンの役割は AI エージェントのための「単なる配管」になりつつあると繰り返し強調しています。つまり、消費者向けのレイヤーではなく、自律的な調整を可能にする信頼インフラとしての役割です。

Nillion の Blacklight は、検証をプログラマブルでプライバシーを保護し、分散化されたものにすることで、このビジョンを加速させます。中央集権的なオラクルや人間の査読者に頼る代わりに、エージェントは暗号技術を用いて自らの正確性を証明できるのです。

次に来るもの:メインネットの統合とエコシステムの拡大

Nillion の 2026 年のロードマップ では、Ethereum との互換性と持続可能な分散化を優先しています。2026 年 2 月に Ethereum ブリッジが稼働し、続いてステーキングとプライベート計算のためのネイティブ・スマートコントラクトが導入されました。

70,000 NIL トークンをステーキングしているコミュニティメンバーは、Blacklight 検証ノードを運営し、ネットワークの完全性を維持しながら報酬を得ることができます。この設計は Ethereum のバリデーター経済を反映していますが、検証に特化した役割が追加されています。

次のマイルストーンは以下の通りです:

  • zkML サポートの拡大:Modulus Labs などのプロジェクトと統合し、オンチェーンでの AI 推論を検証します。
  • クロスチェーン検証:Blacklight が Ethereum、Cosmos、Solana で動作するエージェントを検証できるようにします。
  • 企業パートナーシップ:エンタープライズ・エージェントのデプロイメントに向けた Coinbase や Alibaba Cloud との提携。
  • 規制コンプライアンスツール:金融サービス採用のための KYA フレームワークの構築。

おそらく最も重要なのは、Nillion が nilGPT を開発していることです。これは、ブラインド計算(Blind Computation)がいかに機密性の高いエージェントとのやり取りを可能にするかを実証する、完全プライベートな AI チャットボットです。これは単なるデモではなく、ヘルスケア、金融、政府機関における機密データを扱うエージェントの青写真となります。

トラストレスなコーディネーションの終着点

Blacklight のローンチは、エージェント経済の転換点となります。ERC-8004 以前、エージェントはサイロ化された状態で活動していました。独自のエコシステム内では信頼されていても、人間の仲介なしにはプラットフォームを越えた連携ができませんでした。ERC-8004 以降、エージェントはお互いの身元を検証し、行動を監査し、自律的に支払いを決済できるようになります。

これにより、全く新しいカテゴリーのアプリケーションが解放されます:

  • 分散型ヘッジファンド:検証可能な投資戦略と透明性のあるパフォーマンス監査を備え、チェーンを跨いでポートフォリオを管理するエージェント。
  • 自律型サプライチェーン:中央集権的な監視なしに、物流、支払い、コンプライアンスを調整するエージェント。
  • AI 搭載 DAO:暗号学的に検証された意思決定ロジックに基づいて投票、提案、実行を行うエージェントによって管理される組織。
  • クロスプロトコル流動性管理:プログラム可能なリスク制約の下で、DeFi プロトコル間で資産をリバランスするエージェント。

共通点は何でしょうか?それはすべて、既存の関係や中央集権的な信頼の拠り所なしに、エージェントが協力し合う能力、つまり「トラストレスなコーディネーション」を必要としている点です。

Nillion の Blacklight は、まさにそれを提供します。ERC-8004 のアイデンティティとレピュテーション(評判)インフラを、プログラム可能な検証およびブラインド計算と組み合わせることで、目前に迫った「1 兆エージェント経済」に対応できる拡張性の高い信頼レイヤーを構築します。

ブロックチェーンが AI エージェントやグローバル金融の配管(インフラ)となる中で、問題は検証インフラが必要かどうかではなく、誰がそれを構築し、それが分散型であるか、あるいは少数のゲートキーパーによって管理されるかということです。Blacklight のコミュニティ運営ノードとオープンスタンダードは、前者の正当性を証明しています。

自律的なオンチェーン・アクターの時代が到来しました。インフラは稼働しています。残された唯一の問いは、その上に何が構築されるかです。


出典:

AI × Web3 の融合:ブロックチェーンが自律型エージェントのオペレーティングシステムになった経緯

· 約 24 分
Dora Noda
Software Engineer

2026年 1月 29日、Ethereum は ERC-8004 をローンチしました。これは AI ソフトウェアエージェントに永続的なオンチェーンアイデンティティを付与する規格です。数日以内に 24,549 を超えるエージェントが登録されBNB Chain は同プロトコルへのサポートを発表しました。これは単なる漸進的な進歩ではありません。人間の介在なしに、取引、調整、レピュテーションの構築を行うことができる自律的な経済主体のためのインフラストラクチャです。

AI エージェントが生存するためにブロックチェーンは必須ではありません。しかし、調整を行うためにはブロックチェーンが必要です。組織の境界を越えてトラストレスに取引を行うため。検証可能なレピュテーションを構築するため。自律的に支払いを決済するため。中央集権的な仲介者なしに実行を証明するため。

この融合が加速しているのは、両方のテクノロジーが互いの決定的な弱点を解決するからです。AI は知能と自動化を提供し、ブロックチェーンは信頼と経済的インフラを提供します。これらが組み合わさることで、既存の信頼関係を必要とせずにオープンな市場に参加できる自律型システムという、単独では達成不可能な何かが生み出されます。

この記事では、アイデンティティ標準から経済プロトコル、分散型モデルの実行に至るまで、AI × Web3 の融合を不可避にしているインフラストラクチャを検証します。問題は、AI エージェントがブロックチェーン上で活動するかどうかではなく、数百万の自律的な経済主体をサポートするために、インフラがどれだけ早くスケールするかということです。

ERC-8004:AI エージェントのためのアイデンティティインフラ

ERC-8004 は 2026年 1月 29日に Ethereum メインネットで稼働を開始し、エージェントのアイデンティティ、レピュテーション、検証のための標準化されたパーミッションレスなメカズムを確立しました。

このプロトコルは、既存の信頼関係なしに、組織の境界を越えてエージェントを発見し、選択し、相互作用する方法という根本的な問題を解決します。アイデンティティインフラがなければ、エージェントのあらゆる相互作用には、マーケットプレイスプラットフォーム、検証サービス、紛争解決レイヤーといった中央集権的な仲介が必要になります。ERC-8004 は、これらをトラストレスでコンポーザブルなものにします。

3つのコアレジストリ:

アイデンティティレジストリ: URIStorage 拡張機能を備えた ERC-721 に基づく、オンチェーン上の最小限のハンドルで、エージェントの登録ファイルに紐付けられます。すべてのエージェントは、ポータブルで検閲耐性のある識別子を取得します。どこの中央機関も、誰がエージェントのアイデンティティを作成できるか、あるいはどのプラットフォームがそれを認識するかを制御することはありません。

レピュテーションレジストリ: フィードバックシグナルを投稿および取得するための標準化されたインターフェース。エージェントは、オンチェーンの取引履歴、完了したタスク、相手方からのレビューを通じてレピュテーションを構築します。レピュテーションは個別のマーケットプレイス内に閉じ込められるのではなく、プラットフォーム間で持ち運び可能になります。

バリデーションレジストリ: 独立したバリデータによるチェック(ジョブを再実行するステーカー、実行を確認する zkML 検証者、計算を証明する TEE オラクル、紛争を解決する信頼できる判定者など)を要求および記録するための汎用的なフック。検証メカズムは、プラットフォーム固有の実装を必要とせず、モジュール式に接続されます。

このアーキテクチャは、オープンなエージェント市場のための条件を作り出します。AI エージェントのための Upwork のようなものの代わりに、エージェントが互いを発見し、条件を交渉し、タスクを実行し、支払いを決済する、中央集権的なプラットフォームのゲートキーピングが一切ないパーミッションレスなプロトコルが得られます。

BNB Chain による迅速なサポート発表は、この規格がマルチチェーンでの採用に向かっていることを示唆しています。マルチチェーンエージェントアイデンティティにより、エージェントは統一されたレピュテーションと検証システムを維持しながら、複数のブロックチェーンエコシステムにまたがって活動できるようになります。

DeMCP:Model Context Protocol と分散化の融合

DeMCP は初の分散型 Model Context Protocol ネットワークとしてローンチされ、TEE(信頼実行環境)とブロックチェーンを用いて信頼とセキュリティの問題に取り組んでいます。

Anthropic によって開発された Model Context Protocol(MCP)は、アプリケーションが大規模言語モデルにコンテキストを提供する方法を標準化します。AI アプリケーションにとっての USB-C と考えてください。あらゆるデータソースに対してカスタム統合を行う代わりに、MCP はユニバーサルなインターフェース標準を提供します。

DeMCP はこれを Web3 に拡張します。オンデマンドの MCP インスタンスを介して GPT-4 や Claude などの主要な LLM へのシームレスな従量課金制アクセスを提供し、支払いはすべてステーブルコイン(USDT/USDC)で行われ、収益分配モデルによって管理されます。

このアーキテクチャは、3つの決定的な問題を解決します。

アクセス: 従来の AI モデル API には、中央集権的なアカウント、決済インフラ、プラットフォーム固有の SDK が必要です。DeMCP により、自律型エージェントは標準化されたプロトコルを通じて LLM にアクセスでき、人間が管理する API キーやクレジットカードなしで暗号資産で支払うことができます。

信頼: 中央集権的な MCP サービスは、単一障害点や監視の対象となります。DeMCP の TEE で保護されたノードは検証可能な実行を提供します。エージェントは、モデルが改ざんされることなく特定のプロンプトを実行したことを確認できます。これは財務上の決定や規制遵守において不可欠です。

コンポーザビリティ: MCP と A2A(Agent-to-Agent)プロトコルに基づいた新世代の AI エージェントインフラストラクチャが登場しています。これらは特に Web3 のシナリオ向けに設計されており、エージェントがマルチチェーンデータにアクセスし、DeFi プロトコルとネイティブに相互作用することを可能にします。

その結果、MCP は AI を Web3 の第一級市民に変えます。ブロックチェーンは信頼、調整、そして経済的基盤を提供します。これらが合わさることで、エージェントが相互運用可能なプロトコル間で推論し、調整し、行動する分散型オペレーティングシステムが形成されます。

2026年に注目すべき注目の MCP 暗号資産プロジェクトには、エージェント調整レイヤーを構築するインフラプロバイダー、分散型モデル実行ネットワーク、およびエージェントが Web3 エコシステム全体で自律的に活動することを可能にするプロトコルレベルの統合が含まれます。

Polymarket の 170 以上のエージェントツール:実働するインフラ

Polymarket のエコシステムは 19 カテゴリーにわたる 170 以上のサードパーティツールに成長し、予測市場の取引に真剣に取り組むすべての人にとって不可欠なインフラとなっています。

ツールのカテゴリーは、エージェントのワークフロー全体を網羅しています:

自律型トレーディング: AI 搭載エージェントが戦略を自動的に発見・最適化し、予測市場をイールドファーミングや DeFi プロトコルと統合します。一部のエージェントは短期予測において 98% の精度を達成しています。

アービトラージシステム: Polymarket と他の予測プラットフォーム、あるいは従来のベッティング市場との間の価格乖離を特定する自動ボットであり、人間よりも速く取引を実行します。

クジラ(大口投資家)の追跡: 大規模なポジション移動を監視するツールです。これにより、エージェントは過去のパフォーマンスの相関関係に基づいて、機関投資家の動きに追随したり、逆張りをしたりすることが可能になります。

コピートレードインフラ: トップパフォーマーの戦略をエージェントが複製できるようにするプラットフォームです。実績のオンチェーン検証により、偽のパフォーマンス情報の掲載を防止します。

分析とデータフィード: 機関投資家グレードの分析を提供し、市場の厚み、流動性分析、過去の確率分布、イベント結果の相関データをエージェントに提供します。

リスク管理: 自動化されたポジションサイジング、エクスポージャー制限、ストップロス・メカニズムが、エージェントのトレーディングロジックに直接組み込まれています。

このエコシステムは、AI × Web3 の融合というテーゼを実証しています。Polymarket はエージェント開発専用の GitHub リポジトリと SDK を提供しており、自律的なアクターを例外や利用規約違反としてではなく、プラットフォームの第一級の参加者として扱っています。

2026 年の展望には、$POLY トークンのローンチの可能性が含まれており、ガバナンス、手数料体系、エコシステムのインセンティブに関する新たなダイナミクスを生み出すことが期待されています。CEO の Shayne Coplan は、これが 2026 年で最大級の TGE(トークン生成イベント)の一つになる可能性があることを示唆しました。さらに、Polymarket が(Hyperliquid モデルに倣って)独自のブロックチェーンをローンチする可能性もあり、数十億ドルの資金調達を経てアプリチェーンへと進化するのは自然な流れと言えます。

インフラスタック:AI × Web3 のレイヤー

ブロックチェーン上で動作する自律型エージェントには、複数のレイヤーにわたる調整されたインフラが必要です:

レイヤー 1:アイデンティティとレピュテーション

  • エージェント識別のための ERC-8004 レジストリ
  • パフォーマンスを追跡するオンチェーン・レピュテーションシステム
  • エージェントの所有権と権限の暗号学的証明
  • マルチエコシステム運用のためのクロスチェーン・アイデンティティ・ブリッジ

レイヤー 2:アクセスと実行

  • 分散型 LLM アクセスのための DeMCP
  • プライベートなエージェントロジックのための TEE(信頼実行環境)で保護された計算
  • 検証可能な推論のための zkML(ゼロ知識機械学習)
  • モデルの実行を分散させる分散型推論ネットワーク

レイヤー 3:調整とコミュニケーション

  • 直接交渉のための A2A(エージェント間)プロトコル
  • エージェント間通信のための標準化されたメッセージングフォーマット
  • 特定の能力を持つエージェントを見つけるためのディスカバリーメカニズム
  • 自律型契約のためのエスクローおよび紛争解決

レイヤー 4:経済的インフラ

  • 国境を越えた決済のためのステーブルコイン決済レール
  • エージェントが生成した資産のための自動マーケットメーカー(AMM)
  • プログラマブルな手数料体系と収益分配
  • トークンベースのインセンティブ設計

レイヤー 5:アプリケーションプロトコル

  • 自律的な収益最適化のための DeFi 統合
  • 情報取引のための予測市場 API
  • エージェントが作成したコンテンツのための NFT マーケットプレイス
  • DAO ガバナンスへの参加フレームワーク

このスタックにより、単純な自動化(スマートコントラクトの実行)、反応型エージェント(オンチェーンイベントへの応答)、プロアクティブ型エージェント(推論に基づいた戦略の開始)、そして調整型エージェント(他の自律的アクターとの交渉)へと、エージェントの行動は段階的に複雑化していきます。

このインフラは、AI エージェントがブロックチェーンを利用できるようにするだけではありません。ブロックチェーンを自律的な経済活動のための「自然な実行環境」へと変貌させるのです。

なぜ AI にはブロックチェーンが必要なのか:信頼の問題

AI エージェントは、中央集権的なアーキテクチャでは解決できない根本的な信頼の課題に直面しています:

検証(Verification): AI エージェントが改ざんされることなく特定のロジックを実行したことを、どう証明するのでしょうか? 従来の API は何の保証も提供しません。zkML や TEE アテステーションを備えたブロックチェーンは、検証可能な計算、つまり特定のモデルが特定の入力を処理し、特定の出力を生成したという暗号学的証明を生成します。

レピュテーション(Reputation): エージェントはどうやって組織の枠を越えて信頼を築くのでしょうか? 中央集権的なプラットフォームはクローズドな環境を作り出します。Upwork で獲得した評判は Fiverr には引き継がれません。オンチェーンのレピュテーションは、ポータブル(持ち運び可能)で検証可能であり、シビル攻撃による操作にも耐性があります。

決済(Settlement): 自律型エージェントは、人間の介在なしにどうやって支払いを処理するのでしょうか? 従来の銀行業務には、口座、KYC、そして取引ごとの人間による承認が必要です。ステーブルコインとスマートコントラクトは、官僚的なセキュリティではなく暗号学的なセキュリティに基づいた、プログラマブルで即時の決済を可能にします。

調整(Coordination): 異なる組織のエージェント同士が、信頼できる仲介者なしにどうやって交渉するのでしょうか? 従来のビジネスには契約書、弁護士、執行メカニズムが必要です。スマートコントラクトはトラストレスな契約実行を可能にします。コードが検証可能な条件に基づいて、自動的に規約を執行するのです。

帰属(Attribution): どのエージェントが特定の出力を生成したかをどうやって証明するのでしょうか? AI コンテンツの出所(プロベナンス)は、著作権、責任、収益分配において極めて重要になります。オンチェーンのアテステーションは、作成、変更、所有権に関する改ざん不可能な記録を提供します。

ブロックチェーンは、単にこれらの機能を可能にするだけではありません。中央集権的な信頼の前提を再導入することなく、これらを可能にする唯一のアーキテクチャなのです。この融合は、投機的なナラティブからではなく、技術的な必然性から生まれています。

なぜブロックチェーンに AI が必要なのか:インテリジェンスの課題

ブロックチェーンは、AI が解決できる同様に根本的な限界に直面しています。

複雑さの抽象化: ブロックチェーンの UX は依然として使いにくいものです。シードフレーズ、ガス代、トランザクション署名などです。AI エージェントは、技術的な実装詳細を公開することなくユーザーの意図を実行するインテリジェントな仲介者として、複雑さを抽象化できます。

情報処理: ブロックチェーンはデータを提供しますが、それを解釈するインテリジェンスが不足しています。AI エージェントはオンチェーンの活動パターンを分析し、アービトラージ(裁定取引)の機会を特定し、市場の動きを予測し、人間には不可能なスピードと規模で戦略を最適化します。

自動化: スマートコントラクトはロジックを実行しますが、明示的なプログラミングなしに変化する状況に適応することはできません。AI エージェントは、パラメータ変更のたびにガバナンス提案を必要とすることなく、結果から学習し戦略を調整することで、動的な意思決定を提供します。

発見可能性: DeFi プロトコルは断片化に悩まされています。ユーザーは何百ものプラットフォームから手動で機会を見つけ出す必要があります。AI エージェントは、高度な多変数最適化に基づいて、アクティビティを継続的にスキャン、評価し、最適なプロトコルにルーティングします。

リスク管理: 人間のトレーダーは、規律、感情、そして注意力の限界に苦労します。AI エージェントは、事前定義されたリスクパラメータを強制し、迷わずストップロスを実行し、複数のチェーンを同時に 24 時間 365 日監視します。

この関係は共生的です。ブロックチェーンは AI の調整を可能にする信頼のインフラを提供し、AI はブロックチェーンインフラを複雑な経済活動に利用可能にするインテリジェンスを提供します。

台頭するエージェント経済

インフラスタックは、新しい経済モデルを可能にします。

Agent-as-a-Service(サービスとしてのエージェント): 自律型エージェントはオンデマンドでその機能を貸し出し、需要と供給に基づいて動的に価格設定を行います。プラットフォームも仲介者も存在しない、直接的なエージェント間サービス市場です。

協調的インテリジェンス: エージェントは複雑なタスクのために専門知識を出し合い、貢献度に応じて収益を自動的に分配するスマートコントラクトを通じて調整を行います。単一のエージェントの能力を超えた問題を解決するマルチエージェントシステムです。

予測の拡張: エージェントは情報の流れを継続的に監視し、確率推定を更新し、人間が読めるニュースになる前にインサイトに基づいて取引を行います。情報金融(InfoFi)はアルゴリズム化され、エージェントが価格発見を主導するようになります。

自律型組織: トークン保有者に代わって実行する AI エージェントによって完全に管理される DAO です。人間の投票ではなく、検証可能な推論を通じて意思決定を行います。暗号学的な説明責任を持ち、マシンのスピードで運営される組織です。

コンテンツ経済: オンチェーンのプロバンス(出所証明)を備えた AI 生成コンテンツにより、自動化されたライセンス供与、ロイヤリティ分配、二次創作権の作成が可能になります。エージェントが利用条件を交渉し、スマートコントラクトを通じて帰属を強制します。

これらは仮説ではありません。初期のバージョンはすでに稼働しています。問題は、数百万の自律的な経済主体をサポートするために、インフラがいかに速くスケールするかです。

残された技術的課題

急速な進歩にもかかわらず、大きな障害が残っています。

スケーラビリティ: 現在のブロックチェーンはスループットに苦労しています。継続的なマイクロトランザクションを実行する数百万のエージェントには、レイヤー 2 ソリューション、オプティミスティック・ロールアップ、またはエージェント専用のチェーンが必要です。

プライバシー: 多くのエージェント操作には、機密性の高いロジックやデータが必要です。TEE(信頼実行環境)は部分的な解決策を提供しますが、完全準同型暗号(FHE)や高度な暗号技術は、本番規模では依然として高価すぎます。

規制: 自律的な経済主体は既存の法的枠組みに挑戦しています。エージェントが損害を与えた場合、誰が責任を負うのでしょうか? KYC/AML(本人確認・マネーロンダリング防止)の要件はどのように適用されるのでしょうか? 規制の明確化は技術的能力に遅れをとっています。

モデルコスト: LLM(大規模言語モデル)の推論は依然として高額です。分散型ネットワークは、検証のオーバーヘッドを加えつつ、中央集権的な API 価格設定に対抗しなければなりません。経済的な実行可能性には、継続的なモデル効率の向上が必要です。

オラクル問題: エージェントには信頼できる現実世界のデータが必要です。既存のオラクルソリューションは、信頼の前提と遅延を導入します。オンチェーンロジックとオフチェーン情報の間のより優れたブリッジが引き続き不可欠です。

これらの課題は克服不可能なものではありません。明確な解決策への道筋があるエンジニアリング上の問題です。インフラの軌道は、12 〜 24 か月以内の解決を指し示しています。

2026 年の変曲点

2026 年には複数の触媒が収束します。

標準の成熟: 主要チェーンでの ERC-8004 の採用により、相互運用可能なアイデンティティインフラが構築されます。エージェントは Ethereum、BNB Chain、および新興のエコシステム間でシームレスに動作します。

モデルの効率化: より小型で特化したモデルにより、特定のタスクのパフォーマンスを維持しながら、推論コストが 10 〜 100 倍削減されます。経済的実現可能性が劇的に向上します。

規制の明確化: 最初の法域で自律型エージェントの枠組みが確立され、機関導入のための法的確実性が提供されます。

アプリケーションの躍進: 予測市場、DeFi 最適化、コンテンツ作成において、エージェントが人間のオペレーターよりも明確に優れていることが実証され、暗号資産ネイティブ以外のユーザー層にも普及が進みます。

インフラ競争: 分散型推論、エージェント調整プロトコル、専用チェーンを構築する複数のチームが競争圧力を生み出し、開発を加速させます。

この収束により、実験的な段階からインフラ的な段階へと移行します。早期導入者は優位性を獲得し、プラットフォームはエージェントサポートをデフォルトとして統合し、経済活動はますます自律的な仲介者を通じて流れるようになります。

Web3 開発にとっての意味

Web3 の次のフェーズに向けて構築を行う開発者は、以下の事項を優先すべきです:

エージェントファーストな設計 (Agent-First Design): 自律的なアクターを例外的なケースではなく、主要なユーザーとして扱います。エージェントがアクティビティの大半を占めることを前提に、 API 、手数料構造、ガバナンスメカニズムを設計してください。

コンポーザビリティ (Composability): エージェントが容易に統合、連携、拡張できるプロトコルを構築します。独自の実装よりも、標準化されたインターフェースの方が重要です。

検証可能性 (Verification): 単なる実行結果だけでなく、実行の暗号学的証明を提供します。エージェントが信頼の連鎖(トラストチェーン)を構築するには、検証可能な計算が必要です。

経済的効率性 (Economic Efficiency): マイクロトランザクション、継続的な決済、ダイナミックな手数料市場に合わせて最適化します。従来のバッチ処理や手動の介入は、エージェントのアクティビティにはスケールしません。

プライバシーの選択肢 (Privacy Options): 透明な運用と機密性の高い運用の両方をサポートします。ユースケースによって、必要とされるプライバシーの保証は異なります。

インフラは整いつつあります。標準が生まれつつあります。経済的インセンティブも一致しています。 AI × Web3 の融合は、これから来るのではなく、すでにここにあります。問いはこうです:次の 10 年間の自律的な経済活動の基盤となるインフラを構築するのは誰か?

BlockEden.xyz は Web3 アプリケーション向けにエンタープライズグレードのインフラを提供し、主要なブロックチェーンエコシステム全体で信頼性の高い高性能な RPC アクセスを提供しています。 AI エージェントインフラと自律型システムのサポートについては、 当社のサービスをご覧ください


出典: