メインコンテンツまでスキップ

「AI」タグの記事が 279 件 件あります

人工知能と機械学習のアプリケーション

すべてのタグを見る

あなたの AI エージェントが「犯罪者」に: Amazon の Perplexity 判決が自律型ソフトウェアのルールをどう塗り替えるか

· 約 16 分
Dora Noda
Software Engineer

サンフランシスコの連邦判事は、AI エージェントを構築するすべての開発者が理解すべき一線を画しました。2026 年 3 月 9 日、Maxine M. Chesney 判事は、Perplexity の Comet ブラウザがユーザーに代わって Amazon アカウントにアクセスしたことで、連邦コンピューター詐欺および濫用に関する法律(CFAA)とカリフォルニア州の包括的コンピューターデータアクセスおよび詐欺法の両方に違反したとの判決を下しました。たとえユーザーが明示的に許可を与えていたとしてもです。決定的な違いは、ユーザーによる認可はプラットフォームによる認可と同じではないということです。

この判決は Perplexity だけに影響するものではありません。現在、数百のスタートアップ、暗号プロトコル、および Web3 プロジェクトが構築している AI エージェントの行動全体を犯罪化する可能性があります。

ステーブルコインの可視性ギャップ:AI エージェントが 2 週間前の PDF に基づいて数兆ドル規模の意思決定を行っている

· 約 12 分
Dora Noda
Software Engineer

5,000 万ドルの DeFi トレジャリーを管理する AI エージェントが、3 つのステーブルコインプール間でリバランスを行う必要があります。エージェントは各トークンの最新の準備金データを照会します。見つけることができる最新のレポートは? 14 日前に公開された PDF の証明書(アテステーション)であり、その 3 日前に取得されたスナップショットに基づいています。そのスナップショットから 17 日間のうちに、発行体は準備金資産の間で数十億ドルを移動させている可能性がありますが、エージェントがそれを知る術はありません。

ステーブルコインの可視性ギャップへようこそ。これは、AI エージェントが財務上の意思決定を行うスピードと、ステーブルコインの準備金が検証・開示される遅いペースとの間に広がる大きな隔たりのことです。

ステーブルコインの可視性のギャップ:AI エージェントは古い PDF レポートに基づいて数兆ドル規模の意思決定を行っている

· 約 14 分
Dora Noda
Software Engineer

5,000 万ドルの財務割り当てを管理する AI エージェントが、主要なステーブルコインの準備金構成を確認します。利用可能な最新データは? 14 日前に公開された PDF です。そのレポートが作成されてからの間に、発行体はアセットクラス間で数十億ドルを移動させたり、償還の波に直面したり、あるいは密かにカストディアンを変更したりした可能性があります。エージェントはそれを知りません — そして、尋ねることもできません。

これがステーブルコインの可視性のギャップであり、今日のデジタル金融において最も過小評価されているシステムリスクかもしれません。

Tempo のマシンペイメントプロトコル:Stripe と Paradigm はどのようにお金の OAuth を構築したのか、そしてなぜそれがすべての AI エージェントにとって重要なのか

· 約 16 分
Dora Noda
Software Engineer

何十年もの間、インターネットには「HTTP 402 — Payment Required(支払いが必要)」という休眠状態のステータスコードが存在していました。将来の使用のために予約されていましたが、ウェブネイティブな決済レイヤーが登場することはありませんでした。2026年3月18日、Stripe と Paradigm がついにこれを有効化しました。

彼らの決済特化型レイヤー1ブロックチェーン「Tempo」は、マシン決済プロトコル(MPP)とともにメインネットで稼働を開始しました。MPP は、AI エージェントが人間を介さずに支払いを要求、承認、決済できるようにするオープンスタンダードです。稼働開始から1週間以内に、MPP はすでに OpenAI、Anthropic、Google Gemini、Dune Analytics を含む50以上のサービスに統合されました。Visa はこれをカード決済に拡張し、Lightspark はビットコインのライトニングネットワークに拡張しました。

これは単なる新しいブロックチェーンのローンチではありません。マシン間(M2M)コマースがその決済インフラを手に入れた瞬間なのです。

アプリ時代の終焉:AI エージェントが Web3 の主要なソフトウェアインターフェースになる理由

· 約 13 分
Dora Noda
Software Engineer

次の 10 億人のブロックチェーンユーザーが、ウォレットをダウンロードせず、トランザクションを承認せず、ブロックエクスプローラーを見ることもないとしたらどうでしょうか? その未来はもはや仮定の話ではありません。今まさに構築されています。

2026 年第 1 四半期、オンチェーンの 1 日あたりのアクティブ AI エージェント数は 25 万を超え、前年比で 400% 以上の成長を遂げました。今四半期にローンチされた新しい DeFi プロトコルの 68% 以上が、取引や流動性管理のために少なくとも 1 つの自律型 AI エージェントを搭載しています。一方、Gartner は、2026 年末までにエンタープライズ アプリケーションの 40% にタスク固有の AI エージェントが組み込まれると予測しています(2025 年の 5% 未満から急増)。私たちが知る「アプリ」は空洞化し、エージェントがその座に取って代わろうとしています。

x402 + A2A + MCP:自律型エージェント経済を支える3つのプロトコルスタック

· 約 15 分
Dora Noda
Software Engineer

2026年3月、Banco Santander(サンタンデール銀行)とMastercardは、欧州初となるAIエージェントによるエンド・ツー・エンドのライブ決済を完了しました。人間による「確定」のクリックも、ブラウザでのチェックアウトページの読み込みも、カード番号の入力も一切ありません。取引はオンチェーンで2秒以内に決済されました。これは単なるデモではありません。商用インフラ上で実行される実際の支払いで、水面下で連携する、多くの人がまだ聞いたこともない3つのオープンプロトコルに支えられていました。

これら3つのプロトコル(Coinbaseのx402、GoogleのAgent2Agent (A2A)、AnthropicのModel Context Protocol (MCP))は、自律型エージェントがいかにしてサービスを発見し、互いに調整し、使用料を支払うかを定義する統合スタックとして静かに組み上げられています。これらは合わせて、エージェント経済における「TCP / IP の瞬間」を象徴しています。つまり、マシン・ツー・マシン(M2M)コマースを可能にするだけでなく、不可避なものにするための基礎となる配管です。

パワーグリッドに頭脳が宿る:DePIN と AI がいかにしてエネルギーインターネットを構築しているか

· 約 13 分
Dora Noda
Software Engineer

自宅のバッテリーが隣人のソーラーパネルと電力価格を交渉できたらどうでしょうか。それも、ミリ秒単位で自律的に行われ、オンチェーンで決済されるとしたら? このシナリオは、もはや理論上の話ではありません。2026 年、分散型物理インフラネットワーク(DePIN)と AI 駆動型のグリッド調整が融合し、エネルギー業界が数十年にわたり語りながらも実現できなかったもの、すなわち真に分散化されたインテリジェントな電力網(パワーグリッド)を構築しようとしています。

世界経済フォーラムは、DePIN が 2028 年までに 3.5 兆ドル規模のセクターに成長すると予測しており、エネルギーはその中で最も具体的なユースケースとして浮上しています。AI データセンターによる電力消費が 2030 年までに米国の総電力の 9% に達すると予測され、世界的なエネルギー需要が急増する中、中央集権的なユーティリティ・モデルは、本来想定されていなかった負荷によって限界を迎えつつあります。

ICP のミッション 70:70% のインフレ削減とパキスタンとの主権 AI 提携は Internet Computer を救えるか?

· 約 15 分
Dora Noda
Software Engineer

AWS に取って代わることを目指すブロックチェーンが、2 億 4,000 万人の人口を抱える国家を説得して導入に踏み切らせました。しかも、その過程でトークン供給量を 70% 削減しようとしています。

2026 年 1 月、DFINITY 財団は ICP の価格を一週間で 25% 急騰させるホワイトペーパーを公開しました。「ミッション 70」と呼ばれるこの提案は、ICP の年間インフレ率を 9.72% からわずか 2.92% に劇的に引き下げることを目指しています。これは、トークンの供給ダイナミクスを根本的に再構築する 70% の削減です。その数週間後、パキスタンのデジタル庁(Digital Authority)は、インターネットコンピュータ上にソブリンクラウドと AI インフラを構築するための画期的なパートナーシップを締結しました。そして 3 月には、韓国最大の取引所である Upbit が ICP をウォン(KRW)建のフル取引ペアで上場させ、暗号資産で最も活発なリテール市場の一つへの門戸を開きました。

トークノミクス改革、主権国家との提携、そして大手取引所への拡大というこれら 3 つの展開は、物議を醸した 2021 年の 90 億ドルのローンチ以来、インターネットコンピュータがその存在感を示すための最も組織的な取り組みを象徴しています。しかし、Bittensor が 34 億ドルの時価総額を誇り、中央集権的な AI ラボが世界の推論の 99% を支配する市場において、ICP のユニークな「ワールドコンピュータ」という命題は、今なお支持者を見つけることができるのでしょうか?

Vera Rubin時代の幕開け:AI演算と供給危機の克服

· 約 11 分
Dora Noda
Software Engineer

NVIDIA が今後 2 年間に製造できるすべてのチップは、すでに予約済みです。2026 年 3 月 16 日の GTC 2026 において、ジェンスン・フアンは TSMC の 3nm プロセスで構築された 3,360 億個のトランジスタを搭載する AI プラットフォーム「Vera Rubin」を発表しました。同時に、業界が恐れていた事態を認めました。HBM4 メモリは 2026 年まで完全に完売しており、GPU のリードタイムは現在 36 週間から 52 週間に及んでいます。190 億ドル規模の DePIN(分散型物理インフラネットワーク)セクターにとって、この供給危機は問題ではありません。それは、この 10 年で最大のチャンスなのです。

Vera Rubin アーキテクチャ:AI 演算の新たなスケール

暗黒物質の存在を証明した天文学者にちなんで名付けられた Vera Rubin は、Blackwell 以来の NVIDIA の最も野心的なプラットフォームの飛躍を象徴しています。その数値は驚異的です:

  • 3,360 億個のトランジスタ:TSMC の N3P ノードを採用し、Blackwell のほぼ 2 倍の密度を実現
  • 22 TB/s のメモリ帯域幅:SK ハイニックスおよびサムスン電子の次世代 HBM4 経由
  • NVL72 構成:72 基の Rubin GPU と 36 基の Vera CPU が NVLink 6 ファブリックで接続され、3.6 exaFLOPS の NVFP4 推論と 2.5 exaFLOPS の学習性能を提供
  • 5 倍の推論スループット向上:NVIDIA の新しい 4 ビット浮動小数点(NVFP4)フォーマットを使用

フアンは基調講演で「5 層の AI ケーキ」 — エネルギー、チップ、インフラ、モデル、アプリケーション — という概念を提示しました。特に最初の層に異例の重点が置かれました。データセンターはすでに世界の電力の 2 ~ 3% を消費しており、AI ワークロードの拡大に伴い、2030 年までにその割合は 3 倍になると予測されています。フアンは海洋波力発電のデジタルツインを含む再生可能エネルギー・パートナーシップを強調し、演算能力の供給がもはやシリコンだけの問題ではなく、エネルギー問題であることを示唆しました。

Vera Rubin の初期サンプルは 2026 年後半にティア 1 クラウドプロバイダーに出荷され、2027 年初頭にフル生産が開始される予定です。コードネーム「Feynman」と呼ばれる次のアーキテクチャも、すでに 2027 年のロードマップに組み込まれています。

誰もエンジニアリングで回避できない供給危機

Vera Rubin の仕様が注目を集める一方で、その背後にある供給の物語はより深刻な状況を物語っています。TSMC、SK ハイニックス、マイクロン、インテル、NVIDIA、サムスンの CEO たちは一様に、先端プロセス、高度なパッケージング、そして HBM(高帯域幅メモリ)への需要が、生産能力の構築速度をはるかに上回っているというメッセージを発信しています。

ボトルネックは多岐にわたります:

  • HBM メモリ:SK ハイニックスは「2026 年の HBM 供給はすべて完売した」と発表しました。マイクロンは主要顧客の需要の 55 ~ 60% しか満たせません。サムスンと SK ハイニックスは、2026 年の契約において HBM3E の価格を 20% 近く引き上げました。
  • 高度なパッケージング:HBM スタックを GPU パッケージに組み立てるために不可欠な TSMC の CoWoS(Chip-on-Wafer-on-Substrate)容量は、2026 年まで完売したままです。
  • GPU の割り当て:Google、Microsoft、Amazon、Meta といったハイパースケーラーが、数年間にわたる割り当てを確保しています。中小企業や研究機関、国家 AI 構想は 36 ~ 52 週間のリードタイムに直面しており、事実上 2027 年以降まで最先端の AI ハードウェアから締め出されています。

その結果、演算市場は二層化しています。一握りのハイパースケーラーが次世代 GPU 容量の大部分を支配する一方で、スタートアップや中堅企業、研究機関は残されたリソースを奪い合っています。

DePIN の瞬間:非主流から最前線へ

ここで分散型物理インフラネットワーク(DePIN)が登場します。DePIN ネットワークが NVIDIA GPU を何もないところから製造することはできませんが、別の、しかし同様に重要な問題を解決します。それは、世界中にすでに存在する膨大な未利用の GPU 容量を動員することです。

DePIN 演算セクターの時価総額は、わずか 1 年で 52 億ドルから 190 億ドル以上に成長しました。この成長は、単なるトークン投機ではなく、実際の利用指標に裏打ちされています。

Render Network は、GPU レンダリングから AI 推論ワークロードに拡張した後、時価総額 20 億ドルを突破しました。AI ワークロード専用のサブネット「Dispersed」の立ち上げにより、ネットワークはクリエイティブと AI 演算の交差点に位置しています。Render は、AWS や Google Cloud と比較して最大 85% のコスト削減で GPU レンダリングを提供します。

Aethir は、2025 年に約 4,000 万ドルの四半期収益と 14 億時間以上の演算時間を提供し、150 社以上のエンタープライズクライアントにサービスを提供したと報告しました。これはテストネットのデモではなく、実際の収益を生み出している商用インフラです。

io.netNosana は、それぞれの成長サイクルにおいて時価総額 4 億ドルを超え、データセンター、暗号資産マイナー、コンシューマーハードウェアからのアイドル状態の GPU 容量をオンデマンドの演算プールに集約しました。

価格差は顕著です。DePIN マーケットプレイスにおける NVIDIA H100 のコストは、同等のワークロードにおいて AWS の 18 ~ 30 分の 1 になることがあります。信頼性の変動を考慮してオーバープロビジョニングが必要な場合でも、DePIN ネットワークはバッチ処理、推論タスク、短期間のトレーニングにおいて 50 ~ 75% のコスト削減を実現します。

企業の計算が変化する

企業による DePIN 演算の採用は、予測可能ながらも加速するパターンを辿っています。最大の障壁は、オーケストレーションの複雑さ、分散環境でのデバッグの難しさ、強制力のある SLA の欠如、そして企業の IT 部門が統合に苦慮する暗号資産ネイティブな調達ワークフローでした。

しかし、2026 年がその計算を変えています。中央集権的な GPU アクセスが事実上制限される中、企業はますますハイブリッドアーキテクチャを採用しています:

  • 機密性の高い低遅延モデル:エッジデバイス上でローカルに実行
  • 大規模なトレーニング(学習):GPU 割り当てを確保済みのハイパースケーラーを利用
  • 柔軟なバースト容量の推論:コスト裁定のために分散型ネットワークへルーティング

このハイブリッドモデルは、DePIN を「興味深い実験」から「実用的なオーバーフロー弁」へと変貌させます。AWS の GPU 枠が枯渇し、NVIDIA の待機リストが製品のデッドラインを越えて延びているとき、分散型ネットワークによる 50% のコスト削減は、もはや「分散化」という哲学的な選択ではなく、ビジネス上の必然となります。

世界経済フォーラムによる 2028 年までの 3.5 兆ドルの DePIN 市場予測は、並外れた成長率を示唆しています。たとえその半分のペースであっても、DePIN はあらゆる業界で最も急速に成長しているインフラセクターの一つとなるでしょう。

エネルギー:チップ不足の背後に隠れたボトルネック

フアンによる GTC 2026 でのエネルギーの強調は偶然ではありません。AI の電力需要は、半導体のサプライチェーンが対応できる速さを超えて増大しています。現在のデータセンターの電力消費は世界全体の 2 ~ 3% ですが、AI ワークロードだけで 2030 年までに 6 ~ 9% に達する可能性があるとの予測もあります。

このエネルギーのボトルネックは、DePIN ネットワークに別の構造的優位性をもたらします。中央集権的なハイパースケーラーは、豊富で安価な電力がある場所に大規模なデータセンターを建設しなければならず、計画から運用まで 2 ~ 4 年かかります。対照的に、DePIN ネットワークは、既存の場所にある既存の電力接続を備えた既存のハードウェアを集約します。インフラはすでに「接続」されているのです。

分散型仮想発電所やトークン化された再生可能エネルギー・クレジットなど、DePIN とエネルギーの交差点にあるプロジェクトは、演算能力を提供すると同時に、それを動かすために必要な分散型エネルギー資源を調整するという、方程式の両側を担うポジションを確立しようとしています。

次に来るもの

Vera Rubin 時代は、今後 2 ~ 3 年の AI インフラを定義するでしょう。しかし、最も重要なハードウェアは、NVIDIA が 2027 年に出荷するものだけではありません。世界中にすでに導入されており、1 日の大部分をアイドル状態で過ごしている数百万個の GPU です。

今後 12 ヶ月を形作る 3 つの力学:

  1. GPU 不足は緩和される前に激化する。 Vera Rubin の生産が本格化するのは 2027 年初頭です。現在の Blackwell 世代は依然として供給制約にあります。このギャップの間にオーバーフロー需要を取り込む DePIN ネットワークには、エンタープライズ級の信頼性を大規模に証明する好機があります。

  2. ハイブリッド演算アーキテクチャが標準になる。 「ハイパースケーラーか、さもなくばゼロか」という二者択一は消滅しつつあります。企業は遅延、コスト、可用性の要件に基づいて、中央集権型、エッジ、分散型インフラにワークロードをますます分散させるようになります。

  3. エネルギーが最大の制約となる。 チップの供給がいずれ緩和されたとしても、電力の可用性が追いつかない可能性があります。多様なエネルギー源と地域に本質的に分散している DePIN のモデルは、中央集権的なデータセンターでは太刀打ちできない、局所的な電力制約に対する構造的な回復力を提供します。

NVIDIA の GTC 2026 の皮肉な点は、その最も重要な示唆が Vera Rubin の驚異的な仕様ではなかったことかもしれません。それは、中央集権的な AI インフラが、いかに強力であっても、いかなるエンジニアリングもすぐには解決できない物理的な限界に直面しているという事実の裏付けでした。世界のアイドル状態の GPU を静かに集約している分散型演算ネットワークにとって、それらの限界は開かれた扉なのです。


BlockEden.xyz は、次世代の分散型アプリケーションを支えるブロックチェーンネットワーク向けに、高性能な RPC および API インフラを提供しています。これには、明日の演算レイヤーを構築する DePIN プロトコルも含まれます。当社の API マーケットプレイス を探索して、構築を開始しましょう。