跳到主要内容

Vera Rubin 时代:应对 AI 算力与供应危机

· 阅读需 9 分钟
Dora Noda
Software Engineer

NVIDIA 未来两年能生产的每一颗芯片都已被预订一空。在 2026 年 3 月 16 日的 GTC 大会上,黄仁勋揭晓了 Vera Rubin —— 一个基于台积电 3nm 工艺构建、拥有 3360 亿个晶体管的 AI 平台 —— 同时证实了业界早已担忧的事实:HBM4 内存到 2026 年已完全售罄,而 GPU 的交付周期现在已延长至 36 到 52 周。对于价值 190 亿美元的 DePIN 领域来说,这场供应危机并非难题,而是十年一遇的机遇。

Vera Rubin 架构:AI 算力的新规模

以证明暗物质存在的天文学家命名,Vera Rubin 代表了 NVIDIA 自 Blackwell 以来最雄心勃勃的平台飞跃。其数据令人震撼:

  • 3360 亿个晶体管,采用台积电 N3P 工艺 —— 密度几乎是 Blackwell 的两倍
  • 22 TB/s 内存带宽,通过来自 SK 海力士和三星的下一代 HBM4 实现
  • NVL72 配置:72 个 Rubin GPU 和 36 个 Vera CPU 通过 NVLink 6 网络架构连接,提供 3.6 exaFLOPS 的 NVFP4 推理算力和 2.5 exaFLOPS 的训练算力
  • 5 倍推理吞吐量提升,采用 NVIDIA 全新的 4 位浮点(NVFP4)格式

黄仁勋围绕 “AI 五层蛋糕” 展开了主题演讲 —— 能源、芯片、基础设施、模型和应用。第一层受到了不同寻常的重视。数据中心已经消耗了全球 2-3% 的电力,预计随着 AI 工作负载的扩展,这一份额到 2030 年可能会翻三倍。黄仁勋强调了可再生能源合作伙伴关系,包括用于海浪发电的数字孪生,这预示着算力供应不再仅仅是硅片问题 —— 它已成为一个能源问题。

首批 Vera Rubin 样品预计将于 2026 年底向一线云服务商发货,并在 2027 年初投入全面生产。代号为 Feynman 的下一代架构也已列入 2027 年的路线图。

无人能通过工程手段解决的供应危机

虽然 Vera Rubin 的规格占据了头条,但底层的供应情况则揭示了一个更紧迫的故事。来自台积电、SK 海力士、美光、英特尔、NVIDIA 和三星的 CEO 们都传达了同一个信息:对先进工艺节点、先进封装和 HBM 的需求增长速度远快于产能建设速度。

瓶颈是全方位的:

  • HBM 内存:SK 海力士确认 “我们 2026 年全年的 HBM 供应已售罄”。美光只能满足核心客户需求的 55-60%。三星和 SK 海力士已将 2026 年合同的 HBM3E 价格提高了近 20%。
  • 先进封装:台积电的 CoWoS(晶圆级封装)产能 —— 这对于将 HBM 堆栈组装到 GPU 封装上至关重要 —— 到 2026 年仍处于售罄状态。
  • GPU 配额:谷歌、微软、亚马逊和 Meta 等超大规模云服务商(Hyperscalers)已经锁定了多年的配额。较小的企业面临 36-52 周的交付周期,实际上在 2027 年或更晚之前,他们都被挡在了前沿 AI 硬件的大门之外。

结果是一个两级分化的算力市场。少数几家超大规模服务商掌控着绝大部分下一代 GPU 产能,而其他所有人 —— 初创公司、中型企业、研究机构和主权 AI 计划 —— 都在争夺剩余的资源。

DePIN 的时刻:从边缘走向前沿

这正是去中心化物理基础设施网络(DePIN)发挥作用的地方。虽然没有任何 DePIN 网络能凭空制造出 NVIDIA GPU,但这些网络解决了另一个同样关键的问题:动员全球范围内已经存在的庞大闲置 GPU 算力池。

DePIN 算力板块的市值在一年内从 52 亿美元增长到超过 190 亿美元,这种增长是由真实的指标支撑的,而不仅仅是代币投机。

Render Network 在从 GPU 渲染扩展到 AI 推理工作负载后,市值已突破 20 亿美元。其推出的 Dispersed(AI 工作负载专用子网)使该网络处于创意与 AI 算力的交汇点。与 AWS 或 Google Cloud 相比,Render 提供的 GPU 渲染可节省高达 85% 的成本。

Aethir 报告 2025 年季度营收接近 4000 万美元,交付了超过 14 亿个算力小时,服务于 150 多家企业客户。这不再是测试网演示,而是产生真实收入的生产级基础设施。

io.netNosana 在其增长周期中市值均超过 4 亿美元,它们将来自数据中心、加密矿工和消费级硬件的闲置 GPU 产能聚合到按需算力池中。

价格差异是显著的。在 DePIN 市场上,一个用于类似工作负载的 NVIDIA H100 成本可能比 AWS 低 18-30 倍。即使考虑到迫使某些过度配置的可靠性差异,DePIN 网络在批处理工作负载、推理任务和短期训练运行方面仍能提供 50-75% 的成本节约。

企业决策的转变

企业对 DePIN 算力的采用正遵循一个可预测但不断加速的模式。最大的阻碍一直是编排复杂性、分布式故障调试、缺乏强制性 SLA 以及企业 IT 部门难以整合的加密原生采购流程。

但 2026 年正在改变这一现状。随着中心化 GPU 访问实际上进入配给制,企业越来越多地采用混合架构:

  • 敏感、低延迟模型在本地边缘设备上运行
  • 大规模训练任务留在已锁定 GPU 配额的超大规模服务商处
  • 灵活的弹性推理需求路由到去中心化网络进行成本套利

这种混合模式使 DePIN 从 “有趣的实验” 变成了 “务实的溢出阀”。当你的 AWS GPU 配额耗尽,而 NVIDIA 的排队名单长过你的产品截止日期时,在去中心化网络上节省 50% 的成本就不再是关于去中心化的哲学选择,而是业务必需。

世界经济论坛预测到 2028 年 DePIN 市场规模将达到 3.5 万亿美元,这意味着极高的增长率。即使只有这个速度的一半,DePIN 也将代表任何行业中增长最快的基础设施领域之一。

能源:芯片瓶颈背后的隐形瓶颈

黄仁勋在 GTC 2026 上对能源的强调并非偶然。AI 对电力的胃口增长速度快于半导体供应链的应对能力。目前数据中心耗电量占全球产出的 2-3%,但预测显示仅 AI 工作负载到 2030 年就可能将其推高至 6-9%。

这种能源瓶颈为 DePIN 网络创造了另一个结构性优势。中心化云服务商必须在电力供应充足、价格低廉的地区建造大型数据中心 —— 这一过程从规划到运营需要 2-4 年。相比之下,DePIN 网络聚合了现有位置、拥有现有电力连接的现有硬件。基础设施已经接入了电网。

DePIN 与能源交汇的项目,如去中心化虚拟电厂和代币化可再生能源配额,正在定位于服务方程的两端:既提供算力,又协调为其供电所需的分布式能源。

未来展望

Vera Rubin 时代将定义未来两到三年的 AI 基础设施。但最重要的硬件不仅仅是 NVIDIA 在 2027 年交付的产品 —— 还有全球已经部署的、每天大部分时间处于闲置状态的数百万颗 GPU。

三个动态将塑造接下来的 12 个月:

  1. GPU 短缺在缓解前会先加剧。 Vera Rubin 的生产要到 2027 年初才能放量。目前的 Blackwell 代仍处于供应受限状态。在此期间捕获溢出需求的 DePIN 网络将有一个窗口期来证明大规模的企业级可靠性。

  2. 混合算力架构成为标准。 “非超大规模服务商即无” 的二元选择正在消失。企业将越来越多地根据延迟、成本和可用性要求,将工作负载分配到中心化、边缘和去中心化基础设施中。

  3. 能源成为核心约束。 即便芯片供应最终放缓,电力供应也可能无法跟上。DePIN 的分布式模式 —— 天生散布在不同的能源来源和地理位置 —— 提供了中心化数据中心无法企及的抵御局部电力限制的结构性韧性。

GTC 2026 的讽刺之处可能在于,它最重要的启示并非 Vera Rubin 令人惊叹的规格,而是它证实了中心化 AI 基础设施无论多么强大,都面临着任何工程手段都无法立即解决的物理极限。对于正在悄悄聚合全球闲置 GPU 的去中心化算力网络来说,这些极限正是一扇敞开的大门。


BlockEden.xyz 为驱动下一代去中心化应用(包括构建未来算力层的 DePIN 协议)的区块链网络提供高性能 RPC 和 API 基础设施。探索我们的 API 市场开始构建。