跳到主要内容

Akave Cloud 的 665 万美元豪赌:去中心化存储能否在 AI 工作负载中取代 AWS S3?

· 阅读需 10 分钟
Dora Noda
Software Engineer

每当 AI 团队从 AWS S3 检索训练数据集时,账单上都会多出一项隐形税。这被称为数据出站费(egress fee),在整个云行业中,它悄无声息地将存储成本推高了 30-80%,使看似实惠的对象存储变成了预算黑洞。2026 年 3 月,一家名为 Akave 的初创公司推出了它的解决方案:一个兼容 S3 的去中心化存储平台,提供固定费率定价、零出站费,以及证明数据确实存在于其应在位置的加密证明。

在 Protocol Labs、Avalanche 基金会、Filecoin 基金会、Big Brain Holdings 等机构 665 万美元资金的支持下,Akave Cloud 不仅仅是又一个 Web3 存储实验。它是一个生产级的底层架构方案,瞄准了云支出增长最快的领域:AI 数据湖。

无人谈论的数据出站费问题

云存储定价在表面上看起来很简单。AWS S3 的标准存储费用约为每月每 TB 23 美元。但这个表面数字掩盖了真正的成本驱动因素:数据迁移。

AWS 对跨区域和跨云传输收取每 GB 0.01 到 0.09 美元的费用。Azure 和 Google Cloud 也征收类似的惩罚性费用。对于在多个区域训练模型,或在存储于一个云的数据集上进行迭代但在另一个云运行计算的 AI 公司来说,这些出站费会迅速累积。仅一次 PB 级的数据检索,除了存储费外,传输费就可能高达 90,000 美元。

这造成了行业内所谓的“数据重力”(data gravity),这是一种供应商锁定机制,由于迁移数据的成本太高,即使其他地方有更好或更便宜的选择,你最终也会不得不从同一个供应商那里购买计算服务。对于需要在训练环境、推理流水线和分析平台之间迁移海量数据集的 AI 团队来说,数据重力不仅是不便,更是一个影响每项架构决策的约束条件。

Akave 的主张很简单:每月每 TB 14.99 美元,零出站费,无检索成本。这意味着与 AWS S3 计入数据迁移后的总成本相比,折扣高达 80%。

Akave Cloud 的运作原理

与早期需要开发人员学习全新 API 和工具的去中心化存储协议不同,Akave Cloud 完全兼容 S3。组织可以使用与 AWS 相同的 SDK、CLI 工具和集成方案,将其接入现有工作流。这是一个刻意的设计选择:将迁移摩擦降至接近于零。

在底层,Akave 构建在 Avalanche L1 区块链之上。每一次存储操作都会生成一个名为 eCID(加密内容标识符)的加密收据,并记录在链上。该系统还运行持有证明和数据持久性证明(PDP),提供数学上可验证的证据,证明存储的数据保持完整且可访问。这与中心化云提供商有本质区别,后者要求客户基本只能信任提供商关于数据存储正确的承诺。

对于长期存档,Akave 与 Filecoin 集成,使用 32,16 Reed-Solomon 纠删码来实现 11 个 9 的数据持久性。热存储层处理活跃的工作负载,而 Filecoin 为需要保存数年或数十年的数据集提供冷存储。

该平台还提供对 Snowflake 和 Apache Iceberg(现代数据分析的两大支柱)的原生集成。组织可以直接在存储于 Akave 的数据上运行 SQL 查询、分析流水线和 AI/ML 工作流,而无需重新架构其现有的数据栈。

真实客户,真实工作负载

Akave 与早期去中心化存储尝试的不同之处在于,它已经吸引了运行生产工作负载的企业和研究机构客户。

Intuizi 处理用于营销分析和零售地理空间分析的大型消费者情报数据集。该公司从 AWS Athena 和 S3 架构迁移到了以 Akave 作为底层存储层的 Snowflake 前端,消除了在云环境之间切换工作负载时的出站费惩罚。

LaserSETI 是 SETI 研究所的一个项目,负责摄取并存储高吞吐量的天文观测数据。对于需要长期保存且具有可验证完整性的科学数据集,Akave 的链上审计轨迹提供了传统云存储无法提供的防篡改监管链。

375ai 从边缘摄像头设备收集数据,并管理庞大的 AI 训练数据集。该公司受益于固定费率定价,这使得成本预测变得可控,这是在模型训练周期中数据集不可预测增长时的关键需求。

Skymapper 是另一个早期采用者,其客户群涵盖了营销技术、科学研究和 AI 基础设施,在这三个行业中,存储成本和数据完整性都是生死攸关的问题。

主权 AI 基础设施栈

Akave 最重要的合作伙伴可能是其与去中心化计算市场 Akash Network 的集成。它们共同构成了双方所描述的“首个主权 AI 基础设施”栈,将市场分配的 GPU 算力(据报道,成本比超大规模提供商低 70%)与为每个产出物提供加密验证的 S3 兼容对象存储相结合。

这一点非常重要,因为 AI 主权正成为全球范围内的监管和战略重点。欧盟的《AI 法案》、亚太市场的数据本地化要求,以及对超大规模厂商集中度的日益担忧,正促使各组织寻找不依赖于单一供应商或管辖区的基础设施。

去中心化的“计算+存储”栈直接解决了这个问题。存储在 Akave 上的数据分布在各个节点上,而不是集中在单个供应商的数据中心,而 Akash 上的计算任务可以在遍布多个地理区域的基础设施上运行。对于构建需要遵守数据驻留法规或仅仅希望降低集中化风险的 AI 系统的组织来说,这种架构提供了结构性优势。

市场时机与 15 亿美元的机遇

Akave 正在进入一个预计将从 2025 年的 5.77 亿美元增长到 2032 年的 15.3 亿美元的去中心化云存储市场,复合年增长率为 14.86%。此类服务的更广泛美国市场价值为 22.4 亿美元,预计复合年增长率为 20.5%。

几种汇聚的力量使当前的时机非常有利。首先,AI 工作负载的存储需求呈指数级增长。训练单个大型语言模型可能需要数 PB 的训练数据,组织越来越需要在多个计算环境中存储、版本化和检索这些数据集。其次,全球范围内的数据主权监管正在收紧,创造了对不绑定于单一管辖区的存储解决方案的需求。第三,云出网费用(Egress fee)模型正日益被视为一种榨取手段,甚至 AWS 在竞争压力下也承认了这一问题,并在 2024 年取消了部分出网费用。

去中心化存储领域目前支持超过 350 种基础设施代币,总市值达 350 亿至 500 亿美元,尽管整个领域的实际收入预计到 2026 年才会超过 1.5 亿美元。市值与收入之间的这种差距既凸显了机遇也揭示了挑战:市场相信这一论点,但采用率仍需迎头赶上。

去中心化存储真的能竞争吗?

诚实的答案是:在超大规模方面还没有,但差距缩小的速度比大多数人预期的要快。

Akave 的优势显而易见。S3 兼容性消除了曾阻碍早期去中心化存储协议的迁移壁垒。零出网费用解决了一个真正的痛点。链上验证提供了中心化供应商无法比拟的审计跟踪。而 Avalanche L1 架构提供了活动工作负载所需的性能,而不仅仅是归档用例。

挑战同样真实。去中心化存储网络在历史上一直难以在大规模下保持一致的性能。热存储工作负载的延迟需要匹配或超过中心化替代方案,才能加速企业采用。此外,AWS 的网络效应(将存储与计算、数据库、机器学习服务以及数百种其他工具集成)创造了一种仅靠价格无法克服的粘性。

Akave 似乎理解了早期协议经常忽略的一点:采用之路并非通过关于去中心化的意识形态争论。它是通过成本节约、合规优势和操作兼容性实现的。通过提供价格大幅降低、具有可验证数据完整性的 S3 兼容接口,Akave 正在让经济效益和功能特性来证明自己,而不是依靠架构。

这对 Web3 基础设施意味着什么

Akave 的推出标志着 Web3 基础设施的进一步成熟。去中心化存储作为一个概念或代币激励实验的时代,正在让位于在功能、价格和可靠性上竞争的生产级服务,而不仅仅是去中心化意识形态。

集成模型也至关重要。通过与 Akash 合作进行计算,以及与 Filecoin 合作进行归档存储,Akave 正在为模块化、可组合的基础设施栈做出贡献,其中专门的协议处理特定的功能。这反映了传统云的演进方式:AWS 最初将 S3 和 EC2 作为独立服务推出,后来在组合中变得更加强大。

对于在 2026 年评估基础设施的 AI 团队来说,计算方式正在发生变化。去中心化存储不再仅仅是一个好奇的对象或一种政治宣言。凭借 S3 兼容性、低于 $15/TB 的价格、零出网费用和加密数据验证,它正在成为组织的一种合法替代方案,这些组织愿意打赌云基础设施的未来是开放的、可验证的,并且摆脱了定义云计算前二十年的隐形税收。

BlockEden.xyz 通过企业级区块链 API 服务支持去中心化基础设施领域的开发者。随着 Web3 基础设施栈在去中心化存储和计算等创新推动下走向成熟,探索我们的 API 市场 为你的下一个应用赋能。