九游会(九游会真人游戏股份有限公司)J9-官方网站

英伟达Blackwell架构与开源协同推动AI推理成本降低10倍
发布时间:2026-02-16 15:12:55

  

英伟达Blackwell架构与开源协同推动AI推理成本降低10倍

  以往用昂贵专有模型的高成本模式正在被颠覆,低成本、高性价比的开源模型 + 专用软硬件的组合有望成为主流。

  英伟达日前发布全面分析,显示其最新的 Blackwell GPU 平台与开源推理模型的组合可使每 token 成本降低 4 到 10 倍。

  该数据于 2026 年 2 月 13 日发布,强调行业正从昂贵的专有模型转向由开源智能与专用硬件-软件协同设计驱动的、更具成本效益且高性能的生态系统。这些成本降低是通过多层方法实现的,涵盖 Blackwell GPU 架构、原生低精度 NVFP4 数据格式,以及包括 TensorRT-LLM 和 Dynamo 推理框架在内的优化软件库。

  英伟达表示,这些技术进步使得 Baseten、DeepInfra、Fireworks AI 和 Together AI 等推理服务提供商能够以远低于以往的成本提供前沿级智能。

  例如,采用 NVFP4 格式时,每百万 token 的成本从旧的 Hopper 平台上的 20 美分降至 Blackwell 上的仅 5 美分——单就硬件成本而言就下降了 75%,还未计算切换到开源模型带来的额外节省。

  在医疗领域,AI 初创公司 Sully.ai 报告称,通过将业务从专有闭源模型迁移到由 Baseten 托管、基于 Blackwell 的开源替代方案,推理成本下降了 90%。这一 10 倍的成本降低伴随着 65% 的响应时间提升,使公司能更高效地自动化医疗编码与文档工作。

  同样在游戏领域,开发商 Latitude 利用 DeepInfra 的 Blackwell 基础设施为其原生 AI 游戏 Voyage 保持低延迟响应的同时,将 token 成本降低了 4 倍。这使得在流量高峰期间也能部署更复杂的模型而不影响玩家体验。

  从分析角度看,这一进展标志着许多企业 AI 应用的“专有溢价”时代的终结。

  在过去两年中,闭源模型的高成本成为许多初创公司进入的障碍。然而,随着开源模型与前沿专有系统达成性能上的可比,瓶颈已从模型智能转向基础设施效率。

  英伟达的“极致协同设计”战略——将硬件(Blackwell)、数据格式(NVFP4)和软件(TensorRT)同步开发——正在打造一道竞争护城河,使得使用通用硬件的云服务提供商难以在每 token 成本上竞争。

  这种 10 倍的成本降低对所谓的“代理式”工作流尤为关键,在此类场景中,单个用户查询可能触发数十个后台自主交互。开发开源推理系统的 Sentient Labs 报告称,在病毒式发布期间,使用基于 Blackwell 的 Fireworks AI 提供了处理单周 560 万次查询所需的吞吐量。

  若无这些效率提升,多代理系统的基础设施开销对大多数开发者而言在经济上无法支撑。此外,在客户服务方面,Decagon 在语音 AI 上实现了低于 400 毫秒的响应时间,与专有模型相比,每次查询成本降低了 6 倍。这种性能水平对 24/7 的语音部署至关重要,因为延迟直接影响用户信任。

  九游会J9

  英伟达的路线图显示,即将推出的 Rubin 平台将目标是在 Blackwell 基础上再实现性能与成本效率 10 倍的提升。

  随着 token 经济学的持续改善,我们很可能看到从“把 AI 当作一个功能”向“把 AI 作为基础设施”的转变,智能成本在运营预算中将变得微不足道。

咨询电话
13647210798