九游会(九游会真人游戏股份有限公司)J9-官方网站

英伟达和谷歌美国AI棋局的楚河汉界
发布时间:2026-01-23 22:41:48

  

英伟达和谷歌美国AI棋局的楚河汉界

  据了解,这笔订单落在了晶圆级芯片公司Cerebras身上,协议总金额超过100亿美元、对应最高约750兆瓦算力容量,并将分阶段在2026—2028年落地。

  众所周知,长期以来,OpenAI的核心训练体系一直建立在英伟达GPU之上。但最近一段时间里,OpenAI一直在尝试把算力“鸡蛋”放进多个篮子里。

  去年6月,有媒体披露称OpenAI计划通过Google Cloud租用芯片,为包括ChatGPT在内的产品提供部分推理算力。

  这一算力供应策略上发生变化背后,是美国AI产业的两大阵营相互作用下的结果:一边是以英伟达为核心的GPU生态,另一边是近年来崛起的谷歌阵营TPU(谷歌自研的AI专用加速芯片)生态。

  在大模型爆发初期,英伟达几乎是算力的唯一中心:从训练到推理,从芯片到CUDA生态,行业别无其他选择。

  但在过去两年,这种“绝对核心”地位开始松动。一方面GPU供给长期紧张、价格高企;另一方面超大模型推理负载激增,催生对专用加速器与替代架构的现实需求,也为其他算力路线留下切口。

  在这一背景下,谷歌的TPU路线逐渐成型。通过把TPU与Gemini、VertexAI的节奏深度绑定,谷歌逐步搭建起一套“从芯片到模型、云服务”的一体化供给体系。

  Cerebras则是OpenAI在两大阵营之外插入的一枚筹码:它主打晶圆级芯片的技术路线,主打低延迟推理与特定负载的吞吐优势。这家公司也一直被各路机构视为美股潜在IPO标的。

  在英伟达和谷歌两大阵营的“楚河汉界”之间,头部AI企业们在“站队”与“合作”间不断交错。

  尽管在AI算力版图出现了“两大阵营”分化的现象,但在过去一年里,英伟达仍是市场的绝对主力:IDC在2025年二季度的统计显示,英伟达在AI算力厂商份额占比约85.2%。

  只是在AI产业中,“盟友”与“敌人”的界限往往并不清晰,但仍能在头部企业身上,窥探到一丝生态上的偏好。

  英伟达的主力合作伙伴中,微软和AWS(亚马逊云服务)持续把英伟达新品作为云端算力主力;与此同时,谷歌也在加速把TPU打造成更“可迁移”的选项,并通过改进对PyTorch等主流框架的支持、与包括Meta在内的企业/开发者社区协作,九游会真人游戏降低外部使用门槛。

  以微软为例,根据Omdia的估算,2024年微软采购了约48.5万块英伟达Hopper系列GPU,几乎是其竞争对手的两倍之多,显示出它在AI基建领域与英伟达的紧密关系。

  2025年11月,微软与数据中心运营商IREN签署了一份约97亿美元的合同,其中包括大约58亿美元的英伟达GB300芯片与相关设备,用于进一步扩展Azure的AI计算能力。

  不止云厂商,一众大模型企业也是英伟达的基本盘,马斯克此前曾表示xAI的Colossus超算在2025年已部署约20万块英伟达GPU,用于训练Grok系列模型,并计划进一步扩容。

  不过,尽管英伟达的GPU体系虽然市场份额高达八成以上,但其高成本与软件生态锁定,也让一些头部用户开始寻求新的供应链渠道。

  另一边,谷歌TPU在某些推理与训练场景上拥有更低成本的优势,并且与云服务深度整合,这使得市场近年来对其兴趣不断增长。

  几周前,曾有媒体披露Meta正在评估在2027年后引入谷歌自研芯片的可能性,相关合作规模或达数十亿美元,这使TPU有机会成为英伟达之外的一个重要替代样本。

  类似的选择也出现在Anthropic身上。去年10月,Anthropic宣布将大幅扩大与Google Cloud的合作,计划利用多达一百万颗TPU芯片、总价值达到数十亿美元的算力资源,来训练和服务下一代Claude模型,并预计在今年实现超过1吉瓦的计算能力上线。

  Google Cloud CEO库里安称,“Anthropic大幅扩大使用TPU,反映了团队多年来在使用TPU时观察到的强劲价格性能比和效率。”

  不过,Anthropic和谷歌的合作离不开资本面背景。谷歌既是Anthropic的早期投资者,也是其最重要的云算力提供方之一。公开信息显示,谷歌已累计向Anthropic投资超过30亿美元,持有约14%股权。

  通过加大对TPU的使用,Anthropic在成本与算力供给上获得更高确定性,同时也加深了与谷歌在云基础设施层面的长期合作关系。

  不过,AI产业版图中,即使是资本合作伙伴之间,也可能出现产品和业务上的竞争。字母AI在近期的《争夺AI制高点,谷歌和Anthropic必有一战》一文中曾总结,“如果Anthropic利用谷歌的TPU训练出了远超Gemini的模型,那谷歌在应用层的竞争将变得更加困难。”

  正是在这一现实之下,“合纵连横”开始成为AI基建格局中的关键逻辑。算力层面,面对英伟达在GPU与生态上的长期主导,谷歌以TPU、云服务和资本关系拉起稳定合作网络,九游会真人游戏模型公司也借此获得更可控的算力与成本,此为“合纵”。

  但这种结盟并不会延伸到产品前台。进入模型与应用层,竞争重新回到零和博弈:Gemini、Claude、ChatGPT在前端要面临正面厮杀,“连横”随之出现,即在基础设施上交错合作,但在产品上又各自为战。

  英伟达与谷歌两大阵营并存,恰恰放大了这种合纵连横的结构。不过,说起这一版图的形成以及两条路径之争的起源,还要追溯到AI爆发前的10年。

  2006年CUDA发布,使GPU首次成为可被通用编程调用的并行计算平台,开发者得以绕开硬件细节直接释放算力潜能。随后,PyTorch、TensorFlow等主流框架相继围绕CUDA构建,GPU也从图形加速器演变为AI训练与推理的事实标准底座。

  CUDA的价值不止“让GPU可编程”,更在于打造了独家软件生态这一壁垒。

  英特尔前CEO帕特基辛格,在去年接受采访时直言,英伟达真正的护城河在于“CUDA以及NVLink这样的软件和互连体系”,而不仅仅是单一代GPU的性能优势。

  这一体系优势在2012年迎来爆发点,多伦多大学的Alex Krizhevsky等人利用两块英伟达GPU在ImageNet挑战赛上训练出AlexNet并一举夺魁,展示了大规模神经网络与GPU并行计算结合的巨大潜力,成为行业关注的里程碑事件。

  但在深度学习浪潮爆发的同时,大规模神经网络对算力效率和能耗也提出新要求。此时,谷歌意识到,依赖通用GPU在大规模推理和训练时,存在着成本高且功耗大等问题。

  于是,从2015年起,谷歌开始研发TPU——一种面向神经网络推理负载的定制芯片。彼时的目标还不是今天的通用AI计算,而是支撑搜索、翻译和广告等核心业务中的深度学习模型,在数据中心内以更低能耗、更稳定时延完成大规模推理任务。

  2018年,谷歌将TPU正式引入Google Cloud,对外开放使用,试图证明TPU在云端的现实价值。ResNet-50等模型的测试数据显示,TPU上训练可显著缩短时间并降低成本,使原本需要数天的任务在更短周期内完成。

  不过,在几年后的生成式AI爆发初期,英伟达迅速成为了那个最大赢家。2020—2022年,大模型训练从研究走向工程化,A100等GPU凭借成熟的软件生态和稳定供给,成为各大云厂商和模型公司的默认选择。

  TPU的转折点,出现在算力需求持续放大之后。2023年起,随着大模型推理负载激增、电力与成本压力上升,谷歌TPU因在单位能耗和价格性能比上的优势开始受到行业重视,逐步获得更广泛采用。

  字母AI在此前的报道《AI在美国“与民争电”》中曾披露,AI数据中心的惊人能耗,已经迫使美国AI企业亲自下场,投身能源基础设施建设。因此,TPU的能耗和成本优势,无疑是吸引诸多AI企业用户的重要因素。

  另一方面,为降低开发者迁移门槛,谷歌近年明显加大了TPU的软件生态投入。去年,曾有多家外媒披露,谷歌正推进代号为TorchTPU的内部项目,核心目标是提升TPU对PyTorch的原生支持能力。

  据了解,该项目与Meta的需求密切相关,部分软件组件可能开源,以缩小TPU与英伟达GPU在主流开发环境中的使用差距。

  事实上,以谷歌为代表的TPU生态的发展,一定程度上也宏观层面,对冲了英伟达一直占据绝对主导地位的担忧。

  “让一家企业成为全球AI未来的守门人是危险的,会带来严重的经济风险。”美国参议员伊丽莎白沃伦,曾这样呼吁美国司法部启动对英伟达反垄断调查。

  尤其对于OpenAI这样的头部模型公司而言,“合纵联横”的算力格局,无疑比依赖单一技术路线

  在大模型爆发期,OpenAI就与对英伟达的算力体系紧紧捆绑在一起。公开信息显示,在GPT-3时代,OpenAI曾动用约3,600台HGXA100服务器、近3万块英伟达GPU进行训练。

  不过,这种紧密捆绑背后,OpenAI也在探索“去中心化”的举措。尤其是随着近年来模型规模与推理负载急剧上升,新的算力供给路径迫在眉睫。

  去年6月,有媒体披露称OpenAI开始通过Google Cloud租用TPU,为包括ChatGPT在内的产品提供部分推理算力,希望借此降低推理成本。这是OpenAI首次计划批量使用非英伟达芯片。

  而在谷歌TPU和其他供应商之间的摇摆,一定程度上也映射出OpenAI对于谷歌这位竞争对手态势的警惕。

  苹果在近期宣布与谷歌达成多年合作,将用Gemini模型升级Siri与Apple Intelligence。毫无疑问,这一合作将强化谷歌在与OpenAI竞赛中的位置,巩固其在移动端AI入口的生态影响力。

  2026年,美国AI产业的“楚河汉界”之间,“合纵连横”的戏码仍将继续上演。

咨询电话
13647210798