牛牛游戏 英伟达和谷歌, 好意思国AI棋局的楚天河界

发布日期:2026-01-26 23:21    点击次数:169

牛牛游戏 英伟达和谷歌, 好意思国AI棋局的楚天河界

最近,OpenAI又传出购买芯片的音讯,但采购对象却并非英伟达或谷歌。

据了解,这笔订单落在了晶圆级芯片公司Cerebras身上,条约总金额卓著100亿好意思元、对应最高约750兆瓦算力容量,并将分阶段在2026—2028年落地。

家喻户晓,永恒以来,OpenAI的中枢测验体系一直成就在英伟达GPU之上。但最近一段时刻里,OpenAI一直在尝试把算力“鸡蛋”放进多个篮子里。

客岁6月,有媒体线路称OpenAI缱绻通过Google Cloud租用芯片,为包括ChatGPT在内的居品提供部分推理算力。

{jz:field.toptypename/}

这一算力供应策略上发生变化背后,是好意思国AI产业的两大阵营互相作用下的落幕:一边所以英伟达为中枢的GPU生态,另一边是连年来崛起的谷歌阵营TPU(谷歌自研的AI专用加快芯片)生态。

在大模子爆发初期,英伟达简直是算力的独一中心:从测验到推理,从芯片到CUDA生态,行业别无其他遴荐。

但在当年两年,这种“皆备中枢”地位初始松动。一方面GPU供给永恒垂危、价钱高企;另一方面超大模子推理负载激增,催生对专用加快器与替代架构的推行需求,也为其他算力路子留住切口。

在这一配景下,谷歌的TPU路子渐渐成型。通过把TPU与Gemini、VertexAI的节律深度绑定,谷歌迟缓搭建起一套“从芯片到模子、云办事”的一体化供给体系。

Cerebras则是OpenAI在两大阵营除外插入的一枚筹码:它主打晶圆级芯片的本领略线,主打低延迟推理与特定负载的蒙胧上风。这家公司也一直被各路机构视为好意思股潜在IPO标的。

在英伟达和谷歌两大阵营的“楚天河界”之间,头部AI企业们在“站队”与“合作”间不竭交错。

01

两大基座阵营,既要“合纵”也要“连横”

尽管在AI算力疆土出现了“两大阵营”分化的时事,但在当年一年里,英伟达仍是阛阓的皆备主力:IDC在2025年二季度的统计清晰,英伟达在AI算力厂商份额占比约85.2%。

只是在AI产业中,“盟友”与“敌东谈主”的界限雷同并不明晰,但仍能在头部企业身上,窥察到一点生态上的偏好。

英伟达的主力合作伙伴中,微软和AWS(亚马逊云办事)执续把英伟达新品手脚云霄算力主力;与此同期,谷歌也在加快把TPU打形成更“可移动”的选项,并通过变嫌对PyTorch等主流框架的支执、与包括Meta在内的企业/开发者社区和解,控制外部使用门槛。

以微软为例,证实Omdia的估算,2024年微软采购了约48.5万块英伟达Hopper系列GPU,简直是其竞争敌手的两倍之多,清晰出它在AI基建规模与英伟达的雅致关系。

2025年11月,微软与数据中心运营商IREN签署了一份约97亿好意思元的合同,其中包括大要58亿好意思元的英伟达GB300芯片与接头斥地,用于进一步膨胀Azure的AI计议智商。

不啻云厂商,一众大模子企业亦然英伟达的基本盘,马斯克此前曾示意xAI的Colossus超算在2025年已部署约20万块英伟达GPU,用于测验Grok系列模子,并缱绻进一步扩容。

不外,尽管英伟达的GPU体系诚然阛阓份额高达好像以上,但其高成本与软件生态锁定,也让一些头部用户初始寻求新的供应链渠谈。

另一边,谷歌TPU在某些推理与测验场景上领有更低成本的上风,何况与云办事深度整合,这使得阛阓连年来对其兴味连续增长。

几周前,曾有媒体线路Meta正在评估在2027年后引入谷歌自研芯片的可能性,接头合作规模或达数十亿好意思元,这使TPU有契机成为英伟达除外的一个进击替代样本。

近似的遴荐也出目下Anthropic身上。客岁10月,Anthropic晓谕将大幅扩大与Google Cloud的合作,缱绻诈欺多达一百万颗TPU芯片、总价值达到数十亿好意思元的算力资源,来测验和办事下一代Claude模子,并瞻望在本年终局卓著1吉瓦的计议智商上线。

Google Cloud CEO库里安称,“Anthropic大幅扩大使用TPU,反应了团队多年来在使用TPU时不雅察到的强盛价钱性能比和成果。”

不外,Anthropic和谷歌的合作离不开老本面配景。谷歌既是Anthropic的早期投资者,亦然其最进击的云算力提供方之一。公开信息清晰,谷歌已累计向Anthropic投资卓著30亿好意思元,执有约14%股权。

Anthropic CFO Krishna Rao此前曾示意:“Anthropic与Google有永恒伙伴关系,此次膨胀有助于执续增长界说前沿AI所需的算力。”

通过加大对TPU的使用,Anthropic在成本与算力供给上取得更高细则性,同期也加深了与谷歌在云基础要道层面的永恒合作关系。

不外,AI产业疆土中,即使是老本合作伙伴之间,也可能出现居品和业务上的竞争。字母AI在近期的《争夺AI制高点,谷歌和Anthropic必有一战》一文中曾回来,“要是Anthropic诈欺谷歌的TPU测验出了远超Gemini的模子,那谷歌在应用层的竞争将变得愈加辛勤。”

恰是在这一推行之下,“合纵连横”初始成为AI基建表情中的舛错逻辑。算力层面,面对英伟达在GPU与生态上的永恒主导,谷歌以TPU、云办事和老本关系拉起明白合作网罗,模子公司也借此取得更可控的算力与成本,此为“合纵”。

但这种缔盟并不会延长到居品前台。进入模子与应用层,竞争从头回到零和博弈:Gemini、Claude、ChatGPT在前端要面对正面搏杀,“连横”随之出现,即在基础要道上交错合作,但在居品上又各利己战。

英伟达与谷歌两大阵营并存,碰巧放大了这种合纵连横的结构。不外,提及这一疆土的形成以及两条旅途之争的发祥,还要记忆到AI爆发前的10年。

02

GPU与TPU之争,源自“前AI期间”

在生成式AI成为大家焦点之前,英伟达已提前十余年布局算力生态。

2006年CUDA发布,使GPU初度成为可被通用编程调用的并行计议平台,开发者得以绕开硬件细节径直开释算力潜能。随后,PyTorch、TensorFlow等主流框架接踵围绕CUDA构建,GPU也从图形加快器演变为AI测验与推理的事实尺度底座。

CUDA的价值不啻“让GPU可编程”,更在于打造了独家软件生态这一壁垒。

英特尔前CEO帕特·基辛格,在客岁禁受采访时直言,英伟达的确的护城河在于“CUDA以及NVLink这么的软件和互连体系”,而不单是是单一代GPU的性能上风。

这一体系上风在2012年迎来爆发点,多伦多大学的Alex Krizhevsky等东谈主诈欺两块英伟达GPU在ImageNet挑战赛上测验出AlexNet并一举夺魁,展示了大规模神经网罗与GPU并行计议融合的强大后劲,成为行业存眷的里程碑事件。

但在深度学习海浪爆发的同期,大规模神经网罗对算力成果和能耗也提倡新条款。此时,谷歌缔结到,依赖通用GPU在大规模推理和测验时,存在着成本高且功耗大等问题。

于是,从2015年起,谷歌初始研发TPU——一种面向神经网罗推理负载的定制芯片。彼时的目的还不是今天的通用AI计议,而是撑执搜索、翻译和告白等中枢业务中的深度学习模子,在数据中心内以更顽劣耗、更明白时延完成大规模推理任务。

2018年,谷歌将TPU崇拜引入Google Cloud,对外绽放使用,试图表现注解TPU在云霄的现不二价值。ResNet-50等模子的测试数据清晰,TPU上测验可显耀裁汰时刻并控制成本,使原来需要数天的任务在更短周期内完成。

不外,在几年后的生成式AI爆发初期,英伟达飞速成为了阿谁最大赢家。2020—2022年,大模子测验从研究走向工程化,A100等GPU凭借熟谙的软件生态和明白供给,成为各大云厂商和模子公司的默许遴荐。

TPU的转动点,出目下算力需求执续放大之后。2023年起,跟着大模子推理负载激增、电力与成本压力上涨,谷歌TPU因在单元能耗和价钱性能比上的上风初始受到行业酷好,迟缓取得更庸俗选用。

字母AI在此前的报谈《AI在好意思国“与民争电”》中曾线路,AI数据中心的惊东谈主能耗,仍是迫使好意思国AI企业躬行下场,投身动力基础要道开发。因此,TPU的能耗和成本上风,无疑是眩惑诸多AI企业用户的进击要素。

另一方面,为控制开发者移动门槛,谷歌连年彰着加大了TPU的软件生态干预。客岁,曾有多家外媒线路,谷歌正鼓动代号为TorchTPU的里面名堂,中枢目的是提高TPU对PyTorch的原生支执智商。

据了解,该名堂与Meta的需求密切接头,部分软件组件可能开源,以削弱TPU与英伟达GPU在主流开发环境中的使用差距。

事实上,以谷歌为代表的TPU生态的发展,一定进度上也宏不雅层面,对冲了英伟达一直占据皆备主导地位的担忧。

“让一家企业成为大家AI异日的守门东谈主是危急的,会带来严重的经济风险。”好意思国研究员伊丽莎白·沃伦,曾这么命令好意思国法律解释部启动对英伟达反旁边访问。

尤其关于OpenAI这么的头部模子公司而言,“合纵联横”的算力表情,无疑比依赖单一本领略线更具策略弹性。

03

OpenAI的“扭捏”和“押注”

在大模子爆发期,OpenAI就与对英伟达的算力体系牢牢系结在一谈。公开信息清晰,在GPT-3期间,OpenAI曾动用约3,600台HGXA100办事器、近3万块英伟达GPU进行测验。

这种雅致的关系一直执续到今天,客岁年底,OpenAI晓谕和英伟达伸开新一轮合作,缱绻部署至少10吉瓦的英伟达算力系统,这些系统将包括数百万块英伟达GPU,用于测验并运行下一代模子。首批算力瞻望将在本年下半年上线。

不外,这种雅致系结背后,OpenAI也在探索“去中心化”的举措。尤其是跟着连年来模子规模与推理负载急剧上涨,新的算力供给旅途鸡犬相闻。

客岁6月,有媒体线路称OpenAI初始通过Google Cloud租用TPU,为包括ChatGPT在内的居品提供部分推理算力,但愿借此控制推理成本。这是OpenAI初度缱绻批量使用非英伟达芯片。

OpenAI发言东谈主随后称“公司目下仅处于对部分谷歌TPU的早期测试阶段,尚无缱绻进行大规模部署。”

但这份相对克制的回复,仍难以隐秘OpenAI寻求供应链均衡的意图。Forrester高档分析师Charlie Dai此前指出,OpenAI初始测试TPU,反应出“跟着推理成本连续上涨,AI提供商正尝试在英伟达GPU除外,寻找更具成本终局智商的专用有商酌”。

而在几个月后,OpenAI在10月晓谕与AMD签署条约,将在异日几年部署最高6吉瓦的AMD GPU资源,缱绻从本年下半年头始落地,进一步作念实了上述不雅点。

时刻来到2026年头,近期,Cerebras也被纳入OpenAI的算力“鸡蛋篮”。外媒报谈称,两边签署了一项多年期条约,总和卓著100亿好意思元,对应最高750兆瓦算力,并将分阶段寄托至2028年。

OpenAI在公告中由高管Sachin Katti发言,称其算力策略是构建一个“Resilient Portfolio”(有韧性、抗风险的算力组合),按不同负载匹配不同系统;在这一组合中,Cerebras以“低时延推理”智商推崇补位作用。

值得存眷的是,在本领略线上,Cerebras走的是另一条路:把整片硅晶圆径直作念成一颗“晶圆级芯片”(WSE-3)。

Cerebras一颗芯单方面积约4.6万平时毫米,是英伟达主流数据中心GPU(约800平时毫米)的数十倍,集成约4万亿晶体管和90万个中枢,并将计议与存储高度聚会在吞并器件内,从而减少GPU集群中常见的跨卡通讯瓶颈。

而在老本层面,这桩合作背后有一个无法漠视的配景:OpenAI首席践诺官奥特曼,此前以个东谈主身份投资过Cerebras。

另一边,OpenAI的布局并未留步于引入外部算力替代有商酌。客岁以来,多家外媒线路OpenAI已在里面组建芯片团队,并与博通伸开合作,鼓动自研AI加快器芯片,研发重心是围绕本身模子体系,优化推理负载与系统级成果。

奥特曼曾在和博通的合作公告中示意:“通过开发咱们我方的加快器(芯片),不错将咱们在最前沿模子和居品联想中学到的训导径直镶嵌硬件,从而开释更壮健的智商。”

而在谷歌TPU和其他供应商之间的扭捏,一定进度上也映射出OpenAI关于谷歌这位竞争敌手态势的警惕。

苹果在近期晓谕与谷歌达成多年合作,将用Gemini模子升级Siri与Apple Intelligence。毫无疑问,这一合作刚硬化谷歌在与OpenAI竞赛中的位置,沉稳其在移动端AI进口的生态影响力。

更永久地看,好意思国AI算力产业表情并非单纯的阵营间的商战,而是一条可卓著的“楚天河界”。在基础要道层,英伟达与谷歌辞别构筑起两套明白运转的算力基座,成为企业绕不开的永恒干预主义。

但这条“界线”并不虞味着割裂。对模子公司而言,算力是必须“合纵”的底座,而居品与模子竞争才是的确的战场。越是头部玩家,越需要在底层缔盟、在表层博弈。

手脚模子侧的头部玩家,OpenAI的多旅途布局,恰是这一近况的缩影:既要依托英伟达的壮健生态,但也不可执续单点依赖。同期初始布局自研算力,为下一轮算力与模子竞赛预留空间。

{jz:field.toptypename/}

2026年,好意思国AI产业的“楚天河界”之间,“合纵连横”的戏码仍将连接演出。



推荐资讯



Copyright © 1998-2026 牛牛游戏官方网站™版权所有

mulangdi.com 备案号 备案号: 

技术支持:®牛牛  RSS地图 HTML地图