訂閱
糾錯(cuò)
加入自媒體

谷歌:“手撕”英偉達(dá),翻身仗敘事靠譜嗎?

Google的全棧AI邏輯已經(jīng)演繹了一個(gè)多月,看上去圍繞OpenAI的循環(huán)借貸故事出現(xiàn)破綻,從而導(dǎo)致“突然”的AI敘事轉(zhuǎn)變。但Google鏈屬于厚積薄發(fā),技術(shù)更迭是量變引起質(zhì)變,而最關(guān)鍵的是業(yè)務(wù)定位發(fā)生了根本性的變化。

借著Anthropic又下110億TPU訂單,Meta推進(jìn)與Google底層語(yǔ)言開(kāi)發(fā)合作之際,海豚君來(lái)梳理一下:

1)TPU生態(tài)到底發(fā)生了什么關(guān)鍵變化?

2)如何厘清Google與Anthropic、Broadcom之間的訂單關(guān)系?

3)當(dāng)下估值打入了多少TPU預(yù)期?

一、直擊核心問(wèn)題:TPU的積存訂單與增量收入確認(rèn)

1、TPU的技術(shù)替代“突然”爆發(fā)?

如果不是在行業(yè)內(nèi),這可能是大家的第一個(gè)疑問(wèn)。在市場(chǎng)大多數(shù)記憶還停留在TPU通用性不夠,Google主要用來(lái)內(nèi)用而非對(duì)外商用時(shí),會(huì)非常訝異為何到了TPU v7這一版本,突然開(kāi)講TPU對(duì)的GPU替代邏輯。

這并非市場(chǎng)的重大忽視,奇點(diǎn)形成的關(guān)鍵是 TPU在集團(tuán)內(nèi)部的戰(zhàn)略定位轉(zhuǎn)變——從“對(duì)內(nèi)為主”轉(zhuǎn)為“對(duì)外直接商用”,促使在芯片設(shè)計(jì)理念上發(fā)生了根本性的變化。

在這一輪AI LLM時(shí)代之前,TPU的設(shè)計(jì)理念都偏保守。與英偉達(dá)idia在設(shè)計(jì)上更偏重單片核心算力的持續(xù)升級(jí),TPU在設(shè)計(jì)上更聚焦性?xún)r(jià)比,即以犧牲極致單片性能,而避免故障率走高導(dǎo)致的物理磨損加速、元件老化、散熱壓力等問(wèn)題的出現(xiàn),從而拉高了整體成本。

當(dāng)然這么設(shè)計(jì)的原因還在于,在TPU對(duì)內(nèi)使用下對(duì)性能追求點(diǎn)與LLM也存在差異,尤其是在算力指標(biāo)上。一方面內(nèi)部的廣告推薦模型不需要這么高的算力吞吐,另一方面沒(méi)有商用壓力,自然也就沒(méi)有“炫技”的必要性。

比如下圖比較了廣告推薦模型(Reco)和LLM大模型對(duì)硬件的性能不同需求,在Reco模型下,對(duì)算力吞吐、網(wǎng)絡(luò)延遲上的要求沒(méi)LLM那么高。

但隨著LLM時(shí)代到來(lái),算力要求大幅提高,集團(tuán)對(duì)TPU的設(shè)計(jì)思路本身需要升級(jí)改變。這個(gè)時(shí)候順便對(duì)TPU開(kāi)啟直接商用,還能在當(dāng)下的千億算力市場(chǎng)分一杯羹,何樂(lè)而不為?于是我們看到,2024年中推出的TPU v5版本在單片算力上出現(xiàn)了顯著提升,并在隨后的v6、v7版本繼續(xù)大幅拉高。

而在LLM另外需要的存儲(chǔ)性能——內(nèi)存帶寬、內(nèi)存容量上,TPU v7版本直接拉齊到了GB200的水平,但單卡性能與GB300以及英偉達(dá)的Rubin系列還有明顯差距。

2、大廠客戶(hù)“突然”密集下訂單?

9月被爆、10月正式官方披露的Anthropic百萬(wàn)顆TPU訂單可以說(shuō)是一石激起千層浪,TPU真正走到舞臺(tái)中央。依據(jù)專(zhuān)家調(diào)研信息,預(yù)計(jì)2026年TPU出貨量將達(dá)到300萬(wàn)顆,在2025年的低基數(shù)上增幅達(dá)到66%。

但前幾天博通的Q4業(yè)績(jī)發(fā)布,提到了Anthropic新下的一份110億TPU v7訂單,預(yù)計(jì)2026年底交付,按單價(jià)來(lái)算,那么也是對(duì)應(yīng)40-50萬(wàn)顆的TPU v7。因此如果能夠按計(jì)劃實(shí)現(xiàn)交付,那么2026年TPU出貨量將至少達(dá)到350萬(wàn)顆數(shù)量級(jí)。

下圖為Anthropic的兩次訂單情況,爆出在接觸合作的Meta、OpenAI等具體細(xì)節(jié)還未確認(rèn):

不過(guò),雖然紙面上的技術(shù)替代性實(shí)現(xiàn)了,但要真正獲得頭部大客戶(hù)的青睞還需要依賴(lài)三個(gè)關(guān)鍵因素,1)性?xún)r(jià)比;2)芯片封裝產(chǎn)能配給;3)開(kāi)發(fā)生態(tài),實(shí)際對(duì)應(yīng)1)有效算力成本;2)臺(tái)積電的CoWoS產(chǎn)能;3)開(kāi)發(fā)者生態(tài),一如英偉達(dá)idia核心壁壘——CUDA生態(tài)。

(1)以量取勝,不做鏟子商

雖然TPU v7在單卡Raw Power(原始算力)上可能略遜于英偉達(dá)idia B200,顯著遜于B300、R100。但在萬(wàn)卡集群的有效算力(MFU)上,Google憑借獨(dú)家的OCS(光路交換)互聯(lián)技術(shù),能大幅緩解傳統(tǒng)GPU集群隨著規(guī)模擴(kuò)大而損耗指數(shù)級(jí)上升的BUG。

正如前文所說(shuō),單卡極致性能會(huì)導(dǎo)致整體硬件的故障率走高,產(chǎn)生磨損、老化、散熱等問(wèn)題,算力使用效率反而一般,后續(xù)的維護(hù)會(huì)帶來(lái)更高的成本壓力。

簡(jiǎn)單而言,Anthropic看中的是性?xún)r(jià)比,即“1美元部署對(duì)應(yīng)的算力”。如下圖所示,TPU v7單位算力價(jià)格(運(yùn)行一顆芯片1小時(shí),所需要的綜合成本,包含芯片和數(shù)據(jù)中心基建成本、電力成本、維護(hù)人力成本等)便宜了近44%,且其中一次性投入的硬件和基建成本(對(duì)應(yīng)客戶(hù)的Capex,需要前置投入)占比在72.7%,也比GB系列的77%~79%略低時(shí),TPU無(wú)疑會(huì)進(jìn)入下游客戶(hù)算力方案選擇的最終“決賽圈”。

(2)改變信披戰(zhàn)術(shù),鎖訂單搶產(chǎn)能

盡管臺(tái)積電和英偉達(dá)多年深度合作,且在過(guò)去一年多的算力軍備競(jìng)賽上,雙方攜手獲得了產(chǎn)業(yè)鏈中絕大部分的利益,但這層關(guān)系并非絕對(duì)捆綁到無(wú)懈可擊,尤其是當(dāng)市場(chǎng)開(kāi)始質(zhì)疑OpenAI的變現(xiàn)力,以及與英偉達(dá)之間循環(huán)貸款對(duì)訂單的增長(zhǎng)持續(xù)性。

從風(fēng)險(xiǎn)規(guī)避的角度,臺(tái)積電會(huì)更加注重客戶(hù)是否存在“有交付能力的在手訂單”,從而決定產(chǎn)能配給。

因此Google對(duì)TPU的信息披露也對(duì)應(yīng)著發(fā)生了變化。既然要與英偉達(dá)idia競(jìng)爭(zhēng),那么也就是需要和英偉達(dá)一樣,盡早公布新產(chǎn)品路線,以便成為客戶(hù)做未來(lái)算力規(guī)劃時(shí)的待選方案之一。通過(guò)提前鎖定訂單,從而能從臺(tái)積電處拿到產(chǎn)能。

TPU v7之前,Google對(duì)TPU的信息披露會(huì)更加謹(jǐn)慎,畢竟被認(rèn)定為只對(duì)內(nèi)的“秘密武器”。比如,2015年TPU一代就已經(jīng)落地并且被Google進(jìn)行大規(guī)模的部署和使用,但直到2016年Google I/O大會(huì)才對(duì)外公布它的存在。

隨后的2-6代,雖然披露略有放寬,一般是I/O大會(huì)發(fā)布PPT后一年內(nèi)就實(shí)現(xiàn)了Cloud上線使用,也就是說(shuō)在發(fā)布時(shí)就已經(jīng)談好了產(chǎn)能規(guī)劃。

但這次v7,為了搶到訂單,Google早早發(fā)布TPU v7產(chǎn)品細(xì)節(jié)(2025年4月發(fā)布),但彼時(shí)產(chǎn)能還未鎖定,直到8月盛傳Broadcom追加對(duì)CoWoS的產(chǎn)能(大概率是因?yàn)闉門(mén)PU v7提前準(zhǔn)備),隨后9月Anthropic才敲定與Google TPU的合作,涉及到TPU機(jī)架的直接銷(xiāo)售(10月底公開(kāi)披露),而最近當(dāng)Anthropic追加了110億訂單,Broadcom則再次與TSMC鎖定明年的產(chǎn)能。

因此,從Broadcom向Anthropic(最早下訂單的頭部客戶(hù))允諾的交付時(shí)點(diǎn)來(lái)看(2026年中和2026年底),Google對(duì)TPU v7的信息披露要相當(dāng)于早于實(shí)際部署的1—2年的時(shí)間,明顯早于前幾代。

(3)為何說(shuō)英偉達(dá)的軟件生態(tài)優(yōu)勢(shì)出現(xiàn)裂縫?

但能讓動(dòng)不動(dòng)砸上百億支出的大廠們,敢于下TPU的訂單,光靠便宜肯定不夠,關(guān)鍵在于軟件生態(tài)的有效完善,這也是TPU走向大規(guī)模商用需要解決的關(guān)鍵問(wèn)題。

英偉達(dá)之所以壁壘深厚,硬件單卡性能只是表面,CUDA才是里子。CUDA是英偉達(dá)idia推出用來(lái)讓GPU理解C+、Python的底層算子庫(kù),近20年行業(yè)的開(kāi)發(fā)經(jīng)驗(yàn)積累,使得CUDA在AI開(kāi)發(fā)領(lǐng)域幾乎不可跨越:前一代的工程師們基于CUDA寫(xiě)好了工具模塊PyTorch,后一代的工程師們無(wú)需從0-1寫(xiě)代碼,而是直接套用PyTorch工具來(lái)做進(jìn)一步的開(kāi)發(fā)。

由此看來(lái),要顛覆CUDA,最重要的是“工具庫(kù)”和“人才”。那么TPU是怎么解決的呢?

a. 主動(dòng)的定點(diǎn)優(yōu)化:編譯器2.0+vLLM直接支持TPU

對(duì)應(yīng)CUDA,TPU的底層算子庫(kù)是Pallas。由于TPU發(fā)展晚一些,且之前一直對(duì)內(nèi),未對(duì)外商用,因此Pallas生態(tài)里面幾乎只有Google自己的工程師在補(bǔ)充算子。而TPU生態(tài)中與PyTorch工具庫(kù)對(duì)應(yīng)的,則是JAX。由于手寫(xiě)Pallas算子的過(guò)程太復(fù)雜,Google另外推出了XLA編譯器,來(lái)實(shí)現(xiàn)從JAX到底層指令集(TPU Runtime)的調(diào)用。

但一己之力vs多人合力的天然弱勢(shì),要讓Pallas/JAX去追趕CUDA/PyTorch的難度太大。軟件生態(tài)的缺陷成為T(mén)PU商業(yè)化的核心阻力之一,除非客戶(hù)本身具備JAX人才(這幾乎只有Google內(nèi)部的人跳到甲方關(guān)鍵崗位,再身體力行的推行JAX才行)。

因此Google推出了PyTorch/XLA編譯器,它能讓原本為GPU設(shè)計(jì)的PyTorch代碼,編譯并運(yùn)行在TPU上。1.0版本還不太絲滑,但23年推出的2.0版本,優(yōu)化了1.0版本的TPU啟動(dòng)速度慢問(wèn)題,不過(guò)還是會(huì)出現(xiàn)首次編譯時(shí)間長(zhǎng)等問(wèn)題。

又一個(gè)轉(zhuǎn)折點(diǎn)在2024年下半年,Google 實(shí)現(xiàn)了vLLM對(duì)TPU的原生支持——2024年7月底披露,vLLM可以實(shí)現(xiàn)在TPU v5e和v6e上運(yùn)行,隨后不斷完善。

vLLM 是目前 AI 推理(讓模型回答問(wèn)題)領(lǐng)域滲透率最高的開(kāi)源軟件庫(kù),最早是為了解決英偉達(dá)idia顯卡碎片化問(wèn)題而誕生,因此天然適配GPU。

Google 為了讓vLLM實(shí)現(xiàn)對(duì)TPU的原生運(yùn)行,與vLLM團(tuán)隊(duì)深入合作,使用Pallas重寫(xiě)了基于vLLM的核心算子,通過(guò)使用 JAX + Pallas,vLLM可以直接調(diào)用TPU的底層內(nèi)存管理能力,避開(kāi)了PyTorch/XLA 編譯器帶來(lái)的延遲和額外開(kāi)銷(xiāo)。

c. 被動(dòng)的開(kāi)發(fā)者滲透:“AI黃埔軍校”的人才戰(zhàn)術(shù)

這一輪AI基建,上游廠商吃了產(chǎn)業(yè)鏈絕大多數(shù)利潤(rùn),但行業(yè)的繁榮最終來(lái)自下游的百花齊放。對(duì)于上游而言,捆綁客戶(hù)以獲得持續(xù)的需求是關(guān)鍵。英偉達(dá)idia采取的方式是股權(quán)投資,相當(dāng)于“芯片折扣+風(fēng)險(xiǎn)投資收益”。

做股權(quán)捆綁并沒(méi)有壁壘,都是送錢(qián),Google完全可以復(fù)制操作。實(shí)際上,Google很早就對(duì)Anthropic進(jìn)行了積極投資,投入30億持股比例達(dá)到14%(不含投票權(quán))。目前Anthropic估值達(dá)到近2000億美元,且不論是否捆綁芯片合同,Google已經(jīng)從這筆風(fēng)投中獲得了不錯(cuò)的收益。

但還是那句話,單純股權(quán)捆綁(“送錢(qián)”)并不是獨(dú)家方案。CUDA的繁榮也在于生態(tài)強(qiáng)大,也就是開(kāi)發(fā)者眾多。因此,這里面的關(guān)鍵因素還是“人才”。

上文提到vLLM直接支持TPU,這對(duì)頭部客戶(hù)來(lái)說(shuō)是明顯利好。畢竟這個(gè)路線繞開(kāi)了編譯器,如果要實(shí)現(xiàn)絲滑運(yùn)用,那么還要配備足夠懂JAX/XLA的TPU人才,對(duì)于頭部用戶(hù),Google應(yīng)該會(huì)專(zhuān)門(mén)配備技術(shù)支持團(tuán)隊(duì)。

但實(shí)際上還有“意外之喜”,作為AI老牌大廠的Google,這么多年同時(shí)也在對(duì)外“輸送”人才。因此,Anthropic的100萬(wàn)TPU大單能夠促成,少不了“人”的推動(dòng)——Anthropic內(nèi)部有不少前DeepMind的TPU人才,因此在這次合作之前,內(nèi)部就已經(jīng)在TPU上訓(xùn)練了Sonnet和Opus 4.5。

因此從上述的“技術(shù)迭代+人才推動(dòng)”兩個(gè)角度而言,TPU的軟件生態(tài)問(wèn)題可以比預(yù)想的速度更快實(shí)現(xiàn)補(bǔ)漏。

二、新一輪AI敘事下Google的價(jià)值

全棧AI的敘事邏輯在資本已經(jīng)演繹了兩個(gè)月,Google在此期間也上漲了近30%,成為2025年初絕對(duì)想不到的Mag 7明星。雖然近期Google也跟隨AI情緒轉(zhuǎn)冷而暫停了上漲趨勢(shì),但不可否認(rèn),在當(dāng)下Google的AI邏輯仍然是相對(duì)較順的。

因此在這個(gè)“中場(chǎng)休息”時(shí)段,海豚君來(lái)扒扒賬:若2026年TPU也走到AI算力的聚光燈下,那么對(duì)Google的價(jià)值會(huì)有多少增量?近4萬(wàn)億美金市值的Google,打入了多少TPU預(yù)期?

1. Google版的算力是如何賺錢(qián)的?

在今年Q2之前,Google主要通過(guò)GCP做算力租賃的服務(wù),出租的算力有英偉達(dá)idia的GPU也有自己的TPU。但從Q2推出TPU v7開(kāi)始,正式開(kāi)啟TPU芯片直銷(xiāo)的大規(guī)模商用。

不同服務(wù)的提供,對(duì)應(yīng)不同的利潤(rùn)率,同時(shí)也代表Google背后的戰(zhàn)略意圖:

(1)GPU算力租賃:屬于GCP云業(yè)務(wù);本質(zhì)上是英偉達(dá)idia的二道販子,自然毛利率最低只有50%左右,主要給那些技術(shù)能力較弱的中小廠商準(zhǔn)備(不愿意用TPU編譯器把基于CUDA寫(xiě)的底層代碼重寫(xiě)一遍),承接一些外溢的算力需求。

(2)TPU算力租賃:屬于GCP云業(yè)務(wù);因?yàn)門(mén)PU自研,因此少了中間商賺差價(jià),再加上本身技術(shù)路線的差異,盡管TPU算力租賃價(jià)格是GPU的60%-70%,但對(duì)于Google來(lái)說(shuō),仍然可以賺70-80%的毛利率。

(3)TPU機(jī)架銷(xiāo)售:屬于第三方的算力售賣(mài)服務(wù),等于是和英偉達(dá)等同臺(tái)競(jìng)爭(zhēng)。TPU并非像GPU那樣“即插即用”,TPU的優(yōu)勢(shì)是ICI(芯片間互連)和OCS(光交換),單臺(tái)服務(wù)器無(wú)法連入超高速的光網(wǎng)絡(luò),因此最小銷(xiāo)售單位是一個(gè)服務(wù)器機(jī)架,每個(gè)機(jī)架包含64顆TPU芯片。

具體銷(xiāo)售時(shí)分成兩種情況:

一種是Broadcom直銷(xiāo)客戶(hù),Google收取GDC軟件棧的技術(shù)支持費(fèi);

另一種是Google直銷(xiāo)客戶(hù),那么Google確認(rèn)硬件收入,Google付給Broadcom、SK等的硬件采購(gòu)、代工費(fèi)用為成本。

由于TPU需要客戶(hù)具備一定的技術(shù)適配能力,因此客戶(hù)目前都是行業(yè)頭部。Anthropic是由Broadcom直接發(fā)給Anthropic,但Meta、xAI等目前正在排隊(duì)與Google商量TPU合作事宜等,也不排除是上述后者情況。

在Anthropic的合作案例里面,由于是Broadcom直銷(xiāo)+托管Anthropic自己找的第三方數(shù)據(jù)中心,因此這里面Google并不確認(rèn)硬件銷(xiāo)售收入,只是對(duì)Anthropic使用TPU軟件棧(系統(tǒng)軟件、編譯器XLA和框架JAX)收取一定的技術(shù)支持、安全更新的服務(wù)費(fèi)。

這部分主要是研發(fā)前置投入、人員團(tuán)隊(duì)的支持,所以邊際成本較低,對(duì)Google來(lái)說(shuō),毛利率可以做到很高。

這里面的特殊之處在于,在Anthropic預(yù)定的近100萬(wàn)塊TPU上(第一筆40萬(wàn)塊+第二筆40-50萬(wàn)塊),Google并未染指TPU硬件收入部分。海豚君認(rèn)為,至少在與英偉達(dá)idia合作密切的頭部廠商上,Google還是更傾向于不賺所謂的“鏟子錢(qián)”。

這是因?yàn),英偉達(dá)idia及其生態(tài)伙伴對(duì)Anthropic等頭部客戶(hù)都用股權(quán)投資來(lái)給了個(gè)內(nèi)部折扣價(jià):

a. 英偉達(dá)投資OpenAI 1000億,以換取10GW算力合同的綁定,暫時(shí)不看股權(quán)增值收益,相當(dāng)于給OpenAI打了個(gè)七折(1-100/350);

b. 微軟、英偉達(dá)分別向Anthropic投資50、100億,換取300億的Azure合同,相當(dāng)于打了個(gè)對(duì)折。

因此這種情況下,如果單顆系統(tǒng)級(jí)TPU v7價(jià)格再算上Google的溢價(jià),那么就相對(duì)H200、B200沒(méi)有明顯的性?xún)r(jià)比優(yōu)勢(shì)了。

可以合理推測(cè),Google并未參與到TPU硬件銷(xiāo)售收入的分成上,而目的是做大TPU生態(tài)(尤其是開(kāi)發(fā)者生態(tài)),后續(xù)通過(guò)按年付費(fèi)的軟件棧服務(wù),以及云租賃算力來(lái)獲得更多具備一定溢價(jià)的變現(xiàn)。

當(dāng)然,這也不排除如果TPU生態(tài)完善度提升,Google也可以做起芯片直銷(xiāo)的模式。但短中期而言,我們認(rèn)為還是做大生態(tài)、讓更多的開(kāi)發(fā)者參與進(jìn)來(lái)是主要目標(biāo),賣(mài)鏟子(實(shí)際也賣(mài)不出太多溢價(jià))只占少數(shù)。

2. 當(dāng)下估值隱含了TPU多少預(yù)期?

從積壓合同額(Revenue Backlog)來(lái)看,Google Cloud最早在2024年二季度就已經(jīng)受益AI(收入反映在3Q25)。不過(guò)彼時(shí)Google Cloud的客戶(hù)大多還是以中小企業(yè)、傳統(tǒng)企業(yè)的需求為主,除了Workspace的慣性增長(zhǎng)趨勢(shì),在AI方面貢獻(xiàn)增量(數(shù)十億量級(jí))的產(chǎn)品形式還主要是Gemini大模型的API。

而在芯片算力上,Google還在遵循市場(chǎng)主要方案,按部就班的采購(gòu)英偉達(dá)芯片——2025年初采購(gòu)Blackwell系列(GB200、300)。

2025年二季度,隨著TPU v7的發(fā)布以及市場(chǎng)對(duì)AI的使用滲透升級(jí),積壓合同余額在高基數(shù)上重新加速增長(zhǎng),這里面應(yīng)該就已經(jīng)有了一些TPU v7帶來(lái)的算力租賃增量。

而三季度凈增的470億中,應(yīng)該就包含420億的Anthropic算力租賃訂單(前文Anthropic訂單明細(xì)表格中60萬(wàn)顆TPU算力租賃,按照每顆TPU v7 1.6美元/小時(shí)單價(jià)計(jì)算,60萬(wàn)*1.6美元/h*24h*365天*5年=420億美元)。

Anthropic并非剛開(kāi)始租TPU算力,而是一直在用,只不過(guò)過(guò)去占比不高而已。這次420億的算力租賃訂單,5年周期下平均每年將帶來(lái)84億的Google Cloud收入,這相當(dāng)于2025年預(yù)計(jì)615億美元Google cloud收入的14%。

目前在TPU算力租賃這塊,大廠里面還有Apple,中小廠比如Snap,傳統(tǒng)SaaS的Salesforce以及AI新貴Midjourney。Meta在11月也已經(jīng)宣布有意合作:

第一階段(2026年)為算力云租賃,第二階段(2027年)為T(mén)PU直采,然后部署在自己的數(shù)據(jù)中心。近日被爆料進(jìn)展,雙方就底層語(yǔ)言的暢通正在共同開(kāi)發(fā)TorchTPU,一如其名,旨在將Meta基于Pytorch寫(xiě)的代碼,能夠更加絲滑的運(yùn)行在TPU上。

根據(jù)機(jī)構(gòu)原來(lái)預(yù)期,Meta 2026年Capex為1000-1200億,近期Meta有意收縮元宇宙投入(約減少30%)。GPU原計(jì)劃采購(gòu)100萬(wàn)顆,大頭為GB200,另外為V100。

但現(xiàn)在,考慮到Meta目前正在積極接觸Google TPU,海豚君預(yù)計(jì)TPU合同為70億,但2026年主要還是算力租賃,這部分支出計(jì)入Meta的Opex,芯片采購(gòu)部分為20億。剩下500億美元為Blackwell系列采購(gòu)額,在一定折扣下,有望獲得對(duì)應(yīng)2GW的算力,如下圖預(yù)估:

如果20億芯片采購(gòu)合同,直接與Google交易,按照2.5萬(wàn)美元/顆,對(duì)應(yīng)8萬(wàn)顆。2027年預(yù)計(jì)該芯片采購(gòu)升至50萬(wàn)顆,那么直接帶來(lái)50*2.5萬(wàn)/顆=125億合同額(如果直接從Broadcom拿貨,那Google不確認(rèn)硬件收入),按照3~5年,平均5年的使用周期來(lái)算,每年確認(rèn)收入25億。

這部分TPU對(duì)應(yīng)算力規(guī)模大約0.5GW,如果Meta目標(biāo)算力需求不變,那么相當(dāng)于175億的GPU收入被影響了。

總而言之,無(wú)論采取什么樣的TPU交付方式,或者對(duì)Google的收入有主要拉動(dòng),對(duì)利潤(rùn)是次要拉動(dòng),但對(duì)英偉達(dá)idia收入預(yù)期的影響會(huì)因?yàn)橥人懔ο掠ミ_(dá)idia溢價(jià)更高而同步放大。就如上文,TPU拿了125億的合同,單英偉達(dá)產(chǎn)生了近175億的收入缺口需要從別處找補(bǔ)。

回到Google身上,由于TorchTPU的開(kāi)發(fā)進(jìn)展并不確定,因此我們暫時(shí)將Meta的TPU訂單視為樂(lè)觀預(yù)期下的向上期權(quán)。即中性預(yù)期下,僅考慮Anthropic這一個(gè)頭部客戶(hù):

更詳細(xì)的價(jià)值分析部分我們已發(fā)布在長(zhǎng)橋App「動(dòng)態(tài)-深度(投研)」欄目同名文章同樣位置。總結(jié)來(lái)說(shuō),每一次與Meta的合作進(jìn)展披露,都有可能對(duì)短期Google股價(jià)帶來(lái)提振。

若最終合同額不足我們預(yù)期的70億,那么短中期的提振效果會(huì)相對(duì)有限。尤其是預(yù)期拉得過(guò)高的時(shí)候,還要考慮26年擁有接近10億MAU的OpenAI如果加速變現(xiàn)可能給谷歌帶來(lái)的向下風(fēng)險(xiǎn)。

但從另一個(gè)角度,若Google以犧牲短期業(yè)績(jī)的代價(jià),換來(lái)了更廣的TPU滲透——比如繼續(xù)壓價(jià),或者從Broadcom直銷(xiāo)客戶(hù),雖然沒(méi)有吃到太多硬件直銷(xiāo)收入,但是讓更多的客戶(hù)開(kāi)始適應(yīng)TPU的底層框架,后續(xù)仍可通過(guò)軟件棧、云租賃的形式收回來(lái),這與GPU在硬件銷(xiāo)售時(shí)表現(xiàn)出的高額英偉達(dá)稅,本質(zhì)是一樣的,都是一種競(jìng)爭(zhēng)壟斷的溢價(jià)。

<此處結(jié)束>

- END -

/轉(zhuǎn)載開(kāi)白

本文為海豚研究原創(chuàng)文章,如需轉(zhuǎn)載請(qǐng)獲得授權(quán)。

/免責(zé)聲明及一般披露提示

本報(bào)告僅作一般綜合數(shù)據(jù)之用,旨在海豚研究及其關(guān)聯(lián)機(jī)構(gòu)之用戶(hù)作一般閱覽及數(shù)據(jù)參考,並未考慮接獲本報(bào)告之任何人士之特定投資目標(biāo)、投資產(chǎn)品偏好、風(fēng)險(xiǎn)承受能力、財(cái)務(wù)狀況及特別需求投資者若基於此報(bào)告做出投資前,必須諮詢(xún)獨(dú)立專(zhuān)業(yè)顧問(wèn)的意見(jiàn)。任何因使用或參考本報(bào)告提及內(nèi)容或信息做出投資決策的人士,需自行承擔(dān)風(fēng)險(xiǎn)。海豚研究毋須承擔(dān)因使用本報(bào)告所載數(shù)據(jù)而可能直接或間接引致之任何責(zé)任或損失。本報(bào)告所載信息及數(shù)據(jù)基於已公開(kāi)的資料,僅作參考用途,海豚研究力求但不保證相關(guān)信息及數(shù)據(jù)的可靠性、準(zhǔn)確性和完整性。

本報(bào)告中所提及之信息或所表達(dá)之觀點(diǎn),在任何司法管轄權(quán)下的地方均不可被作為或被視作證券出售邀約或證券買(mǎi)賣(mài)之邀請(qǐng),也不構(gòu)成對(duì)有關(guān)證券或相關(guān)金融工具的建議、詢(xún)價(jià)及推薦等。本報(bào)告所載資訊、工具及資料並非用作或擬作分派予在分派、刊發(fā)、提供或使用有關(guān)資訊、工具及資料抵觸適用法例或規(guī)例之司法權(quán)區(qū)或?qū)е潞k嘌芯考埃蚱涓綄俟净蚵?lián)屬公司須遵守該司法權(quán)區(qū)之任何註冊(cè)或申領(lǐng)牌照規(guī)定的有關(guān)司法權(quán)區(qū)的公民或居民。

本報(bào)告僅反映相關(guān)創(chuàng)作人員個(gè)人的觀點(diǎn)、見(jiàn)解及分析方法,並不代表海豚研究及/或其關(guān)聯(lián)機(jī)構(gòu)的立場(chǎng)。

本報(bào)告由海豚研究製作,版權(quán)僅為海豚研究所有。任何機(jī)構(gòu)或個(gè)人未經(jīng)海豚研究事先書(shū)面同意的情況下,均不得(i)以任何方式製作、拷貝、複製、翻版、轉(zhuǎn)發(fā)等任何形式的複印件或複製品,及/或(ii)直接或間接再次分發(fā)或轉(zhuǎn)交予其他非授權(quán)人士,海豚研究將保留一切相關(guān)權(quán)利。

       原文標(biāo)題 : 谷歌:“手撕”英偉達(dá),翻身仗敘事靠譜嗎?

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)