訂閱
糾錯
加入自媒體

DeepSeek的六萬張卡如何回本?

究其DeepSeek訓練其模型到底使用了多少張英偉達卡,據(jù)《DeepSeek-V3技術(shù)報告》官方給出的是2048張英偉達H800芯片和1萬張A100顯卡。而半導體研究機構(gòu)SemiAnalysis認為DeepSeek囤積了包括1萬張A100、1萬張H100、1萬張?zhí)毓┌鍴800、3萬張?zhí)毓┌鍴20在內(nèi)的六萬張英偉達GPU卡。

不重要,這不是本文要討論的。

而,DeepSeek的這六萬張卡如何回本?

簡而言之一個詞:開源。

以下是本文邏輯:

1、”DeepSeek+”行情到來,開源背后的經(jīng)濟賬

2、都在搞錢,那么DeepSeek的錢怎么搞?

01

“DeepSeek+”行情到來,開源背后的經(jīng)濟賬

2月10日,OpenAI創(chuàng)始人山姆·奧特曼在個人博客分享了他對人工智能經(jīng)濟學的三個觀察(《Three Observations》)。他分享了人工智能經(jīng)濟學的三個觀察。

(一)AI模型的智能水平大致等于用于訓練和運行它所需資源的對數(shù)值。這些資源主要包括訓練算力、數(shù)據(jù)和推理算力。實踐表明,投入的資金可以持續(xù)帶來可預測的收益提升;這種scaling law在多個數(shù)量級的范圍內(nèi)都保持準確。

(二)使用特定水平AI的成本每12個月下降約10倍,較低的價格又會帶來更廣泛的應(yīng)用。這一點可以從2023年初的GPT-4到2024年中的GPT-4o的變化中得到印證,其中每個token的價格在這段時間內(nèi)降低了約150倍。相比之下,摩爾定律以每18個月翻倍的速度改變了世界,而AI的發(fā)展速度則更為驚人。

(三)智能的線性增長能帶來超指數(shù)級的社會經(jīng)濟價值。因此,我們看不到任何理由認為這種指數(shù)級增長的投資會在近期停止。

在山姆·奧特曼的“AI經(jīng)濟學”框架中,模型能力的提升與成本的邊際遞減是其核心命題。據(jù)山姆·奧特曼在接受采訪中稱,隨著智能模型固定級別的智力水平的一旦實現(xiàn),其訓練成本每年都會下降約10倍。“這很瘋狂!就像摩爾定律是溫和的改變世界!”山姆·奧特曼感嘆。

不得不說,除了其實踐經(jīng)驗,OpenAI最近這關(guān)于開源的最新認可,和DeepSeek最近在商業(yè)上的“倒逼”有著直接關(guān)系。開源策略的深層意義,在于構(gòu)建一個“技術(shù)-數(shù)據(jù)-商業(yè)”的飛輪。

2月17日,DeepSeek正式宣布接入微信并開展灰度測試。DeepSeek與微信的合作,本質(zhì)是將模型能力嵌入高頻社交場景,獲取海量用戶交互數(shù)據(jù)。

2月3日,DeepSeek官宣與阿里云以及百度智能云聯(lián)合,通過云服務(wù)觸達企業(yè)客戶,通過共享技術(shù)資源、優(yōu)化算法等方式,進行生態(tài)共建。

2月初,DeepSeek和三大運營商達成戰(zhàn)略合作,實現(xiàn)AI技術(shù)在通信服務(wù)中的深度融入,這包括網(wǎng)絡(luò)管理、服務(wù)優(yōu)化、用戶體驗等多個維度的突破性進展。

1月29日,微軟和DeepSeek共同宣布,DeepSeek-R1已經(jīng)在微軟的AI平臺Azuer AI Foundry和Github可用,開發(fā)者可以使用新模型進行測試和構(gòu)建基于云的應(yīng)用程序和服務(wù)。

以阿里云為例,其平臺AI組件產(chǎn)品PAI Model Gallery支持云上一鍵部署DeepSeek系列模型,包括DeepSeek-V3、DeepSeek-R1等。用戶無需編寫代碼,即可通過阿里云平臺實現(xiàn)模型訓練的過程。值得一提的是, PAI Model Gallery自身是對阿里云用戶開源的。而PAI Model Gallery的兩種資費方式,在線服務(wù)(EAS)計費和分布式訓練(DLC)計費,都是根據(jù)用戶實際使用的資源來計算費用的,比如按使用時間或者次數(shù)來收費。這代表了AI開源業(yè)界普遍的一種收費模式。

DeepSeek和這些B端企業(yè)的合作模式類似于Android的開源生態(tài):DeepSeek提供底層模型框架,合作伙伴貢獻場景與數(shù)據(jù),最終通過模型迭代實現(xiàn)“越用越強”的正循環(huán)。

山姆·奧特曼對AI算力趨勢的深刻觀察,正體現(xiàn)在DeepSeek 的算力創(chuàng)新中。DeepSeek-V3的崛起——通過開源模式和技術(shù)創(chuàng)新,將訓練成本壓縮至557.6萬美元(基于H800 GPU租賃成本計算),僅為同類閉源模型的1/10甚至更低。這種成本優(yōu)勢的背后,是算法、框架與硬件的協(xié)同優(yōu)化:FP8混合精度訓練使計算效率提升20%以上,而DeepSeekMoE架構(gòu)以及多頭潛在注意力機制(MLA)架構(gòu),通過細粒度專家分配,讓每個Token的激活參數(shù)僅占模型總規(guī)模的5.5%(37B/671B)。

因為其較低的硬件成本投入,DeepSeek-R1的發(fā)布一度使得英偉達股價大跌。但有趣的是,根據(jù)經(jīng)濟學杰文斯悖論,算力創(chuàng)新和大幅提升的背后,恰恰會帶動高性能硬件(如英偉達GPU)的需求并使其可能會呈現(xiàn)反彈式增長。

這與杰文斯悖論的核心邏輯相吻合:即技術(shù)進步提高了資源利用效率,降低了成本,進而刺激了需求增加,最終導致資源消耗總量的上升。

多說一句杰文斯悖論:英國經(jīng)濟學家杰文斯發(fā)現(xiàn),19世紀中葉,隨著第一次工業(yè)革命工業(yè)化的進程,蒸汽機效率的提升雖然使煤的使用更加經(jīng)濟,但結(jié)果卻是煤炭的需求飆升。這其實恰恰滿足了均衡理論中的供需關(guān)系的改變:即價格降低,勢必會帶來需求量的大幅提升。產(chǎn)品便宜了,買家自然就會變多。

2月12日,英偉達在博客中介紹了利用 DeepSeek-R1 和推理時擴展技術(shù)來自動生成優(yōu)化 GPU 內(nèi)核的最新研究成果,效果異常的好。英偉達表示,其對于 DeepSeek-R1 的最新進展及其應(yīng)用潛力感到非常興奮。

智能的線性增長能帶來超指數(shù)級的社會經(jīng)濟價值。大模型技術(shù)的發(fā)展迭代,必將反哺整個人工智能和芯片行業(yè)的發(fā)展迭代速率。

這里我們來具體算一筆賬吧。

賬本落在經(jīng)濟上,大模型開源,各方怎么個互惠互利?

一句話:B端(企業(yè))得到DeepSeek的大模型賦能,C端(用戶)得到B端企業(yè)更好的服務(wù),而DeepSeek則得到B端企業(yè)的算力和其服務(wù)的C端的用戶和數(shù)據(jù)。

DeepSeek的六萬張顯卡投入,這筆重要且巨大的開支,通過開源,DeepSeek能夠?qū)⑦@些成本分攤到整個生態(tài)系統(tǒng)中。一方面,開源吸引了大量的開發(fā)者和企業(yè)參與到模型的訓練和優(yōu)化中,降低了單個企業(yè)的投入成本,也就是降低了單個企業(yè)用于構(gòu)建人工智能大模型的邊際費用;另一方面,開源也促進了DeepSeek技術(shù)的快速迭代和升級,提高了模型的性能和準確性,從而降低了后期的維護成本。此外,通過與其他企業(yè)的合作,DeepSeek還能夠獲得額外的收入來源,如技術(shù)授權(quán)、定制化服務(wù)等。

開源代碼不僅降低了DeepSeek自身的開發(fā)成本,還為合作方帶來了技術(shù)上的節(jié)省成本杠桿。通過共享代碼和算法,DeepSeek能夠幫助合作方快速構(gòu)建和優(yōu)化自己的AI模型,避免了重復投入和研發(fā)周期。此外,DeepSeek還提供了豐富的訓練數(shù)據(jù)和工具,使得合作方能夠更加高效地訓練和優(yōu)化模型。這些節(jié)省下來的成本,可以成為合作方進一步投入AI領(lǐng)域的動力。而這一切,也都來自DeepSeek的模型創(chuàng)新。

自此,不難理解關(guān)于DeepSeek“國運級應(yīng)用”的評價了。

02

都在搞錢,那么DeepSeek的錢怎么搞?

眾所周知,DeepSeek目前是免費的,并成功倒逼一眾人工智能大模型公司也隨之宣布其產(chǎn)品未來免費供給C端。

但正如所有企業(yè)都需要營利,天下并沒有免費的午餐。DeepSeek的搞錢之道,依然是開源,開源,開源。

其具體邏輯,通過B端開源技術(shù)降維與生態(tài)鎖定:即用開源代碼降低B端客戶接入門檻,再用增值服務(wù)構(gòu)建自身的壁壘。B端免費算力與數(shù)據(jù)反哺:即用對B端的開源獲取B端免費的算力;B端的廣泛覆蓋又反哺C端的全方位覆蓋,從而帶來更多token樣本(token是數(shù)據(jù)在被模型處理之前或過程中被分割成的最小單元),大量開源得到的token樣本加成會使DeepSeep自身模型算力成本大幅降低,算力效率大幅飛躍使自身模型更優(yōu)化,從而又大幅降低自身模型開發(fā)維護升級成本。

這種“算力-數(shù)據(jù)-模型”的三角循環(huán),使得DeepSeek的單位訓練成本降低,DeepSeek也正像其無需人工進行標注的機器學習模型一樣,可以達到自學習、自維護、自營收益的高效階段。

具體來說,DeepSeek通過向B端用戶開源其技術(shù)和數(shù)據(jù)資源,吸引他們參與到模型的訓練和優(yōu)化中。這些B端用戶可以是企業(yè)、研究機構(gòu)或開發(fā)者團隊等,他們擁有豐富的數(shù)據(jù)和場景資源,能夠為模型提供更加多樣化的訓練樣本和測試環(huán)境。通過向這些用戶提供技術(shù)支持,DeepSeek能夠降低大模型的算力成本和提高用戶的參與度。與此同時,這些B端用戶在使用模型的過程中也會產(chǎn)生大量的數(shù)據(jù)和反饋,這些數(shù)據(jù)可以用于進一步優(yōu)化模型和提高其性能,促進DeepSeek自身模型的快速迭代。這種向B端開源從而獲取算力和數(shù)據(jù)的模式,不僅降低了DeepSeek的運營成本,還提高了其模型的準確性和泛化能力。

同時,隨著B端用戶的不斷增加和深入?yún)⑴c,DeepSeek能覆蓋到更多的C端用戶和應(yīng)用場景。這些C端用戶可以是個人消費者、中小企業(yè)或行業(yè)用戶等,他們對于智能化需求日益增加。通過向這些用戶提供智能化的服務(wù)和解決方案,DeepSeek能夠吸引他們參與到模型的訓練和優(yōu)化中,從而進一步增加Token訓練樣本的數(shù)量和多樣性。這些Token訓練樣本可以用于進一步提高模型的準確性和泛化能力,從而形成C端對B端的反哺。

獲得大量開源Token訓練樣本能夠降低模型算力成本。DeepSeek利用這些樣本進行更加高效的模型訓練和優(yōu)化。這種“自迭代”使模型能夠在較少的算力硬件資源下達到更好的性能表現(xiàn)。這對于DeepSeek來說自然是一筆巨大的成本節(jié)省。

當然,盡管DeepSeek在技術(shù)和應(yīng)用方面已經(jīng)取得了顯著的進展,但目前仍然存在一些不完善之處。例如:對于某些復雜場景的處理能力有限等問題。

而通過開源策略的實施和生態(tài)系統(tǒng)的構(gòu)建,DeepSeek正在逐步解決這些問題。一方面通過吸引更多的開發(fā)者和企業(yè)參與到模型的訓練和優(yōu)化中來增加token樣本的數(shù)量和多樣性;另一方面通過與合作伙伴的開源合作來拓展應(yīng)用場景和提高模型的泛化能力,充分提升模型處理復雜場景的能力,正如前文所提到。

DeepSeek的商業(yè)模式,似乎正創(chuàng)新出一條AI公司的“自進化”之路。

DeepSeek的商業(yè)模式,本質(zhì)是一場“用模型養(yǎng)模型”的試驗:通過開源吸引生態(tài)伙伴,降低獲客與數(shù)據(jù)獲取成本;再通過B端增值服務(wù)與C端數(shù)據(jù)價值變現(xiàn),支撐算力擴容;最后,模型性能提升吸引更多合作伙伴,獲得更多增值收益,形成無需人工干預的“數(shù)據(jù)-算力-收益”閉環(huán)。

這一路徑的可行性已初現(xiàn)端倪:DeepSeek-V3的后訓練階段僅消耗5K GPU小時,不到預訓練的0.2%,說明模型的自學習能力顯著增強。若其能持續(xù)壓縮迭代成本,六萬張顯卡的回本周期可能從行業(yè)平均的3-5年縮短至18個月。

然而,爭議依然存在。但無論如何,DeepSeek已證明:在AI的競技場上,低成本與高性能并非零和游戲,而開源生態(tài)可能是打破算力壟斷、提升算力效率的最優(yōu)解。

參考文獻:

DeepSeek-V3技術(shù)報告解讀 來源:機器學習算法那些事

行業(yè)資訊 | Sam Altman凌晨發(fā)文,AI Agent將重塑世界經(jīng)濟 來源:深圳市人工智能行業(yè)協(xié)會

DeepSeek R1不編程就能生成GPU內(nèi)核,比熟練工程師好,驚到了英偉達 來源:機器之心

全網(wǎng)首發(fā) | PAI Model Gallery一鍵部署階躍星辰Step-Video-T2V、Step-Audio-Chat模型 來源:阿里云大數(shù)據(jù)AI平臺

       原文標題 : DeepSeek的六萬張卡如何回本?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號