訂閱
糾錯
加入自媒體

英偉達10億美元投資初創(chuàng)公司!AI創(chuàng)業(yè)難度大但機會猶存?

2025-01-03 16:18
雷科技
關(guān)注

DeepSeek珠玉在前。

一次AI革命,讓原本名聲不顯的OpenAI一躍成為全球知名企業(yè),估值超過1500億美元。但若討論哪家企業(yè)才是AI時代的最大受益者,NVIDIA絕對是唯一答案。

財報數(shù)據(jù)顯示,2024年第三財季,NVIDIA營收高達350.82億美元,同比增長93.61%,歸母凈利潤193.09億美元,同比增長108.90%,其中數(shù)據(jù)中心業(yè)務(wù)營收為308億美元,同比增長高達112%,公司市值更是超越微軟,位列全球第二。

AI企業(yè)與NVIDIA屬于互相成就,前者需要后者提供GPU或?qū)I(yè)AI計算卡,用于大模型的訓練和推理,他們的需求助力NVIDIA營收、利潤屢創(chuàng)新高。正因如此,NVIDIA也清楚需要付出一定的成本扶持AI公司,培養(yǎng)客戶群體。

據(jù)英國《金融時報》報道,剛剛過去的2024年,NVIDIA累計參與了50多輪融資和多筆交易,向AI初創(chuàng)企業(yè)累計投資了約10億美元,相較2023年的8.72億美元增長了大約15%。按照這個趨勢,2025年NVIDIA大概率會投資更多AI初創(chuàng)公司。

除了NVIDIA,其他國內(nèi)外互聯(lián)網(wǎng)公司也在不斷增加AI領(lǐng)域的投入,一邊打造自己的AI團隊,一邊投資其他AI公司。對于小型AI公司而言,有機會獲得大企業(yè)的投資無疑是好消息,基于這種情況,2024年無數(shù)企業(yè)瘋狂涌入AI行業(yè)。

天眼查數(shù)據(jù)顯示,2024年國內(nèi)新增AI相關(guān)企業(yè)超過50萬家?稍贏I技術(shù)日漸成熟的今天,進軍AI行業(yè)真的還有機會嗎?

“錢”字當頭,AI創(chuàng)業(yè)入局難

AI大模型的黑盒特質(zhì)使其可解釋性和可調(diào)試性較弱,對于語義的理解能力、數(shù)學邏輯和推理能力,以及可能存在的AI“幻覺”,都是困擾開發(fā)者的技術(shù)難題。訓練一款成熟可用的大模型,需要招募大量技術(shù)人才,去解決各種難題。然而行業(yè)的競爭促使企業(yè)互相挖墻腳,吸納AI人才的成本不斷飆升。

例如前段時間小米CEO雷軍親自出手,將參與過DeepSeek-V2大模型開發(fā)工作的羅福莉挖到了小米。網(wǎng)上甚至有消息稱,小米公司向羅福莉開出了千萬年薪。傳言可能會有些夸張,但羅福莉的年薪恐怕至少是7位數(shù)。

人才之外,GPU算力也是壓在AI公司心頭的重擔。仍以小米為例,日前界面新聞爆料稱,小米正在著手打造萬卡算力集群。百度集團執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖曾表示,一個1.6萬張GPU的集群,采購成本就高達數(shù)十億元,更不用說搭建、運營、維護成本。

顯卡與機房.png

(圖源:AI生成)

萬卡集群只是開始,若想打造出頂尖AI,還需要購買更多GPU或?qū)I(yè)AI計算卡。民生證券計算機首席分析師呂偉表示,以ChatGPT的6億月活數(shù)據(jù)計算,訓練任務(wù)大約需要12萬張A100,推理任務(wù)所需約35萬張A100。

為滿足未來AI大模型的訓練和推理需求,OpenAI CEO山姆·奧特曼甚至提出了7萬億美元重塑全球半導體行業(yè)的計劃。算力集群的投入堪稱無底洞,最終需要多少才夠,現(xiàn)在任何AI公司都說不出確切數(shù)字。要知道,1984年上映的《終結(jié)者》電影中,覺醒了自我意識的天網(wǎng)系統(tǒng),算力規(guī)模也僅為每秒60萬億次浮點運算,不如一張RTX 4090。

招募人才和組建算力集群的成本或許很高,但總歸可以承受,更嚴重的問題在于,用于訓練大模型的數(shù)據(jù)不夠了。原定2024年中后期面世的GPT-5,至今未能完成訓練,主要原因之一就是數(shù)據(jù)不夠用。為解決數(shù)據(jù)不足的難題,OpenAI被迫招聘工程師、數(shù)學家、物理學家編寫數(shù)據(jù),用于訓練大模型。

顯卡與機房 (1).png

(圖源:AI生成)

AI大模型的參數(shù)量越多,性能上限就越高,但參數(shù)量需要大量數(shù)據(jù)訓練。為訓練GPT-4和GPT-5,OpenAI幾乎耗盡了網(wǎng)上公開的論文、新聞資訊,以及社交平臺上的帖子,甚至因此惹上了官司,被加拿大新聞社、加拿大廣播公司、Torstar、環(huán)球郵報等媒體起訴。

倒不是說數(shù)據(jù)完全被耗盡,只是剩下的數(shù)據(jù)未經(jīng)公開,基本在各大公司內(nèi)部,AI公司難以獲取到。山姆·奧特曼直言,未來訓練一個大模型的成本可能會超過10億美元。

人才、算力、數(shù)據(jù)三大成本在前,哪怕是互聯(lián)網(wǎng)巨頭也倍感壓力,更不用說涌入AI行業(yè)的初創(chuàng)公司了。

不過并非沒有低成本訓練大模型的方法,小米開出天價年薪招募羅福莉,目的很可能在于羅福莉的身份——DeepSeek-V2開發(fā)工作的參與者。

DeepSeek大獲成功,降本增效不是不行

最近一段時間,AI行業(yè)最火的新聞無疑是DeepSeek-V3模型的到來,其低至557.6萬美元的訓練成本,大約只是GPT-4的二十分之一,預計不到GPT-5的二百分之一。經(jīng)過小雷實測,DeepSeek-V3在文字生成、數(shù)學推理等領(lǐng)域的體驗不輸豆包、文心一言、Kimi等國內(nèi)極負盛名的AI應用。

DeepSeek全新大模型的成功,向其他AI公司傳達了一個信息——訓練大模型的成本可以不用很高。然而有舍必有得,低成本訓練出的大模型,存在一些難以解決的問題。

能夠以極低成本訓練出部分場景體驗媲美豆包、Kimi的大模型,DeepSeek的訣竅在于有三,第一來自MLA架構(gòu)和MoE架構(gòu),前者利用多頭潛在注意力機制,可提取相鄰層的特征并進行壓縮,從而減少計算量,降低大模型訓練所需成本;后者屬于專家混合架構(gòu),具備6710億參數(shù),但每次僅激活370億參數(shù),降低了對計算資源的需求。

顯卡與機房 (2).png

(圖源:AI生成)

第二是FP8混合精度訓練框架,以降低精度、壓縮鍵值為代價,在盡量不影響模型性能的前提下,大幅節(jié)省了顯存和計算資源,可提升訓練速度,降低訓練成本。

第三為模型蒸餾,普通大模型要利用大量數(shù)據(jù)進行訓練,蒸餾技術(shù)以被訓練好的模型為“教師”,篩選出有效數(shù)據(jù),去訓練一個“學生”模型,從而降低成本。DeepSeek之所以在開源模型領(lǐng)域享有如此之高的聲譽,并將DeepSeek-V3打造成當前最強開源大模型,蒸餾技術(shù)無疑是關(guān)鍵因素。

這些技術(shù)雖降低了成本,卻以犧牲精度為代價,尤其是蒸餾技術(shù),存在一個極為嚴重的缺陷,即“學生模型”的能力無法超過“教師”模型。追求極致的AI企業(yè)不會過度采用蒸餾技術(shù)訓練AI,南洋理工大學計算機研究人員王漢卿表示,他認識的一線研究人員,基本沒人在搞模型蒸餾了。

事實上,利用其他AI產(chǎn)出的數(shù)據(jù)訓練大模型,幾乎所有AI企業(yè)都在做,但若過度依賴數(shù)據(jù)蒸餾,會出現(xiàn)生成數(shù)據(jù)偏差、喪失多樣性等問題,甚至可能生成無意義的回答。DeepSeek-V3上線后,便出現(xiàn)了回答用戶問題時自稱是ChatGPT的情況。

對此山姆·奧特曼親自回應稱,復制先行者的東西是相對容易的,去做新的、有風險的、有難度的事情是困難的,敢于挑戰(zhàn)困難的研究人員,理所應當獲得更多榮譽,這是世界上最酷的事。盡管沒有明說,但山姆·奧特曼已是在嘲諷DeepSeek-V3抄襲,未來蒸餾技術(shù)也可能面臨侵權(quán)問題。

無論如何,DeepSeek-V3的成功,都為其他AI公司和考慮入場的企業(yè)指出了一條新的道路,通過降低精度、壓縮內(nèi)容、蒸餾模型,無需數(shù)億美元的高昂成本,也能訓練出表現(xiàn)出色的AI大模型。

AI行業(yè),依然是“野心家”的樂園

近十年間,全球最成功的兩大新興企業(yè)該是新能源汽車和AI大模型,未來人形機器人有機會進入此隊列。新能源汽車行業(yè)的發(fā)展歷程,將在AI行業(yè)復現(xiàn),初期參與的企業(yè)極多,但經(jīng)過大浪淘沙,技術(shù)實力、管理能力不行的企業(yè)會逐漸被淘汰。

AI行業(yè)正處于從快速發(fā)展期向成熟期過渡的中級發(fā)展階段,任何企業(yè)都仍具有成長為巨頭的機會。只是能否利用好這些機會,則要看AI公司的技術(shù)實力、管理能力、戰(zhàn)略眼光。

顯卡與機房 (3).png

(圖源:AI生成)

當前AI行業(yè)依然可以入場,但只適合兩類企業(yè),一類是財力雄厚,向行業(yè)頂峰進發(fā)的企業(yè)。此類企業(yè)將承擔起引領(lǐng)行業(yè)進步的責任,不斷開拓進取,將AI的能力推向高峰。

投入大約100億美元卻沒能生產(chǎn)出新能源汽車的蘋果公司和血虧1100億元的恒馳汽車說明,任何新興行業(yè)都存在大量風險,不是錢多就一定能成事。AI行業(yè)同樣如此,投入和產(chǎn)出未必成正比。不過風險與機遇總是并存的,做到極致的企業(yè)未來才能賺大錢。

另一類企業(yè)則是以“夠用就行”為目的,不追求功能特性達到極致的公司,可通過降低精度和蒸餾技術(shù),以較低成本打造體驗不錯的大模型。DeepSeek-V3訓練成本僅557.6萬美元,能夠負擔得起的初創(chuàng)公司不在少數(shù)。

至于空有野心卻實力不足的企業(yè)或創(chuàng)業(yè)者,已不適合現(xiàn)在的AI行業(yè)。盡管有NVIDIA、微軟等巨頭向初創(chuàng)企業(yè)投資,但那點錢相對于頂級AI大模型的開發(fā)工作無異于杯水車薪。AI行業(yè)依然是野心家的樂園,只是門檻比過去高了一些,入場需要更加謹慎。

來源:雷科技

       原文標題 : 英偉達10億美元投資初創(chuàng)公司!AI創(chuàng)業(yè)難度大但機會猶存?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號