訂閱
糾錯
加入自媒體

國內(nèi)AI推理芯片龍頭沖刺IPO!年入4.73億,兩年增長超8倍

又一家國內(nèi)AI芯片公司上市了!

1 月25 日,港交所官網(wǎng)披露,愛芯元智已通過聆訊并公布招股書。

在AI 應(yīng)用加速落地的階段,愛芯元智的業(yè)績也進入了快速增長期。過去三年,公司收入分別為 5023 萬元、2.3 億元和 4.73 億元,兩年時間增長超過 8 倍。

業(yè)績的增長,一方面來自并購帶來的規(guī)模擴張,另一方面,也折射出AI 推理需求在真實場景中的快速放量。目前,愛芯元智的 AI 推理芯片,已在視覺終端計算、智能汽車和邊緣 AI 推理三大應(yīng)用場景實現(xiàn)規(guī);涞亍

從行業(yè)位置看,這份成績單也將公司推到了第一梯隊。

按2024 年出貨量計算,愛芯元智在算力不低于 1 TOPS 的中高端視覺端側(cè) AI 推理芯片領(lǐng)域位居第一;同時,公司也是中國第二大國產(chǎn)智能駕駛 SoC 供應(yīng)商,以及國內(nèi)第三大邊緣 AI 推理芯片供應(yīng)商。

接下來,就跟著硅基君,一起拆解這家國產(chǎn)AI 推理芯片公司的業(yè)務(wù)與邏輯。

/ 01 /

推理算力下沉,決戰(zhàn)邊緣與端側(cè)

要讀懂愛芯元智,首先要理解AI 芯片的兩種形態(tài):訓(xùn)練(Training)與推理(Inference)。

打個比方,訓(xùn)練就像是“在學(xué)校深造”。為了培養(yǎng)一個 AI 模型,需要處理海量數(shù)據(jù)、反復(fù)迭代參數(shù)。這需要極高的算力密度和高帶寬,讓成百上千張顯卡像一支軍隊一樣協(xié)同作戰(zhàn) 。這是英偉達絕對統(tǒng)治的領(lǐng)地。

而推理,則是模型畢業(yè)后的“工作執(zhí)行”。

每一次AI 應(yīng)用的喚起(比如人臉識別開門、輔助駕駛剎車),都是一次推理。它不追求單次算力的無限堆疊,但要求反應(yīng)極快(低延遲)和成本極低(高能效) 。

過去,推理往往也放在云端。但隨著AI 設(shè)備的爆發(fā),人們發(fā)現(xiàn)云端推理有硬傷:數(shù)據(jù)回傳慢、隱私不安全、帶寬成本高。

于是,算力開始下沉,大致可以分為兩種路徑:邊緣AI 推理芯片和端側(cè) AI 推理芯片。

端側(cè)AI 芯片很好理解,通常部署在智能手機、可穿戴設(shè)備、AI 眼鏡等終端中;

而邊緣AI 推理芯片,則部署在更靠近數(shù)據(jù)源的位置,例如邊緣服務(wù)器、網(wǎng)關(guān)或基站,承擔的是實時、本地化的推理任務(wù)。很多決策需要在毫秒級完成,數(shù)據(jù)本身也并不適合回傳到云端處理。

這構(gòu)成了一個巨大的增量市場。2024 年,全球 AI 推理芯片市場規(guī)模約為 6067 億元,其中邊緣與端側(cè)的份額正在迅速擴大,占比超過50%。

尤其在中國,這一特征更加明顯。大量AI 應(yīng)用并非誕生于互聯(lián)網(wǎng)平臺,而是分布在城市治理、工業(yè)系統(tǒng)、交通和汽車等實體場景中。

這些場景的共同特征是:推理需要長期運行,但并不追求無限擴展的算力。這也為端側(cè)和邊緣推理芯片,形成了一個相對獨立的市場空間。

而愛芯元智的業(yè)務(wù)就是,做面向邊緣與終端場景的AI 推理芯片。

從收入構(gòu)成看,公司收入主要來自終端計算產(chǎn)品、邊緣AI 推理產(chǎn)品以及智能汽車產(chǎn)品。

其中,面向安防和工業(yè)視覺場景的終端計算產(chǎn)品是公司最核心的收入來源。

2024 年,該類產(chǎn)品實現(xiàn)收入 4.47 億元,占公司總收入的 94.5%。

在具體形態(tài)上,終端計算產(chǎn)品以視覺感知系統(tǒng)級芯片為主。更直觀地說,它相當于攝像頭的“大腦”。

在各類AI 推理任務(wù)中,視覺數(shù)據(jù)始終是最主要的輸入源,約占全部感知數(shù)據(jù)的 80%。但同時,它也是處理難度最高的一類數(shù)據(jù):數(shù)據(jù)量大、結(jié)構(gòu)復(fù)雜,拍攝環(huán)境多變(如夜晚、逆光、強噪聲),并且對實時響應(yīng)有著嚴格要求。

這使得視覺端側(cè)AI 推理芯片,對算力組織、內(nèi)存帶寬和能效比提出了更高要求。

按性能劃分,視覺端側(cè)AI 推理芯片通?煞譃榈投伺c中高端兩類。低端芯片算力普遍低于 1 TOPS,而中高端芯片則超過這一門檻,能夠支撐更復(fù)雜的視覺推理任務(wù)。2024 年,全球中高端視覺端側(cè) AI 推理芯片的市場規(guī)模約為 24 億元。

在這一細分市場中,愛芯元智已建立起明確優(yōu)勢。按算力超過1 TOPS 的中高端視覺端側(cè) AI 推理芯片口徑計算,公司在 2024 年的全球市場份額達到 24.1%,位居第一。

在終端計算產(chǎn)品之外,愛芯元智也同步布局了邊緣AI 推理 SoC 和智能汽車 SoC。

其中,邊緣AI 推理 SoC 主要部署在邊緣服務(wù)器、AI 盒子和一體機中。按 2024 年出貨量計算,公司在國內(nèi)邊緣 AI 推理芯片市場排名第三。

智能汽車業(yè)務(wù)則聚焦L2 和 L2+ 級 ADAS 場景,相關(guān)產(chǎn)品已實現(xiàn)多款車規(guī)級芯片量產(chǎn),并獲得多家 Tier 1 供應(yīng)商的定點支持。

/ 02 /

愛芯元智的兩大“殺手锏”:不僅算得省,還要看得清

如果說,云端AI芯片的邏輯是“大力出奇跡”,但在邊緣與端側(cè),邏輯就完全變了,衡量AI芯片價值的因素只有兩個:計算效率與環(huán)境感知。

先說前者,現(xiàn)代AI推理芯片需要在毫秒級的響應(yīng)速度和毫瓦級的功耗預(yù)算之間走鋼絲。如果缺乏高效的計算能力,感知到的數(shù)據(jù)很快就會從“資產(chǎn)”變成“負擔”。

傳統(tǒng)的通用處理器在這里顯得水土不服,CPU太慢,處理不了萬億次級別的并行計算;而GPU又太貴,散熱還慢。

這也是為什么,越來越多的邊緣與端側(cè)AI 芯片開始引入專用的 NPU。

通過針對神經(jīng)網(wǎng)絡(luò)計算模式進行優(yōu)化,NPU 能在更低功耗下完成推理任務(wù),減少內(nèi)存訪問和散熱壓力,不僅提升實時性,也延長了設(shè)備的整體運行壽命。

在這一判斷之下,愛芯元智從一開始就沒有沿用通用計算架構(gòu),而是選擇以NPU 為核心,圍繞推理負載重新設(shè)計芯片,并推出了愛芯通元(Axera Neutron)混合精度 NPU。

如果說,英偉達GPU 的優(yōu)勢在于通用性,能完成各種復(fù)雜任務(wù),而愛芯通元就更像一套為特定場景精心打磨的工具。

根據(jù)招股書的說法,愛芯通元NPU優(yōu)勢主要體現(xiàn)在,能夠根據(jù)任務(wù)復(fù)雜度,動態(tài)調(diào)整計算精度。

比如,面對簡單任務(wù),它會自動切換到 INT4 或 INT8,以降低功耗、提升速度;而面對復(fù)雜的任務(wù),它則切換至INT16,以保證精度。

這種架構(gòu)的精妙之處在于,它通過動態(tài)調(diào)整計算精度,大幅壓縮了計算冗余,減少了不必要的數(shù)據(jù)搬運。這直接擊穿了AI計算中常見的“內(nèi)存墻”和“數(shù)據(jù)墻”瓶頸。

結(jié)果是驚人的。在同等芯片面積下,愛芯通元NPU的每瓦吞吐量(能效比)比傳統(tǒng)GPU架構(gòu)提升了10倍。

除了計算效率的問題,環(huán)境感知也是愛芯元智另一大特色。

在邊緣場景中,AI芯片必須直接面對嘈雜的現(xiàn)實世界。視覺信號占據(jù)了感知輸入的80%。如果輸入圖像模糊、噪點多,后端的模型再強大也是“盲人摸象”。

在這種情況下,圖像信號處理器(ISP)的價值就體現(xiàn)出來了。

ISP的作用很簡單,就是在AI推理之前,把攝像頭采集的原始數(shù)據(jù)“洗干凈”(降噪、校色、優(yōu)化動態(tài)范圍)。

但傳統(tǒng)的ISP依賴固定規(guī)則,面對極低光照或復(fù)雜光線往往束手無策。用招股書的話說,愛芯元智的突破之處在于,將AI引入了ISP,推出了“愛芯智眸(Axera Proton)AI-ISP”。

與依賴固定規(guī)則的傳統(tǒng)ISP 不同,這套 AI-ISP 在圖像信號處理鏈路中引入 AI 模型,對關(guān)鍵環(huán)節(jié)進行像素級優(yōu)化,實現(xiàn)降噪、高動態(tài)范圍增強以及低光環(huán)境成像優(yōu)化。

即使在漆黑的夜間,也能還原出清晰、全彩的畫面。

在對成像質(zhì)量高度敏感的應(yīng)用場景中,這種將“感知”與“計算”深度融合的一體化設(shè)計,不僅提升了數(shù)據(jù)傳輸?shù)馁|(zhì)量,也減少了數(shù)據(jù)回傳云端的帶寬需求,降低了系統(tǒng)的整體延遲。

/ 03 /

收入翻10倍為何還在虧?拆解愛芯元智的賬本

在財務(wù)層面,愛芯元智也面臨著成長的煩惱。

雖然收入暴漲,但公司仍處于虧損狀態(tài)。2022-2024年,公司經(jīng)調(diào)整凈虧損分別為4.44億、5.42億和6.28億元。

虧損除了研發(fā)投入較高外,毛利率相對較低也是另一大原因。過去三年,愛芯元智的毛利率分別為25.9%、25.7%和21%。

在成本結(jié)構(gòu)中,晶圓始終是公司最重要、也最難繞開的支出項。

晶圓價格并非由公司單方面決定,而是高度受制于供應(yīng)鏈環(huán)境與制程工藝。

2020 年前后,受疫情沖擊,上游產(chǎn)能一度收緊,晶圓供給趨緊,價格明顯抬升,這一變化在隨后幾年持續(xù)影響了芯片公司的成本結(jié)構(gòu),進而影響了公司的盈利能力。

在需求端,從平均售價(ASP)的變化,也能看到愛芯元智不同產(chǎn)品線呈現(xiàn)出的分化。

2022 年,終端計算產(chǎn)品的平均售價為每顆 48.18 元;2023 年大幅下降至 4.49 元;隨后在 2024 年回升至 5.70 元。進入 2024 年后,ASP 整體趨于穩(wěn)定,截至 2024 年前九個月為 6.03 元,2025 年同期基本持平,為 6.04 元。

這一下降并非來自產(chǎn)品競爭力削弱,而主要源于產(chǎn)品結(jié)構(gòu)變化。

2023 年,公司完成對華圖相關(guān)業(yè)務(wù)的并購,低價產(chǎn)品出貨量大幅增加,拉低了整體均價,使 2022 年與其后的 ASP 數(shù)據(jù)在結(jié)構(gòu)上并不具備直接可比性。

隨著產(chǎn)品組合逐步消化調(diào)整,2024 年起,中高端芯片占比提升,終端計算產(chǎn)品的 ASP 開始回歸相對穩(wěn)定區(qū)間。

相比終端計算產(chǎn)品,智能汽車以及邊緣AI 推理產(chǎn)品則面臨著更激烈的市場競爭。

截至2024 年前九個月,智能汽車產(chǎn)品的平均售價由上一年同期的每顆 78.70 元下降至 63.30 元。

對此公司的解釋是,這一下行主要與行業(yè)競爭加劇有關(guān)。在智能駕駛芯片市場,隨著參與者增多、產(chǎn)品代際更新加快,價格壓力逐步顯現(xiàn),ASP 出現(xiàn)階段性回落。

邊緣AI 推理產(chǎn)品的定價走勢則更具行業(yè)代表性。

2023 年,該類產(chǎn)品的平均售價為每顆 240.39 元;2024 年下降至 185.48 元;截至 2024 年前九個月為 192.32 元,并在 2025 年同期進一步降至 176.43 元。

價格下行的背后,并非需求減弱,而是市場擴張帶來的客戶結(jié)構(gòu)變化。隨著應(yīng)用場景拓展、客戶數(shù)量增加,公司在定價策略上更加注重規(guī)模與滲透率,通過更具競爭力的價格換取出貨量增長。

總體來看,愛芯元智當前仍處在規(guī)模擴張階段。收入增長較快,但研發(fā)投入、晶圓成本以及價格競爭共同壓制了盈利能力,不同產(chǎn)品線的ASP 變化也反映出公司在擴張與定價之間的權(quán)衡。

接下來,公司的關(guān)鍵不在于短期扭虧,而在于能否在出貨規(guī)模繼續(xù)放大的同時,通過產(chǎn)品結(jié)構(gòu)優(yōu)化和成本控制,逐步改善毛利率水平。這將決定其增長是否具備長期可持續(xù)性。

       原文標題 : 國內(nèi)AI推理芯片龍頭沖刺IPO!年入4.73億,兩年增長超8倍

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號