訂閱
糾錯
加入自媒體

陳左寧:解析為什么說傳統(tǒng)超算并不最適合AI

2020-10-19 11:24
本來科技
關注


AI對算力體系結構的需求

要擺脫體系結構的限制,需要對現(xiàn)有體系結構進一步優(yōu)化。這包括:

適度使用較低精度;

更有效利用內存層次結構;

更有效的并行形式;

使用大片上緩存和高帶寬內存(目前應用較多);

發(fā)展包含編解碼部件、稀疏部件等在內的新部件(比如NVDIA A100 專門做了稀疏部件的設計);

計算流/數(shù)據(jù)流/控制流有機結合;

異構深度融合結構……

再進一步,變革體系結構,使其能夠實現(xiàn)“更合理的映射”。

所謂更合理的映射,可以理解為:既然人工智能表征的是點和點之間的“關系”,而“關系”本身又具有一種拓撲連接關系,那么如果計算物理架構能夠更好地映射到這種拓撲連接,顯然是最有效的。

如何實現(xiàn)?

首先要有面向應用需求的體系結構設計(主要是一些參數(shù)的變化,比如SIMD個數(shù)、核心數(shù),改變芯片尺寸、互連、能耗等);

進一步可以發(fā)展存內計算、網內計算這種適合人工智能算法的計算形態(tài)(存算一體、傳算一體);

最好的是,面向“連接關系”設計硬件、面向“連接”設計體系結構,使拓撲關系表示更能反映“關系和連接”。比如當前排行超算TOP 500榜首的日本“富岳”,通過設計出6D-Torus,更適于映射高維度的數(shù)據(jù)。

再進一步,變革體系結構,使其能夠實現(xiàn)“高可擴展的架構設計”。

這類講的比較多的有晶圓級封裝和系統(tǒng)級封裝。

異構集成系統(tǒng)設計方案的創(chuàng)新,讓“Chiplet”走進人們視野。這種“產品中的不同組件在獨立的裸片上設計和實現(xiàn)”的理念,正隨著技術的發(fā)展引起大型商業(yè)公司和研究機構的關注。如今,不僅多核系統(tǒng)可以Chiplet,甚至多個Chiplet也可以再做融合。

比如美國初創(chuàng)公司Cerebras發(fā)布的“全球最大的芯片WSE”,就是晶圓級封裝的典型代表;蘇黎世聯(lián)邦理工學院發(fā)布剛剛在今年發(fā)布的4096核心RISC-V芯片,也是一個由多個Chiplet組合起來的眾核架構。

據(jù)稱WSE上有1.2萬億個晶體管

在理想狀態(tài)下,這類“大芯片”的效率非常高,比“CPU+GPU”高很多倍,同時所需能耗和空間也非常低。

當然,類腦芯片和量子芯片這種更加能夠映射到AI表征的“關系”的芯片,是從硬件形態(tài)上對體系結構的突破,現(xiàn)在代表性的產品有谷歌發(fā)布的Truenorth 神經形態(tài)芯片浙江大學發(fā)布的“達爾文2”芯片。

值得指出的是,類腦芯片目前仍處于概念驗證階段,量子芯片更是還在襁褓之中。

AI對算力軟件棧的需求

前文提到,根據(jù)發(fā)展趨勢,AI對算力軟件棧的需求,要求軟件棧是復雜、動態(tài)、分布式,分散的,要支撐新的場景(如原生支持分散場景等),以及架構創(chuàng)新(如軟硬件協(xié)同設計、體系結構突破等)。

這是由于,目前現(xiàn)有的人工智能軟件棧是分離的——即各流程軟件支持是分離的,每個階段有每個階段的處理系統(tǒng)。

比如:預處理,一般是基于CPU 集群,軟件多用Hadoop、Spark等;模型設計,前端CPU服務器+JupyterNotebook系統(tǒng);模型訓練,基于CPU-GPU集群的TensorFlow等框架;部署、推理多利用邊緣設備等等。

正是由于各階段有各自的處理系統(tǒng)、不同的階段用不同的系統(tǒng),導致現(xiàn)在缺乏原生的擴展能力和動態(tài)支撐能力,包括編排、流程化處理,都缺乏很好的支撐。

由此,人工智能軟件棧需求就是對可擴展的支持、動態(tài)的支持、協(xié)同全流程計算等的需求。

其中,協(xié)同全流程計算需要考慮AI應用的全生命周期和為“人的介入”作特殊設計。特別是人在環(huán)路中這點必須特殊考慮。

傳統(tǒng)HPC中,“人的介入”非常明確——就是開發(fā)階段,模型、算法確定以后就不必再去考慮了;但在AI特別是在訓練中則不得不區(qū)別對待。

比如要研究人在回路中的最大特征,如要研究語義、交互、迭代;要研究不確定性、脆弱性和開放性條件下的任務建模、環(huán)境建模和人類行為建模;要研究人機物融合新型人工智能等等。

從架構創(chuàng)新的角度,人工智能對算力軟件棧的需要,則集中在以下幾個方面:

從集中式到適應分布式、分散、動態(tài)的需求;

從“以計算為中心”到“以數(shù)據(jù)為中心”;

從“面向計算機專家”到“面向數(shù)據(jù)分析專家”;

彈性、多框架的協(xié)同;

支持云邊端協(xié)同。

特別需要指出的是,受編程及軟件平臺感知邊緣資源限制,如今的智能任務不可能只在一臺大機器中完成,顯然需要云邊端協(xié)同完成;而智能本身的任務分配,包括感知、認知、決策,也是一個閉環(huán),同樣需要云邊端的智能融合。

最后,兩點說明

當前,AI對算力的需求潛力已毋庸置疑。但由于AI發(fā)展的歷史尚短,自身無論計算理論、方法算法都尚不完整,特別是數(shù)學理論的基礎還很不堅實,因此,AI還不能如傳統(tǒng)的數(shù)值模擬一樣,能夠非常明確地提出對HPC計算能力的要求。

也就是說,AI的計算理論還沒有發(fā)展到它能對HPC明確提出很高的需求階段。但反過來看,如果AI能夠接近甚至達到人的智能水平,肯定會對計算能力、存儲能力等的需求非常高。

另一方面,高性能計算未來也將不再簡單比拼“肌肉”——只追求規(guī)模和性能——更加智慧的高性能計算系統(tǒng)將成為主流。

未來,高性能計算、物聯(lián)網、大數(shù)據(jù)和人工智能將實現(xiàn)深度融合。國家超級計算廣州中心主任盧宇彤甚至預言,“到2030年,所有高端計算設備將自帶AI支持功能,高性能計算仿真將利用AI平臺提高性能,AI也將重塑計算仿真!

因此,現(xiàn)階段HPC與AI融合、適配問題的關鍵在于,在HPC體系結構發(fā)生改變的過渡階段,如何在AI的演進階段支撐其計算能力需求,這是目前HPC領域應該考慮的問題。

還應注意到,深度學習僅僅是AI算法的一個分支,面向AI的云端高性能計算環(huán)境需要廣泛適應包括深度學習在內的多種應用模式,未來的應用需求仍有待進一步研究。

<上一頁  1  2  3  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號