訂閱
糾錯(cuò)
加入自媒體

3D Xpoint將掀起人工智能領(lǐng)域一場革命?美光:我行

5月21日,美光公司舉行了年度分析師和投資者會(huì)議。

盡管很多人都希望獲得更多關(guān)于3D XPoint技術(shù)的信息,美光的管理層依然對此秘而不宣。

我們將在本文討論機(jī)器學(xué)習(xí),它意味著什么,以及哪種硬件類型最適合機(jī)器學(xué)習(xí)應(yīng)用。

最后,我們將推測美光正在從事的工作,以及他們可以在2019年向AI領(lǐng)域推出什么樣的增值解決方案。我們認(rèn)為美光肯定在準(zhǔn)備一顆大炸彈。

近日,美光舉行了年度分析師和投資者會(huì)議,會(huì)議上公開了許多令人興奮的爆炸性信息,包括一個(gè)100億美元的股票回購計(jì)劃,以及關(guān)于美光在DRAM和NAND市場地位和角色定位的大量討論,隨后,許多文章深度報(bào)道了此次會(huì)議的諸多信息。在這次投資者大會(huì)上,一個(gè)顯而易見的事情是,美光并沒有透漏大家所關(guān)心的3D XPoint技術(shù)的任何細(xì)節(jié)。美光公司首席執(zhí)行官Sanjay Mehrotra在其演講中提到了3D XPoint,并暗示稱公司計(jì)劃在2019年開始發(fā)售3D XPoint器件。

3D XPoint是一項(xiàng)可帶來10倍性能提升的激動(dòng)人心的技術(shù)。與DRAM相比,3D XPoint芯片的密度更高,耐久能力比NAND提高了上千倍,速度也比NAND快上千倍。這種技術(shù)特性給3D XPoint提供了一個(gè)重要的價(jià)值主張和市場定位,它可以充當(dāng)層次結(jié)構(gòu)的內(nèi)存和存儲之間的解決方案。我們正在與客戶在產(chǎn)品開發(fā)方面進(jìn)行合作,正如我們前面所說,我們將于2019年推出3D XPoint產(chǎn)品,并在2019年下半年開始出貨這些產(chǎn)品。

公司首席業(yè)務(wù)官SumitSadana也重申,因?yàn)樗麄儸F(xiàn)在正在和合作伙伴們一起開發(fā)3D XPoint產(chǎn)品,因此還沒有做好討論3D XPoint技術(shù)細(xì)節(jié)的準(zhǔn)備。

我今天不會(huì)就我們的3D XPoint產(chǎn)品提供更多細(xì)節(jié),因?yàn)槲覀兠髂陮⑼瞥鲞@些產(chǎn)品,而且,出于競爭的原因,我也不希望泄露我們和客戶正在進(jìn)行的一些工作。

在本文中,我們將簡要解釋人工智能特別是機(jī)器學(xué)習(xí)如何在現(xiàn)實(shí)生活中發(fā)揮相關(guān)作用,并基于我們對機(jī)器學(xué)習(xí)的深入了解和美光團(tuán)隊(duì)的公開聲明,推測3D XPoint的未來。

AI和機(jī)器學(xué)習(xí)是什么?

首先,我們來看看人工智能和機(jī)器學(xué)習(xí)的含義。AI是一個(gè)通用的術(shù)語,適用于任何一種允許計(jì)算機(jī)執(zhí)行通常由人類執(zhí)行的任務(wù)的技術(shù)。這方面的例子林林總總,從下棋到分揀郵件,從識別貓狗圖片到車輛駕駛等。

機(jī)器學(xué)習(xí)(簡稱ML)是AI的一個(gè)分支。這種技術(shù)通過向計(jì)算機(jī)顯示一組輸入和預(yù)期的輸出,讓計(jì)算機(jī)從這些輸入輸出的集合中“學(xué)習(xí)”如何執(zhí)行特定任務(wù)來創(chuàng)建AI。

比如,假設(shè)你想訓(xùn)練一臺計(jì)算機(jī)識別貓的照片。處理這項(xiàng)任務(wù)的一種方法是描述非常詳細(xì)的啟發(fā)式規(guī)則,以確定某張照片是否是貓的圖片。

在規(guī)則中,你可能會(huì)指定貓有毛茸茸的皮、尖尖的耳朵。但是,不一定每只貓的耳朵都尖尖的,甚至有的貓皮禿毛稀。這就使得基于規(guī)則的AI方法很難處理,尤其是遇到特征不明顯的案例時(shí)。

相比之下,ML方法依賴于向計(jì)算機(jī)顯示成千上萬張不同貓的圖片,并讓計(jì)算機(jī)自己制定貓的規(guī)則。對于圖像識別而言,當(dāng)今最常用的模型基于神經(jīng)網(wǎng)絡(luò)技術(shù)。本文并不打算詳細(xì)討論神經(jīng)網(wǎng)絡(luò)是如何工作的,不過下面提供了一個(gè)這樣的神經(jīng)網(wǎng)絡(luò)的簡化圖,它可以幫助你思考一下,為什么ML和內(nèi)存和存儲大有關(guān)系。

上面這張圖被簡化用來顯示一張9x9像素的圖片。實(shí)際案例會(huì)涉及到更大的輸入集,使用數(shù)十萬甚至數(shù)百萬個(gè)特征。

現(xiàn)在我們至少在概念上對神經(jīng)網(wǎng)絡(luò)的外觀有了一些了解,下面讓我們回到那個(gè)貓的例子上。

用于訓(xùn)練的貓的圖片被歸一化為特定大小,然后分解成像素,將這些像素的值輸入ML模型中。該模型執(zhí)行前向傳播(模型考慮給予它的輸入是否是貓的照片),并輸出圖片是貓的可能性的概率。

在訓(xùn)練階段,模型會(huì)被告知它的回答是否正確。所以,如果給模型的圖片確實(shí)是一只貓,并且模型回答正確,那么這個(gè)模型就會(huì)得到加強(qiáng)。反之,如果模型回答錯(cuò)誤,那么通過反向傳播算法對模型進(jìn)行懲罰(正確答案和模型給出的答案之間的差異),調(diào)整一些個(gè)體的權(quán)重,以期下一次回答時(shí)會(huì)更好。

硬件要求

計(jì)算神經(jīng)網(wǎng)絡(luò)中給定預(yù)測的成本的數(shù)學(xué)公式,Zynath Capital提供。

前向傳播和后向傳播的數(shù)學(xué)計(jì)算相當(dāng)復(fù)雜,也超出了本文的范圍,讀者只需要注意一點(diǎn),即這些計(jì)算需要數(shù)以千計(jì)的線性代數(shù)運(yùn)算。 如果你記得高中或大學(xué)階段的線性代數(shù)課程,就會(huì)了解到,在這種數(shù)學(xué)運(yùn)算中,大數(shù)據(jù)集會(huì)被組織成矩陣和向量。這也就解釋了為什么GPU在機(jī)器學(xué)習(xí)應(yīng)用中如此受歡迎。線性代數(shù)可以很容易地并行化,而且GPU在并行數(shù)學(xué)計(jì)算方面非常出色。

這個(gè)過程涉及的內(nèi)存大小有點(diǎn)不直觀。 舉例來說,假設(shè)貓的照片是一張1,000 x 1,000像素的圖片,按照今天的標(biāo)準(zhǔn),這是一幅非常小的圖片,但是,這樣一幅圖片也有超過一百萬個(gè)單獨(dú)的特征(像素),并且每個(gè)像素都必須由CPU進(jìn)行處理,以便評估圖片的“貓膩”。

現(xiàn)在,您應(yīng)該已經(jīng)了解了所述計(jì)算模型在一張圖片上需要做多少計(jì)算和處理,想象一下,現(xiàn)實(shí)世界中需要在成百上千萬張圖片的數(shù)據(jù)集上進(jìn)行相同操作,數(shù)據(jù)集規(guī)模達(dá)到2TB或3TB以上的情況并不少見,特別是在我們談?wù)撝T如遺傳學(xué)和天體物理等領(lǐng)域的時(shí)候。

為了快速訓(xùn)練模型,您需要將盡可能多的數(shù)據(jù)集加載到內(nèi)存(RAM)中,以便功能強(qiáng)大的GPU和CPU可以執(zhí)行并行化的計(jì)算任務(wù),F(xiàn)在的CPU性能如此強(qiáng)大,以至于向CPU提供數(shù)據(jù)這個(gè)步驟成了瓶頸。一直以來,我們都是通過增加系統(tǒng)的DRAM容量,并將正在使用的數(shù)據(jù)集預(yù)先加載到DRAM中來解決這個(gè)問題。

SumitSadana在他的發(fā)言中談到了這個(gè)確切的問題:

“在云公司內(nèi)部,一個(gè)眾所周知的事情是,處理器需要花費(fèi)大量的時(shí)間等待數(shù)據(jù)。隨著這些新興處理器內(nèi)核數(shù)量在過去幾年內(nèi)的大幅增加,相對來講這些處理器的附屬內(nèi)存容量并沒有增加太多,這就意味著每個(gè)內(nèi)核可以使用的內(nèi)存帶寬容量是實(shí)際下降的。”

DRAM還要一個(gè)顯著的缺點(diǎn)-易失性。想象一下,你花費(fèi)了數(shù)天時(shí)間,投入了大量的CPU和電力資源來為你的新的和革命性的識別貓ML模型計(jì)算新權(quán)重,結(jié)果大樓電源斷電,后者由于某些硬件或軟件相關(guān)原因需要重啟計(jì)算機(jī),顯然,你會(huì)丟掉DRAM中的一切數(shù)據(jù),你的模型會(huì)回歸到最原始的認(rèn)為桌子也是一只貓的階段(因?yàn)樽雷右灿兴臈l腿)。這正是3D XPoint的用武之地。

1  2  下一頁>  
聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號