訂閱
糾錯
加入自媒體

中科院計算所副研究員馮洋:神經(jīng)機器翻譯的訓練改進和解碼提速

解碼

1. CubePruning

下面介紹在解碼方面的兩個工作,第一個工作要解決的是beam search每一步要計算BeamSize*|V|的問題,這個計算量大大降低了inference時候解碼的速度。

這是解碼過程中每個步驟的時間消耗,對于GPU來說,大部分的時間消耗在的計算上,其它三個步驟比較節(jié)省時間,對于CPU來說,最耗費時間的是最后兩個步驟,因為|V|比較大。

傳統(tǒng)的方法使用的是Beam Search,傳統(tǒng)的 Beam Search其實是一個二維的搜索方法。其中第一維就是已經(jīng)生成的部分的譯文,假設Beam Size = 4,那么就是四個譯文。第二維度是這四個譯文都要進行下一步的Token預測計算?偣簿托枰嬎4*|V|的概率。因為|V|的個數(shù)通常是幾千上萬級別的,所以這個部分的計算量就非常大。

我們的做法是將二維的搜索擴展成三維的搜索,具體的做法分為以下幾步:

1.  Beam分組:假設我們要解碼第11步,我們就將第10步解碼出來相同Token的候選序列歸為一組。

2.  分組預測第11步的候選Token:只用每個組得分最高的哪個候選序列來計算當前的Token分布。

3.  近似組員的Token分布:由上一步已經(jīng)知道本組最優(yōu)的候選序列的下一個token的預測分布,對于組員來說,也將共享其老大計算出來的Token分布score,然后和自身的序列score相加,得到自身擴展一個Token后的score。這個score作為自身的近似分。

4.  查找Top-K:經(jīng)過上面的計算之后,這樣每個組就是得分其實是一個二維矩陣,我們將矩陣橫軸作為每個組員,縱軸表示當前步預測的token,然后保證右上角score最大,往右,往下都是減小。這樣便于我們查找Top-K。具體請看下一張slides。

對于近似的score這里有兩個選擇,1) 如果取到的candidate是預測的score,那么用真實的狀態(tài)來重新計算一下這個score,這時候也順便更新了一下自己的隱狀態(tài),2)直接用預測的score,不使用更新的方式,這時候和老大哥共享隱狀態(tài)。

這個是GPU上的結果,橫軸是速度,縱軸是BLEU值,可以看出在取得最優(yōu)的BLEU值的情況下,我們的方法所用的時間是更短的。速度可以提升3.3倍。在CPU下,提速可以達到3.5倍。

在Beam Size=40的情況下,GPU上速度提升3.8倍,CPU上提升4.2倍。

<上一頁  1  2  3  4  5  下一頁>  余下全文
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號