訂閱
糾錯(cuò)
加入自媒體

Google 新論文 Titans + MIRAS:幫助人工智能擁有長期記憶

Transformer 架構(gòu)引入了注意力機(jī)制,使模型能夠回顧早期輸入,從而優(yōu)先處理相關(guān)的輸入數(shù)據(jù)。然而,計(jì)算成本會(huì)隨著序列長度的增加而急劇上升,這限制了基于 Transformer 的模型擴(kuò)展到超長上下文的能力。

近日,Google 在兩篇新論文 Titans 和 MIRAS 中提出了一種架構(gòu)和理論藍(lán)圖,它結(jié)合了循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 的速度和 Transformer 的精度。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點(diǎn)?帽菊靖寮,務(wù)經(jīng)書面授權(quán)。未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制、翻譯及建立鏡像,違者將依法追究法律責(zé)任。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)