訂閱
糾錯(cuò)
加入自媒體

OpenAI提出Image GPT實(shí)現(xiàn)高質(zhì)量圖像補(bǔ)全和樣本生成

GPT在自然語言處理上取得了有目共睹的成就,包括BERT,RoBERTa,T5等眾多無監(jiān)督或自監(jiān)督學(xué)習(xí)方法輪番登場拿下了一個(gè)又一個(gè)語言高地。自然語言處理高歌猛進(jìn)的同時(shí)圖像領(lǐng)域不甘心了,也在躍躍欲試想要利用類似的模型學(xué)習(xí)出可以用于分類任務(wù)的有效特征來。

Transformer家族的模型基本上可以直接處理任何形式的1D數(shù)據(jù),于是研究人員就想到將2D圖像拉伸為長長的1D圖像序列,利用與GPT-2模型類似的技術(shù)構(gòu)建了用于處理像素序列的iGPT模型。

在詳細(xì)的實(shí)驗(yàn)分析后研究人員發(fā)現(xiàn),模型顯現(xiàn)出對(duì)于2D圖像特征的理解能力,包括有效的個(gè)體和類別的理解。模型可以在沒有人工指導(dǎo)情況下生成連續(xù)的圖像樣本,實(shí)現(xiàn)圖像補(bǔ)全,同時(shí)可以在多個(gè)分類數(shù)據(jù)集上實(shí)現(xiàn)先進(jìn)的分類性能,并在ImageNet實(shí)現(xiàn)了非常接近最優(yōu)秀無監(jiān)督方法精度水平。這證明了這類生成序列模型可以作為通用的無監(jiān)督學(xué)習(xí)算法。

在使用GPT-2類似的架構(gòu)時(shí),雖然需要更多的計(jì)算來達(dá)到基于卷積的非監(jiān)督學(xué)習(xí)水平,然而這種方法在面對(duì)全新領(lǐng)域時(shí),大型的GPT-2模型無需針對(duì)特定領(lǐng)域架構(gòu)進(jìn)行設(shè)計(jì)就可以學(xué)習(xí)出非常有效的特征和優(yōu)異的性能。

下面讓我先來看看iGPT應(yīng)用于圖像補(bǔ)全和樣本生成任務(wù)下的一些結(jié)果,下圖中紅色框是原始圖像,藍(lán)色框中是模型補(bǔ)全的結(jié)果?梢钥吹侥P秃芎玫幕謴(fù)出了另一半缺失的圖像,并在不同的生成結(jié)果中添加了各種語義特征的對(duì)象。

1  2  3  4  下一頁>  
聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)