訂閱
糾錯(cuò)
加入自媒體

KDD 2020最佳論文獎(jiǎng)出爐!谷歌、北航獲獎(jiǎng)

最佳學(xué)生論文獎(jiǎng)

獲獎(jiǎng)?wù)撐模骸禩IPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework for Deep Learning with Anonymized Intermediate Representations》

簡介:深度學(xué)習(xí)的成功部分得益于各種大規(guī)模數(shù)據(jù)集的可用性。這些數(shù)據(jù)集通常來自個(gè)人用戶,并且包含諸如性別、年齡等隱私信息。用戶對數(shù)據(jù)共享的隱私擔(dān)憂阻礙了眾包數(shù)據(jù)集的生成或使用,并導(dǎo)致對新的深度學(xué)習(xí)應(yīng)用程序的訓(xùn)練數(shù)據(jù)的渴求。一個(gè)自然的解決方案是在用戶端對原始數(shù)據(jù)進(jìn)行預(yù)處理以提取特征,然后只將提取的特征發(fā)送到數(shù)據(jù)采集器。不幸的是,攻擊者仍然可以利用這些提取的特征訓(xùn)練對抗分類器來推斷私有屬性。一些現(xiàn)有技術(shù)利用博弈論來保護(hù)私有屬性。然而,這些防御措施是針對已知的初級學(xué)習(xí)任務(wù)設(shè)計(jì)的,提取的特征對于未知的學(xué)習(xí)任務(wù)效果不佳。

為了解決學(xué)習(xí)任務(wù)未知或變化的情況,作者提出了一種基于匿名中間表示的任務(wù)無關(guān)隱私的數(shù)據(jù)眾包框架 TIPRDC。該框架的目標(biāo)是學(xué)習(xí)一個(gè)特征抽取器,它可以隱藏中間表征中的隱私信息,同時(shí)最大限度地保留原始數(shù)據(jù)中嵌入的原始信息,供數(shù)據(jù)采集器完成未知的學(xué)習(xí)任務(wù)。

作者設(shè)計(jì)了一種混合訓(xùn)練方法來學(xué)習(xí)匿名中間表示:(1)針對特征隱藏隱私信息的對抗性訓(xùn)練過程;(2)使用基于神經(jīng)網(wǎng)絡(luò)的互信息估計(jì)器最大限度地保留原始信息。他們廣泛地評估了 TIPRDC,并將其與使用兩個(gè)圖像數(shù)據(jù)集和一個(gè)文本數(shù)據(jù)集的現(xiàn)有方法進(jìn)行了比較他們的結(jié)果表明,TIPRDC大大優(yōu)于其他現(xiàn)有的方法。本文的工作提出了第一個(gè)任務(wù)獨(dú)立隱私尊重?cái)?shù)據(jù)眾包框架。

Ang Li

論文第一作者 Ang Li 是杜克大學(xué)電子和計(jì)算機(jī)工程系的一名在讀博士,導(dǎo)師為陳怡然和 Hai "Helen" Li 教授。Ang Li 曾在2013 年獲得北京大學(xué)軟件工程碩士學(xué)位,2018 年獲得阿肯色大學(xué)計(jì)算機(jī)科學(xué)博士學(xué)位。

最佳論文亞軍

來自弗吉尼亞大學(xué)的 Mengdi Huai、Jianhui Sun、Renqin Cai、Aidong Zhang 和來自紐約州立大學(xué)布法羅分校的 Liuyi Yao 獲得了最佳論文獎(jiǎng)的亞軍,獲獎(jiǎng)?wù)撐氖恰禡alicious Attacks against Deep Reinforcement Learning Interpretations》。

簡介:近年來,深度強(qiáng)化學(xué)習(xí)(DRL)得到了迅速的發(fā)展,它是深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)(RL)相結(jié)合的產(chǎn)物。然而,深度神經(jīng)網(wǎng)絡(luò)的采用使得DRL決策過程不透明,缺乏透明度。基于此,人們提出了各種 DRL 解釋方法。然而,這些解釋方法隱含著一個(gè)假設(shè),即它們是在可靠和安全的環(huán)境中執(zhí)行的。在實(shí)踐中,順序 agent-環(huán)境交互將 DRL 算法及其相應(yīng)的下游解釋暴露在額外的對抗性風(fēng)險(xiǎn)中。盡管惡意攻擊盛行,但目前還沒有研究針對 DRL  解釋的惡意攻擊的可能性和可行性。

為了彌補(bǔ)這一差距,本文研究了 DRL 解釋方法的脆弱性。具體來說,作者首先介紹了針對DRL解釋的對抗性攻擊的研究,并提出了一個(gè)優(yōu)化框架,在此基礎(chǔ)上可以得到最優(yōu)的對抗攻擊策略。此外,作者還研究了 DRL 解釋方法對模型中毒攻擊的脆弱性,并提出了一個(gè)算法框架來嚴(yán)格描述所提出的模型中毒攻擊。最后,作者進(jìn)行了理論分析和大量實(shí)驗(yàn),以驗(yàn)證所提出的針對 DRL 解釋的惡意攻擊的有效性。

這篇論文將深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)結(jié)合(DRL),并證明了其在眾多序列決策問題中動(dòng)態(tài)建模的能力。為了提高模型的透明度,已經(jīng)有研究提出了針對 DRL 的各種解釋方法。但是,這些 DRL 解釋方法隱式地假定它們是在可靠和安全的環(huán)境中執(zhí)行的,但在實(shí)際應(yīng)用中并非如此。弗吉尼亞大學(xué)的研究團(tuán)隊(duì)調(diào)查了一些 DRL 解釋方法在惡意環(huán)境中的漏洞。具體而言,他們提出了第一個(gè)針對 DRL 解釋的對抗性攻擊的研究,提出了一個(gè)優(yōu)化框架來解決所研究的對抗性攻擊問題。

Mengdi Huai

Mengdi Huai 是弗吉尼亞大學(xué)的博士生。她的研究興趣主要是數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)。特別是,我對可解釋機(jī)器學(xué)習(xí)、對抗性機(jī)器學(xué)習(xí)、隱私保護(hù)數(shù)據(jù)挖掘、深度強(qiáng)化學(xué)習(xí)、元學(xué)習(xí)、成對學(xué)習(xí)和醫(yī)療數(shù)據(jù)挖掘感興趣。

<上一頁  1  2  3  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號