訂閱
糾錯(cuò)
加入自媒體

我們真的永遠(yuǎn)也理解不了人工智能嗎?

但湯普森驚訝地發(fā)現(xiàn),該電路所用元件數(shù)量比任何人類工程師的設(shè)計(jì)都要少,甚至有幾個(gè)元件根本沒有和其它元件相連。而要讓電路順利運(yùn)作,這些元件應(yīng)當(dāng)不可或缺才對。

我們真的永遠(yuǎn)也理解不了人工智能嗎?

于是他對電路進(jìn)行了剖析。做了幾次實(shí)驗(yàn)后,他發(fā)現(xiàn)該電路的相鄰元件間存在微弱的電磁干擾。未與電路相連的元件通過干擾鄰近電場、對整個(gè)電路造成了影響。人類工程師通常會(huì)杜絕這類干擾,因?yàn)楦蓴_的結(jié)果難以預(yù)料。果不其然,若用另一組元件復(fù)制該電路布局,甚至只是改變環(huán)境溫度,同樣的電路便會(huì)徹底失靈。

該電路揭露了機(jī)器訓(xùn)練的一大重要特征:它們總是盡可能緊湊簡潔,與所在環(huán)境完美相容,但往往難以適應(yīng)其它環(huán)境。它們能抓住工程師發(fā)現(xiàn)不了的規(guī)律,但不知道別處是否也有這一規(guī)律。機(jī)器學(xué)習(xí)研究人員想盡力避免這種名為“過擬合”的現(xiàn)象。但隨著應(yīng)用這些算法的情況愈發(fā)復(fù)雜多變,這一缺陷難免會(huì)暴露出來。

普林斯頓大學(xué)計(jì)算機(jī)科學(xué)教授桑吉夫·阿羅拉認(rèn)為,這一問題是人類追求可解釋模型的主要?jiǎng)訖C(jī),希望有了可解釋模型后、能對網(wǎng)絡(luò)進(jìn)行干預(yù)和調(diào)整。距阿羅拉表示,有兩大問題可體現(xiàn)缺乏可解釋性對機(jī)器性能造成的硬性限制。一是“組合性”:當(dāng)一項(xiàng)任務(wù)同時(shí)涉及多項(xiàng)決策時(shí)(如圍棋或自動(dòng)駕駛汽車),神經(jīng)網(wǎng)絡(luò)便無法高效判定是哪個(gè)決策導(dǎo)致了任務(wù)失敗!叭祟愒谠O(shè)計(jì)某樣?xùn)|西時(shí),會(huì)先弄清不同元件的作用,再將其組合在一起,因此能夠?qū)Σ贿m合當(dāng)前環(huán)境的元件進(jìn)行調(diào)整。”

二是阿羅拉所稱的“域適應(yīng)性”即將在某種情境中學(xué)到的知識靈活運(yùn)用于其它情境的能力。人類非常擅長這項(xiàng)任務(wù),但機(jī)器則會(huì)出現(xiàn)各種離奇錯(cuò)誤。據(jù)阿羅拉描述,即使只對環(huán)境做了微調(diào)、人類調(diào)整起來不費(fèi)吹灰之力,計(jì)算機(jī)程序也會(huì)遭遇慘敗。例如,某個(gè)網(wǎng)絡(luò)經(jīng)過訓(xùn)練后、能對維基百科等正式文本的語法進(jìn)行分析,但如果換成推特這樣的口語化表達(dá),就會(huì)變得毫無招架之力。

我們真的永遠(yuǎn)也理解不了人工智能嗎?

按這樣來看,可解釋性似乎不可或缺。但我們真的理解它的意思嗎?著名計(jì)算機(jī)科學(xué)家馬文·閔斯基用“手提箱詞匯”來形容這類詞匯,包括“意識”、“情緒”等用來描述人類智能的單詞。閔斯基指出,這些詞其實(shí)反映了多種多樣的內(nèi)在機(jī)制,但都被鎖在“手提箱”中。一旦我們用這些詞代替了更根本性的概念、僅對這些詞匯進(jìn)行研究,我們的思維就會(huì)被語言所局限。那么在研究智能時(shí),“可解釋性”會(huì)不會(huì)也是這樣一個(gè)“手提箱詞匯”呢?

雖然很多研究人員都持樂觀態(tài)度,認(rèn)為理論學(xué)家遲早能打開這個(gè)“手提箱”、發(fā)現(xiàn)某套主宰機(jī)器學(xué)習(xí)(或許也包括人類學(xué)習(xí))的統(tǒng)一法則或原理,就像牛頓的力學(xué)原理一樣。但也有人警告稱,這種可能性微乎其微。紐約城市大學(xué)哲學(xué)教授馬西莫·皮戈里奇指出,神經(jīng)科學(xué)、乃至人工智能領(lǐng)域所謂的“理解”也許是一種“集群概念”,即可能有多個(gè)不同定義。如果該領(lǐng)域真的有“理解”之說,也許相對于物理學(xué)、會(huì)更接近進(jìn)化生物學(xué)的情況。也就是說,我們將發(fā)現(xiàn)的也許不是“基本力學(xué)原理”,而是“物種起源學(xué)說”。

當(dāng)然,這并不意味著深度網(wǎng)絡(luò)將預(yù)示著某種新型自主生命的出現(xiàn)。但深度網(wǎng)絡(luò)就像生命本身一樣費(fèi)解。該領(lǐng)域采用的漸進(jìn)式實(shí)驗(yàn)手段和事后解讀方式也許并不是在黑暗中苦苦等待理論之光時(shí)的絕望情緒,而是我們能夠盼來的唯一光芒。可解釋性也許會(huì)以碎片化的形式呈現(xiàn)出來,就像不同類別的“物種”一樣,采用的分類法則根據(jù)具體情境而定。

在國際機(jī)器學(xué)習(xí)大會(huì)的專題研討會(huì)結(jié)束時(shí),部分發(fā)言人參加了一場討論會(huì),試圖給“可解釋性”下一個(gè)定義。結(jié)果每個(gè)人都各執(zhí)一詞。進(jìn)行了一系列討論后,大家似乎達(dá)成了一點(diǎn)共識:一個(gè)模型要能被解釋,就要具備“簡單性”。但在簡單性的定義問題上,大家又產(chǎn)生了分歧!白詈唵巍钡哪P途烤故侵敢蕾囎钌偬卣鞯哪P?還是程序規(guī)模最小的模型?還是有其它解釋?一直到研討會(huì)結(jié)束,大家都沒有達(dá)成共識。

正如馬里奧托夫說的那樣:“簡單性并不簡單!

每日一篇人工智能文章,還有技術(shù)文章同步發(fā)布,喜歡的朋友可以關(guān)注一下,

<上一頁  1  2  3  
聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號