王東明:AI安全的機遇與挑戰(zhàn)
人工智能VS網(wǎng)絡(luò)安全
挑戰(zhàn)?
人工智能給安全帶來了很多的挑戰(zhàn),基于機器學(xué)習(xí)和深度搜索的人工智能方法會提升攻擊網(wǎng)絡(luò)和信息安全的能力,對全天候跟蹤網(wǎng)絡(luò)行為獲取的大數(shù)據(jù)進行人工智能分析,有可能自動檢測出運行網(wǎng)絡(luò)出現(xiàn)物理異常和安全性低下的時段與內(nèi)外部環(huán)境,從而可以制定更有效的攻擊機制和策略。人工智能方法對網(wǎng)絡(luò)安全的挑戰(zhàn)將會增加網(wǎng)絡(luò)安全的保障成本。
人工智能+是給安全的很大威脅。深度搜索向?qū)挾人阉、廣度搜索擴展,威脅基于通用知識的安全保障機制。機器學(xué)習(xí)從蠻力型、普適型向知識型延伸,這將威脅基于專業(yè)知識的安全機制。萬物互聯(lián)使全局安全受制于局部安全,巴黎城門失火,可以殃及天府池魚。
5G云端:虛擬現(xiàn)實、穿越時空,數(shù)據(jù)傳輸、價值轉(zhuǎn)移、網(wǎng)絡(luò)攻擊都有可能在0秒內(nèi)完成。還有很多的物理手段,比如說衛(wèi)星定位、雷達跟蹤、聲波探測、視頻監(jiān)控,我們一言一行盡在數(shù)據(jù)中。還有非計算智能,超越人類智能的生物感知、動物智能是否可以用來為虎添翼。有很多動物智能很強,比如狗的嗅覺比人強,狗的嗅覺可以智能化放到機器上,那么它們感知能力就會比我們強很多。
機遇?
人工智能對于安全的挑戰(zhàn),給安全發(fā)展帶來機遇。我們要重新審視、分析蠻力型、普適型安全機制的安全性和可靠性,建立基于元智能的高智型安全機制 ,并構(gòu)建復(fù)合型多重安全保障體系,保證安全攸關(guān)信息網(wǎng)絡(luò)的絕對安全。
網(wǎng)絡(luò)的安全威脅將會隨著網(wǎng)絡(luò)使用力的加大而加大。對于網(wǎng)絡(luò)實施多方位、智能化協(xié)同攻擊會變得越來越容易。深度群體智能密碼分析會提出對密碼的攻擊能力。比如說我們的計算可以通過網(wǎng)絡(luò),可以在一億部手機上實現(xiàn)簡單的操作,這項能力,強度會比以前大很多。網(wǎng)絡(luò)設(shè)施建設(shè)將會繼續(xù),網(wǎng)絡(luò)安全性將會不斷提高,但是我們需要教育,需要自律、法律加強與完善網(wǎng)絡(luò)安全。
道高一尺 魔高一丈
人工智能VS網(wǎng)絡(luò)安全中既有挑戰(zhàn)又有機遇。一句話,我們要道德、法規(guī)、科技、智能。傳道承德、建規(guī)立法、創(chuàng)新科技、智能保安。其中網(wǎng)絡(luò)道德安全教育尤為重要。
我們花很多錢很多技術(shù)希望變得安全,但是最終沒有達到想要的結(jié)果。我們能做到的是本質(zhì)加密加鎖,小人難盜,善行善舉,君子不竊。君子都來攻擊,那么安全很難保障。我們需要教育,需要改善人們對社會,對現(xiàn)代文化的認(rèn)識,這是非常重要的。我們花這么多的精力做這么多事情,達到什么效果呢?效果就是促進科技的進步,將造福人類。
人工智能真的那么可怕嗎?
舉一個例子,核能和智能,這二者不可或缺。我們研究核能,造原子彈、氫彈、核武器是為了要保護自己。我們造出來之后我們并沒有使用核武器,但是沒有核武器有可能遭到別人攻擊,有了核武器別人不來攻擊我們,我們也不攻擊別人。反而核武器成為科技進步的表現(xiàn),從而造福人類。比如說發(fā)電、核潛艇。在法國80%電都是靠核能,所以核能發(fā)揮著重要的作用。
人工智能存在威脅,但怎么會比核能更可怕呢?人與汽車,誰跑得更快?誰更有智能?這是顯然的問題,汽車只能在公路上跑得快,還需要人來駕駛。而我們?nèi)丝梢宰擢毮緲,可以穿小胡同,可以獨上高樓,可以另辟蹊徑?/p>
人工引發(fā)的智能可以非常強大,但是仍然無法超越人類自身的元智能,因為人創(chuàng)造的能力是無限的。我們制造的東西,我們研究的東西,我們一定要讓它在我們的控制之下。人工智能是機器智能,是算法智能,人智能的科學(xué)基礎(chǔ)是數(shù)學(xué)。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
圖片新聞