ChatGPT應用爆火,安全的大數(shù)據(jù)底座何處尋?
毫無疑問,AIGC正在給人類社會帶來一場深刻的變革。
而剝開其令人眼花繚亂的華麗外表,運行的核心離不開海量的數(shù)據(jù)支持。ChatGPT的“入侵”已經(jīng)引起了各行各業(yè)對內(nèi)容抄襲的擔憂,以及網(wǎng)絡數(shù)據(jù)安全意識的提高。雖然AI技術(shù)是中立的,但并不能成為規(guī)避責任與義務的理由。
最近,英國情報機構(gòu)——英國政府通訊總部(GCHQ)警告稱,ChatGPT和其他人工智能聊天機器人將是一個新的安全威脅。
盡管ChatGPT的概念出現(xiàn)沒有多久,但對網(wǎng)絡安全和數(shù)據(jù)安全帶來威脅的問題已經(jīng)成為業(yè)內(nèi)關(guān)注的焦點。對于目前還處于發(fā)展初期的ChatGPT,如此擔憂是否杞人憂天?
安全威脅或正在發(fā)生
去年年底,初創(chuàng)公司OpenAI推出ChatGPT,之后,其投資商微軟于今年推出了基于ChatGPT技術(shù)開發(fā)的聊天機器人“必應聊天(Bing Chat)”。由于此類軟件能夠提供酷似人類的對話,目前這項服務已風靡全球。
GCHQ的網(wǎng)絡安全部門指出,提供AI聊天機器人的公司可以看到用戶輸入的查詢內(nèi)容,就ChatGPT而言,其開發(fā)商OpenAI就能夠看到這些。
ChatGPT通過大量文本語料庫進行訓練,其深度學習能力很大程度上依賴于背后的數(shù)據(jù)。
出于對信息泄露的擔憂,目前已有多家公司和機構(gòu)發(fā)布“ChatGPT禁令”。
倫敦金融城律師事務所Mishcon de Reya禁止其律師將客戶數(shù)據(jù)輸入ChatGPT,因為擔心在法律上享有隱私特權(quán)的資料可能會遭泄露。
國際咨詢公司埃森哲警告其全球70萬名員工,出于類似的原因,不要使用ChatGPT,因為擔心客戶的機密數(shù)據(jù)最終會落入他人之手。英國電腦芯片公司Arm的母公司日本軟銀集團同樣警告其員工,不要向人工智能聊天機器人輸入公司人員的身份信息或機密數(shù)據(jù)。
今年2月,摩根大通成為第一家在工作場所限制使用ChatGPT的華爾街投行。花旗集團和高盛集團緊隨其后,前者禁止員工在整個公司范圍內(nèi)訪問ChatGPT,后者則限制員工在交易大廳使用該產(chǎn)品。而在更早些時候,亞馬遜和微軟為防備員工在使用ChatGPT的過程中泄密,禁止他們向其分享敏感數(shù)據(jù),因為這些信息可能會被用作進一步迭代的訓練數(shù)據(jù)。
事實上,這些人工智能聊天機器人背后是大型語言模型(LLM),用戶的這些查詢內(nèi)容將會被存儲起來,并且會在未來某個時候被用于開發(fā)LLM服務或模型。
這就意味著,LLM提供商能夠讀取到相關(guān)查詢,并可能以某種方式將它們合并到未來的版本中。
盡管LLM運營商應該采取措施保護數(shù)據(jù),但不能完全排除未經(jīng)授權(quán)訪問的可能性。因此,企業(yè)需要確保他們有嚴格的政策,提供技術(shù)性支持,來監(jiān)控LLM的使用,以最大限度地降低數(shù)據(jù)暴露的風險。
另外,盡管ChatGPT本身尚不具備直接攻擊網(wǎng)絡安全和數(shù)據(jù)安全的能力,但是由于它具有自然語言生成和理解的能力,可以被用于偽造虛假信息、攻擊社交工程等方面。
此外,攻擊者還可以使用自然語言來讓ChatGPT生成相應的攻擊代碼、惡意軟件代碼、垃圾郵件等。因此,AI可以讓那些原本沒有能力發(fā)起攻擊的人基于AI生成攻擊,并大大提高攻擊成功率。
在自動化、AI、“攻擊即服務”等技術(shù)和模式加持下,網(wǎng)絡安全攻擊呈現(xiàn)出暴漲趨勢。在ChatGPT火爆之前,已發(fā)生了多次黑客使用AI技術(shù)進行的網(wǎng)絡攻擊。事實上,人工智能被用戶調(diào)教“帶偏節(jié)奏”的案例并不鮮見,6年前,微軟推出智能聊天機器人Tay,上線時,Tay表現(xiàn)得彬彬有禮,但不到24小時,其就被不良用戶“帶壞”,出言不遜、臟話不斷,言語甚至涉及種族主義、色情、納粹,充滿歧視、仇恨和偏見,只好被下線結(jié)束了短暫的生命。
另一方面,距離用戶更近的風險是,用戶在使用ChatGPT等AI工具時,可能會不經(jīng)意間將私密數(shù)據(jù)輸入到云端模型,這些數(shù)據(jù)可能成為訓練數(shù)據(jù),也可能成為提供給他人答案的一部分,從而導致數(shù)據(jù)泄露和合規(guī)風險。
AI應用要打好安全底座
ChatGPT作為大語言模型,其核心邏輯事實上是海量數(shù)據(jù)的收集、加工、處理和運算結(jié)果的輸出?偟膩碚f,這幾個環(huán)節(jié)可能會在技術(shù)要素、組織管理、數(shù)字內(nèi)容三個方面伴生相關(guān)風險。
雖然ChatGPT表示,存儲訓練和運行模型所需的數(shù)據(jù)會嚴格遵守隱私和安全政策,但在未來可能出現(xiàn)網(wǎng)絡攻擊和數(shù)據(jù)爬取等現(xiàn)象,仍存在不可忽視的數(shù)據(jù)安全隱患。特別是涉及國家核心數(shù)據(jù)、地方和行業(yè)重要數(shù)據(jù)以及個人隱私數(shù)據(jù)的抓取、處理以及合成使用等過程,需平衡數(shù)據(jù)安全保護與流動共享。
除了數(shù)據(jù)與隱私泄露隱患外,AI技術(shù)還存在著數(shù)據(jù)偏見、虛假信息、模型的難解釋性等問題,可能會導致誤解和不信任。
風口已至,AIGC浪潮奔涌而來,在前景向好的大背景下,關(guān)口前移,建立數(shù)據(jù)安全防護墻也至關(guān)重要。尤其是當AI技術(shù)逐漸完善,它既能成為生產(chǎn)力進步的有力抓手,又易淪為黑產(chǎn)犯罪的工具。奇安信威脅情報中心監(jiān)測數(shù)據(jù)顯示,2022年1月份-10月份,超過950億條的中國境內(nèi)機構(gòu)數(shù)據(jù)在海外被非法交易,其中有570多億條是個人信息。
因此,如何確保數(shù)據(jù)存儲、計算、流通過程中的安全問題,是數(shù)字經(jīng)濟發(fā)展的大前提。從整體看,應該堅持頂層設計與產(chǎn)業(yè)發(fā)展齊頭并進,在《網(wǎng)絡安全法》的基礎上,要細化風險與責任分析體系,確立安全問責機制。同時,監(jiān)管部門可開展常態(tài)化監(jiān)查工作,安全領(lǐng)域企業(yè)協(xié)同發(fā)力,構(gòu)建全流程數(shù)據(jù)安全保障體系。
對于數(shù)據(jù)合規(guī)和數(shù)據(jù)安全的問題,特別是在《數(shù)據(jù)安全法》推出后,數(shù)據(jù)隱私越來越重要。
如果在應用AI技術(shù)的過程中無法保證數(shù)據(jù)安全和合規(guī),可能會給企業(yè)造成很大風險。特別是中小企業(yè)對數(shù)據(jù)隱私安全方面的知識比較匱乏,不知道應當如何保護數(shù)據(jù)不會受到安全威脅。
數(shù)據(jù)安全合規(guī)并不是某個部門的事情,而是整個企業(yè)最為重要的事情。企業(yè)要對員工進行培訓,讓他們意識到每個使用數(shù)據(jù)的人,都有義務保護數(shù)據(jù),包括IT人員、AI部門、數(shù)據(jù)工程師、開發(fā)人員、使用報表的人等,人和技術(shù)要結(jié)合在一起。
面對前述潛藏風險,監(jiān)管方和相關(guān)企業(yè)如何從制度和技術(shù)層面加強AIGC領(lǐng)域的數(shù)據(jù)安全保護?
相較于直接針對用戶終端采取限制使用等監(jiān)管措施,明確要求AI技術(shù)研發(fā)企業(yè)遵循科技倫理原則會更具成效,因為這些企業(yè)能夠在技術(shù)層面限定用戶的使用范圍。
在制度層面,需要結(jié)合AIGC底層技術(shù)所需數(shù)據(jù)的特性和作用,建立健全數(shù)據(jù)分類分級保護制度。例如,可根據(jù)數(shù)據(jù)主體、數(shù)據(jù)處理程度、數(shù)據(jù)權(quán)利屬性等方面對訓練數(shù)據(jù)集中的數(shù)據(jù)進行分類管理,根據(jù)數(shù)據(jù)對于數(shù)據(jù)權(quán)利主體的價值,以及數(shù)據(jù)一旦遭到篡改、破壞等對數(shù)據(jù)主體的危害程度進行分級。在數(shù)據(jù)分類分級的基礎上,建立與數(shù)據(jù)類型和安全級別相配套的數(shù)據(jù)保護標準與共享機制。
目光投向企業(yè),還需加快推動“隱私計算”技術(shù)在AIGC領(lǐng)域的應用。
這類技術(shù)能夠讓多個數(shù)據(jù)擁有者在不暴露數(shù)據(jù)本身的前提下,通過共享SDK或者開放SDK權(quán)限的方式,在進行數(shù)據(jù)的共享、互通、計算、建模,在確保AIGC能夠正常提供服務的同時,保證數(shù)據(jù)不泄露給其他參與方。
此外,全流程合規(guī)管理的重要性愈加凸顯。企業(yè)首先應關(guān)注其所運用的數(shù)據(jù)資源是否符合法律法規(guī)要求,其次要確保算法和模型運作的全流程合規(guī),企業(yè)的創(chuàng)新研發(fā)還應最大限度地滿足社會公眾的倫理期待。同時,企業(yè)應制定內(nèi)部管理規(guī)范,設立相關(guān)的監(jiān)督部門,對AI技術(shù)應用場景的各個環(huán)節(jié)進行數(shù)據(jù)監(jiān)督,確保數(shù)據(jù)來源合法、處理合法、輸出合法,從而保障自身的合規(guī)性。
AI應用的關(guān)鍵在于部署方式與成本間的考量,但必須注意的是,如果沒有做好安全合規(guī)、隱私保護,對企業(yè)來說或?qū)⑻N含“更大風險點”。
AI是把雙刃劍,用得好讓企業(yè)如虎添翼;用不好疏忽了安全、隱私和合規(guī),會給企業(yè)帶來更大損失。因此,在AI應用前,需要構(gòu)筑更加穩(wěn)固的“數(shù)據(jù)底座”,正所謂,行穩(wěn)方能致遠。
相關(guān)閱讀
“火到爆炸”的ChatGPT,為何當不了智能客服?
別怪ChatGPT,AI黑客攻擊早已開始
為何ChatGPT一出現(xiàn)讓巨頭們都坐不?
一文讀懂云工作負載安全平臺CWPP
拉響警報!2023年三大網(wǎng)絡安全威脅不容忽視
用戶信息泄露事件頻現(xiàn),數(shù)據(jù)安全建設該如何升級?
【科技云報道原創(chuàng)】
轉(zhuǎn)載請注明“科技云報道”并附本文鏈接
原文標題 : ChatGPT應用爆火,安全的大數(shù)據(jù)底座何處尋?

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風翻身?