訂閱
糾錯(cuò)
加入自媒體

造謠、色情、詐騙...AI正在污染全球互聯(lián)網(wǎng)

圖片

發(fā)展和治理,兩手都要抓。

作者 | 張語格

編輯 | 趣解商業(yè)TMT組

“看到好萊塢的標(biāo)志牌著火的圖片,還以為好萊塢陷落了,結(jié)果竟然是AI偽造的。”

影迷橙子(化名)之前時(shí)常和朋友吐槽,社交平臺(tái)上AI生成的圖片是“一眼假”,然而,在前兩天洛杉磯山火相關(guān)的新聞圖中,橙子完全沒意識(shí)到里面摻雜了大量AI假圖。

圖源:微博截圖

“好萊塢標(biāo)志牌著火的那張圖,各個(gè)影迷群幾乎都傳瘋了,大家還調(diào)侃這是在電影市場之外,先在物理層面‘陷落’了,結(jié)果,第二天就看見媒體辟謠說這張照片是AI偽造的。”橙子表示,這張假圖本身就有情緒性,和新聞報(bào)道放在一起更顯得真假難辨。

“趣解商業(yè)”注意到,雖然已經(jīng)辟謠,但至今仍有不少網(wǎng)友將這張AI圖當(dāng)作真實(shí)照片。

01.你被AI騙過嗎?

在“好萊塢標(biāo)志牌著火”之前,西藏定日6.8級(jí)地震發(fā)生后,也曾有一張AI生成的“小男孩被困”圖片在社交媒體上瘋狂流傳。

橙子無奈表示,“當(dāng)時(shí)我還吐槽這種人物圖AI味道太重,手指數(shù)目不對(duì),臉部虛化過于嚴(yán)重,只有完全不了解AI的中老年群體才會(huì)信。結(jié)果沒幾天,我就被好萊塢著火的AI圖給‘騙’過去了。”

在近日的社會(huì)新聞里,“好萊塢標(biāo)志牌著火”和“地震被埋男孩”欺瞞了不少人的眼睛,盡管兩張圖都已經(jīng)被官方辟謠,但仍有不少用戶“深信不疑”,其中也包括很多年輕人。

圖源:抖音截圖

據(jù)媒體報(bào)道,經(jīng)查,青海某網(wǎng)民為博取眼球,將“小男孩被埋圖”與日喀則地震相關(guān)的信息進(jìn)行關(guān)聯(lián)拼湊、移花接木,混淆視聽、誤導(dǎo)群眾,致使謠言信息傳播擴(kuò)散。目前,涉案人員已被屬地公安機(jī)關(guān)依法行政拘留。

1月10日晚間,抖音官方發(fā)布公告稱,平臺(tái)已嚴(yán)肅處置23652條涉地震不實(shí)信息并配發(fā)了辟謠內(nèi)容。公告中還提到,2023年和2024年,抖音就曾發(fā)布AI內(nèi)容治理相關(guān)公告,明確平臺(tái)不鼓勵(lì)利用AI生成虛擬人物進(jìn)行低質(zhì)創(chuàng)作,將嚴(yán)格處罰違規(guī)使用AI生成虛擬人物發(fā)布違背科學(xué)常識(shí)、弄虛作假、造謠傳謠的內(nèi)容。

圖源:今日頭條截圖

此前,“趣解商業(yè)”曾在《2024年,多少人被AI“割韭菜”?》文中提到,AI生成的內(nèi)容正在占領(lǐng)社交網(wǎng)絡(luò)。“小貓張嘴唱歌”“甄嬛機(jī)關(guān)槍掃射四郎”這類虛擬內(nèi)容尚能分辨出是AI制作,但如今很多AI生成的的真人圖片和視頻,已經(jīng)到了肉眼難辨真假的地步。

經(jīng)常刷短視頻的陳沐(化名)表示,現(xiàn)在刷到AI創(chuàng)作的內(nèi)容概率越來越高了,“你看完一個(gè)換臉視頻以后,平臺(tái)就會(huì)瘋狂給你推類似的AI換臉二創(chuàng)。”然而,目前社媒平臺(tái)的審核并不能完全精準(zhǔn)識(shí)別到所有AI創(chuàng)作內(nèi)容,還需要用戶發(fā)布時(shí)自覺勾選標(biāo)注;而因?yàn)锳I內(nèi)容聲明的標(biāo)識(shí)并不顯著,有些內(nèi)容即使明確標(biāo)識(shí)是AI創(chuàng)作,仍會(huì)被很多用戶當(dāng)作真實(shí)內(nèi)容。

據(jù)媒體報(bào)道,2024年6月中旬,一家MCN機(jī)構(gòu)的實(shí)際控制人王某某因利用AI軟件生成虛假新聞并大肆傳播,擾亂公共秩序,被警方行政拘留。據(jù)警方通報(bào),王某某共經(jīng)營5家MCN機(jī)構(gòu),運(yùn)營賬號(hào)842個(gè),自2024年1月以來,王某某通過AI軟件生成虛假新聞,最高峰一天能生成4000至7000篇。

圖源:微博截圖

2024年下半年,有網(wǎng)友稱自己在小紅書上通過賬號(hào)矩陣管理軟件同時(shí)操控1327個(gè)AI美女賬號(hào),沒有任何一個(gè)被平臺(tái)識(shí)別出來。由于AI真人賬號(hào)過多,小紅書上還出現(xiàn)了專門打假的博主。

圖源:小紅書截圖

有網(wǎng)友表示,為了避開技術(shù)bug,很多AI生成的“真人圖”通常會(huì)避免出現(xiàn)手指,“很多人都是用提示詞讓手伸出畫面,放在身后,握拳,用東西遮擋雙手等;如果是真人視頻,則要注意口型,AI生成視頻一般口型和臺(tái)詞會(huì)對(duì)不上,或是不太自然。”

然而,也并不是所有人都在乎照片、視頻里的形象是不是真人。有網(wǎng)友表示,“好看、能提供情緒價(jià)值就可以了,難道那些真人博主就長得和照片一模一樣?既然都不真實(shí),是不是AI又有什么所謂?”

由于對(duì)“數(shù)字人”警惕性不足,通過AI換臉的詐騙案也層出不窮。

據(jù)《北京商報(bào)》報(bào)道,2024年2月有詐騙犯運(yùn)用Deepfake 深度偽造技術(shù),制作出公司高層發(fā)言視頻,誘導(dǎo)職員先后15次將2億港元轉(zhuǎn)至指定賬戶。

除此之外,還有用AI換臉真人制作色情影片、盜刷醫(yī)保的違法案例。杭州曾有人通過AI換臉偽造女明星涉黃視頻,甚至還組建群聊,滿足定制換臉色情影片的需求,根據(jù)時(shí)長、視頻難度收取相應(yīng)的費(fèi)用。杭州蕭山檢察在該群內(nèi)查獲的淫穢視頻高達(dá)1200余部。

圖源:央視新聞截圖

AI模糊了真實(shí)與虛假的邊界,也給越來越多的人帶來困擾。

北京周泰律師事務(wù)所張子航律師表示,在公共事件中,故意歪曲事實(shí),用AI或者其他技術(shù)手段制作圖片、視頻,并在社交平臺(tái)傳播造成負(fù)面影響的,首先要追究的是制作者的責(zé)任,制作者面臨的可能是行政責(zé)任,也可能是刑事責(zé)任。

此外,發(fā)布虛假信息的社交平臺(tái),也有可能要承擔(dān)法律責(zé)任。張子航律師表示,平臺(tái)雖然不是技術(shù)和內(nèi)容的提供者、制作者,但負(fù)有審核和監(jiān)管義務(wù),社交平臺(tái)如未能盡到義務(wù),導(dǎo)致虛假圖片傳播并造成嚴(yán)重的負(fù)面影響,監(jiān)管部門有權(quán)對(duì)發(fā)布平臺(tái)做出罰款、責(zé)令整改等形式的處罰。

02.AI正“污染”互聯(lián)網(wǎng)

社交平臺(tái)上,不止一個(gè)網(wǎng)友表達(dá)過對(duì)“AI入侵”的擔(dān)憂。

有小紅書網(wǎng)友表示,現(xiàn)在AI大模型迭代速度很快,2023年用AI畫人類的手和腳還亂七八糟,2024年Flux模型畫手的正確率就明顯提升了很多,再過幾年,說不準(zhǔn)AI就能正確畫出人體各部位,還有各種肢體動(dòng)作了。“若不加強(qiáng)管理,到時(shí)社交網(wǎng)絡(luò)上恐怕會(huì)變得烏煙瘴氣。”

圖源:小紅書截圖

AI生成的內(nèi)容,同樣也充斥著海外的社交網(wǎng)絡(luò),有些嚴(yán)重侵害了明星、名人的權(quán)益,有些甚至在經(jīng)濟(jì)層面產(chǎn)生了嚴(yán)重影響。

2024年1月,由AI生成的明星泰勒·斯威夫特“不雅照”在X(原推特)、臉書等社交媒體上流傳,瀏覽量已過千萬,引發(fā)公眾關(guān)注。

據(jù)網(wǎng)絡(luò)安全公司Home Security Heroes2023年發(fā)布的數(shù)據(jù),2023年網(wǎng)絡(luò)上可監(jiān)測到的Deepfake視頻有95280個(gè),其中98%都是色情內(nèi)容,而這類內(nèi)容的主角99%都是女性。

2023年5月,一張五角大樓發(fā)生爆炸的照片曾在Twitter上被大范圍轉(zhuǎn)發(fā),其中包括很多投資相關(guān)的網(wǎng)站和社媒賬戶;據(jù)媒體報(bào)道,照片發(fā)布正趕上美國股市當(dāng)天的開盤時(shí)間,一度引發(fā)美股恐慌性短暫下跌。

圖源:微博截圖

當(dāng)AI生成的內(nèi)容頻繁地與真實(shí)新聞?chuàng)诫s在一起,不僅普通民眾很難辨別真?zhèn),一些專業(yè)機(jī)構(gòu)甚至也難以招架。

互聯(lián)網(wǎng)觀察基金會(huì)IWF的分析師曾表示,AI生成的非法內(nèi)容(包括兒童受虐圖片、AI名人換臉視頻等)正在急劇增加,像我們這樣的組織或者警察,可能會(huì)被成百上千張新圖片的鑒別工作壓垮,我們并不總能知道,在這其中是否真的有一個(gè)孩子需要幫助。

圖源:twitter截圖

張子航律師認(rèn)為,AI逐漸讓人意識(shí)到,眼見并不為實(shí)。AI技術(shù)的推廣,有可能使得網(wǎng)民對(duì)網(wǎng)絡(luò)信息從一個(gè)極端到另一個(gè)極端,也就是從全信到全不信。

除了入侵互聯(lián)網(wǎng)內(nèi)容生態(tài),AI生成的內(nèi)容也給大模型訓(xùn)練帶來了風(fēng)險(xiǎn)。中國信通院發(fā)布的《人工智能治理藍(lán)皮書(2024年)》提到,近年來,人工智能內(nèi)生風(fēng)險(xiǎn)加大,模型缺陷、幻覺等問題凸顯;人工智能應(yīng)用風(fēng)險(xiǎn)不斷蔓延,人機(jī)倫理、勞動(dòng)替代、能源短缺等問題突出。

圖源:《人工智能治理藍(lán)皮書(2024年)》

OpenAl前首席技術(shù)官M(fèi)ira Murati曾指出,底層大型語言模型的最大挑戰(zhàn)是會(huì)編造錯(cuò)誤或不存在的事實(shí)。

牛津大學(xué)的伊利亞舒梅洛夫博士及其團(tuán)隊(duì)在《Nature》上發(fā)表的論文提到,當(dāng)生成模型開始接受AI內(nèi)容訓(xùn)練時(shí),最終生成內(nèi)容的質(zhì)量會(huì)明顯下降,反饋循環(huán)可能導(dǎo)致模型輸出偏離現(xiàn)實(shí)、甚至有明顯偏見的內(nèi)容,研究人員將這種現(xiàn)象稱為“模型崩潰”。

此前,國內(nèi)領(lǐng)先的AI實(shí)驗(yàn)室DeepSeek發(fā)布新的AI模型DeepSeek V3模型就出現(xiàn)在測試中竟然聲稱自己是OpenAI的ChatGPT的情況,并且能夠詳細(xì)闡述OpenAI API的使用方法。

圖源:微博截圖

參與過文本生成模型研究的子璐(化名)表示,大模型訓(xùn)練的數(shù)據(jù)在投喂前都會(huì)進(jìn)行篩選和清洗,圖片、視頻的生成在技術(shù)上更復(fù)雜,訓(xùn)練數(shù)據(jù)的樣本也更容易去做清洗,比如固定去找一些攝影師的作品。“相比之下,文本生成的訓(xùn)練數(shù)據(jù)會(huì)更雜一些,也更容易被污染,如果沒有人工仔細(xì)篩選,很可能會(huì)收錄進(jìn)一些虛假的新聞。”

如果AIGC的增加是必然趨勢,那普通用戶該如何對(duì)這類內(nèi)容有效甄別?某互聯(lián)網(wǎng)大廠AI安全研究員Lisa(化名)對(duì)此表示,普通用戶可以從圖像的視覺紋理特征來區(qū)分AI創(chuàng)作。“一般生成的圖片顏色更加鮮艷、紋理更加平滑,而生成的視頻運(yùn)鏡緩慢,畫質(zhì)模糊,經(jīng)常出現(xiàn)類似文字的亂碼內(nèi)容。”

圖源:小紅書截圖

除此之外,文本和圖像還可以借助第三方工具來辨別!度斯ぶ悄苤卫硭{(lán)皮書(2024年)》提到,“以技治技”正在成為平衡人工智能安全與創(chuàng)新的必要工具。

據(jù)“趣解商業(yè)”了解,現(xiàn)在已經(jīng)有AIGC檢測工具根據(jù)相似檢索、內(nèi)容檢測和水印追溯等方法,支持文本、圖片等AI生成內(nèi)容的檢測。Lisa表示,如今生成內(nèi)容越來越逼真,真實(shí)圖片與生成圖片的特征差異越來越小,檢測工具的模型學(xué)習(xí)難度其實(shí)也在增加。

不過,大部分用戶都是不熟悉AI技術(shù)的普通人,不具備鑒別意識(shí)和能力,識(shí)別AIGC、鑒別真假不應(yīng)成為用戶的負(fù)擔(dān)和責(zé)任。創(chuàng)作者應(yīng)自覺聲明內(nèi)容屬性,平臺(tái)擁有更完善的技術(shù)資源和團(tuán)隊(duì),更應(yīng)承擔(dān)起識(shí)別和審查AI內(nèi)容的主要責(zé)任。

03.發(fā)展和治理“兩手抓”

張子航律師認(rèn)為,想要防范AI創(chuàng)作內(nèi)容帶來的風(fēng)險(xiǎn),除了用戶增強(qiáng)核實(shí)意識(shí)與能力,平臺(tái)也應(yīng)當(dāng)加強(qiáng)規(guī)范。“尤其要關(guān)注短時(shí)間內(nèi)被頻繁關(guān)注、轉(zhuǎn)發(fā)的內(nèi)容,如果發(fā)現(xiàn)是AI創(chuàng)作,確認(rèn)為虛假信息后應(yīng)當(dāng)予以刪除,如果不能確認(rèn)真假,也應(yīng)當(dāng)提示和標(biāo)注該內(nèi)容為AI創(chuàng)作。

據(jù)“趣解商業(yè)”了解,目前已有多家社媒平臺(tái)針對(duì)AIGC內(nèi)容做出了相應(yīng)的監(jiān)管規(guī)范。

小紅書在2023年啟動(dòng)了AIGC治理體系建設(shè),對(duì)識(shí)別為疑似 AI 生成的內(nèi)容進(jìn)行顯著標(biāo)識(shí);抖音也在2023年、2024年陸續(xù)發(fā)布了《關(guān)于人工智能生成內(nèi)容的平臺(tái)規(guī)范暨行業(yè)倡議》《 AI生成虛擬人物治理公告》等一系列公告,并持續(xù)對(duì)多種AIGC造假內(nèi)容進(jìn)行嚴(yán)厲打擊;今年1月,快手還在站內(nèi)開設(shè)了“辟謠”榜位,通過官方賬號(hào)轉(zhuǎn)發(fā)辟謠作品,利用算法優(yōu)化,增加辟謠內(nèi)容曝光量,同時(shí)將辟謠信息精準(zhǔn)推送給曾瀏覽過相關(guān)謠言的用戶。

圖源:微博截圖

中國企業(yè)資本聯(lián)盟中國區(qū)首席經(jīng)濟(jì)學(xué)家柏文喜認(rèn)為,除了加強(qiáng)監(jiān)管和治理,平臺(tái)還可以完善用戶舉報(bào)機(jī)制,以及建立版權(quán)保護(hù)機(jī)制,要求用戶在使用AI生成內(nèi)容時(shí)必須遵守相關(guān)的版權(quán)法規(guī),明確標(biāo)注內(nèi)容的來源和版權(quán)歸屬,防止侵權(quán)行為的發(fā)生;同時(shí)也要注重用戶教育,通過平臺(tái)的官方渠道,如發(fā)布指南、教程、案例分析等形式,提高用戶對(duì)AI內(nèi)容的識(shí)別能力和辨別真?zhèn)蔚囊庾R(shí)和能力。

張子航律師還表示,AI生成工具要有提供顯著標(biāo)識(shí)的功能,像人臉替換、人聲合成等顯著改變個(gè)人身份特征的編輯服務(wù),應(yīng)當(dāng)強(qiáng)制標(biāo)識(shí)為AI創(chuàng)作。“如果這類服務(wù)未強(qiáng)制標(biāo)識(shí),創(chuàng)作者也不聲明為AI創(chuàng)作,我個(gè)人認(rèn)為是構(gòu)成共同侵權(quán)的,需要承擔(dān)一部分的侵權(quán)責(zé)任。”

圖源:微博截圖

以從業(yè)者的角度來看,子璐認(rèn)為,防止AI虛假內(nèi)容的泛濫,還需要對(duì)使用者進(jìn)行限制。“‘harmless’(無害性)和‘helpful’(有用性)是我們之前做文本生成主要權(quán)衡的兩個(gè)標(biāo)準(zhǔn),特別安全的內(nèi)容可能不夠有用,特別有趣、有用的內(nèi)容可能會(huì)有風(fēng)險(xiǎn),所以企業(yè)也很重視生成內(nèi)容的安全性。”

“AI工具企業(yè)會(huì)避免生成含有色情、暴力等價(jià)值觀扭曲的內(nèi)容,但卻管不了內(nèi)容的用途。如果有人要求AI生成一張性感女孩的換臉照片,照片本身并沒有危害,但用戶拿這張照片造謠中傷女孩,這其實(shí)是使用者的問題,也是AI企業(yè)很難管轄的領(lǐng)域。”

如今,國內(nèi)外都愈加重視對(duì)AIGC的監(jiān)管與合規(guī)性問題,目前至少有60多個(gè)國家制定和實(shí)施了人工智能治理政策。

2023年1月10日,國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部和公安部聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》正式施行,旨在加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)深度合成管理,維護(hù)國家安全和社會(huì)公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益;此后,國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委等多部門公布了《生成式人工智能服務(wù)管理暫行辦法》,并自2023年8月15日起施行。

圖源:微博截圖

2024年9月14日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法(征求意見稿)》公開征求意見的通知,以規(guī)范人工智能生成合成內(nèi)容標(biāo)識(shí),維護(hù)國家安全和社會(huì)公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益。多項(xiàng)規(guī)定和監(jiān)管政策的相繼落地,讓剛性治理有了更多具體的抓手。

新的技術(shù)進(jìn)步呼吁新的監(jiān)管體系,而這一點(diǎn)并不能完全指望科技商業(yè)公司的自我約束,需要監(jiān)管方、平臺(tái)方的共同努力。盡管AI的應(yīng)用范圍廣泛且難以界定,但法律和道德的邊界始終清晰;未來,政策監(jiān)管和平臺(tái)審核的力度必然會(huì)更加深入,社交平臺(tái)上的內(nèi)容生態(tài)還會(huì)因此發(fā)生哪些改變,值得進(jìn)一步關(guān)注。

       原文標(biāo)題 : 造謠、色情、詐騙...AI正在污染全球互聯(lián)網(wǎng)

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)