訂閱
糾錯
加入自媒體

AI與偏見:從當代新“相面術”說起

2018-04-29 05:09
來源: 億歐網

這就引出了本文想要討論的主題:AI與偏見的關系。關于這點,筆者認為有必要澄清以下兩方面:

(一)AI作為工具,映射的是人類本就存有的偏見、歧視。有不少媒體使用了“人工智能存有偏見”或“人工智能產生歧視”這樣的詞組搭配,似乎“人工智能”是生產偏見、歧視的主體。其實,AI的定語是“人工”,它只是人類的工具,換言之,只不過人類偏見、歧視和刻板印象的新的載體。

正如巴斯大學的Joanna Bryson所說的那樣:“很多人都認為是AI存在著偏見,不,這正表明是我們有偏見,AI 正在有學有樣。”谷歌認為AI之所以出現偏見,源自于實施算法過程中“互動偏差”、“潛在偏差”以及“選擇偏差”。其實,即便沒有這些操作步驟中的偏差,AI 仍將充滿偏見,因為人類社會和文化本身由無數偏見組成。

(二)AI作為工具,還將大大強化人類社會中的偏見、歧視。數次技術革命給人類社會帶來的巨大改變,這使得我們的文化對于科學技術擁有了一種盲目的樂觀和崇拜,“數字”、“科學”、“實驗”這些詞幾乎等同于“真理”、“正確”,這種“唯科學主義”很容易忽略掉技術本身的“主觀性”——AI看相摸骨正憑借這點趁虛而入。這次人工智能浪潮對于社會生產力無疑具有巨大賦能潛力,這同時意味著倘若偏見、歧視混入其中的話,AI將為人類帶來更隱蔽、更深廣的破壞力度。因此,人工智能領域不僅需要積極擁抱新技術的樂觀主義者,還能接納那些憂心忡忡的盧德主義者們。

(微軟AI聊天機器人Tay上線后,很快淪為人性陰暗面的鏡子)

那么,在充滿偏見的社會語境中,應該如何以正確方式地打開AI呢?

首先,不要人為地用AI制造出更多的偏見。最近, 據Futurism.com報道,來自美國的一家新聞媒體平臺Knowhere試圖用AI技術重寫新聞報道,以祛除語言文字中的偏見性因素。在其官網的自我介紹中,他們聲稱自己家的新聞報道是“世界上最客觀的新聞”(The World’s Most Unbiased News),其重寫新聞的大致流程如下:

使用AI搜集互聯網上圍繞某一主題的所有新聞,不管這些內容是中立、左翼傾向或右翼傾向的;AI根據這些資料重寫一篇中立的新聞報道,這篇報道在涵蓋基本的事實和數據的基礎上,還小心翼翼地移除了任何可能引發(fā)偏見的詞匯;除此之外,AI 還將分別重新寫出左傾、右傾的新聞報道,以供有興趣的讀者閱讀;最后,AI針對同一主題重寫的這三篇文章都將經過專業(yè)新聞編輯的審閱、修改及核定,才會刊發(fā)在其網站上。

對比該網站關于同一事件所使用的三個版本的新聞標題是非常有意思的,以朝美會談為例,中立報道的標題是“總統(tǒng)川普同意與朝鮮領導人金正恩進行歷史性會晤”,左傾報道的標題是“感謝川普,朝鮮電影宣傳成真啦”,右傾報道的標題是“朝鮮是川普政策的最終考驗”。

這種模式乍看之下十分新鮮,但是經不起太多琢磨:誰來決定“中立”的標準?怎么確保決定標準者是完全中立的?AI在篩選、重組新聞的過程中是否能夠徹底貫徹人為設立的中立標準?或者更進一步,將新聞的閱讀人群分為Left、Impartial、Right本身是否也是某種意義上的“偏見”?因此,Knowhere的出發(fā)點是減少偏見的存在,而最終的實際效果反而是固化了它們——這點和斯坦福大學、上海交大的兩項研究非常類似,都犯了“帶著偏見,然后再用AI來驗證/強化自己的偏見”的錯誤。

其次,利用AI去正視、理解以及研究人類自身的偏見。去年發(fā)表的一篇名為《基于詞語嵌入技術量化百年間性別和種族成見》(Word em beddings Quantify 100 Years of Gender and Ethnic Stereotypes)的論文就為我們做了很好地示范。研究者將AI技術與詞語嵌入結合在一起,分析了有近2億詞匯的1910-1990年之間英語世界出版的報紙、雜志和書籍,從中提取了與性別、種族有關的形容性詞匯,并對其統(tǒng)計、匯總、排列,找出了許多發(fā)人深思的現象。

比方說,研究人員發(fā)現,過去百年間越來越多的有關工作能力的詞匯與女性關聯起來,如 resourceful(機敏的)、Clever(聰明的) 等,也有一些詞匯一直被施之于女性,如alluring(迷人的)、homely(相貌平平的) 等。又如,1910年形容亞裔的大多是 barbaric(野蠻的)、greedy(貪婪的)這樣的負面詞匯,而到了1990年情況雖然有所改善,有了像fixed(堅定的)、active(活躍的)等詞匯與之聯系,但是施諸他們最多的仍是haughty(高傲的)、dissolute(放蕩的)這樣的詞匯。

該項研究使用AI這把利器,大量分析了人類過去所產生的文本,以精確、高效的方式揭示出我們社會文化中潛藏著的不易為人察覺的偏見、歧視和刻板印象,要遠遠地優(yōu)于過往那種印象式的、或樣本數量較少的社會學研究成果。這一研究同樣來自斯坦福大學,與Michal Kosinski和Yilun Wang的那個研究相比,格局、立意孰高孰低,無須多言,一目了然。

所謂,知乃行之始。我們人類應該借助AI的優(yōu)勢,重新檢視自身文化中或隱或現存在著的偏見、歧視和刻板印象,然后帶著這種清醒的認知和逐漸形成的共識,時刻審視和調整自己應用AI技術的立場與動機,避免AI淪為反映、放大乃至制造偏見的新場域,最終,讓這一技術成為我們期待著的那個美好的樣子。

對了,關于形形色色的“相術”和上述這些道理,幾千年前的荀子早在《非相》篇里說過了:

“相形不如論心,論心不如擇術”。

<上一頁  1  2  
聲明: 本文系OFweek根據授權轉載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內容、版權以及其它問題的,請聯系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號