如何防止AI將你認成“大猩猩”?光靠膚白可不行
各位是否還記得,兩年前谷歌將黑人認成“大猩猩”這個烏龍事件?正因此次事件造成的不良影響,讓Google意識到:與其擔心AI傷人,更嚴重的是AI偏見問題。為了防止AI“胡來”,Google為其制定了七項“道德”準則。
事情的原委是這樣的,2015年,一位名叫Jacky Alciné的黑人軟件開發(fā)人員在推特上透露,Google Photos使用的圖像分類器將一名黑人女性稱為“大猩猩”(Gorillas),引起了軒然大波。事發(fā)后,谷歌為此深表歉意,并著手處理這一漏洞。
不僅如此,谷歌還提出AI技術的開發(fā)道德準則,并且成立了專門的機器學習道德部門,對公司的產(chǎn)品和服務進行分析測試,提出改進意見,盡可能避免AI偏見的產(chǎn)生。不光是Google,從IBM到Airbnb,每家公司都在努力確保自己的算法不會出現(xiàn)類似的偏差。
為此,今年6月,Google首席執(zhí)行官Sundar Pichai發(fā)布了公司的七項人工智能原則,指導谷歌在這些方面的工作和研究,包括確保Google員工不會制造或加強不公平的AI偏見,并表示AI技術的開發(fā)和使用將在未來許多年內(nèi)對社會產(chǎn)生重大影響:
對社會有益
避免制造或增強不公平的偏見
建造并測試其安全性
對民眾負責
融入隱私設計原則
堅持科學卓越的高標準
為符合這些原則的用戶提供
除了那次不愉快的“大猩猩”事件外,哈佛大學的研究員Latanya Sweeney表示:谷歌搜索中存在種族歧視,當搜索類似黑人名字時,會比搜索類似白人名字更有可能出現(xiàn)與“被逮捕”相關的廣告。這些現(xiàn)象都是我們的部門成立的原因,不應該讓我們的用戶看到這些,我們需要首先阻止這些偏見的產(chǎn)生。
實際上,對于AI偏見這件事,一份來自皮尤研究中心近期公布的研究結果顯示:目前美國有58%的成年人認為,人工智能的算法極其程序?qū)冀K包含對人類的偏見,人工智能算出的結果不能保持中立的態(tài)度。從受調(diào)查者的年齡來看,50歲以上的受訪者中,有63%的人認為算法不中立;18-29歲的受訪者中,也有48%的人認為算法一定會存在偏見。
如此看來,大眾對AI偏見這件事存有共識。顯然,解決AI偏見光靠Google一家公司還遠遠不夠,需要有更多的公司加入其中。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?