提高人工智能道德水平的9個步驟
5.清理數(shù)據(jù)
機器學習系統(tǒng)的行業(yè)與它們所依賴的數(shù)據(jù)一樣好。對于許多組織而言,數(shù)據(jù)質(zhì)量仍然是一個主要問題。在最壞的情況下,糟糕的數(shù)據(jù)可能導致組織做出不準確甚至道德上受到損害的決策。
另一方面,擁有準確、最新的數(shù)據(jù)會增加人工智能應用程序產(chǎn)生積極經(jīng)濟利益的可能性。Information Builders數(shù)據(jù)管理卓越中心的國際主管James Cotton在一次采訪中表示,“當分析應用于管理良好的數(shù)據(jù)時,其回報要大得多?梢郧宄亓私饨M織擁有什么,來自何處以及如何使用它會帶來更大的回報。“
6.檢查模型是否存在偏差跡象
數(shù)據(jù)科學家不僅需要確保他們的數(shù)據(jù)是干凈的,而且他們還需要確保他們的數(shù)據(jù)和數(shù)據(jù)模型不包含任何偏差。這個問題可能會以幾種不同的方式無意中進入到機器學習模型中。
首先,組織可能有不完整的訓練數(shù)據(jù)。例如,如果企業(yè)只使用歐洲面孔訓練其面部識別系統(tǒng),那么當系統(tǒng)難以識別非洲或亞洲面孔時,人們不應對此感到驚訝。
其次,許多數(shù)據(jù)集包括歷史偏差。例如,一些職業(yè)(例如護理或工程)在傳統(tǒng)上一直是由性別主導的。如果組織根據(jù)這些歷史數(shù)據(jù)訓練基于人工智能的人力資源系統(tǒng)選擇面試候選人,可能會意外地出現(xiàn)偏見,甚至可能觸犯反歧視法規(guī)。
7.監(jiān)控調(diào)查結(jié)果和反饋
而數(shù)據(jù)科學家通常表示,沒有數(shù)據(jù)模型是完美的。他們所能期望最好的情況就是隨著時間的推移而改進。這意味著人類需要監(jiān)控系統(tǒng)來尋找潛在的道德問題。許多已發(fā)布人工智能指南的組織表示,所有人工智能技術(shù)都需要對人類負責。但一些人卻表示,只是問責是不夠的;人類監(jiān)管者需要積極跟蹤人工智能的行為和與人類的互動,并在必要時作出調(diào)整,以確保人工智能技術(shù)不會跨越任何道德界限。
8.確?梢猿废斯ぶ悄芩龅娜魏螞Q定
在相關(guān)的說明中,組織需要能夠撤消人工智能所做出的任何決定。Forrester公司建議,組織開發(fā)的人工智能系統(tǒng)從根本上需要是健全的、可評估的、包容、可逆的,這意味需要設計可更改的人工智能系統(tǒng),而且可能還需要為信貸決策等事項設立人工智能上訴委員會。
AI Now研究所進一步指出,“技術(shù)工作者的組織和抵制已經(jīng)成為一種責任和道德決策的力量。技術(shù)公司需要保護工人的組織能力、揭發(fā)信息的能力,并在他們從事的項目上做出道德選擇。這應包括明確的政策,以適應和保護有責任心的反對者,確保工作人員有權(quán)知道他們在做什么,并有能力在沒有報復或懲罰的情況下放棄此類工作。”
9.成立人工智能道德咨詢委員會
包括谷歌公司在內(nèi)的多家科技公司已成立人工智能道德咨詢委員會,以幫助指導他們使用人工智能。雖然讓一群局外人監(jiān)督組織的人工智能工作可能有助于建立公眾信任,但也可能適得其反。一些組織因任命人工智能道德委員會成員而受到批評,有些人對此表示反對。
雖然成立人工智能道德委員會可能存在一些問題,但在缺乏監(jiān)管法規(guī)或行業(yè)標準的情況下,它們可能是組織說服公眾的最佳機會,即通過沒有既得利益的人員監(jiān)督人工智能的發(fā)展。

最新活動更多
推薦專題
-
10 月之暗面,絕地反擊
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 4 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風翻身?