減少AI偏見 麻省理工通過技術實現中立
【手機中國新聞】在這個人工智慧無處不在的時代,這可能會帶來持續的系統性歧視。這也是為什麼麻省理工電腦科學AI實驗室的研究者們創立能減少人工智慧偏見但不會降低預測結果準確率的方法的原因。“我們把這看成是一個幫助人工智慧工程師診斷出系統做出不公正預測的原因的工具箱,”麻省理工教授David Sontag說。相關論文由David Sontag,博士生Irene Chen和Fredrik D. Johansson共同完成。
人工智慧
Sontag表示研究者們發現人工智慧模型更傾向於將女性識別為低收入,將男性識別為高收入。通過將資料來源中的女性代表數量翻了十倍,不準確的結果數量下降了40%。傳統方法可能會提出通過將大多數種群的資料來源隨機化來解決不同種群的結果不平等問題。論文中寫道:“在這個專案中,我們認為預測的公正性評估應在資料背景中進行,由不恰當的樣本大小或者未測量的預測變數導致的不公正應當通過資料彙集而不是約束模型來解決。”
預測準確率的不同有時可以歸咎於缺失資料或者結果無法預測。研究者們建議人工智慧在接受公平性標準的檢驗前,應先分析其模型傾向,模型變化幅度等元素。研究者在論文中指出:“這暴露和區分了不恰當的資料採集所帶來的負面影響以及模型在公平性方面的自主選擇。提高公平性並不總會帶來預測準確率的降低,但肯定需要資料採集方面的投資和模型的發展。在高風險應用中,其產生的收益往往大於前期投入。”
人工智慧
一旦評估已經開始,研究者建議預計收集附加訓練樣本的影響,然後彙集資料來識別得到不公正結果的亞種群進而引導附加變數集合。這種方法曾被用於從基於統計數字,課本評價和病人死亡率的輸入專案中獲取平等的結果。
在過去幾年里人們對人工智慧因偏見產生不準確結果進而帶來嚴重後果的擔憂持續增加。一些工具和方法試圖解決這一問題,例如今初創公司Pymetrics開源了其偏見探測工具Audit AI,九月IBM釋出了基於演算法的偏見探測雲服務,谷歌也藉助What-If工具和TensorBoard將人工智慧偏見視覺化。