亞馬遜人臉識別技術Rekognition被爆種族歧視
【獵雲網(微訊號:)】1月28日報道(編譯:一晌貪歡)
與IBM、微軟的同類技術相比,亞馬遜的人臉分析軟體分辨某些人種性別的正確率較低。這是麻省理工學院(MIT)研究人員在近日發表的一項新研究中得出的結論,該研究發現,在特定情況下,Rekognition(亞馬遜影象識別技術)無法可靠地辨別女性和深膚色人群。
該項研究的合著者稱,在2018年進行的實驗中,Rekognition錯誤地將19%的女性影象識別為男性,將31%的深膚色女性影象識別為男性。相比之下,微軟在識別深色面板人群性別時,將女性錯認為男性的比例只有1.5%。
亞馬遜對這項研究提出質疑。它表示,Rekognition升級版的內測結果顯示,該技術對於識別性別的正確率不存在人種差異。此外,亞馬遜認為這篇論文沒有清楚地說明在實驗中使用的置信度閾值,即Rekognition的判斷被認為是正確而必須達到的最低精確度。
在給外媒的一份宣告中,亞馬遜雲服務平臺深度學習和人工智慧總經理馬特·伍德博士(Matt Wood)對面部分析和麵部識別這兩個概念進行了區分:面部分析指的是在視訊或影象中辨認出臉部,並確定其一般屬性;而面部識別是將單個人臉與其它視像中的人臉相匹配。他說,根據“面部分析”的結果來判斷“面部識別”的準確性是“不可行的”,而且他認為這篇論文所談論的和“客戶如何使用Rekognition”是兩回事。
伍德博士說:“使用最新版本的Rekognition,從議會網站和Megaface人臉資料庫下載百萬張影象資料,我們發現,置信度閾值設定為0.99時,誤報數為零。我們通過錄入和反饋來不斷改進這項技術,且支援建立第三方評估、資料集、衡量基準。”
這是亞馬遜第二次被質疑Rekognition存在偏見。
上一次在今年夏天,美國公民自由聯盟(American Civil Liberties Union)對Rekognition進行了一項測試(亞馬遜質疑該測試的準確性):把25000張罪犯面部照片和國會議員的官方照片進行比較。結果Rekognition將28名議員誤判成罪犯,其中有色人種的錯判率佔到38%。
無獨有偶。
2012年的一項研究顯示,Coigntec(德國從事生物特徵識別技術的公司)的人臉識別程式在識別非裔美國人和白種人時存在差距,前者比後者的錯判率高出5%到10%。2011年的一項研究顯示,中日韓開發的人臉識別模型難以區分白種人和東亞人。今年2月,麻省理工媒體實驗室進行的研究表明,微軟、IBM和北京曠視科技(Megvii)通過人臉識別性別的錯誤率如下:7%的淺色面板女性和12%的深色面板男性被認錯,而深色面板女性的錯判率甚至高達35%。
弗吉尼亞大學(University of Virginia)進行的另一項研究顯示,ImSitu和COCO(兩個知名的影象資料集)在描述體育、烹飪和其它活動時表現出性別偏見(其中COCO由Facebook、微軟和初創公司MightyAI共同贊助)。例如,購物圖片傾向於與女性相關聯,而教練圖片則與男性相關聯。
也許最糟糕的一個例子是:2015年一位軟體工程師報告稱,谷歌照片的影象分類演算法將非裔美國人識別成“大猩猩”。
但是人臉識別技術的某些進展也是令人鼓舞的。
今年6月,微軟與人工智慧公平方面的專家合作,修訂並擴充套件了用於培訓Face API的資料集,Face API是微軟的一套演算法程式,用於檢測、識別和分析影象中的人臉。隨著新資料包含膚色、性別和年齡等資訊,演算法程式對深膚色的男性和女性的錯判率分別降低了20倍和9倍。
亞馬遜表示它一直在努力提高Rekognition識別的準確性,最近一次重要技術升級在去年11月進行。
伍德博士補充說:“我們為這一領域的學術研究提供了資金,也對自己的團隊進行了大量投資,而且努力還將繼續。我們致力於改善面部識別、面部分析,強調解釋結果時有很高的可信度,也會重點關注人工審查的作用、標準化測試等方面。我們感謝為改善這些技術做出貢獻的客戶和學者。"
下週在夏威夷檀香山(Honolulu)將舉行“人工智慧、倫理和社會促進會議”,而麻省理工學院的研究結果將在會上公佈。