倫敦大學學者呼籲人們應加強對計算機演算法監管
【環球網綜合報道】英國《衛報》9月17日報道刊發倫敦大學學院城市的數學講師漢娜•弗萊(Hannah Fry)博士的文章,呼籲在當今科技被越來越多協助人們完成各種各樣工作等同時,人們也應對其加強監管。
以下是對其文章的編譯:
一位名叫羅伯特•瓊斯(Robert Jones)的男子因聽信導航的錯誤指示而撞上木欄險些掉下懸崖。事後,羅伯特表示,導航顯示這條路是前往加油站的捷徑,所以他就相信了,“畢竟我沒有理由不相信導航,也沒有想到導航竟然會指引我開到懸崖邊。”而這種盲目信賴科技產品的錯誤,幾乎每個人都會犯。人們不斷地追求自動化和科技創新,但是這也讓人們養成了盲目信賴科技的習慣。
當今時代,計算機演算法為人們提供了各種方便又準確的資訊,讓人們免於進行復雜的思考。人工智慧已應用於醫院、學校、商店、法庭、警局等地方,利用人們的資料來代替人們做決定。這種科技的發展具有巨大的社會效益——它可以幫助我們診斷乳腺癌,捕獲連環殺手,避免飛機失事等。
但是演算法同樣也有破壞性、以及引發不公正和不公平的可能性。如果人們允許這些有缺陷的演算法來代替人類做決定性的決策,人們必須想好當情況變遭時會發生什麼。
2012年,由於美國衛生福利部投資運用的一款軟體“budget tool”演算法邏輯錯誤,導致美國愛達荷州16名殘疾居民每人均被削減了上千美元的護理預算,而另外一些人的預算卻被增加。稽核機構事後發現,該軟體的演算法、資料計算錯誤百出,一直都是在隨機發放福利。由此,我們所有人都不得不對機器決策導致的不受限制的權力感到恐懼。
在當今社會,對AI和演算法的約束明顯不足,那些針對發明而作出的大膽而又未經證實,甚至是不負責任言論比比皆是。對此,唯一的解決辦法就是利用監管規則來監控演算法。最好的方法就是託尼•本(Tony Benn)為超能人設定的五個問題:你有什麼能力?你的能力是怎麼得來的?你會為了誰使用你的能力?你效忠於誰?人們怎麼擺脫你?因為最終我們不能單獨考慮演算法,我們也要考慮到演算法出錯時帶來的危險,以及使用者運用這些演算法時會引發的危險。(實習編譯:王鑫 審稿:譚利婭)