我們應該如何使用人工智慧來預防犯罪?
至頂網軟體頻道訊息: 幾周前,我向技術與法律政策委員會提交了證據,以檢查演算法在英國司法系統中的應用。
對許多人來說,使用人工智慧來預防犯罪和幫助給罪犯定罪可能看起來像科幻電影中的場景。然而,英國的警察部門 ——包括達勒姆(Durham)、肯特(Kent)和南威爾士(South Wales) ——已經在使用面部識別和行為軟體在真正的犯罪發生之前,就採取預防措施。計算機評估框架正被用於通知拘禁和量刑決策。這項技術帶來了巨大的希望,可也幾乎有著同等程度的黑暗反烏托邦的前景。
這引發了幾個道德問題。例如,預測性警務往往依賴於社群或警察巡邏隊報告的犯罪記錄,這可能導致反饋迴圈並在已經得到嚴格監管的社群中加強執法。鑑於有報道稱Met的自動面部識別技術誤報率為98%,因此對準確性也存在擔憂。因此,我們必須小心警方資源被用於實際威脅,而不是被感知的威脅。
我們都知道,與人類一樣,技術也會犯錯誤,並且經常會對有色人種和女性表現出不公平的偏見。美國的風險評估演算法,例如美國的替代性制裁懲教罪犯管理資料(Correctional Offender Management Profiling for Alternative Sanctions ,COMPAS)被發現間接含有強烈的種族偏見,這意味著黑人被告被錯誤分類的可能性幾乎是同等情況的白人的兩倍。對於那些因為這些系統的大規模應用而處於不利地位的人來說,這不僅僅是不道德的,也是不可接受的。
面部識別是其中一個高侵入性的方面。在使用時,目標物件在不知情或未經同意的情況下就被攝入系統。例如,過去用於預測罪犯 “典型”面孔的軟體依賴於社交媒體、關係、社交活動、學校日程安排以及來自資料經紀人的商業資料。與喊停和搜查等傳統警務方法的官僚控制相比,這些工具進行預測的方式以及警察部門使用這些系統的做法並不透明。重要的是要確保將類似的操作規範納入機器中。
另一個需要審查的領域是使用評估框架或演算法進行量刑。一些人工智慧系統可以根據個人的歷史和他們的傷害傾向來預測未來的犯罪行為。在美國,賓夕法尼亞州可能是最早一個不僅根據人們犯下的罪行做出刑事判決的州之一,量刑還要參考他們在未來犯下其他罪行的可能性。統計衍生的風險評估 ——基於年齡、犯罪記錄和就業等因素——將幫助法官確定判決。這一觀點認為,這將有助於降低監獄系統的成本和負擔。
由於預算緊張和犯罪率不斷上升,更廣泛地使用人工智慧程式協助預測犯罪行為可能具有優勢。然而,我們必須確保系統公平透明,而現在我們仍然可以做到這一點。也許實現這一點最好的辦法是建立一個監管人工智慧的國際委員會,各個國家和消費者可以參與這些系統的發展,並確保行為守則和法律達到國際人權標準規定的門檻。
將道德責任融入機器似乎是一項艱鉅的任務,但這是拯救這個勇敢的新技術世界的唯一途徑,使它不至於演變成一種反諷的夢魘。