AI要立規矩?沈向洋:善惡之心在人類 價值觀是關鍵
沈向洋
原標題 人工智慧要立規矩?沈向洋:善惡之心在人類,價值觀是關鍵
記者 王心馨
“計算機本身並無善惡之念,善惡之心在於人類,在於人工智慧系統的設計者。” 9月18日, 微軟 全球執行副總裁沈向洋在2018世界人工智慧大會的分論壇上表示。
近年來,人工智慧產業和技術創新高速發展,已經滲透到社會的各個行業。但同時,人工智慧技術的大規模應用,也帶來許多爭議和潛在的危機。2018年無人駕駛在全球陸續發生多起交通事故;今年5月,號稱“全球最嚴”資料保護條例的歐盟GDPR也正式生效,將資料隱私問題重新帶回輿論焦點。
在享受人工智慧帶來的好處同時,如何才能最好地確保人工智慧的安全、可靠?隨著機器越來越聰明,越來越強大,如何避免失去對機器的控制? 這已成為一個嚴峻的社會議題,值得每一個公民去探索和思考。
在今日的大會的一場分論壇上,微軟全球執行副總裁、微軟人工智慧及微軟研究事業部負責人沈向洋與卡耐基梅隆大學教授、1994年圖靈獎得主Raj Reddy在開啟一場尖峰對話,人工智慧的倫理角色成為對話焦點之一。
向左走,向右走?Al倫理尚處早期學習階段
目前,自動駕駛技術無疑是人工智慧領域最熱門的研究方向之一。Raj Reddy在對話中提到,按照目前的預測和統計數字,如果人工智慧汽車能全面取代現在的人為駕駛汽車,交通事故的發生機率將下降92%-93%,因為一旦出現事故,人的大腦無法及時做出反應,而自動駕駛則可以自動切換到任何事故的反應,不會做出錯誤的判斷,造成事故的升級。
但正是這種自動反應模式帶來了一定情況下的道德困境。假設汽車在自動駕駛的狀態下遇到突發狀況,汽車不得不選擇向左或右行駛,而向左行駛會撞傷一個老人,向右行駛則會撞傷一個孩子,那麼此刻自動駕駛系統該如何做出選擇呢?
向左,還是向右? 圖片來自微軟
事實上,目前還沒有一個具體的法規或者規定能夠準確地告訴AI工程師該如何抉擇。沈向洋在此前採訪中曾表示, 對於這些AI倫理問題,人類還處於學習的初期階段。他認為,以後做任何產品,釋出之前,都應該有一個AI倫理委員會——就像現有的安全委員會或隱私委員會一樣,稽核一些人們平時不會去想,但確實可能會遭遇的事情。
不久前沈向洋聯合微軟公司總裁施博德(Brad Smith)先生共同編著的《計算未來:人工智慧及其社會角色》一書,就談及了人工智慧發展將面臨的種種社會倫理挑戰。書中提到,微軟為了解決人工智慧開發過程中涉及到的倫理和社會問題,設立了開發和研究人工智慧與道德標準(AETHER)委員會,並從負責任的企業的角度提出了開發人工智慧的六項基本原則——公平、可靠和安全、隱私與保障、包容、透明和負責,全面指導微軟人工智慧產品和解決方案的開發和部署。
微軟提出人工智慧開發的六大原則 圖片來自微軟
AI未來發展:資料越多,隱私保護越關鍵
年初數千萬 Facebook 使用者資料洩露從而影響美國總統選舉結果的新聞曾掀起軒然大波,而國內大資料殺熟的曝光也引發消費者不滿,數字社會的資料隱私保護和技術倫理問題備受關注。
沈向洋認為,資料的隱私保護對於人工智慧的未來發展至關重要。沈向洋在對話中提到:“微軟研究院有一個領域做得非常好,那就是安全的、私人的AI。因為今天我們收集越來越多的資料,所以需要非常謹慎地決定到底誰擁有資料,誰有權使用資料,這些資料可能來自不同的機構。所以我們需要一方面要保證資料是安全的,第二方面要利用這些資料進行計算,這對於我們推動AI未來的工作都至關重要。”
沈向洋此前採訪中也曾透露目前美國在利用隱私資料進行人工智慧研究上有了比較大的進展,而這一進展對於企業非常重要。因為如果不能解決資料加密和隱私保護的問題,企業無法獲得資料,人工智慧的發展也就成為無源之水。
AI加速發展,人工智慧立法或提上日程?
在本次“2018世界人工智慧大會”上,沈向洋特意強調“我們應該建議政府監管更加嚴格。為了更好鼓勵AI的發展,一方面我們要看到它的巨大潛力,另一方面也要看到它對社會的影響。政府必須幫我們建立起更加好的規範,這對人工智慧的發展至關重要。”
隨著人工智慧的繼續發展, “人工智慧法”似乎不可避免地成為了一個重大和全新的法律課題。但是,具體的時間框架如何?該領域又應當以何種方式發展和演變?
沈向洋認為,為了最大限度地發揮人工智慧的優勢,同時減少風險,儘量避免意外後果, 未來需要推動政府、企業、非政府組織和民間社團代表、學術研究人員和所有其他利害相關的個人和組織的全面協作,在公共政策和法律法規等方面為人工智慧發展提供更好的保障。