當代美國評論︱是時候改變侵略性的資料監控模式了
面對人工智慧在當前發展態勢下的倫理衝突和風險挑戰,有兩個具體的問題值得展開切實的審度與調適:其一是資料權利與演算法權力的再平衡;其二是人機共生時代的人機關係的再平衡。
談到資料權利,2018年5月,歐盟頒佈了《一般資料保護條例》(GDPR),明確指出保護的主體就是個人資料,而個人資料指與一個已被識別或者可被識別的自然人相關的任何資訊。該條例對資料獲取權、修改權、被遺忘權、資料可攜帶權、異議權等資料主體的權利做出了明確的界定。這些資料權利在一定程度上體現了在資料的商業智慧等資料智慧應用中的問題,可以視為在價值和倫理層面對相關侵權行為的反制。
但同時也要看到,這些權利也並非無條件的絕對權利,都存在一定的限制。以對資料畫像異議權為例,只有當對使用者進行畫像等決策對使用者產生法律或者其他重大影響時,使用者才有權反對。
但這一條例出臺後,不論是從國際資料流通,還是從中國相關法律和倫理建設層面考慮,必須對其基本內容進行系統的研究,對相關資料權利的合理性與侷限性應該有一個全面的認識。
在資料智慧得到普遍應用的解析社會,個人資料權利的重要性不言而喻。在解析社會中,不論人們主動與否,大家都是資料的貢獻者,一切資料都被記錄,一切行為都被分析。資料智慧不斷追蹤著每個人的資料,資料與世界的等同性意味著對個體資料的追蹤,實際上就是對每個人的價值觀的追蹤。因此,在理解了非人格化智慧演算法正在用人們的行為資料定義人們這一事實的情況下,每個人都應該更加主動地參與到此過程中,使主體的能動性影響到基於智慧演算法的資料分析和資料畫像的過程與結果,通過必要的反饋與修正機制的構建,重獲西蒙棟意味的個體化議程的主導權。
由此,資料智慧和解析社會的未來發展面臨著資料權利和演算法權力的再平衡。鑑於個人資料權利的缺失終將導致全域性性的信任稀缺,是時候認真審視和從根本上改變當下普遍存在的不無侵略性的資料監控模式了。
為此,應該認識到智慧演算法和資料分析技術的應用,不能不考量普通主體的利害權衡,以及這些技術的可接受性,從而由智慧技術的可接受性的維度出發,構建全新的基於信任氛圍的資料共享模式。
首先,即便不能像歐洲的資料權利保護條例那樣提出高標準的資料倫理規範,至少也要促使企業、機構對智慧演算法的應用擔當起主要的責任。
其次,致力於尋求有利於營造信任氛圍的、務實的資料權利保護模式,促使資料交易各方對自己的行為負責,使每個相關主體知道相關的資料如何被處理,特別是用於其他用途的情形。使資料權利的主體在原則上有權決定對其資料的處理與洞察,以此減少資料的濫用,杜絕對資料主體的嚴重傷害。
更為重要的是,應從負責任的、創新的觀念出發,形成更具反思平衡性的資料觀念。一方面,在提升資料主體的資料權利意識的同時,要促使主體通過追蹤自己的資料,能動地反省其內在的價值訴求和價值觀念,並通過自我參與式的資料分析和資料畫像不斷改進自我。
另一方面,至關重要的是, 應該走出過度地攫取資料的迷思,樹立資料有度的觀念,對非人格化的演算法權力加以必要的節制。尤其應該在跨學科研究的基礎上,充分揭示當下具有高度侵略性的資料監控模式對主體能動性的侵蝕,深入辨析其對個體行為的自由度及其自我修正和自由發展的潛在可能所形成的高度制約性。
為此,應 倡導一種基於“節儉理性”而非“全能神理性”的資料和智慧觀念,使資料的收集、儲存、處理和挖掘對主體權利的負面影響儘量減少,並以主體的可接受性作為資料智慧應用的剛性邊界,倒逼資料探勘和分析技術的創新,使其能夠更有效地發現有價值的資料模式。
就人機關係而言,在人工智慧的未來情境中,即便未必會出現庫茲韋爾等人所宣稱的超級人工智慧大爆發的奇點,但依然應該藉助各種理論資源對可能帶來的重大影響和深遠後果及對策展開系統的分析與探究。
以所謂“無用階層”的出現為例,馬克思在晚年就曾有預見。在《機器論片斷》中,馬克思指出:“工人把工具當作器官,通過自己的技能和活動賦予它以靈魂,因此,掌握工具的能力取決於工人的技藝。相反,機器則代替工人而具有技能和力量,它本身就是能工巧匠,它通過在自身中發生作用的力學規律而具有自己的靈魂……科學通過機器的構造驅使那些沒有生命的機器肢體有目的地作為自動機來運轉,這種科學並不存在於工人的意識中,而是作為異己的力量,作為機器本身的力量,通過機器對工人發生作用。”
馬克思不僅強調指出,“機器無論在哪一方面都不表現為單個工人的勞動資料”,而且進一步預見,“物件化在機器體系中的價值表現為這樣一個前提,同它相比,單個勞動能力創造價值的力量作為無限小的量而趨於消失。”
倘若“無用階層”的出現難以避免,從社會風險防範的角度來看,一定要從創造性教育、人文素質培養上努力減少“無用階層”產生的衝擊波,通過系統的心理疏導和社會管控,從心理和精神層面展開智慧化的引導和校正。
要克服機器掌控世界和智慧化鴻溝等可能給人類文明帶來的風險,必須對人類在智慧系統中的地位和作用加以認真的審視。
一般而言,如果將智慧演算法決策和自動智慧系統的操作過程視為一個閉環,人類對自動智慧系統的控制一般有四種方式。一是人在閉環之中:人定義-機器人選擇-人確認-機器執行。二是人在閉環之上:人定義-機器人選擇-人可以使之中止-如人未使之中止-機器人執行。三是人在閉環之外:人定義-機器選擇-機器執行,人無法中止。四是人與閉環無關:機器定義-機器選擇-機器執行。
通過這四種方式可以看到,隨著自動駕駛和自動智慧武器系統等能力與威力的迅猛增長,人對系統的控制作用卻在逐漸弱化,對風險防範和責任追究必將成為社會關注的焦點。但要克服這些風險並沒有捷徑,只能通過諸如“無人駕駛是否比人類駕駛更安全,更合乎道德”和“自動智慧武器系統會不會比士兵作戰更人道”等悖論的探討,從具體的人機共生的可能情境中,不斷展開對人機關係的再思考。
為了從根本上抑制自動智慧系統可能帶來的風險,應考慮引入若干促進人機相互理解與協同的策略。其一,將人與機器之間的相互理解作為自動智慧系統的基礎和前提,其中既應包括理性層面的認知方式與知識表達層面的人機相互理解,還應包括人與機器之間的共情關係和同理心的構建。
其二,一些重大決策和執行系統如果採用自動智慧系統,應有多個備份和功能類似的替代性系統,以防範系統風險。
其三,構建人工智慧應用特區,在有條件的科技創新中心的部分地區,廣泛、深入、充分地展開人機互動試驗,探索麵向未來人機共生社會的創新文化。
-----