誰在控制演算法?
投中網(https://www.chinaventure.com.cn) 報道:仿生人會涮電子羊嗎?
“我給一個視訊點了贊,演算法就開始給我無休止地推薦相似的視訊。”
2019年5月6日,一名抖音使用者在評論區這樣說道。抖音是一款通過演算法推薦的短視訊應用。截止2019年初,抖音的每日活躍使用者數已突破2.5億。
演算法創造了今日的科技巨頭。
據麥肯錫公司調查:對比2013年,企業平均花費在人工智慧技術方面的投資翻了三倍。因為人工智慧演算法的確提升了企業的運作效率,“留住了客戶”,為公司創造更多利益。
越來越多的資本正流向演算法。與此同時,恐懼與疲憊也隨之到來。
演算法的便利讓人驚歎,也讓人警惕:憑什麼演算法可以攫取資料來分析大眾的偏好,引導他們的行為。大眾開始對演算法疲勞,也開始對演算法用同類資訊編織出來的“資訊繭房”感到不滿。
人類和演算法相處的紀元剛剛開始。在刺激與陌生的接觸後,終於來到了疑問時刻:
你是誰?你從哪裡來?你要往哪裡去?
演算法背後的人
演算法設立之初,動機是中立的。
其概念的部分源起,不過是嘗試解決一個數學上的判定問題:希爾伯特問題中的兩個條件,是否都能被圖靈機識別。在這個過程中,誕生了今日演算法的雛形。
依靠強大的演算能力,演算法讓很多人力物力得到了解放,簡易且枯燥重複的任務有了去處,降低了工業社會的成本。
但隨著越來越多的人類想法能夠被定義為形式化演算法,程式碼被複雜化,程式設計者本身開始讓演算法的客觀產生傾斜。
程式設計者下意識地把自己的偏見編進了演算法裡,對少數族裔的歧視、性別歧視融入了演算法,讓它們也擁有了人的偏見。不僅如此,當演算法作為資料處理器時,收集到的資料本身帶有相應的社會偏見。
當然,對於同一件事,由於程式設計者關注的重點不同,觀察的視角不同,演算法呈現出來的東西也不盡相同。
微博上有使用者以兩個蘋果為例解釋了這一現象:如果開啟閒魚,演算法會慫恿你“賣掉這兩個蘋果”;如果開啟淘寶,它會推薦你“削皮工具”;如果在百度上,你的搜尋結果將是“蘋果種植基地”。
2018年,快手因為“00後早孕事件”被推上輿論的風口浪尖,CEO宿華在接受採訪時曾經被問及“快手的價值觀”。
他回答,“社群執行用到的演算法是有價值觀的,因為演算法的背後是人,演算法的價值觀就是人的價值觀,演算法的缺陷是價值觀的缺陷。”
而谷歌的倫理設計學家特里斯坦·哈里斯也曾在自己的檔案中寫道,“歷史上從來沒有一個時刻,人們的生活被三大公司( Facebook、谷歌和亞馬遜)裡,一群大多數為25~35歲的男性白人技術人員所深刻地影響著。這些人手下誕生的設計決定著數百萬人每天該以何種方式度過……(我們技術人員)必須承擔起責任。”
演算法影響著你我,它卻被另一群人控制著。
《連線》的創刊主編凱文·凱利在其著作《失控》中曾說,“人們在把自然邏輯輸入機器的同時,也將技術邏輯帶到了生命之中。機器人、計算機等人工製造物越來越具有生命屬性。”
這無疑在一定程度上支援了“人工智慧最終會取代人類、主宰世界”的論調。
但截至目前我們看到的對這個憂慮的解答,大體是從理性、科技及利益的角度給出的。演算法是人的智性單向度發展的最新成果,它的特性,諸如輸入輸出、明確性、有限性和有效性可能已經為它預設了侷限性。而在人的秉性中還有其他的維度演算法無法達到。
某種程度上,演算法的限度就是人的限度。
偏見入,偏見出
《自然》雜誌曾刊出一句話,叫做BIBO(Bias In,Bias Out),也就是偏見入,偏見出;在計算機領域也有相同的觀點,GIGO(Garbage In,Garbage Out),垃圾資料的入與出。
演算法不會分辨人的偏見是好是壞,只會一視同仁地輸出,成為“演算法偏見”。
就好像是一個孩子,不管是家庭暴力還是親情缺失,最後都會通過他的行為折射出來,演算法亦然。
淘寶曾因為“128元裙子的事件”被聲討,某程式設計師發微博稱只要被演算法判定為窮人,搜尋“連衣裙”之類關鍵詞時就會首先推薦128元以下的裙子。
而事實是,很多開發者在設計商品推薦系統的時候,的確會考慮使用者對價格的敏感性。如果一個使用者經常在購買商品時都選這個品類中比較便宜的,開發者設計的演算法就判定這個使用者價格敏感度高、比較“窮”。系統就會優先把一些特別便宜的東西推給他。
這種“演算法偏見”在當時掀起軒然大波,可“偏見”其實早就已經初現端倪。
2014年,亞馬遜用來篩選簡歷的“演算法篩選系統”被曝有性別歧視,當演算法識別出“女性”相關詞彙的時候會給出低分,甚至直接給予降級。
2018年,IG奪冠,王思聰在微博上進行萬元抽獎,最後中獎使用者為112女1男,經網友分析,發現微博演算法容易將男性賬號都分類為“機器人”“垃圾賬號”,對於不常互動者的“偏見”不言而喻。
由此可見,智慧演算法的設計目的、資料運用、結果表徵等都是開發者、設計者的主觀價值選擇。
值得一提的是,也曾有公司對演算法進行“放養”,如微軟公司的聊天機器人Tay。Tay在社交社群潛伏,學習網路使用者的聊天內容,最後出人意料地成為了一個反猶太人、性別歧視、種族歧視的“不良少女”。
更別說那些由高等演算法自發編出的低等演算法,它們只能吸收和學習母程式中的所有資料,包括偏見。
有趣的是,開發者、設計者、程式設計者把自己持有的偏見嵌入智慧演算法中,而智慧演算法有可能會把這種歧視傾向進一步放大或固化,傳播給使用者。
這些使用者中,極有可能有下一任的開發者、設計者、程式設計者。
這就是“自我實現的歧視性反饋迴圈”。
當然,開發者們可能對這件事一無所知,但據說喬布斯的孩子們從未玩過IPad。
過去的未來就是現在
人類被偏見影響的歷史,幾乎和人類本身的歷史一樣長。
古羅馬時期的人們好鬥,他們駕駛著戰車出征,牽引一輛戰車的兩匹馬的屁股寬度為143.5釐米。於是,這143.5又成為了戰車輪距,工業革命後,輪距又進化成了電車的軌道距離,最後成為了當代國際鐵軌的標準間距。
這還不是終點,因為太空梭的兩個火箭推進器需要火車運送,所以它的寬度也被設計成了143.5釐米。
古羅馬決定了現代航天,過去決定未來,這不是一個偽命題。
在經濟學上,這樣的情況被稱作“路徑依賴”。
“路徑依賴”講的是慣性的力量,當人們做了某種選擇之後,慣性會讓這一選擇不斷自我強化,最後使人不能輕易走出去。
就像演算法的“歧視性反饋迴圈”,你偏見了,你會偏見著,並會一直偏見下去。
美國經濟學家道格拉斯·諾思是第一個提出制度的“路徑依賴理論”的學者,他認為各國經濟制度的演變和“路徑依賴理論”有著很大的關係,這也是有些國家富裕且一直富裕,有些國家貧窮且一直貧窮的原因。
貧窮國家在一開始就選擇了相對落後的制度,但無論何種制度都會有受益者,當新制度到來時,受益者會發現自己前期的巨大投入在新制度下一文不值。這在經濟學中被稱為“沉沒成本”。所以即使新制度更好,這些已經投入成本的人也不會願意改變,只會讓自己生存的環境成為一個厄運迴圈。
隨著“路徑依賴理論”的面世,人們逐漸發現,它適用於生活中的許多方面,並且經過多次的迴圈,它愈演愈烈,甚至學會“鎖定”。
我們今天使用的鍵盤,某種程度上就體現著“路徑依賴”的“鎖定”屬性。
現在市場上流行的是QWERTY鍵盤,但在1932年,DSK鍵盤才是更優的選擇,可因為原本QWERTY鍵盤使用人數佔優,其他型別的鍵盤較少,考慮到硬體、軟體的相容性,在選擇鍵盤時,QWERTY仍是使用者的首選。所以就算技術更先進,DSK鍵盤仍被淘汰。
在眾多的案例下,我們所看到的“路徑依賴”只起到了良性或惡性迴圈兩種作用,但在其他學者的手中,“路徑依賴”還有別的功能。
美國政治學家企圖用一次迴圈過後的反饋對“路徑依賴”的影響來了解制度如何能夠保持對變化的抵抗力;而法國人曾經用“路徑依賴”的理論來尋求老年人保障制度的最優解。
而今日,在消費社會中,“路徑依賴”從慣性逐步成為了一種手段。
消費社會通過演算法的誘導和控制,將“虛假的需求”強加給使用者,而使用者在接受這些“虛假的需求”後鞏固了演算法的資料,以此形成一種“路徑依賴”。
深受“資訊繭房”之苦的使用者把責任推卸給那些“天然”喜歡某類節目的受眾,有些專家卻為這些受眾辯護——他們只是市場細分的結果。
在使用者到底是“演算法的原因”還是“演算法的結果”的爭論下,我們只能說,他們既是原因,也是結果。
你瞧,雞生了蛋,蛋也生了雞。
(編輯:冉一方)