當AI面對“電車難題”時會如何選擇?
圖片來源@視覺中國
文 | 智慧相對論,來源 | 佘凱文
《流浪地球》上映已經超過一個月了,截止目前,其國內累計票房已經突破了46億元人民幣,距離票房第一還差10億,考慮到其已經延期上映至5月5日,衝擊票房第一還是有希望的。同時它也帶來的各種話題也從未停息,3月6日,電影周邊人工智慧MOSS的雕像開啟了眾籌,這臺一直催促劉培強中校快點進入休眠艙的人工智慧,深受影迷的喜愛。
這類具有高智慧度的AI已經在包括《終結者》、《鋼鐵俠》及《流浪地球》等許多影視作品中出現過了,《終結者》中的天網是個大反派,在《鋼鐵俠》中賈維斯又是個忠僕,那麼在《流浪地球》中的MOSS到底是什麼屬性呢?
AI面對“電車難題”會如何選擇
“電車難題”是一個著名的思想實驗,其內容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,並且片刻後就要碾壓到他們。而此時你可以選擇拉桿讓電車開到另一條軌道上。然而問題在於,另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉桿?
在這個問題上人類做過很多調研,大部分人都會選擇拉桿,讓電車變道“殺一人而救五人”。
在電影中moss也面臨著類似“電車難題”般的選擇,在受到木星引力的影響下,地球即將撞向木星,是拋棄地球開啟“火種計劃”,還是選擇犧牲空間站“引爆木星”。
電影中Moss通過“理性”分析其認為“引爆木星”計劃的成功率為零,毅然選擇了開啟“火種計劃”帶著空間站開始“逃離”。然而事情的結果卻是moss計算“錯誤”,引爆木星計劃幫助地球成功擺脫了木星引力,使得地球重歸流浪之路。
關於“電車難題”還有一個非常著名的延伸問題,同樣在鐵軌上被綁了5個人,一列失控的電車即將經過,在壓到這5個人之前電車會經過一個橋洞,此時橋上有一個胖子,只需要將胖子推下橋,電車就會因為壓到胖子而脫軌,從而解救被綁在橋上的5個人,你推還是不推?根據調查結果顯示,在此時大多數人又都會選擇不推,而讓電車壓過被綁的5人。
同樣的“殺一人而救五人”,在這兩種前提下卻出現了截然不同的選擇結果,這就是人類的“感性及道德”在作祟。在第一個前提下,選擇拉桿給人的心理暗示是“我拯救了5個人”,而在第二種前提下卻變成了“我殺了1個人”,於是就導致了兩種選擇結果。
如果在此時再次換成AI來做決斷又會是什麼情況呢?以電影中moss的“理智”來看,moss極有可能會推下那個胖子因為“以少換多”看起來是個划算的買賣,可是moss就會變成“殺人犯”,這在人類的道德觀上又是不允許的。那麼,為何由人類製造的人工智慧,可能在“道德標準”的選擇上卻與人類完全不同,這是電影中折射出來的現實問題。
人工智慧的“道德標準”該如何制定,或者是否該符合人類自身的“道德標準”這個問題將不止出現在電影之中,未來在生活中也將出現,而距離這個問題“最近”的就是“無人駕駛汽車”。
在“無人駕駛領域”關於“電車難題”的討論已經有過很多,也針對全球數百萬人做過調研統計,得出了一套“選擇偏好”,例如在即將發生事故時更傾向於拯救人類而不是動物、拯救多數人犧牲少數人、優先拯救兒童等等,目前很多無人駕駛汽車也已經將這些“選擇偏好”置入了無人駕駛汽車之中。但是這些選擇大部分都是人類基於情感因素做出的。
所以說到底,AI會如何選擇還是看人類自己,AI的程式都是由人來寫的,就像電影中moss“一臉”委屈的說“自己從未叛逃,只是在執行聯合政府的預定計劃而已”。
但是這份偏好也僅僅只是代表了“大多數”人,像電影中的聯合政府,現實生活中做出此類選擇的人,還是有部分人的意願未能滿足。在這個怎麼選都是“錯”的前提下,有沒有更優的第三種選擇是無人駕駛汽車發展的障礙之一。
電影中moss有一句被廣為流傳的臺詞“讓人類永遠保持理智,的確是一種奢求。”從某些方面看來確實如此,所以若將AI擺在與人類同等的位置,以人類的“道德標準”來要求AI算不算得上是某種“道德綁架”呢?若是不給“無人駕駛汽車”套上人類的道德標準,而是讓AI通過自己的深度學習來應對這類事情會不會讓“電車難題”的答案更加“理智”?
“機器人三大定律”還能保障人類的利益嗎?
做完人與人之間的選擇題,還有一道選擇題是機器與人,可能很多人覺得這不是個問題,在機器與人之間肯定是選人,作為人類你是這樣想當然沒錯,可機器也是這麼“想”嗎?
在談論這個問題之前我們需要了解一下“機器人三大定律”。最初“三大定律”只是阿西莫夫小說中的概念,但現在已經成為被普遍認可的機器人發展的底線之一。
第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀.
第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。
第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。
回到電影當中,moss已經多次違背了這三大定律,首先,moss就殺死了俄羅斯宇航員老馬,這就違背了第一條;接著,在劉培強中校與地球溝通時,moss強行切斷了聯絡,這就違背了第二條。
而這裡正是AI與人類之間“主導權”的選擇,有人說在電影中moss切斷通訊是因為聯合政府的權利級別高於劉培強中校,所以moss是服從於最高指揮並沒錯,但是在電影中並未說明聯合政府賦予了moss強行切斷通訊的權利,在聯合政府還未給回覆時,moss就切斷了聯絡,並且通過後續劇情來看,劉培強中校手動聯絡地球聯合政府對方也並未拒接。
那麼若是在實際生活中發生了類似控制權爭奪的情況AI會選擇服從嗎?很不幸的是,這樣的事情其實已經在現實中發生了,並且還造成了一次嚴重的事故。
2018年的獅航墜海事故想必都還有印象,機上189人全部遇難,從事後的初步分析報告來看,專家認為此次事故的原因主要是因為飛機上空速表出現故障,問題源於迎角感測器失靈,而迎角感測器的作用是測量並傳輸氣流與機翼絃線之間形成的“迎角”這一重要飛行引數,提示飛機升力,避免失速風險。
在儀器失靈後,飛機內部系統認定此時飛機已經進入失速姿態,於是強行開啟了飛機俯衝模式,在11分鐘內飛機向下俯衝了24次,期間機長與機器之間展開了一場致命的控制權爭奪戰,但最終還是未能從飛機系統上奪回控制權,飛機以每小時700多公里的速度墜入大海。
波音公司稱這是一個隱藏得很深的自動駕駛bug,這雖然看起來是一次技術上的失誤,但我們也不得不考慮在不同領域賦予AI哪些或是多少的控制權是合適的。
另外,除了“主導權”的選擇,AI自我“犧牲性”的選擇也通過電影反映了出來,在電影最後,是由劉培強中校手動操縱空間站飛向了木星,而其實劉培強中校完全可以不用犧牲,這一過程可以由moss來自主完成。
當然這只是電影,劉培強的死是為了烘托氣氛,製造效果。而“三大定律”的第三點也明確表明,機器人需要“自我保護”,在電影中moss的自我保護,使其不會主動撞向木星,並且moss收到的指令是撤離,但是它又親眼見證了劉培強的死,這使得矛盾頻發。
說明單是“三大定律”已經無法滿足實際需求,或許需要“十大定律”、“二十大定律”才能更加有效構築機器人的底層規則。
最後,回到文章標題的問題,moss在電影中的一系列行為到底算不算“叛逃”?在“三大定律”之後,阿莫西夫又補充了“第零定律”,是指“機器人必須保護人類的整體利益不受傷害。”
moss在“計算”地球無望逃離之後,它開啟了“火種計劃”其初衷正是儲存人類文明,延續人類整體利益,所以從這個角度看moss確實沒有叛逃,但是也如moss所說,人類難以保持理智,所以從感性角度來看,moss非但沒有幫助劉培強中校拯救地球,還在不停地搗亂,又是在像極了“叛逃”。
也有網友開玩笑提出了一個新的視角,“moss不過是在執行任務,而沒有服從聯合政府安排的人是劉培強中校,所以真正在‘叛’的人是劉培強”。你又是怎麼看呢?
小結
越來越多科幻電影中的元素已經走進了現實生活,人工智慧威脅論也是隨著科幻電影被一點點放大,科幻電影對世界產生的影響具有多樣性,具體需要怎麼看待,借用卡梅隆在日前與劉慈欣的“雙神”對話中,所說的一句話“科幻電影不是預測未來,科幻電影是阻止不好的未來發生。”
更多精彩內容,關注鈦媒體微訊號(ID:taimeiti),或者下載鈦媒體App