無人駕駛車要上路,阿里AI Labs覺得應該先給“路”裝上眼睛 | 你好AI
阿里巴巴達摩院近日與交通運輸部公路科學研究院成立了車路協同聯合實驗室。
這個實驗室研究的“車路協同”,簡單說就是如何讓道路智慧化,擁有眼睛和大腦,能跟路上跑的車交流資訊,輔助自動駕駛車輛做出決策。
與之相對的概念是“單車智慧”,這也是現在包括谷歌在內的大部分公司採用的無人駕駛方案,它們試圖通過讓無人駕駛車本身更加智慧,來解決實際上路中的駕駛和安全問題。
那麼阿里為什麼投入“車路協同”這個研究方向呢?
可以說車路協同是種曲線救國的技術方案,目的就是降低自動駕駛車要為感測器付出的成本,並彌補車輛自身智慧侷限性帶來的安全隱患,從而讓它更快上路。
當人們討論無人駕駛車什麼時候能大規模商業化,安全是最核心的問題。從輿論反應來看,使用者對無人駕駛車安全隱患的容忍度比對人類司機安全性的容忍程度要低。
但在環境複雜的現實場景中,無人駕駛車的識別和決策能力,並不令人滿意。
一個典型案例是今年3月18日Uber無人車在美國亞利桑那州發生的撞人事故。49歲的女性Elaine Herzberg在騎自行車橫穿馬路時被處於自動駕駛模式下的Uber無人車撞擊死亡。根據事故報告,當時正值夜間,這位女性或處於嗑藥後的迷幻狀態,而Uber無人車雖然通過雷達發現了她,但並沒有將她識別為行人。
這起事故在美國引起了對無人車上路和安全性的廣泛討論。“我們告訴人們的是,請遵守法律,請考慮周全,”吳恩達曾對外表示。
也就是說,現階段無人駕駛車的識別能力和安全性,需要依賴於一個人人都遵守交通規則的環境。然而在現實場景中,這幾乎不可能。
此外,現實的行車場景會給單獨依賴車身感測器的方案帶來很大挑戰。
阿里AI Labs的首席科學家王剛舉了幾個例子:車上的感測器會受到車自身視角和高度的限制,比如大部分感測器的有效監測距離不超過80米,當車速超過60km/h,突然出現了障礙物,車是來不及作出反應的;又比如,車上感測器只能看到相鄰車道的情況,當相隔的車道被中間車道擋住,就難以識別。
為了讓無人車儘可能全面地掌握交通環境中的方方面面,各大無人駕駛公司都在儘可能多的往車身堆感測器,但這帶來很大的成本——“平均下來每輛車20萬美元,商業化會比較困難。”
王剛因此認為可以通過車路協同的技術方案,把原來每輛車都需要安裝的智慧裝置,通過集約的模式共享,同時給路加上智慧裝置,讓它們具備能處理更多複雜情況的視覺大腦,彌補現階段單車智慧的不足。
這個車路協同實驗室目前在做的核心技術之一是“感知基站”,它就像個手機的無線發射基站,可以把車與車、車與路之間的資訊連線起來。感知基站會被安裝在同交通等高度的位置,覆蓋範圍是200米半徑。這樣當一個位置點A出現事故,遠處的車輛可以通過A處的感知基站提前發現A地的情況,做出預判和路徑決策。
感知基站看到的“上帝視角”的路況。
按照王剛所說的思路,車的眼睛和大腦會有一部分被移植到路上,最先從價格相對昂貴的鐳射雷達開始替代。關於路的智慧能在多大程度上為車的智慧減配,他認為潛力很大,不過沒有給出確切的答案。
“感知基站的稠密程度會決定感知的資訊的全面性和精確性。我們是不是把這個感知基站裝得非常非常密,讓兩個車之間完全沒有(不需要)智慧,還是我們可以一定程度上裝一個基站,讓車保持一定程度的智慧,哪一個方案他帶的總體成本更低,這個還需要繼續驗證。”
在杭州的一些開放路段,實驗室設計了讓人突然從障礙物後出現在無人車前的場景做對比測試。在單車智慧緊急避讓失靈的場景下,車路協同的方案都避讓成功。王剛透露,車路協同技術方案會最早落地在貨車運輸上,做智慧物流。不過在此之前,這種新方案還需要找到一套市場認可的通訊協議,以及明確誰將為此買單的商業模式。