科大訊飛重新整理自動駕駛Cityscapes評測世界紀錄
近日,在國際自動駕駛領域權威評測任務Cityscapes中,科大訊飛團隊重新整理了全部兩項子任務的世界紀錄。
據瞭解,Cityscapes評測任務是由賓士主推,提供在駕駛領域進行效果和效能測試的影象分割資料集。該評測任務關注真實場景下的道路環境理解,用於評估參與測試的演算法在城區場景語義理解方面的效能。
相比其他自動駕駛領域的測試資料集,Cityscapes任務難度更高,更加貼近自動駕駛等當下熱門需求,近年來的熱度也不斷攀升。截至目前,評測已經吸引了包括谷歌、英偉達、三星、騰訊和香港中文大學等近百家國內外優秀創新企業和頂尖學術機構的參與。
在Cityscapes任務所應用的資料集中,包含了5000張精細標註的影象和20000張粗略標註的影象,這些影象包含50個城市的不同場景、不同背景、不同街景,以及30類涵蓋地面、建築、交通標誌、自然、天空、人和車輛等的物體標註。
左-原圖,中-語義分割結果圖,右-例項分割結果圖
Cityscapes評測集有兩項任務:畫素級(Pixel-level)影象場景分割(以下簡稱語義分割)與例項級(Instance-level)影象場景分割(以下簡稱例項分割)。
去年10月,科大訊飛曾參與前者並重新整理記錄;此次科大訊飛同時參與全部兩項任務的測評,再次重新整理了語義分割任務的世界紀錄,同時重新整理了例項分割任務的世界紀錄。
語義分割成績
例項分割成績
科大訊飛表示,針對Cityscapes資料集“尺寸變化大、相互遮擋多、目標辨識難”的特點,訊飛團隊基於影象檢測和分割基礎演算法的多年研究積累,引入了多項創新性技術。
在設計語義分割模型方案時,基於Encoder-Decoder框架,融合注意力機制、可變形卷積操作等思想,創新性地增加了一組尺度自適應矯正網路,使得模型能夠充分地利用各層級特徵和上下文資訊來有效地應對場景中類別尺寸的變化,同時通過目標函式的設計對影象各畫素點進行加權編碼及梯度規整,提升難以辨識的“難例”畫素點尤其是各類別邊緣相交區域畫素點的預測準確度,進一步提升整幅影象場景中每一個畫素點的預測準確性。
在例項分割方案的設計上,訊飛團隊將級聯式檢測方案遷移到例項分割任務的定位模組中,並針對駕駛場景下的一些特定的空間位置共生關係(比如:汽車出現在道路上,騎車者出現在自行車或摩托車上)引入一種空間注意力機制,逐步提升模型的定位效能,同時在分割模組的設計上還成功借鑑語義分割模型成熟方案,精細化每個例項物件的分割結果,最終達到更好的例項分割效能。
-
ofollow,noindex" target="_blank">文章糾錯