自動駕駛中的三維占用預測難題,一場比賽給出了解決方案。
道路錯綜復雜、交通工具形態各異、行人密集,這是當前城市道路交通的現狀,也是自動駕駛領域面臨的現實挑戰。為了應對這一挑戰,感知和理解三維環境至關重要。
在傳統的三維物體檢測任務中,前景物體通常由三維邊界框表示。然而,這種方法存在一些弊端,一方面,現實世界的物體幾何形狀非常復雜,無法用簡單的三維框表示;另一方面,這種方法容易忽略背景元素的感知。對于實現全面的 L4/L5 自動駕駛,傳統的三維感知方法是遠遠不夠的。
最近,端到端自動駕駛研討會 (End-to-End Autonomous Driving Workshop) 聯合視覺中心自動駕駛研討會 (Vision-Centric Autonomous Driving Workshop) 在 CVPR 2023 上舉辦了自動駕駛挑戰賽,其中就包括三維占用預測(3D occupancy prediction)賽道。
圖 1 CVPR2023 自動駕駛挑戰賽
三維占用預測是自動駕駛領域的新興任務,要求對車輛行駛場景進行細粒度建模,對于實現自動駕駛的通用感知能力有著重要意義。比賽提供基于 nuScenes 數據集的大規模占用預測評估基準,對三維空間進行體素化表示,并在三維占用任務的基礎上結合兩項新任務:估計三維空間中體素的占據狀態和語義信息。整個任務旨在在給定多視角圖像的情況下對三維空間進行密集預測。
本次比賽是三維占用感知領域的首個國際頂尖權威賽事,吸引了業界和學界的廣泛關注。比賽共有 149 個團隊參與角逐,其中包括來自小米汽車,華為,42dot,海康威視的業界團隊,也有來自北京大學,浙江大學,中國科學院等科研院所的學術界團隊。
最終,來自英偉達 (NVIDIA) 和南京大學的團隊在激烈的競爭中脫穎而出,同時贏得了三維占用預測任務的冠軍和最佳創新獎兩個重磅獎項。下面我們來看一下冠軍團隊的獲獎方案。
冠軍方案
不同于以往比賽對于數據利用方面的限制,本次自動駕駛比賽允許參賽者使用額外的開源數據或者模型進行數據驅動算法的探索。因此在本次比賽中,英偉達和南大的研究人員在設計高效的模型結構的基礎上,也在大模型的訓練方面進行了探索,將模型參數擴展到 10 億量級,達到過去常用 3D 感知模型的 10 倍以上。
憑借先進的模型結構設計和大模型強大的表征能力,該團隊提出的方案 FB-OCC 實現了單模型 50+% mIoU 的出色性能,并最終取得了 54.19% mIoU 的最佳成績。
網絡架構
FB-OCC 的主要創新在于使用了前向和后向投影相結合的三維空間建模方式。
如圖 2 所示,在前向投影過程中,參考 LSS 投影范式,FB-OCC 會根據每個像素的深度分布生成場景對應的三維體素 (3D voxel) 表征。同時,由于 LSS 范式生產的特征傾向于稀疏且不均勻,FB-OCC 引入反向投影機制來優化稀疏的場景特征。
圖 2 網絡架構圖
此外,考慮到計算負擔,FB-OCC 在方向投影的過程中會將場景特征壓縮為鳥瞰圖 (BEV) 表征,最后將三維體素表征和鳥瞰圖表征相結合。結合后得到的三維體素特征在后續還會經過額外的體素編碼器 (Voxel encoder) 來增強特征感受野。
大規模模型探索
增加模型參數量是提升模型精度的最便捷的方式,但在三維視覺感知領域,研究人員發現更大規模的模型更容易產生過擬合現象,而現有主流感知模型的參數仍在 100M 量級。
在本次比賽中,FB-OCC 模型嘗試使用 10 億參數量級的 InternImage 主干網絡,模型總體參數量是現有常用模型的十倍以上。大模型訓練通常需要大數據與之匹配,但受限于自動駕駛數據采集標注的高昂成本,開源的三維感知數據集并不足以支撐 10 億參數規模的模型。
針對這個痛點,FB-OCC 使用了多輪預訓練機制。由于可獲取的二維感知數據集遠遠豐富于三維感知數據,FB-OCC 首先在大規模開源數據集 Objects365 上進行通用目標檢測預訓練。然后,如圖 3 所示,FB-OCC 引入深度和語義聯合預訓練來建立二維感知和三維感知的橋梁。
圖 3 深度和語義聯合預訓練
為了生成語義分割標簽,FB-OCC 還使用 Meta 的 SAM 模型來進行自動標注,分別使用框提示和點提示來生成不同類別的語義。經過多輪預訓練后,大規模模型在占用感知任務上可以避免嚴重的過擬合問題。
實驗結果
研究團隊在實驗中證明了 FB-OCC 的出色性能。如表 1 所示,FB-OCC 在 ResNet-50 主干網絡以及 256x704 分辨率的輸入圖像下,借助時序融合、深度監督等技術,模型性能從最初的 23.12% mIoU 增長至 42.06% mIoU。
表 1 小規模模型的消融實驗結果
為了獲得更好的精度,FB-OCC 使用了更大參數量的模型。如表 2 所示,在 400M 的模型規模下,FB-OCC 獲得了單模型 50+% mIoU 的效果。借助 InternImage 主干網絡,10 億參數量級的模型進一步取得了 52.79% 的極佳效果。
表 2 不同模型規模下的效果
最終,FB-OCC 多個模型的集成結果取得了目前測試集上最高的準確率 ——54.19%,贏得了比賽的冠軍并被授予最佳創新獎。FB-OCC 為自動駕駛中復雜的三維占用預測問題貢獻了新的思路。
-
NVIDIA
+關注
關注
14文章
5013瀏覽量
103244 -
三維
+關注
關注
1文章
510瀏覽量
29000 -
自動駕駛
+關注
關注
784文章
13856瀏覽量
166587
原文標題:NVIDIA拿下CVPR 2023 3D Occupancy預測第一名!
文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論