自動駕駛相機-激光雷達深度融合的綜述及展望
5)無監(jiān)督或弱監(jiān)督的學習框架:
人工標注圖像和點云數(shù)據(jù)既昂貴又耗時,這限制了當前多傳感器數(shù)據(jù)集的大小。采用無監(jiān)督和弱監(jiān)督的學習框架,可以使網(wǎng)絡在更大的未標記/粗標簽的數(shù)據(jù)集上進行訓練,從而提升性能。
B.與可靠性相關的開放研究問題
1)與傳感器無關的融合框架:
從工程角度來看,自動駕駛汽車的冗余設計對其安全至關重要。盡管將LiDAR和攝像頭融合在一起可以改善感知性能,但是它也會帶來信號耦合問題。如果在工作時有一條信號路徑失效,那么整個流程都可能會發(fā)生故障,并影響下游模塊。這對于在安全關鍵環(huán)境中運行的自動駕駛汽車是不可接受的。這一問題可以通過加入能接受不同傳感器輸入的多個融合模塊,或異步多模數(shù)據(jù)、多路徑的融合模塊來解決。但最佳解決方案仍有待進一步的研究。
2)全天候/光線下的工作能力:
自動駕駛汽車需要在所有天氣和光照條件下工作。然而,當前的數(shù)據(jù)集和方法主要集中在具有良好照明和天氣條件的場景上。這會導致在現(xiàn)實世界中表現(xiàn)不佳,因為其光照和天氣條件更加復雜。
3)(Adversarial Attacks and Corner Cases)對抗攻擊和極端案例:
針對基于圖像的感知系統(tǒng)的對抗已被證明是有效的,這對自動駕駛汽車構成了嚴重的危險。在這種情況下,可以進一步探索如何利用LiADR的準確3D幾何信息和圖像來共同識別這些攻擊。
由于自動駕駛汽車需要在不可預測的開放環(huán)境中運行,因此也必須考慮感知中的(edge cases)極端案例。在設計感知系統(tǒng)時,應該考慮到不常見的特殊障礙物,例如奇怪的行為和極端的天氣。例如,打印在大型車輛上的人和物體(車體廣告)以及穿著怪異服裝的人。利用多模數(shù)據(jù)來識別這些極端情況,可能會比用單模傳感器更為有效、可靠和簡單。在這個方向上的進一步研究可以幫助提高自動駕駛技術的安全性和加快其商用。
C.與工程有關的開放研究問題
1)傳感器在線自校準:
相機和LiDAR融合的前提和假設是相機和LiDAR之間的精確校準,其中包括相機內部參數(shù)和相機與LiDAR之間的外部參數(shù)。但在實際上做到校準參數(shù)一直準確很難。即使在對相機和LiDAR進行了完美的校準之后,在車輛機械振動,熱量等因素的影響下,其校準參數(shù)也會隨時間變化而變得不準。由于大多數(shù)融合方法對校準誤差極為敏感,因此這會嚴重削弱其性能和可靠性。此外校準過程大多需要從頭進行,所以不斷的人工更新校準參數(shù)既麻煩又不切實際。然而此問題受到的關注較少,因為這個問題在已發(fā)布的數(shù)據(jù)集中不太明顯。盡管如此,仍然有必要研究相機和LiDAR在線自校準的方法。最近的一些研究采用了運動引導[96]和無目標[97]自校準。在這個重要方向上進行更多的研究是有必要的。
2)傳感器時間同步:
明確來自多個傳感器數(shù)據(jù)幀的確切時間對于實時傳感器融合至關重要,這將直接影響融合結果。但在實踐中,我們很難保證完美的時間同步。首先,LiDAR和相機具有不同的刷新率,并且每個傳感器都有自己的時間源。此外,感知系統(tǒng)的許多部分(數(shù)據(jù)傳輸,傳感器曝光時間等)都可能發(fā)生不可控制的時間延遲。幸運的是,有幾種緩解該問題的方法。首先可以增加傳感器刷新率以減少時間偏差。也可以使用GPS PPS時間源與主機保持同步,并且由主機將時間戳同步請求發(fā)送到每個傳感器,以使每個傳感器都在同一時間軸上。此外如果傳感器可以由外部信號觸發(fā),則帶有晶振的特定電路硬件可以記錄精確的時間戳,該時間戳可用于在幾乎同時觸發(fā)每個傳感器。該方法被認為是目前最有效的。
03.深度補全
激光點云的稀疏性極大地制約了3D感知算法并使之復雜化。深度補全旨在通過將稀疏的,不規(guī)則的深度數(shù)據(jù),上采樣為密集的規(guī)則的數(shù)據(jù)來解決此問題。基于相機-激光雷達融合的方法通常利用高分辨率圖像來引導深度上采樣,并采用(encoder-decoder)編碼器-解碼器架構,這也意味著pixel-wise fusion。圖2是深度補全模型的發(fā)展時間軸和其對應的數(shù)據(jù)融合層級。表I列出了KITTI深度補全基準測試中各模型的結果比較和對應的數(shù)據(jù)融合的層級,并在圖3中繪制成散點圖。
圖3. 深度補全模型的發(fā)展時間軸和其對應的數(shù)據(jù)融合層級
表II. KITTI深度補全基準測試中各模型的結果比較和對應的數(shù)據(jù)融合的層級
當前大多數(shù)研究使用單目圖像來引導深度補全。這些方法認為圖像的顏色,材質等信息包含著幾何信息,故可以將其作為深度上采樣的參考。與單目圖像相比,由立體相機的視差計算得到的幾何信息更豐富,更精確。在深度補全任務上,立體相機和激光雷達在理論上更具互補性,應該能從中計算出更密集,更準確的深度信息。但在實際應用中,立體攝像機的有效距離范圍有限(與激光雷達的有效距離不匹配),且其在高遮擋,無紋理的環(huán)境中不可靠(如部分城市道路),這使其目前不太適用于自動駕駛。
圖4. KITTI深度補全基準測試中各模型的結果散點圖
各模型介紹與對比的詳細內容見原文。
04.3D目標識別
3D目標檢測旨在3D空間中定位,分類并估計具備方向性的(bbox)目標邊界框。當前有兩種主要的目標檢測流程:(Sequential/ two-stage)多階段和(single-shot/one-stage)單階段;诙嚯A段的模型大體由(proposal stage)候選框階段和3D邊界框(3D bbox regression)回歸階段組成。在候選框階段,檢測并提出所有可能包含感興趣對象的區(qū)域。在(bbox)目標邊界框回歸階段,根據(jù)候選的區(qū)域的特征對區(qū)域進行進一步甄別。但是,該模型的性能受到每個階段的限制。在另一方面,single-shot模型只包含一個階段,其通常以并行的方式處理2D和3D信息。3D對象檢測模型的發(fā)展時間軸和其對應的數(shù)據(jù)融合層級如圖4所示。表II和圖6展示了在KITTI 3D目標檢測基準測試中各模型的性能對比和對應的數(shù)據(jù)融合的層級。
圖5.3D對象檢測模型的發(fā)展時間軸和其對應的數(shù)據(jù)融合層級
A. 基于(2D Proposal)2D候選區(qū)域的多階段模型:
這部分模型首先基于2D圖像語義生成2D候選區(qū)域,這使其能利用現(xiàn)成的圖像處理模型。更具體的來說,這些方法利用2D圖像目標檢測器生成2D候選區(qū)域,并將其投影回3D點云空間中,形成3D搜索空間,并在這些3D搜索空間內進一步完成3D bbox的回歸檢測。這其中有兩種將2D候選區(qū)域轉換到3D點云空間的投影方法。第一個是將圖像平面中的邊界框投影到3D點云,從而形成一個錐形的3D搜索空間。而第二種方法將點云投影到圖像平面,將點云逐點與對應的2D語義信息聯(lián)系起來。但在點云中,遠處的或被遮擋的物體通常只由少量的稀疏點組成,這增加了第二階段中3D bbox回歸的難度。
表III. KITTI 3D目標檢測基準測試中各模型的性能對比和對應的數(shù)據(jù)融合的層級。
B. 基于(3D Proposal)3D候選區(qū)域的多階段模型:
基于3D候選區(qū)域的模型直接從2D或3D數(shù)據(jù)中生成3D候選區(qū)域。其通過消除2D到3D轉換,極大地縮小了3D搜索空間。用于3D候選區(qū)域生成的常見方法包括(multi-view)多視角方法和(point cloud voxelization)點云體素化方法。基于多視角的方法利用點云的鳥瞰(BEV representation)圖來生成3D候選區(qū)域。鳥瞰圖避免了透視遮擋,并保留了對象的方向信息和x,y坐標的原始信息。這些方向和x,y坐標信息對于3D對象檢測至關重要,且鳥瞰圖和其他視角之間的坐標轉換較為直接。而基于點云體素化的模型,將連續(xù)的不規(guī)則數(shù)據(jù)結構轉換為離散的規(guī)則數(shù)據(jù)結構。這讓應用(standard 3D discrete convolution)標準3D離散卷積,并利用現(xiàn)有網(wǎng)絡模型來處理點云變得可能。其缺點是失去了部分空間分辨率,細粒度的3D結構信息以及引入了(boundary artifacts)邊界痕跡。
圖6. KITTI 3D目標檢測基準測試中各模型的性能散點圖。
C. 單階段模型單階段模型將候選區(qū)域生成和bbox回歸階段融合為一個步驟,這些模型通常在計算效率上更高。這使它們更適合于移動計算平臺上的實時應用。
各模型介紹與對比的詳細內容請見原文。
05.2D/3D語義分割
本節(jié)回顧了用于2D語義分割,3D語義分割和實例分割的現(xiàn)有Camera-LiDAR融合方法。2D / 3D語義分割旨在預測每個像素和每個點的類型標簽,而實例分割還關心單個實例。圖6給出了3D語義分割網(wǎng)絡的時間順序概述和對應的數(shù)據(jù)融合的層級。詳細內容請見原文。
圖7. 3D語義分割網(wǎng)絡的發(fā)展時間軸和其對應的數(shù)據(jù)融合層級
06.跟蹤
多目標跟蹤(MOT)對于自動駕駛汽車的決策是不可或缺的。為此,本節(jié)回顧了基于相機-激光雷達融合的對象跟蹤方法,并在表III中的KITTI多對象跟蹤基準(汽車)[47]上比較了它們的性能。
A. Detection-Based Tracking (DBT)/Tracking-by-Detection
檢測跟蹤框架包括兩個階段。在第一階段為目標檢測。第二階段在時間軸上將這些目標關聯(lián)起來,并計算軌跡,這些軌跡可被表示成線性程序。
表IV. KITTI 跟蹤基準測試中各模型的性能對比和對應的方法。

最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產業(yè)發(fā)展新路徑
- 3 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 4 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 5 國產智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?