精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Camera or Lidar?如何實現魯棒的3D目標檢測?最新綜述!

人工智能 智能汽車
我們全面評估了自動駕駛中3D物體檢測算法的穩健性。確定了評估檢測穩健性的三個關鍵因素:環境變化性、傳感器噪聲和誤對準。

本文經自動駕駛之心公眾號授權轉載,轉載請聯系出處。

0. 寫在前面&&個人理解

自動駕駛系統依賴于先進的感知、決策和控制技術,通過使用各種傳感器(如相機、激光雷達、雷達等)來感知周圍環境,并利用算法和模型進行實時分析和決策。這使得車輛能夠識別道路標志、檢測和跟蹤其他車輛、預測行人行為等,從而安全地操作和適應復雜的交通環境.這項技術目前引起了廣泛的關注,并認為是未來交通領域的重要發展領域之一。但是,讓自動駕駛變得困難的是弄清楚如何讓汽車了解周圍發生的事情。這需要自動駕駛系統中的三維物體檢測算法可以準確地感知和描述周圍環境中的物體,包括它們的位置、形狀、大小和類別。這種全面的環境意識有助于自動駕駛系統更好地了解駕駛環境,并做出更精確的決策。

我們全面評估了自動駕駛中3D物體檢測算法的穩健性。確定了評估檢測穩健性的三個關鍵因素:環境變化性、傳感器噪聲和誤對準。這些因素至關重要,因為它們影響了檢測算法在真實世界多變條件下的表現。

  1. 環境變化性: 文章強調檢測算法需要適應不同的環境條件,如光照、天氣和季節的變化。
  2. 傳感器噪聲: 算法必須有效處理傳感器的噪聲,可能包括攝像機的運動模糊等問題。
  3. 誤對準: 對于由校準錯誤或其他因素引起的誤對準,算法需要考慮到這些因素,無論是外部的(如不平坦的路面)還是內部的(例如系統時鐘誤對準)。

還深入探討了性能評估的三個關鍵領域:準確性、延遲和穩健性。

  • 準確性:盡管研究通常將準確性作為關鍵性能指標,但在復雜和極端條件下的表現需要更深入的理解,以確保真實世界的可靠性。
  • 延遲: 自動駕駛中的實時能力至關重要。檢測方法的延遲影響系統及時決策的能力,特別是在緊急情況下。
  • 穩健性: 呼吁對系統在不同條件下的穩定性進行更全面的評估,因為許多當前的評估可能沒有完全考慮到真實世界場景的多樣性。

在分析中,論文指出了多模態3D檢測方法在安全感知方面的顯著優勢。這些方法結合了來自不同傳感器的數據,為自動駕駛系統提供了更豐富、更多樣化的感知能力。

1. 數據集

上述概述了自動駕駛系統中用于3D物體檢測的數據集,重點在于評估不同傳感器模式下的優勢和局限性,以及公共數據集的特點。

首先,表格展示了camera、點云和多模態(相機和激光雷達)三種類型的傳感器。對于每種類型,列出了硬件成本、優點和局限性。例如,相機數據的優點在于提供豐富的顏色和紋理信息,但局限于缺乏深度信息且易受光線和天氣影響。而激光雷達則提供準確的深度信息,但成本高且沒有顏色信息。

接下來,另一個表格詳細列出了用于自動駕駛中3D物體檢測的多個公共數據集,如KITTI、nuScenes和Waymo等。這些數據集涵蓋了不同年份發布的數據,使用的傳感器類型,數據規模(包括幀數和注釋數量),場景的多樣性(包括場景數量和類別),以及場景類型(如白天、晴天、夜晚、雨天等)。

此外,還提到了關于“干凈”自動駕駛數據集的研究,并強調了在噪聲場景下評估模型穩健性的重要性。一些研究關注在惡劣條件下的相機單模態方法,而其他的多模態數據集則專注于噪聲問題。例如,GROUNDED數據集關注在不同天氣條件下地面穿透雷達的定位,而ApolloScape開放數據集包括了激光雷達、相機和GPS數據,涵蓋了多種天氣和光照條件。

由于在真實世界中收集大規模噪聲數據的成本過高,許多研究轉向使用合成數據集。例如,ImageNet-C是在圖像分類模型中對抗常見擾動的基準研究。這一研究方向隨后擴展到為自動駕駛中的3D物體檢測量身定制的穩健性數據集。

2. 基于視覺的3D目標檢測

2.1 Monocular 3D object detection

在這部分內容中,討論了單目3D物體檢測的概念以及三種主要的方法:基于先驗的單目3D物體檢測、僅相機的單目3D物體檢測和深度輔助的單目3D物體檢測。

Prior-guided monocular 3D object detection

這種方法利用隱藏在圖像中的物體形狀和場景幾何學的先驗知識來解決單目3D物體檢測的挑戰。通過引入預訓練的子網絡或輔助任務,先驗知識可以提供額外信息或約束來幫助精確定位3D物體,增強檢測的精度和穩健性。常見的先驗知識包括物體形狀、幾何一致性、時間約束和分割信息。例如,Mono3D算法首先假設3D物體位于固定的地面平面上,然后使用物體的先驗3D形狀來在3D空間中重建邊界框。

圖片

Camera-only monocular 3D object detection

這種方法僅使用單個相機捕獲的圖像來檢測和定位3D物體。它采用卷積神經網絡(CNN)直接從圖像中回歸3D邊界框參數,從而估計物體在三維空間中的尺寸和姿態。這種直接回歸方法可以以端到端的方式進行訓練,促進了3D物體的整體學習和推斷。例如,Smoke算法摒棄了2D邊界框的回歸,通過結合單個關鍵點的估計和3D變量的回歸來預測每個檢測目標的3D框。

Depth-assisted monocular 3D object detection

深度估計在深度輔助的單目3D物體檢測中扮演著關鍵角色。為了實現更準確的單目檢測結果,許多研究利用預訓練的輔助深度估計網絡。這個過程首先通過使用預訓練的深度估計器(如MonoDepth)將單目圖像轉換為深度圖像。然后,采用兩種主要方法來處理深度圖像和單目圖像。例如,Pseudo-LiDAR檢測器使用預訓練的深度估計網絡生成Pseudo-LiDAR表示,但由于圖像到LiDAR生成的錯誤,Pseudo-LiDAR與基于LiDAR的檢測器之間存在巨大的性能差距。

通過這些方法的探索和應用,單目3D物體檢測在計算機視覺和智能系統領域取得了顯著進展,為這些領域帶來了突破和機遇。

2.2 Stereo-based 3D object detection

圖片

在這部分內容中,討論了基于立體視覺的3D物體檢測技術。立體視覺3D物體檢測利用一對立體圖像來識別和定位3D物體。通過利用立體攝像機捕獲的雙重視角,這些方法在通過立體匹配和校準獲取高精度深度信息方面表現出色,這是它們與單目攝像機設置不同的特點。盡管存在這些優勢,與基于激光雷達的方法相比,立體視覺方法仍存在相當大的性能差距。此外,從立體圖像中進行3D物體檢測的領域相對較少被探索,僅有限的研究工作致力于這一領域。

  1. 2D-detection based methods:傳統的2D物體檢測框架可以修改以解決立體檢測問題。例如,Stereo R-CNN使用基于圖像的2D檢測器來預測2D提議,為相應的左右圖像生成左右感興趣區域(RoIs)。隨后,在第二階段,它直接估計基于之前生成的RoIs的3D物體參數。這種范式被后續的工作廣泛采用。
  2. Pseudo-LiDAR based methods:從立體圖像預測的視差圖可以轉換為深度圖,進一步轉換為偽激光雷達點。因此,類似于單目檢測方法,偽激光雷達表示也可以用于基于立體視覺的3D物體檢測方法。這些方法旨在增強立體匹配中的視差估計,以實現更準確的深度預測。例如,Wang等人是引入偽激光雷達表示的先驅。這種表示是由具有深度圖的圖像生成的,要求模型執行深度估計任務以協助檢測。隨后的工作遵循了這一范式,并通過引入額外的顏色信息來增強偽點云、輔助任務(如實例分割、前景和背景分割、領域適應)和坐標變換方案進行了優化。值得注意的是,Ma等人提出的PatchNet挑戰了利用偽激光雷達表示進行單目3D物體檢測的傳統觀念。通過為每個像素編碼3D坐標,PatchNet可以在沒有偽激光雷達表示的情況下獲得可比較的單目檢測結果。這一觀察表明,偽激光雷達表示的力量來源于坐標變換,而不是點云表示本身。

圖片

2.3 Multi-view 3D object detection

最近,多視圖3D物體檢測在精度和穩健性方面相較于前述的單目和立體視覺3D物體檢測方法表現出了優越性。與基于激光雷達的3D物體檢測不同,最新的全景鳥瞰視圖(BEV)方法消除了對高精度地圖的需求,將檢測從2D提升到3D。這一進展帶來了多視角3D物體檢測的重大發展。在多攝像頭3D物體檢測中,關鍵挑戰在于識別不同圖像中的同一物體并從多視角輸入中聚合物體特征。目前的方法涉及將多視角統一映射到鳥瞰視圖(BEV)空間,這是一種常見的做法。

Depth-based Multi-view methods:

從2D到BEV空間的直接轉換構成了一個重大挑戰。LSS是首個提出基于深度的方法的,它利用3D空間作為中介。這種方法首先預測2D特征的網格深度分布,然后將這些特征提升到體素空間。這種方法為更有效地實現從2D到BEV空間的轉換提供了希望。繼LSS之后,CaDDN采用了類似的深度表示方法。通過將體素空間特征壓縮到BEV空間,它執行最終的3D檢測。值得注意的是,CaDDN并不是多視角3D物體檢測的一部分,而是單視角3D物體檢測,它對隨后的深度研究產生了影響。LSS和CaDDN的主要區別在于CaDDN使用實際的地面真實深度值來監督其分類深度分布的預測,從而創建了一個能夠更準確地從2D空間提取3D信息的出色深度網絡。

Query-based Multi-view methods

在Transformer技術的影響下,基于query的多視角方法從3D空間檢索2D空間特征。DETR3D引入了3D物體query來解決多視角特征的聚合問題。它通過從不同視角剪輯圖像特征,并使用學習到的3D參考點將它們投影到2D空間,從而在鳥瞰視圖(BEV)空間獲得圖像特征。與基于深度的多視角方法不同,基于query的多視角方法通過使用反向query技術獲得稀疏BEV特征,從根本上影響了后續基于query的發展。然而,由于與顯式3D參考點相關的潛在不準確性,PETR采用了隱式位置編碼方法來構建BEV空間,影響了后續的工作。

2.4 Analysis: Accuracy, Latency, Robustness

當前,基于鳥瞰視圖(BEV)感知的3D物體檢測解決方案正在迅速發展。盡管存在許多綜述文章,但對這一領域的全面回顧仍然不足。上海AI實驗室和商湯研究院提供了對BEV解決方案技術路線圖的深入回顧。然而,與現有的綜述不同,我們考慮了自動駕駛安全感知等關鍵方面。在分析了基于相機解決方案的技術路線圖和當前發展狀態之后,我們打算基于`準確性、延遲、穩健性'的基本原則進行討論。我們將整合安全感知的視角,以指導自動駕駛中安全感知的實際實施。

  1. 準確度:大多數研究文章和綜述中都非常關注準確性,這確實非常重要。雖然準確性可以通過AP(平均精度)來反映,但僅考慮AP可能無法提供全面的視角,因為不同的方法由于不同的范式可能表現出顯著的差異。如圖所示,我們選擇了10種代表性方法進行比較,結果表明單目3D物體檢測與立體視覺3D物體檢測之間存在顯著的度量差異。目前的情況表明,單目3D物體檢測的準確性遠低于立體視覺3D物體檢測。立體視覺3D物體檢測利用從同一場景的兩個不同視角捕獲的圖像來獲取深度信息。相機之間的基線越大,捕獲的深度信息范圍越廣。隨著時間的推移,多視角(鳥瞰視圖感知)3D物體檢測逐漸取代了單目方法,顯著提高了mAP。傳感器數量的增加對mAP產生了重大影響。
  2. 延遲:在自動駕駛領域,延遲至關重要。它指的是系統對輸入信號做出反應所需的時間,包括從傳感器數據采集到系統決策制定和執行動作的整個過程。在自動駕駛中,對延遲的要求非常嚴格,因為任何形式的延遲都可能導致嚴重的后果。延遲在自動駕駛中的重要性體現在以下幾個方面:實時響應性、安全性、用戶體驗、互動性和緊急響應。在3D物體檢測領域,延遲(每秒幀數,FPS)和準確性是評估算法性能的關鍵指標。如圖所示,單目和立體視覺3D物體檢測的圖表顯示了KITTI數據集中等難度級別的平均精度(AP)與FPS的關系。對于自動駕駛的實現,3D物體檢測算法必須在延遲和準確性之間取得平衡。雖然單目檢測速度快,但缺乏精確度;相反,立體和多視角方法準確但速度較慢。未來的研究不僅應保持高精度,還應更加重視提高FPS和降低延遲,以滿足自動駕駛中實時響應性和安全性的雙重要求。
  3. 穩健性:穩健性是自動駕駛安全感知的一個關鍵因素,代表了一個在綜合回顧中以前被忽視的重要話題。在當前精心設計的干凈數據集和基準測試中,如KITTI、nuScenes和Waymo,這一方面通常沒有得到解決。目前,像RoboBEV、Robo3D這樣的研究作品在3D物體檢測中納入了穩健性的考慮,例如傳感器缺失等因素。它們采用了一種方法論,包括在與3D物體檢測相關的數據集中引入干擾,以評估穩健性。這包括引入各種類型的噪聲,如天氣條件變化、傳感器故障、運動干擾和與物體相關的擾動,旨在揭示不同噪聲源對模型的不同影響。通常,大多數研究穩健性的論文通過向干凈數據集的驗證集(如KITTI、nuScenes和Waymo)引入噪聲進行評估。另外,我們強調了參考文獻中的發現,其中強調了KITTI-C和nuScenes-C作為相機僅3D物體檢測方法的例子。表格提供了總體比較,顯示總體上,相機僅方法的穩健性低于激光雷達僅和多模型融合方法。它們非常容易受到各種類型的噪聲的影響。在KITTI-C中,三個代表性的作品——SMOKE、PGD和ImVoxelNet——顯示出一致較低的整體性能和對噪聲的減少穩健性。在nuScenes-C中,值得注意的方法如DETR3D和BEVFormer與FCOS3D和PGD相比表現出更大的穩健性,表明隨著傳感器數量的增加,整體穩健性提高。總之,未來的相機僅方法需要考慮不僅是成本因素和準確性指標(mAP、NDS等),還有與安全感知和穩健性相關的因素。我們的分析旨在為未來自動駕駛系統的安全提供有價值的見解。

3. 基于Lidar的3D目標檢測

圖片

基于體素的3D物體檢測方法提出了將稀疏點云分割并分配到規則體素中,從而形成密集的數據表示,這個過程稱為體素化。與基于視圖的方法相比,基于體素的方法利用空間卷積有效感知3D空間信息,實現更高的檢測精度,這對自動駕駛中的安全感知至關重要。然而,這些方法仍面臨以下挑戰:

  1. 高計算復雜性:與基于相機的方法相比,基于體素的方法需要大量的內存和計算資源,因為用于表示3D空間的體素數量巨大。
  2. 空間信息丟失:由于體素的離散化特性,在體素化過程中細節和形狀信息可能丟失或模糊,同時體素有限的分辨率使得難以準確檢測小物體。
  3. 尺度和密度不一致性:基于體素的方法通常需要在不同尺度和密度的體素網格上進行檢測,但由于不同場景中目標的尺度和密度變化很大,選擇合適的尺度和密度來適應不同目標成為挑戰。

為了克服這些挑戰,需要解決數據表示的局限性、提高網絡特征能力和目標定位精度,并加強算法對復雜場景的理解。盡管優化策略各不相同,但通常都旨在從數據表示和模型結構方面進行優化。

3.1 Voxel-based 3D object detection

得益于PC在深度學習中的繁榮,基于點的三維對象檢測繼承了其許多框架,并提出在不進行預處理的情況下直接從原始點檢測三維對象。與voxel-based方法相比,原始點云保留了最大量的原始信息,這有利于細粒度的特征獲取,result high accuracy。同時,PointNet的一系列工作自然為基于點的方法提供了強大的基礎。基于點的3D對象檢測器有兩個基本組成部分:點云采樣和特征學習 %截至目前,Point-based方法的性能仍被兩個因素所影響:上下文點的數量和特征學習中采用的上下文半徑。e.g.增加上下文點的數量可以獲得更細致的3D信息,但會顯著增加模型的推理時間。類似地,縮小上下文半徑可以獲得同樣地效果。因此,為這兩個因素選擇合適的值,可以使模型在精度和速度之間達到一個平衡。此外,由于需要對點云中每一個點進行計算,點云采樣過程是限制point-based方法實時運行的主要因素。具體來說,為解決以上問題,現有的方法大多圍繞基于點的3D對象檢測器的兩個基本組成部分進行優化:1) Point Sampling 2) feature learning

3.2 Point-based 3D object detection

基于點的3D物體檢測方法繼承了許多深度學習框架,并提出直接從原始點云中檢測3D物體,而不進行預處理。與基于體素的方法相比,原始點云最大限度地保留了原始信息,有利于細粒度特征的獲取,從而實現高精度。同時,PointNet系列工作為基于點的方法提供了強大的基礎。然而,到目前為止,基于點的方法的性能仍受兩個因素的影響:上下文點的數量和特征學習中使用的上下文半徑。例如,增加上下文點的數量可以獲得更細致的3D信息,但會顯著增加模型的推理時間。類似地,縮小上下文半徑可以達到同樣的效果。因此,為這兩個因素選擇適當的值可以使模型在精度和速度之間實現平衡。此外,由于需要對點云中的每個點進行計算,點云采樣過程是限制基于點方法實時運行的主要因素。為解決這些問題,現有方法主要圍繞基于點的3D物體檢測器的兩個基本組成部分進行優化:1) 點云采樣;2) 特征學習。

最遠點采樣(FPS)源自PointNet++,是一種在基于點的方法中廣泛使用的點云采樣方法。它的目標是從原始點云中選擇一組具有代表性的點,使它們之間的距離最大化,以最好地覆蓋整個點云的空間分布。PointRCNN是基于點的方法中的開創性的兩階段檢測器,使用PointNet++作為骨干網絡。在第一階段,它以自下而上的方式從點云中生成3D提議。在第二階段,通過結合語義特征和局部空間特征來對提議進行精煉。然而,現有基于FPS的方法仍面臨一些問題:1) 與檢測無關的點同樣參與采樣過程,帶來額外的計算負擔;2) 點在物體的不同部分分布不均勻,導致次優的采樣策略。為了解決這些問題,后續工作采用了類似FPS的設計范式,并進行了改進,例如,通過分割引導的背景點過濾、隨機采樣、特征空間采樣、基于體素的采樣和基于光線分組的采樣。

基于點的3D物體檢測方法的特征學習階段旨在從稀疏點云數據中提取具有判別性的特征表示。在特征學習階段使用的神經網絡應具備以下特性:1) 不變性,點云骨干網絡應對輸入點云的排列順序不敏感;2) 具有局部感知能力,能夠對局部區域進行感知和建模,提取局部特征;3) 具有整合上下文信息的能力,能夠從全局和局部的上下文信息中提取特征。基于上述特性,大量的檢測器被設計用于處理原始點云。大多數方法可以根據所使用的核心算子分為:1) 基于PointNet的方法;2) 基于圖神經網絡的方法;3) 基于Transformer的方法。

基于PointNet的方法

基于PointNet的方法主要依賴集合抽象來對原始點進行降采樣,聚合局部信息,并整合上下文信息,同時保持原始點的對稱不變性。Point-RCNN是基于點的方法中的第一個兩階段工作,取得了出色的性能,但仍面臨高計算成本的問題。后續工作通過在檢測過程中引入額外的語義分割任務來過濾掉對檢測貢獻最小的背景點,解決了這個問題。

基于圖神經網絡的方法

圖神經網絡(GNN)具有自適應結構、動態鄰域、構建局部和全局上下文關系的能力以及對不規則采樣的魯棒性。Point-GNN是一項開創性的工作,設計了一個單階段圖神經網絡,通過自動注冊機制、合并和評分操作來預測對象的類別和形狀,展示了使用圖神經網絡作為3D物體檢測新方法的潛力。

基于Transformer的方法

近年來,Transformer(Transformer)在點云分析中得到了探索,并在許多任務上表現出色。例如,Pointformer引入了局部和全局注意模塊來處理3D點云,局部Transformer模塊用于對局部區域中的點之間的交互進行建模,而全局Transformer旨在學習場景級別的上下文感知表示。Group-free直接利用點云中的所有點來計算每個對象候選的特征,其中每個點的貢獻由自動學習的注意模塊決定。這些方法展示了基于Transformer的方法在處理非結構化和無序的原始點云方面的潛力。

3.3  Point-Voxel based 3D object detection

點云基礎的3D物體檢測方法提供高分辨率并保留了原始數據的空間結構,但它們在處理稀疏數據時面臨高計算復雜性和低效率。相比之下,基于體素的方法提供了結構化的數據表示,提高了計算效率,并促進了傳統卷積神經網絡技術的應用。然而,由于離散化過程,它們通常會丟失細微的空間細節。為了解決這些問題,開發了點-體素(PV)基礎的方法。點-體素方法旨在利用基于點的方法的細粒度信息捕獲能力和基于體素的方法的計算效率。通過整合這些方法,點-體素基礎的方法能夠更詳細地處理點云數據,捕獲全局結構和微觀幾何細節。這對于自動駕駛中的安全感知至關重要,因為自動駕駛系統的決策精度取決于高精度的檢測結果。

點-體素方法的關鍵目標是通過點到體素或體素到點的轉換,實現體素和點之間的特征互動。許多工作已經探索了在骨干網絡中利用點-體素特征融合的思想。這些方法可分為兩類:1) 早期融合;2) 后期融合。

a) 早期融合:一些方法已經探索了使用新的卷積運算符來融合體素和點特征,PVCNN可能是這方向的首個工作。在這種方法中,基于體素的分支首先將點轉換為低分辨率的體素網格,并通過卷積聚合鄰近體素特征。然后,通過稱為去體素化的過程,將體素級特征轉換回點級特征,并與基于點的分支獲得的特征融合。基于點的分支為每個單獨的點提取特征。由于它不聚合鄰近信息,該方法可以以更高的速度運行。接著,SPVCNN在PVCNN的基礎上擴展到物體檢測領域。其他方法試圖從不同的角度進行改進,如輔助任務或多尺度特征融合。

b) 后期融合:這一系列方法主要采用兩階段檢測框架。首先,使用基于體素的方法生成初步的物體提議。接著,利用點級特征對檢測框進行精確劃分。Shi等人提出的PV-RCNN是點-體素基礎方法中的一個里程碑。它使用SECOND作為第一階段檢測器,并提出了帶有RoI網格池的第二階段精煉階段,用于關鍵點特征的融合。后續工作主要遵循上述范式,專注于第二階段檢測的進展。值得注意的發展包括注意力機制、尺度感知池化和點密度感知精煉模塊。

點-體素基礎的方法同時具有基于體素方法的計算效率和基于點方法捕獲細粒度信息的能力。然而,構建點到體素或體素到點的關系,以及體素和點的特征融合,會帶來額外的計算開銷。因此,與基于體素的方法相比,點-體素基礎

的方法可以實現更好的檢測精度,但代價是增加了推理時間。

4.多模態3D目標檢測

4.1 Projection-based 3D object detection

基于投影的3D物體檢測方法在特征融合階段使用投影矩陣來實現點云和圖像特征的整合。這里的關鍵是關注在特征融合期間的投影,而不是融合階段的其他投影過程,如數據增強等。根據融合階段使用的不同類型的投影,可以將投影基礎的3D物體檢測方法進一步細分為以下幾類:

  1. 基于點投影的3D物體檢測:這類方法通過將圖像特征投影到原始點云上來增強原始點云數據的表示能力。這些方法的第一步是使用校準矩陣建立激光雷達點和圖像像素之間的強相關性。接下來,通過添加額外數據來增強點云特征。這種增強有兩種形式:一種是通過合并分割分數(如PointPainting),另一種是使用來自相關像素的CNN特征(如MVP)。PointPainting通過追加分割分數來增強激光雷達點,但在有效捕獲圖像中的顏色和紋理細節方面存在局限性。為解決這些問題,開發了更復雜的方法,如FusionPainting。
  2. 基于特征投影的3D物體檢測:與基于點投影的方法不同,這類方法主要關注在點云特征提取階段將點云特征與圖像特征融合。在這個過程中,通過應用校準矩陣將體素的三維坐標系統轉換為圖像的像素坐標系統,從而有效地融合點云和圖像模態。例如,ContFuse通過連續卷積融合多尺度卷積特征圖。
  3. 自動投影基礎的3D物體檢測:許多研究通過直接投影進行融合,但沒有解決投影誤差問題。一些工作(如AutoAlignV2)通過學習偏移量和鄰域投影等方法來減輕這些誤差。例如,HMFI、GraphAlign和GraphAlign++利用投影校準矩陣的先驗知識進行圖像投影,并進行局部圖建模。
  4. 基于決策投影的3D物體檢測:這類方法使用投影矩陣來對齊感興趣區域(RoI)或特定結果中的特征。例如,Graph-RCNN將圖節點投影到攝像機圖像中的位置,并通過雙線性插值收集攝像機圖像中該像素的特征向量。F-PointNet通過2D圖像檢測來確定物體的類別和定位,并通過校準的傳感器參數和3D空間的轉換矩陣獲得相應3D空間中的點云。

這些方法展示了如何在多模態3D物體檢測中使用投影技術來實現特征融合,但它們在處理不同模態間的交互和準確性方面仍存在一定的局限性。

圖片

4.2 Non-Projection-based 3D object detection

圖片

非投影式三維物體檢測方法通過不依賴特征對齊來實現融合,從而產生穩健的特征表示。它們規避了相機到激光雷達投影的局限性,這種投影通常會降低相機特征的語義密度,并影響如Focals Conv和PointPainting等技術的有效性。非投影式方法通常采用交叉注意力機制或構建統一空間來解決直接特征投影中的固有不對齊問題。這些方法主要分為兩類:(1)基于query學習的方法和(2)基于統一特征的方法。基于query學習的方法完全避免了融合過程中的對齊需求。相反,基于統一特征的方法雖然構建了統一的特征空間,但并沒有完全避免投影;它通常發生在單一模態背景下。例如,BEVFusion利用LSS進行相機到BEV的投影。這個過程發生在融合之前,在特征不對齊的場景中顯示出相當的魯棒性。

  1. 基于query學習的三維物體檢測:基于query學習的三維物體檢測方法,如Transfusion、DeepFusion、DeepInteraction、autoalign、CAT-Det、MixedFusion等,避免了特征融合過程中的投影需求。相反,它們通過交叉注意力機制在進行特征融合之前實現特征對齊。點云特征通常作為query,而圖像特征作為鍵和值,通過全局特征query獲得高度魯棒的多模態特征。此外,DeepInteraction引入了多模態交互,其中點云和圖像特征作為不同的query來實現更進一步的特征交互。與僅使用點云特征作為query相比,全面整合圖像特征導致了更強韌的多模態特征的獲得。總的來說,基于query學習的三維物體檢測方法采用基于Transformer的結構進行特征query以實現特征對齊。最終,多模態特征被整合進激光雷達基礎的流程中,如CenterPoint。
  2. 基于統一特征的三維物體檢測:基于統一特征的三維物體檢測方法,如EA-BEV、BEVFusion、cai2023bevfusion4d、FocalFormer3D、FUTR3D、UniTR、Uni3D、virconv、MSMDFusion、sfd、cmt、UVTR、sparsefusion等,通常在特征融合前通過投影實現異構模態的預融合統一。在BEV融合系列中,使用LSS進行深度估計,前視特征被轉換為BEV特征,然后融合BEV圖像和BEV點云特征。另一方面,CMT和UniTR使用Transformer進行點云和圖像的標記化,通過Transformer編碼構建隱式統一空間。CMT在位置編碼過程中使用投影,但在特征學習級別完全避免了對投影關系的依賴。FocalFormer3D、FUTR3D和UVTR利用Transformer的query實施類似于DETR3D的方案,通過query構建統一的稀疏BEV特征空間,從而減輕了直接投影帶來的不穩定性。

VirConv、MSMDFusion和SFD通過偽點云構建統一空間,在特征學習之前發生投影。通過后續特征學習解決了直接投影引入的問題。總之,基于統一特征的三維物體檢測方法目前代表了高精度和強魯棒性的解決方案。盡管它們包含投影矩陣,但這種投影不發生在多模態融合之間,因此被視為非投影式三維物體檢測方法。與自動投影式三維物體檢測方法不同,它們不直接解決投影誤差問題,而是選擇構建統一空間,考慮多模態三維物體檢測的多個維度,從而獲得高度魯棒的多模態特征。

5. 結論

3D物體檢測在自動駕駛感知中扮演著至關重要的角色。近年來,這個領域快速發展,產生了大量的研究論文。基于傳感器產生的多樣化數據形式,這些方法主要分為三種類型:基于圖像的、基于點云的和多模態的。這些方法的主要評估指標是高準確性和低延遲。許多綜述總結了這些方法,主要關注于`高準確性和低延遲'的核心原則,描述它們的技術軌跡。

然而,在自動駕駛技術從突破轉向實際應用的過程中,現有的綜述沒有將安全感知作為核心關注點,未能涵蓋與安全感知相關的當前技術路徑。例如,最近的多模態融合方法在實驗階段通常會進行魯棒性測試,這一方面在當前的綜述中并未得到充分考慮。

因此,重新審視3D物體檢測算法,以`準確性、延遲和魯棒性'為關鍵方面進行重點關注。我們重新分類以前的綜述,特別強調從安全感知的角度進行重新劃分。希望這項工作能為未來3D物體檢測的研究提供新的見解,超越僅僅探索高準確性的局限。

責任編輯:張燕妮 來源: 自動駕駛之心
相關推薦

2023-10-09 09:42:18

自動駕駛模型

2023-09-27 09:59:53

自動駕駛訓練

2024-05-16 09:24:17

3D技術

2024-12-10 09:40:00

AI3D模型

2024-04-28 15:04:08

自動駕駛視覺

2024-10-15 13:07:38

2022-02-14 11:37:59

自動駕駛算法技術

2024-01-23 10:17:24

自動駕駛安全

2024-01-15 10:38:24

3D框架

2012-06-16 16:57:52

WebGL

2022-12-29 11:57:43

3D框架

2023-12-20 09:55:51

雷達傳感器算法

2023-09-25 14:53:55

3D檢測

2022-12-13 10:17:05

技術目標檢測

2023-10-27 09:57:54

2023-09-11 11:27:34

自動駕駛3D

2011-05-26 10:55:39

2023-12-07 13:07:59

3D模型訓練

2012-02-27 10:00:50

HTML 5

2023-12-12 10:09:33

3D框架模型
點贊
收藏

51CTO技術棧公眾號

蜜桃狠狠色伊人亚洲综合网站| 中文字幕日韩精品有码视频| 成年人午夜免费视频| 蜜桃视频污在线观看| 国产日韩欧美| 中文字幕日韩精品有码视频| 日本少妇激三级做爰在线| 成人女同在线观看| 国产调教视频一区| 亚洲综合成人婷婷小说| 日本学生初尝黑人巨免费视频| 国产精品一区2区3区| 在线播放亚洲一区| 日本wwww视频| av片在线观看永久免费| 久久久一区二区| 亚洲一区二区中文| 国产亚洲欧美在线精品| 欧美影院一区| 一区二区在线视频| www.555国产精品免费| 成人高清一区| 亚洲国产精品一区二区久久恐怖片| 日本一区二区三区免费看| 亚洲精品久久久久久久久久| 日本成人在线不卡视频| 久久久久成人精品| 国产黄色录像片| 免费成人结看片| 日韩午夜激情av| 国产三级国产精品国产专区50| 2021天堂中文幕一二区在线观| 国产精品久久久久久久久动漫| 精品国产一区二区三区麻豆小说| 99热这里只有精品5| 奇米在线7777在线精品| 日本精品久久久| 国产一级做a爱免费视频| 天天做天天爱天天综合网| 亚洲老司机av| 黄色av网址在线观看| 国产不卡精品| 欧美丝袜第三区| www.四虎成人| 亚洲同志男男gay1069网站| 一级精品视频在线观看宜春院 | 8x拔播拔播x8国产精品| 久久精品99久久久久久| 一区二区国产在线| 日韩一区二区三区xxxx| 国产在线免费av| 精品久久久久久久| 亚洲精品www久久久| 国产精品一区二区在线免费观看| 麻豆精品一区| 9191成人精品久久| 激情在线观看视频| 国产精品亚洲欧美日韩一区在线| 在线播放中文一区| 中文字幕av一区二区三区人妻少妇 | 中文字幕成人av| 亚洲高清123| av片在线免费观看| 国产精品美女视频| 天天干天天色天天爽| 成人影欧美片| 亚洲综合色婷婷| 成年人网站国产| av3级在线| 亚洲午夜久久久久久久久久久| 欧美精品在欧美一区二区| 欧洲成人综合网| 天天做天天摸天天爽国产一区| 欧美黑人经典片免费观看| 国产免费拔擦拔擦8x在线播放 | 精品久久久久久久久久久久久久久久久久| 国产一区二区三区久久| 日本精品久久中文字幕佐佐木| 免费av中文字幕| 卡一卡二国产精品| 亚洲xxxx在线| 手机看片福利永久| 久久久综合网站| 在线视频一区观看| 蜜臀av在线| 一本大道综合伊人精品热热| 亚洲精品视频导航| 一区二区三区四区高清视频| 精品视频www| 精品少妇一区二区三区密爱| 欧美精品一区二区三区久久久竹菊| 午夜免费久久久久| 午夜精品久久久久久久蜜桃| 精品综合久久久久久8888| 国产精品xxxx| 国产三级在线看| 亚洲女性喷水在线观看一区| 欧美激情视频免费看| 日韩免费小视频| 日韩一区二区不卡| 亚洲人成人无码网www国产| 国产精品成人一区二区不卡| 97精品在线观看| 一级特黄aaa大片在线观看| 国产ts人妖一区二区| 日产精品久久久一区二区| 在线黄色网页| 欧美性猛片aaaaaaa做受| 亚洲欧洲日韩综合| 国产一区二区三区探花| 色综合男人天堂| 免费看av在线| 99在线精品视频| 欧美 日韩 国产 在线观看| 玖玖在线播放| 欧美一二三四区在线| 人妻av无码一区二区三区| 欧美精品日本| 国产精品视频一| 香蕉国产在线视频| 一区二区三区不卡视频在线观看| 亚洲xxxx2d动漫1| 欧美亚视频在线中文字幕免费| 久久天天躁狠狠躁夜夜躁| 狠狠狠狠狠狠狠| 波波电影院一区二区三区| 成人性做爰片免费视频| 亚洲成人短视频| 日韩电影大片中文字幕| 久久久久久久久久久久久久久久久| 免费亚洲电影在线| 日本亚洲导航| 最新中文字幕在线播放| 精品免费视频一区二区| 国产一二三四区| 老司机免费视频一区二区| 欧美亚洲另类在线一区二区三区| 白白色在线观看| 精品日韩在线观看| 欧美日韩一级在线观看| 久久99国产精品久久| 日韩av高清| 欧美日韩亚洲国产| 日韩va亚洲va欧洲va国产| 久久老司机精品视频| 国产91在线看| 精品国产一区二区三区无码| 无人区乱码一区二区三区| 久久av中文字幕| 国产av一区二区三区精品| 亚洲欧洲综合另类在线| 欧美性受xxxxxx黑人xyx性爽| 日本激情一区| 成人av在线网址| 免费网站黄在线观看| 欧美日本韩国一区二区三区视频 | 视频二区在线观看| 调教+趴+乳夹+国产+精品| 国产男女猛烈无遮挡a片漫画| 99国产精品99久久久久久粉嫩| 国产精品视频在线免费观看| sm捆绑调教国产免费网站在线观看| 精品国产乱码久久久久久牛牛| 久久精品免费av| 99精品视频在线播放观看| 蜜臀av无码一区二区三区| 小说区图片区色综合区| 日韩免费中文字幕| 午夜在线视频播放| 日韩一二在线观看| 日本熟妇毛茸茸丰满| 久久综合久久综合亚洲| 色综合天天色综合| 亚洲最大黄网| 精品国产福利| 日韩免费va| 日韩在线精品视频| 亚洲第一天堂影院| 欧美日韩另类在线| 69xxx免费| 国产精品一二三在| 免费毛片小视频| 欧美在线色图| 亚洲伊人第一页| 深夜成人在线| 中文字幕欧美日韩在线| 国产aⅴ一区二区三区| 欧美日韩免费区域视频在线观看| 中文字幕欧美激情极品| 国产精品影音先锋| 人妻有码中文字幕| 99精品在线免费在线观看| 国产精品久久7| 成人网ww555视频免费看| 日韩在线中文视频| 人人妻人人玩人人澡人人爽| 欧美性生活一区| 免费日韩在线视频| 欧美国产日本视频| 中文在线观看免费视频| 免费美女久久99| 蜜桃网站在线观看| 蜜桃国内精品久久久久软件9| 91在线观看免费网站| 一区二区乱码| 欧美肥婆姓交大片| 成人免费高清在线播放| 日韩精品一区二区在线观看| 国产精品久久久久久久久夜色| 一区二区三区高清在线| 国产成人精品视频免费| 99re66热这里只有精品3直播| 日本黄色的视频| 销魂美女一区二区三区视频在线| 国产成年人在线观看| 欧美热在线视频精品999| 国产精品一区二区三区免费| 日韩综合久久| 国产精品高潮呻吟久久av无限| 欧美人与性动交α欧美精品济南到| 国产一区二区日韩| 深夜福利视频一区| 精品国产91亚洲一区二区三区婷婷| 一区二区视频播放| 日本道免费精品一区二区三区| 国产真人真事毛片| 亚洲美女屁股眼交3| 国产又粗又猛又爽又黄的视频小说| 91丨porny丨最新| 国产在线观看免费播放| 国产在线播精品第三| 天堂av在线网站| 久久这里有精品15一区二区三区| 日韩中字在线观看| 亚洲午夜久久久久久尤物| 在线观看18视频网站| 欧美成人自拍| 亚洲欧美国产精品桃花| 成人一区而且| 亚洲高清精品中出| 欧美色女视频| 亚洲 国产 日韩 综合一区| 亚洲第一福利专区| 久久国产精品久久精品国产| 日本欧美韩国国产| 久久精品第九区免费观看 | 亚洲成人精品视频| 成人毛片在线精品国产| 欧美成人午夜电影| 亚洲欧美强伦一区二区| 亚洲成人av片| 日本美女一级视频| 精品偷拍一区二区三区在线看| 亚洲aaaaaaa| 亚洲欧洲国产一区| 黄色av网站在线| 综合国产在线视频| 美女写真理伦片在线看| 久久久黄色av| 欧美日韩经典丝袜| 欧美在线观看网站| 欧美影视资讯| 91精品久久久久久久久久久久久久| 男人亚洲天堂| 亚洲在线视频福利| 国产精品videossex| 欧美人与物videos另类| 成人午夜av| 一区二区三区观看| 欧美视频成人| 超碰网在线观看| 奇米亚洲午夜久久精品| 中文字幕12页| 岛国av在线一区| 人人妻人人藻人人爽欧美一区| 国产欧美日韩久久| 国产午夜手机精彩视频| 亚洲v日本v欧美v久久精品| 一级黄色大片视频| 欧美电影一区二区三区| 亚洲成人精品女人久久久| 日韩精品小视频| 77导航福利在线| 欧美激情亚洲一区| 欧美xx视频| 亚洲最大成人免费视频| 欧美调教视频| 一级黄色录像免费看| 亚洲大胆视频| www.com操| 成人av网址在线| 免费看日本黄色片| 亚洲一区二区免费视频| 好吊色在线视频| 日韩视频国产视频| 国产黄在线观看| 久久久久久久久综合| 青青热久免费精品视频在线18| 99c视频在线| 欧美精品色图| 91黄色在线看| 美女视频一区在线观看| 好吊色视频一区二区三区| 中文字幕第一页久久| 久久狠狠高潮亚洲精品| 欧美日韩精品系列| 亚洲色大成网站www| 不卡av在线网站| 日韩欧美一区二区三区免费观看| 97人人香蕉| 欧美国产美女| 男人亚洲天堂网| 丁香桃色午夜亚洲一区二区三区| 国产传媒在线看| 日韩欧美999| 成人免费视频国产免费麻豆| 色吧影院999| 波多视频一区| 国产一区二区在线网站| 夜间精品视频| 日本中文字幕二区| 国产视频一区二区在线| 五月天综合激情| 亚洲第一精品夜夜躁人人躁| sm国产在线调教视频| 国产免费一区二区三区在线观看| 在线成人动漫av| 久久国产成人精品国产成人亚洲 | 亚洲一区国产精品| 欧美wwwww| 国产三级日本三级在线播放| 91在线视频在线| 国产精品一区二区6| 欧美mv日韩mv| 欧美videossex| 亚洲自拍欧美另类| 中文在线日韩| 亚洲精品国产久| 最新久久zyz资源站| 一卡二卡三卡在线| 日韩亚洲综合在线| 久久人人视频| 一区二区三区三区在线| 日本aⅴ亚洲精品中文乱码| 国产又粗又黄又猛| 欧美日韩在线综合| 麻豆tv免费在线观看| 国产在线视频不卡| 91久久国产| 波多野结衣在线免费观看| 亚洲精品一二三| 精品久久无码中文字幕| 欧美交受高潮1| 久久365资源| 欧美 国产 日本| 欧美激情一区二区三区全黄| 欧美日韩在线视频播放| 中日韩午夜理伦电影免费| 精品国产黄a∨片高清在线| 一区二区三区视频在线播放| 国产一区999| 国产亚洲小视频| 亚洲激情久久久| 日韩网站中文字幕| 在线观看日韩羞羞视频| 国产精品99久久久久久似苏梦涵| 欧美黄色免费观看| 精品无人区太爽高潮在线播放 | 91视频国产精品| 欧美网站在线| 精品夜夜澡人妻无码av| 色妞www精品视频| 麻豆视频在线观看免费| 成人女人免费毛片| 久久久久久亚洲精品杨幂换脸| 中文天堂资源在线| 日韩欧美视频一区| 人成在线免费网站| 亚洲人成网站在线观看播放| 国产成人免费在线| 国产一区免费看| 欧美裸体男粗大视频在线观看| 久久资源综合| 手机在线免费观看毛片| 亚洲激情图片小说视频| 台湾av在线二三区观看| 国产精品一区二区三区毛片淫片| 中文字幕亚洲精品乱码 | 日韩激情毛片| 国产传媒免费观看| 欧美日韩国产影院| 黄网址在线观看| 蜜桃日韩视频| 国产一本一道久久香蕉| 在线观看日韩中文字幕| 日韩视频免费看| 日韩av不卡一区| 亚洲一二三不卡| 日本丶国产丶欧美色综合| 牛牛精品在线|