時序融合是提升自動駕駛3D目標偵測感知能力的有效途徑,但目前的方法在實際自動駕駛場景中應用存在成本開銷等問題。最新研究文章《基於查詢的顯式運動時序融合用於3D目標檢測》在NeurIPS 2023中提出了一種新的時序融合方法,將稀疏查詢作為時序融合的對象,並利用顯式運動資訊來產生時序注意力矩陣,以適應大規模點雲的特性。此方法由華中科技大學和百度的研究者提出,稱為QTNet:基於查詢和顯式運動的3D目標偵測時序融合方法。實驗證明,QTNet能夠在幾乎沒有成本開銷的情況下為點雲、圖像和多模態檢測器帶來一致的性能提升
得益於現實世界的時間連續性,時間維度上的資訊可以使得感知資訊更加完備,進而提高目標偵測的精確度和穩健性,例如時序資訊可以幫助解決目標偵測中的遮蔽問題、提供目標的運動狀態和速度資訊、提供目標的持續性和一致性資訊。因此如何有效率地利用時序資訊是自動駕駛感知的重要問題。現有的時序融合方法主要分為兩類。一類是基於稠密的BEV特徵進行時序融合(點雲/影像時序融合都適用),另一類則是基於3D Proposal特徵進行時序融合 (主要針對點雲時序融合方法)。對於基於BEV特徵的時序融合,由於BEV上超過90%的點都是背景,而該類方法沒有更多地關注前景對象,這導致了大量沒有必要的計算開銷和次優的性能。對於基於3D Proposal的時序融合演算法,其透過耗時的3D RoI Pooling來產生3D Proposal特徵,尤其是在目標物較多,點雲數量較多的情況下,3D RoI Pooling所帶來的開銷在實際應用中往往是難以接受的。此外,3D Proposal 特徵嚴重依賴Proposal的質量,這在複雜場景中往往是受限的。因此,目前的方法都難以以極低開銷的方式有效率地引入時序融合來增強3D目標偵測的效能。
DETR是一種十分優秀的目標偵測範式,其提出的Query設計和Set Prediction想法有效地實現了無需任何後處理的優雅偵測範式。在DETR中,每個Query代表一個物體,並且Query相對於稠密的特徵來說十分稀疏(一般Query的數目會被設定為一個相對較少的固定數目)。如果以Quey作為時序融合的對象,那麼計算開銷的問題自然下降一個層次。因此DETR的Query範式是一種天然適合於時序融合的典範。時序融合需要建構多幀之間的物體關聯,以實現時序情境資訊的綜合。那麼主要問題在於如何建構基於Query的時序融合pipeline和兩幀間的Query建立關聯。
QTNet的核心思想是利用Memory Bank儲存在歷史幀中獲得的Query特徵及其對應的檢測結果,以避免重複計算歷史幀的開銷。在兩個畫面Query之間,使用動作引導的注意力矩陣進行關係建模
如框架圖所示,QTNet包含3D DETR結構的3D目標偵測器(LiDAR、Camera和多模態皆可),Memory Bank和用於時序融合的Motion-guided Temporal Modeling Module (MTM)。 QTNet透過DETR結構的3D目標偵測器取得對應訊框的Query特徵及其偵測結果,並將所得的Query特徵及其偵測結果以先進先出佇列(FIFO)的方式送入Memory Bank。 Memory Bank的數目設定為時序融合所需的幀數。對於時序融合,QTNet從Memory Bank中從最遠時刻開始讀取數據,透過MTM模組以迭代的方式從 幀到 幀融合MemoryBank中的所有特徵以用來增強目前幀的Query特徵,並根據增強後的Query特徵來Refine對應的當前幀的檢測結果。
具體而言,QTNet在 幀融合 和 幀的Query特徵 與 ,並且得到增強後的 框架的Query特徵 。接著,QTNet再將 與 幀的Query特徵融合。以此透過迭代的方式不斷融合至 幀。請注意,這裡從 幀到 訊框所使用的MTM全部都是共享參數的。
#MTM使用物體的中心點位置來明確產生 幀Query和 幀Query的注意力矩陣。給定ego pose矩陣 和 、物體中心點、速度。首先,MTM使用ego pose和物體預測的速度資訊將上一幀的物體移動到下一幀並對齊兩幀的坐標系:
接著通過 幀物體中心點和 幀經過矯正的中心點建構歐式代價矩陣 。此外,為了避免可能發生的錯誤匹配,本文使用類別 和距離閾值 建構注意力掩碼 :
將代價矩陣轉換成注意力矩陣是最終目標
將注意力矩陣 作用在 幀的增強後的Query特徵 來聚合時序特徵以增強 幀的Query特徵:
最終增強的 幀的Query特徵 經過簡單的FFN來Refine對應的檢測結果,以實現增強檢測性能的作用。
#觀察到時序融合的分類和回歸學習有不平衡問題,一種解決方法是分別為分類和迴歸設計時序融合分支。然而,這種解耦方式會增加更多的計算成本和延遲,對於大多數方法而言不可接受。相較之下,QTNet利用高效率的時序融合設計,其運算成本和延遲可忽略不計,與整個3D檢測網路相比表現更優。因此,本文採取了分類和回歸分支在時序融合上的解耦方式,以在可忽略不計的成本情況下取得更好的檢測性能,如圖所示
QTNet在點雲/影像/多模態上實現一致漲點
在nuScenes資料集上進行驗證後發現,QTNet在不使用未來在資訊、TTA和模型整合的情況下,取得了68.4的mAP和72.2的NDS,達到了SOTA效能。與使用了未來資訊的MGTANet相比,在3幀時序融合的情況下,QTNet的效能優於MGTANet,分別提升了3.0的mAP和1.0的NDS 此外,本文也在多模態和基於環視圖的方法上進行了驗證,在nuScenes驗證集上的實驗結果證明了QTNet在不同模態上的有效性。#
對於實際應用來說,時序融合的成本開銷非常重要。本文對QTNet在計算量、時延和參數量三方面進行了分析實驗。結果表明,與整個網路相比,QTNet對於不同基準線所帶來的計算開銷、時間延遲和參數量都可以忽略不計,尤其是計算量僅使用了0.1G FLOPs(LiDAR基準線)
為了驗證基於Query的時序融合範式的優越性,我們選擇了具有代表性的不同前緣時序融合方法進行比較。透過實驗結果發現,基於Query範式的時序融合演算法相較於基於BEV和基於Proposal範式更有效率。在僅使用0.1G FLOPs和4.5ms的開銷下,QTNet表現出更優的性能,同時整體參數量僅為0.3M
本研究在nuScenes驗證集上進行了基於LiDAR baseline的消融實驗,透過3幀時序融合的方式。實驗結果表明,簡單地使用Cross Attention來建模時序關係並沒有明顯的效果。然而,當使用MTM後,偵測效能顯著提升,這說明在大規模點雲下顯式運動引導的重要性。此外,透過消融實驗也發現,QTNet的整體設計非常輕量且有效率。在使用4幀資料進行時序融合時,QTNet的計算量僅0.24G FLOPs,延遲也只有6.5毫秒
幀開始快速遠離自車,這導致baseline在 幀漏檢了該物體,然而QTNet在 幀仍然可以偵測到該物體,這證明了QTNet在時序融合上的有效性。
以上是QTNet:全新時序融合方案解決方案,適用於點雲、影像和多模態偵測器(NeurIPS 2023)的詳細內容。更多資訊請關注PHP中文網其他相關文章!