目前,隨著自動駕駛技術的越發成熟以及自動駕駛感知任務需求的日益增多,工業界和學術界非常希望一個理想的感知演算法模型,可以同時完成三維目標偵測以及基於BEV空間的語意分割任務。對於一輛能夠實現自動駕駛功能的車輛而言,其通常配備環視相機感測器、光達感測器以及毫米波雷達感測器來採集不同模態的數據資訊。從而充分利用不同模態資料之間的互補優勢,使得不同模態之間的資料補充優勢,例如三維點雲資料可以為3D目標檢測任務提供信息,而彩色影像資料則可以為語義分割任務提供更加準確的資訊。 針對不同模態資料之間的互補優勢,透過將不同模態資料的有效資訊轉換到同一個座標系中,便於之後的聯合處理以及決策。例如三維點雲數據可以轉換到基於BEV空間的點雲數據,而環景攝影機的影像數據可以透過相機內外參的標定將其投影到3D空間中,從而實現不同模態數據的統一處理。透過利用不同模態資料的優勢,可以得到比單一模態資料更為準確的感知結果。 現在,我們已經可以部署在車上的多模態感知演算法模型輸出更穩健且準確的空間感知結果,透過精確的空間感知結果,可以為自動駕駛功能的實現提供更可靠和安全的保障。
雖然最近在學術界和工業界提出了許多基於Transformer網路框架的多感測、多模態資料融合的3D感知演算法,但均採用了Transformer中的交叉注意力機制來實現多模態資料之間的融合,以實現比較理想的3D目標偵測結果。但是這類多模態的特徵融合方法並不完全適用於基於BEV空間的語意分割任務。此外,除了採用交叉注意力機制來完成不同模態之間資訊融合的方法外,許多演算法採用基於LSA中前向向量轉換方式來建構融合後的特徵,但也存在如下的一些問題:(限制字數,接下來進行具體描述)。
針對上述提到的在多模態融合過程中存在的諸多可能會影響到最終模型感知能力的問題,同時考慮到生成模型最近展現出來的強大性能,我們對生成模型進行了探索,用於實現多感測器之間的多模態融合和去雜訊任務。基於此,我們提出了一種基於條件擴散的生成模型感知演算法DifFUSER,用於實現多模態的感知任務。透過下圖可以看出,我們提出的DifFUSER多模態資料融合演算法可以實現更有效的多模態融合過程。 ![DifFUSER多模態資料融合演算法](圖片連結) DifFUSER多模態資料融合演算法可以實現更有效的多模態融合過程,方法主要包括兩個階段。首先,我們使用生成模型對輸入資料進行降噪和增強,產生乾淨且豐富的多模態資料。然後,利用生成模型產生的資料進行多模態融合,達到更好的感知效果。 透過DifFUSER演算法的實驗結果顯示,我們提出的多模態資料融合演算法可以實現更有效的多模態融合過程。此演算法在實現多模態感知任務時,能夠實現更有效的多模態融合過程,提升模型的感知能力。此外,此演算法的多模態資料融合演算法可以實現更有效的多模態融合過程。總而言之
提出的演算法模型與其它演算法模型的結果視覺化對比圖
論文連結:https://arxiv.org/pdf/2404.04629. pdf
"DifFUSER演算法的模組細節,基於條件擴散模型的多任務感知演算法"是一種用於解決任務感知問題的演算法。下圖展示了我們提出的DifFUSER演算法的整體網路結構。 在這個模組中,我們提出了一種基於條件擴散模型的多任務感知演算法,用於解決任務感知問題。該演算法的目標是透過在網路中傳播和聚合任務特定的資訊來提高多任務學習的效能。 DifFUSER演算法的整
提出的DifFUSER感知演算法模型網絡結構圖
透過上圖可以看出,我們提出的DifFUSER網絡結構主要包括三個子網絡,分別是主幹網絡部分、DifFUSER的多模態資料融合部分以及最終的BEV語意分割任務頭部分。 3D目標偵測感知任務頭部分。 在主幹網路部分,我們使用了現有的深度學習網路架構,如ResNet或VGG等,透過提取輸入資料的高級特徵。 DifFUSER的多模態資料融合部分使用了多個並行的分支,每個分支用於處理不同的感測器資料類型(如影像、雷射雷達和雷達等)。每個分支都有自
接下來,我們會仔細介紹模型中各個主要子部分的實作細節。
對於自動駕駛系統中的感知任務而言,演算法模型能夠對當前的外部環境進行即時的感知是至關重要的,所以確保擴散模組的性能和效率是非常重要的。因此,我們從雙向特徵金字塔網路中得到啟發,引入一種條件類似的BiFPN擴散架構,我們稱之為Conditional-Mini-BiFPN,其具體的網路結構如上圖所示。
對於一輛自動駕駛汽車而言,配備的自動駕駛採集感測器的性能至關重要,在自動駕駛車輛日常行駛的過程中,極有可能會出現相機感測器或光達感測器出現遮蔽或故障的問題,從而影響最終自動駕駛系統的安全性以及運作效率。基於這個考慮出發,我們提出了漸進式的感測器Dropout訓練範式,用於增強提出的演算法模型在感測器可能被遮蔽等情況下的穩健性和適應性。
透過我們提出的漸進感測器Dropout訓練範式,可以使得演算法模型透過利用相機感測器以及雷射雷達感測器擷取到的兩種模態資料的分佈,重建缺失的特徵,從而實現了在惡劣狀況下的出色適應性和魯棒性。具體而言,我們利用來自影像資料和光達點雲資料的特徵,以三種不同的方式進行使用,分別是作為訓練目標、擴散模組的雜訊輸入以及模擬感測器遺失或故障的條件,為了模擬感測器遺失或故障的條件,我們在訓練期間逐漸將相機感測器或光達感測器輸入的遺失率從0增加到預先定義的最大值a=25。整個過程可以用下面的公式來表示:
#其中,代表目前模型所處的訓練輪數,透過定義dropout的機率用於表示特徵中每個特徵被丟棄的機率。透過這種漸進式的訓練過程,不僅訓練模型有效去噪並產生更具有表現力的特徵,而且還最大限度地減少其對任何單一感測器的依賴,從而增強其處理具有更大彈性的不完整感測器數據的能力。
#具體而言,閘控自條件調變擴散模組的網路結構如下圖所示
門控自條件調變擴散模組網路結構示意圖
為了驗證我們提出的演算法模型DifFUSER在多任務上的感知結果,我們主要在nuScenes數據集上進行了3D目標偵測以及基於BEV空間的語意分割實驗。
首先,我們比較了所提出的演算法模型DifFUSER與其它的多模態融合演算法在語意分割任務上的效能比較情況,具體的實驗結果如下表所示:
不同演算法模型在nuScenes資料集上的基於BEV空間的語意分割任務的實驗結果對比情況
透過實驗結果可以看出,我們提出的演算法模型相比於基準模型而言在效能上有著顯著的提高。具體而言,BEVFusion模型的mIoU值只有62.7%,而我們提出的演算法模型已經達到了69.1%,具有6.4%個點的提升,這表明我們提出的演算法在不同類別上都更有優勢。此外,下圖也更直觀的說明了我們提出的演算法模型更具優勢。具體而言,BEVFusion演算法會輸出較差的分割結果,尤其在遠距離的場景下,感測器錯位的情況更加明顯。與之相比,我們的演算法模型具有更準確的分割結果,細節更加明顯,雜訊更少。
提出演算法模型與基準模型的分割視覺化結果比較
此外,我們也將提出的演算法模型與其它的3D目標偵測演算法模型進行對比,具體的實驗結果如下表所示
不同演算法模型在nuScenes資料集上的3D目標偵測任務的實驗結果對比情況
通過表格當中列出的結果可以看出,我們提出的演算法模型DifFUSER相比於基線模型在NDS和mAP指標上均有提高,相比於基線模型BEVFusion的72.9%NDS以及70.2%的mAP,我們的演算法模型分別高出1.8%以及1.0%。相關指標的提升表明,我們提出的多模態擴散融合模組對特徵的減少和特徵的細化過程是有效的。
此外,為了表明我們提出的演算法模型在感測器故障或遮蔽情況下的感知穩健性,我們進行了相關分割任務的結果比較,如下圖所示。
不同情況下的演算法效能比較
透過上圖可以看出,在取樣充足的情況下,我們提出的演算法模型可以有效的對缺失特徵進行補償,用於作為缺失感測器擷取資訊的替代內容。我們提出的DifFUSER演算法模型產生和利用合成特徵的能力,有效地減輕了對任何單一感測器模態的依賴,確保模型在多樣化和具有挑戰性的環境中能夠平穩運行。
下圖展示了我們提出的DifFUSER演算法模型在3D目標偵測以及BEV空間的語意分割結果的可視化,透過視覺化結果可以看出,我們提出的演算法模型具有很好的檢測和分割效果。
本文提出了一個基於擴散模型的多模態感知演算法模型DifFUSER,透過改進網路模型的融合架構以及利用擴散模型的去噪特性來提高網路模型的融合品質。透過在Nuscenes資料集上的實驗結果表明,我們提出的演算法模型在BEV空間的語義分割任務中實現了SOTA的分割性能,在3D目標檢測任務中可以和當前SOTA的演算法模型取得相近的檢測性能。
以上是超越BEVFusion! DifFUSER:擴散模型殺入自動駕駛多任務(BEV分割+偵測雙SOTA)的詳細內容。更多資訊請關注PHP中文網其他相關文章!