自動駕駛技術的快速演變要求先進的感知系統能夠在多樣的環境條件下無縫運作。這一創新的前沿是多光譜
相機模組和可見紅外(VIS-IR)融合感知,這是一種突破性的方式,結合了多個光譜波段的優勢,以提供無與倫比的環境意識。本文探討了這些技術如何重塑自動駕駛車輛的未來,解決安全性、可靠性和適應性等關鍵挑戰。
單一感測器系統的限制
傳統自動駕駛車輛依賴於單一感測器解決方案,如可見光攝像頭或激光雷達,這些方案面臨固有的限制:
• 可見性限制:可見光攝影機在低光、眩光、霧或大雨中表現不佳,而紅外線感測器則表現優異。
• 資料冗餘:LiDAR 和雷達提供深度資訊,但缺乏對物件分類至關重要的紋理細節。
• 感測器融合複雜性:整合來自多個感測器的非同步數據通常會導致延遲和準確性問題。
例如,在霧霾條件下,可見光相機可能無法檢測行人,而LiDAR的點雲數據缺乏分類所需的上下文細節。這就是多光譜融合發揮作用的地方。
多光譜相機模組:彌合光譜差距
多光譜相機將可見光、近紅外(NIR)和熱紅外(IR)傳感器整合到一個模塊中,捕捉更廣泛的數據光譜。主要進展包括:
• 增強的動態範圍:結合VIS和IR傳感器彌補了各自的弱點。例如,IR傳感器檢測人眼看不見的熱簽名,而VIS傳感器提供高解析度的紋理細節。
• 全天候適應性:像 Foresight 的 QuadSight 這樣的系統使用配對的 VIS 和 LWIR 相機,在黑暗或雨中實現 150 米的檢測,超越單一傳感器設置。
• 材料分析:多光谱成像可以识别物体材料(例如,区分玻璃和塑料),从而在工业或采矿环境中实现更安全的导航。
一個突出的例子是上海迪成光電的DC-A3模組,它融合了可見光和紅外成像,減少了30%的計算負擔,同時提高了物體識別的準確性。
可見-紅外融合:一種層次化的感知方法
有效的融合需要先進的算法來協調來自不同光譜波段的數據。最近的突破包括:
• 層次感知融合 (HPFusion):利用大型視覺語言模型 (LLMs),此方法生成特徵對齊的語義指導,確保融合的圖像保留關鍵細節,如路標或行人。
• 實時對齊:像 MulFS-CAP 這樣的技術通過使用跨模態注意機制消除了預註冊步驟,在動態環境中實現了亞像素精度。
• 低光優化:像BMFusion這樣的方法利用亮度感知網絡來增強紅外圖像的清晰度,使其能夠在接近黑暗的情況下進行可靠檢測。
對於自動駕駛車輛,這意味著:
• 95%+ 偵測率對於小物體(例如,騎自行車的人)在不利條件下。
• 減少誤報:融合技術最小化由單一傳感器噪音引起的錯誤,例如將陰影誤認為障礙物。
自主系統中的應用
多光譜融合已經推動現實世界的解決方案:
• 採礦和建設:DieCheng 的系統使自動卡車能夠通過區分機械和人員,在多塵、低能見度的工地上導航。
• 城市流動性:像百度阿波羅這樣的公司整合了1500MP VIS-IR模組,以改善交通標誌識別和行人檢測。
• 公共交通:自動駕駛巴士利用融合數據來處理複雜的交叉路口和突發停車,將事故風險降低40%。
挑戰與未來方向
儘管前景可期,但仍然存在挑戰:
• 硬體成本:高解析度多光譜感測器需要先進的製造技術,不過隨著晶圓級堆疊創新,成本正在下降。
• 延遲優化:融合算法必須在準確性和實時處理之間取得平衡,特別是對於高速公路速度的應用。
• 標準化:缺乏統一的傳感器校準協議使得跨供應商整合變得複雜。
未來的進步可能包括:
• AI驅動的動態融合:自我校準系統根據駕駛場景調整融合權重。
• 太赫兹整合:扩展光谱覆盖以检测隐藏的危险,如道路上的冰。
結論
多光譜成像與人工智慧的融合不僅僅是一個漸進式的改進——它是自動感知的一次範式轉變。通過模仿人類類似的視覺處理跨越波長,這些技術解決了單一傳感器系統的局限性,同時為更安全、更可靠的自駕車鋪平了道路。隨著像DieCheng和Foresight這樣的公司推動光譜工程的邊界,完全自動化的移動夢想比以往任何時候都更近。