關於自動駕駛汽車中攝影機模組與 LiDAR 的爭論,長久以來一直被視為一場非輸即贏的戰役:Elon Musk 稱 LiDAR 為「昂貴的拐杖」,而 Waymo 和華為則押注數十億美元於雷射感測技術,以實現安全的自動駕駛。然而,隨著自動駕駛產業在 2025 年進入關鍵的轉折點,一個新的敘事正在浮現——這兩種技術並非競爭對手,而是追求真正可靠自動駕駛的舞伴。本文將探討如何攝影機模組和 LiDAR 正在不斷發展,為何它們的協同作用變得不可避免,以及這對移動的未來意味著什麼。 要了解它們的未來,我們必須先認識定義每種技術的核心優勢和固有限制。攝影機模仿人眼,擅長捕捉豐富的上下文資訊——交通號誌顏色、車道標記、行人手勢,甚至其他駕駛的煞車燈狀態。相比之下,LiDAR 發射雷射脈衝,建立精確的環境 3D 地圖,提供無與倫比的深度感知和空間感知能力,而攝影機只能透過複雜的 AI 演算法來近似。多年來,這些差異催生了對立的技術理念:以軟體為中心的純視覺,對比以硬體冗餘為基礎的多感測器融合。
相機模組的演變:從2D像素到智能感知
攝影機模組從基本的影像擷取裝置演進為複雜的感知工具,這得益於人工智慧和計算攝影學的進步。特斯拉的純攝影機方法,透過其 FSD V12 系統和超過一千億英里的真實世界駕駛數據驅動,已證明攝影機在搭配先進神經網路和 BEV(鳥瞰圖)+ Transformer 架構時,能夠處理大多數日常駕駛情境。此方法的關鍵優勢在於可擴展性:一個八攝影機的配置成本不到 500 美元,遠低於早期 LiDAR 系統的價格,使其適用於大眾市場車輛。
近期創新進一步擴展了攝影機的功能。現代汽車攝影機現已超越可見光譜運作,利用熱成像技術在光線不足的環境下偵測行人,並使用近紅外線感測器穿透薄霧。軟體方面,「陰影模式」學習讓攝影機系統能夠透過數百萬個並行的駕駛情境持續改進,並透過每週的 OTA 更新來精煉其決策能力。然而,攝影機仍面臨無法克服的物理限制:在大雨、大雪或濃霧中,其辨識率會下降高達 40%,並且在空曠高速公路或白色牆壁隧道等缺乏特徵的環境中,其深度感知能力會受到影響。
LiDAR的復興:成本降低與性能飛躍
LiDAR,曾是專屬於高階測試車隊的利基技術,如今因固態設計和規模經濟而經歷了戲劇性的轉變。2018 年,單個汽車 LiDAR 裝置的成本約為 800 美元;到 2025 年,像 RoboSense 這樣的公司已將價格壓低至 200 美元以下,並預測到 2027 年將出現低於 100 美元的裝置。這場成本革命是由於從機械式旋轉 LiDAR 轉向固態變體所推動的,固態變體消除了移動部件,減小了尺寸,並提高了可靠性——這些都是大規模生產的關鍵因素。
效能的提升同樣令人印象深刻。華為的 192 通道 LiDAR 達到 0.05° 的角解析度,使其能夠偵測到 200 公尺外的行人,其有效範圍是大多數汽車攝影機的兩倍以上。Waymo 的實際測試顯示,在濃霧和大雨中,LiDAR 的數據穩定性比視覺系統高出 3 倍,彌補了主要的安全性差距。然而 LiDAR 並非完美無缺:它難以處理玻璃幕牆和水窪等反光表面,這可能導致「幽靈煞車」事件,而且它無法區分交通號誌等顏色編碼的資訊——這對於在複雜的城市環境中導航至關重要。
轉折點:為什麼融合取代競爭
單一「優越」感測器的迷思已被真實世界的故障所打破。2024年,一輛搭載FSD V12的特斯拉在洛杉磯將一個水坑誤認為障礙物,導致突然煞車,差點引發追撞——這是純攝影機系統的典型限制。反之,早期的純光達原型機在強烈陽光下無法辨識紅綠燈,凸顯了該技術無法處理情境視覺線索的能力。這些事件加速了業界轉向感測器融合,特別是「早期融合」——一種在處理的最早階段就結合攝影機和光達原始數據的技術,而不是在後期合併解釋後的結果。
毫末智行最新的早期融合演算法展示了此方法的威力,與單感測器系統相比,感知錯誤減少了 72%。透過即時對齊攝影機像素與 LiDAR 點雲,該系統利用攝影機的上下文強度和 LiDAR 的空間精確度,建立更全面的環境模型。例如,在深圳的晚高峰時段,華為的 ADS 3.0—結合了 192 線 LiDAR 和 8 個攝影機—成功辨識出一輛未開燈的腳踏車橫越馬路,這種情況單獨任一感測器都難以應對。
塑造協同的新興趨勢
三個關鍵趨勢正在重新定義攝像頭模組與激光雷達之間的關係,使它們的合作更加具有影響力:
1. 4D 毫米波雷達作為橋樑:大陸集團最新的 4D 雷達在激光雷達成本的十分之一下實現了 0.5° 的角分辨率,作為相機和激光雷達之間的補充層。它在適度天氣下增強了距離測量,並在要求較低的場景中減少對激光雷達的依賴,進一步優化了成本效益比。
2. V2X整合擴展感知邊界:中國的5G啟用車對一切(V2X)網絡現在覆蓋超過100,000公里的道路,提供實時交通和危險數據,補充車載傳感器。在這個生態系統中,攝像頭和激光雷達專注於即時周圍環境,而V2X則填補超出傳感器範圍的盲點——創造一個「360°+」的感知泡沫。
3. AI 驅動的自適應感測器分配:未來的自動駕駛系統將根據駕駛條件動態地優先處理來自攝影機或 LiDAR 的數據。在晴朗的白天高速公路上,系統可能會更多地依賴攝影機來節省能源;在霧氣瀰漫的城市區域,系統將轉向 LiDAR 以提高精確度。這種自適應方法在確保安全性的同時,最大限度地提高了效率。
產業動態與政策影響
汽車製造商的策略越來越能反映這種融合趨勢,擺脫了極端立場。BMW 同時投資 LiDAR 製造商 Luminar 和以攝影機為中心的 Mobileye;Volkswagen 與地平線機器人(Horizon Robotics)合作,同時保留 LiDAR 選項。即使是純視覺的代表 Tesla,也在其機器人計程車原型中悄悄探索了 LiDAR 的整合,這表明商業自動駕駛服務可能正在轉變。
政策也在推動多感測器解決方案。中國要求L3+自動駕駛車輛必須配備LiDAR,而歐洲NCAP將在2025年的安全評級系統中納入LiDAR。美國NHTSA在技術上保持中立,但強調安全要求中的「冗餘」—這種語言偏向於感測器融合而非單一感測器依賴。這些監管變化正在加速結合相機和LiDAR架構的採用。
2027願景:以相機為中心,並進行LiDAR驗證
展望 2027 年,攝影機模組與 LiDAR 的未來已然清晰:將是實現 L4 級自動駕駛的「攝影機優先、LiDAR 驗證」黃金組合。攝影機將持續作為主要的感測層,憑藉其低成本、高情境感知能力以及持續的 AI 進步,處理 90% 的駕駛情境。LiDAR 則將扮演關鍵的安全網角色,在極端天氣、複雜交叉路口、施工區域等高風險情況下啟動,提供精確的 3D 數據,防止災難性錯誤的發生。
這種協同解決了自動駕駛的核心困境:在可擴展性與安全性之間取得平衡。攝像頭通過保持低成本促進大規模採用,而激光雷達則解決了阻礙完全自主的「邊緣案例」。隨著激光雷達價格持續下降,攝像頭人工智慧變得越來越複雜,它們的整合將成為所有自動駕駛車輛層級的標準——從消費者的ADAS系統到機器出租車。
結論:超越競爭,邁向信任
相機與激光雷達的辯論從來不是關於技術優越性——而是關於建立信任。為了讓自動駕駛車輛成為主流,它們必須比人類駕駛者更安全,而單一的傳感器無法單獨實現這一點。相機提供了上下文智能和可擴展性;激光雷達則帶來了精確性和可靠性。它們的未來不在於競爭,而在於相互補充。
隨著我們邁向自駕移動的世界,問題將不再是「攝像頭還是激光雷達?」而是「如何最好地整合它們?」這個答案將定義交通運輸的下一個時代——一個技術和諧運作,以實現安全、可及和高效的自主性承諾的時代。