霧は、自動運転および先進運転支援システム(ADAS)にとって、最も手ごわい敵の一つです。霧は光を歪ませ、信号を散乱させ、ドライバーや歩行者の安全を守るためのコア機能である環境認識の信頼性を低下させます。カメラビジョンとLiDAR(Light Detection and Ranging)の間の議論は長年続いていますが、霧の条件下ではマーケティング上の誇大広告が剥ぎ取られ、基本的なパフォーマンスに焦点を当てることを余儀なくされます。視界が低下したときに、真に性能を発揮するのはどちらの技術でしょうか?
この記事は、一般的な「ハードウェア対ソフトウェア」という二項対立を超えています。代わりに、私たちは2つの異なる「安全性哲学」を中心に比較を組み立てます。カメラビジョンは物理的な限界を克服するためのアルゴリズムの創意工夫に依存し、LiDARは信頼性の基準を確立するためにハードウェアの冗長性を使用します。2025年の最新の実際のテストデータ、技術的ブレークスルー、および業界のケーススタディを参考に、霧の中でどちらがより効果的かという重要な問いに答えます。 コアの分割:霧の下の二つの安全哲学
霧がそれぞれの技術の強みと弱みを明らかにする理由を理解するためには、まずその基本的な運用原則と、それらの採用を促進する安全マインドセットを解明する必要があります。
カメラビジョンシステムは、「脳力を持つ目」のように機能します。人間の視覚的知覚を模倣するために、高解像度カメラ(高度なセットアップでは通常8〜10台)と強力なAIチップ、そして膨大なデータセットを組み合わせています。ここでの哲学はミニマリズムです。限られたハードウェアをソフトウェアで補い、機械学習を活用して2Dの視覚データを3Dの環境理解に変換します。テスラとシャオペンはこのアプローチの最も著名な提唱者であり、このアプローチは、豊富な視覚的手がかりがアルゴリズムの成長を可能にする、明確な条件下で輝きを放ちます。
LiDARは対照的に、「ハードウェアファーストのガーディアン」です。毎秒数百万ものレーザーパルスを発射し、周囲環境の高精度な3D点群を作成することで、距離、形状、速度を卓越した精度で測定します。ここでの哲学は冗長性です。環境条件が視覚的な詳細を不明瞭にする場合でも、物理的なセンシング能力を使用して安全の基盤を確立します。Huawei、BYD、およびほとんどの高級ADASプロバイダーは、コスト削減よりも一貫したパフォーマンスを優先して、この「LiDAR + カメラ + ミリ波レーダー」の三位一体を採用しています。
霧は両方のシステムを混乱させますが、その方法は根本的に異なります。カメラの場合、霧は光を散乱させ、エッジをぼかし、コントラストを洗い流し、アルゴリズムが必要とする障害物を特定するための視覚的特徴を奪います。LiDARの場合、霧の粒子はレーザーパルスを散乱させ、「点群ノイズ」を生成し、実際のターゲットを不明瞭にしたり、誤検知を生成したりする可能性があります。問題はどちらが「影響を受けない」かではなく、どちらがより速く回復し、重要なパフォーマンスメトリックを維持し、視界が最悪のときにドライバーを安全に保つことができるかです。
実世界データ:霧の中でのパフォーマンス(2025年最新テスト)
最も説得力のある証拠は、2025年の「インテリジェントドライビング極限シナリオテストホワイトペーパー」に由来します。これは、中国自動車工程研究院(CAERI)とドンチェディが共同で発表したものです。この画期的な研究では、15kmの実道路の霧のルートと216のシミュレーション衝突シナリオで36の主流モデルをテストし、ハードデータで性能のギャップを定量化しました。霧の重症度による主要な発見を分解してみましょう。
1. 軽い霧(視界:200-500m)
軽い霧の中では、早朝や沿岸地域で一般的に見られるように、両技術は適切に機能しますが、微妙なギャップが現れます。高度なデハイジングアルゴリズムによって支えられたカメラビジョンシステムは、基本的な障害物認識において自らの力を発揮します。例えば、テスラのFSD V12.5は、数十億キロメートルの実世界データで訓練された雨滴と霧の除去アルゴリズムのおかげで、軽い霧の中で90%の障害物認識精度を達成しました。
一方、LiDARシステムは、ノイズを最小限に抑えながら、ほぼ完璧な精度(98%以上)を維持しました。新たに発売された長距離モデルであるHesai ATX Lidarは、ピクセルレベルで霧に関連するノイズを99%フィルタリングし、周囲の車両や歩行者の鮮明な点群を保持する能力を示しました。この差はわずかですが、LiDARの利点は一貫性にあります。カメラシステムは霧の密度が突然変動した場合に苦労する可能性がありますが、LiDARの物理的なセンシングは安定したままです。
2. 霧(視程:100~200m)
視界が200mを下回ると、カメラビジョンのアルゴリズムの限界が明らかになります。CAERIのテストでは、純粋なカメラモデルはLiDAR搭載車両と比較して、障害物見落とし率が3倍増加することが示されました。XPeng G6の歩行者認識距離は、晴天時の150mから中程度の霧ではわずか65mにまで低下しましたが、Tesla Model Yは78mに低下しました。これは重大な欠点です。高速道路の速度(時速100km)では、65mの検出距離ではシステムが反応できる時間はわずか2.3秒となり、緊急ブレーキにはほとんど十分ではありません。
対照的に、LiDARシステムは80mを超える有効な検出距離を維持しました。192ラインLiDARを搭載したHuaweiのADS 3.0は、中程度の霧の中で平均126mの歩行者認識距離を達成し、4.5秒の反応時間を提供しました。この違いは、カメラが使用する可視光よりも散乱しにくい長波長(1550nm)を使用して霧を透過するLiDARの能力に由来します。散乱した場合でも、レーザーパルスはセンサーに戻り、距離を正確に計算するのに十分なエネルギーを保持します。
3. 濃霧/移流霧(視程:100m未満)
視界が100mを下回り、極端な場合は50mにまで低下する濃霧では、その差は大きな隔たりとなります。これは自動運転システムにとって「成否を分ける」シナリオであり、CAERIのデータは衝撃的です。純粋なカメラビジョンシステムは15%のマニュアルテイクオーバー率を記録し、「認識失敗」のアラートが頻繁に発生しました。霧が車線マーカー、信号機、さらには大きな障害物さえも覆い隠すような状況では、アルゴリズムは安全な判断を下すのに十分な視覚情報を持ち合わせていません。
LiDAR搭載車両は、しかしながら、テイクオーバー率をわずか3%に抑えました。HuaweiのADS 3.0は、静止車両を正確に識別し、視界30mでの回避操作を完了する能力さえ実証しました。これは、人間のドライバーがヘッドライトの先を見るのに苦労するような状況です。このパフォーマンスの鍵は、LSLidarなどが開発した高度なフォグフィルタリングアルゴリズムにあります。これらのアルゴリズムは、霧によって散乱されたレーザーパルスの特性を分析し、ノイズと有効な点群データを分離して、重要な障害物情報を保持します。その結果、単に霧を「見る」だけでなく、カメラ映像が完全に機能しなくなった場合に状況認識を維持するシステムが実現しました。
技術的ブレークスルー:ギャップを狭める?
LiDARが霧の条件で優位に立っている一方で、両方の技術は急速に進化しています。霧のパフォーマンスを再形成している最新の革新を見てみましょう。
カメラビジョン: アルゴリズムの進歩
カメラビジョンの霧性能における最大の進歩は、AI駆動のデハイジングアルゴリズムと、より大きく多様なデータセットから来ています。例えば、テスラのFSD V12.5は、監視学習と非監視学習の組み合わせを使用して霧の効果を「逆エンジニアリング」し、ぼやけた画像の明瞭さを回復します。夜間および悪天候データの100億キロメートルでトレーニングすることにより、このシステムは視界が悪い条件での動的オブジェクト追跡速度を40%向上させました。
しかし、これらの進歩には限界があります。これらは機能するためにいくつかの視覚的特徴の存在に依存しており、濃霧の中ではそれが消えてしまいます。最良のデハイジングアルゴリズムでさえ、存在しない情報を作成することはできず、カメラビジョンの物理的限界を克服することは困難です。
LiDAR: ハードウェアとアルゴリズムの相乗効果
LiDARの進化は、貫通能力の向上、ノイズの低減、コスト削減に焦点を当てています。最もエキサイティングなブレークスルーの1つは、英国と米国の研究者の協力によって開発された次世代技術であるシングルフォトンLiDARです。このシステムは、超高感度の超伝導ナノワイヤ単一光子検出器(SNSPD)と1550nm波長のレーザーを使用し、1キロメートルという距離でも、霧を通して高解像度の3D画像をキャプチャします。個々の光子を検出し、その飛行時間をピコ秒精度(1兆分の1秒)で測定することにより、システムは霧の粒子と実際の物体を前例のない精度で区別することができます。
商用LiDARシステムも急速に進歩しています。LSLidarの社内製ダスト/レイン/フォグフィルタリングアルゴリズムは、同社の全モデル(1550nmファイバーおよび905nmハイブリッドソリッドステートLiDARを含む)と互換性があり、ターゲット検出を維持しながら点群ノイズを大幅に低減します。HesaiのATX Lidarは、140°の超広視野角と300mの検出範囲を備え、リアルタイムで霧、排気ガス、水滴を識別・マーキングし、システムにクリーンな点群データを提供します。これらのイノベーションにより、LiDARは霧の中での堅牢性が向上し、かつては普及の大きな障壁であったコストも低下しており、2025年には300ドルから450ドルの範囲に落ち着くと予想されています。
実用的な選択: どの技術を優先すべきか?
「霧の中でどちらがより効果的か」という答えは、あなたの使用ケースとリスク許容度によります。意思決定のためのフレームワークは次のとおりです:
消費者向け車両(ADAS)
頻繁に霧が発生する地域(例:沿岸地域、谷、または温度逆転のある寒冷気候)に住んでいる場合、LiDARが安全な選択です。CAERIのデータは、濃霧の中で状況認識を維持する能力が重要な安全バッファを提供することを証明しています。カメラの視界が改善されても、LiDARのハードウェア冗長性はアルゴリズムが再現できない「安全ネット」として機能します。
霧が最小限の地域では、コストが主な懸念事項であれば、純粋なカメラビジョンで十分な場合があります。テスラのモデルYやXpeng G6は、晴れた日や軽い霧の条件下で強力なADAS性能を提供し、継続的なOTAアップデートにより、時間とともにアルゴリズムが改善され続けます。
商業自律運転(ロボタクシー、トラック輸送)
安全性と信頼性が譲れない(そして規制遵守が義務付けられている)商用アプリケーションにおいて、LiDARは単に好ましいだけでなく、不可欠です。予測不能な霧の発生がある都市部で運行するロボタクシーや、霧が発生しやすい高速道路を走行する長距離トラックは、純粋なカメラシステムが持つ15%のテイクオーバー率を許容できません。濃霧下でのLiDARの3%のテイクオーバー率は、運用上の実現可能性と安全上のリスクとの違いとなります。
未来:競争ではなくシナジー
最も先進的なアプローチは、一方のテクノロジーを選択するのではなく、それらを統合することです。最新のADASシステム(Huawei ADS 3.0など)は、LiDARの信頼性の高い3D点群を使用して、カメラビジョンの高解像度視覚データを補完します。霧の中では、LiDARが主要な障害物検出を提供し、カメラは(見える場合)信号機の色や歩行者のジェスチャーなどの詳細を特定するのに役立ちます。この「センサーフュージョン」は、両方のテクノロジーの強みを活用し、単独よりも堅牢なシステムを作成します。
結論:霧の中ではLiDARがリード、しかしカメラビジョンも諦めていない
霧の状況に関しては、データは明確です。LiDARはあらゆる霧の深刻度レベルでカメラビジョンを上回っており、特に濃霧ではその差は広いです。レーザーパルスで霧を透過し、高度なアルゴリズムでノイズをフィルタリングするハードウェア主導の認識アプローチは、少なくとも現時点ではカメラビジョンのソフトウェア中心モデルでは達成できない安全基準を確立しています。
とはいえ、カメラビジョンは急速に進化しています。AIのデハージングアルゴリズムとより大規模なデータセットは、軽度から中程度の霧でのパフォーマンスを向上させており、極端な霧の発生が最小限の地域では実行可能な選択肢となっています。しかし、ほとんどのドライバーや商業オペレーターにとって、LiDARの「霧を透過して見る」能力と手動での引き継ぎを減らす機能は、無視できない安全上の利点です。
最終的に、霧の中での自律的な認識の未来はセンサー融合にあります。LiDARの信頼性とカメラビジョンの詳細を組み合わせることで、厳しい気象条件でも安全で効率的、適応性のあるシステムを作成できます。今のところ、霧の安全が最優先であれば、LiDARが明確な勝者ですが、アルゴリズムが進化し続ける中でカメラビジョンを無視することはできません。