自動運転車におけるカメラモジュールとLiDARの将来

作成日 01.21
自動運転車におけるカメラモジュールとLiDARの論争は、長らく「勝者総取り」の戦いとして捉えられてきました。イーロン・マスク氏はLiDARを「高価な松葉杖」と一蹴する一方、WaymoやHuaweiは安全な自動運転の実現に向けてレーザーベースのセンサーに巨額を投じています。しかし、自動運転業界が2025年に重要な転換点を迎えるにつれて、新たな物語が生まれつつあります。それは、これら2つの技術が競合ではなく、真に信頼性の高い自動運転を目指す上でのダンスパートナーであるというものです。この記事では、どのようにカメラモジュールとLiDARは進化しており、それらの相乗効果が避けられない理由、そしてそれがモビリティの未来にとって何を意味するのかについて説明します。
その未来を理解するためには、まず各技術を定義する中核的な強みと固有の限界を認識する必要があります。人間の目に模倣されたカメラは、信号機の色、車線標示、歩行者のジェスチャー、さらには他のドライバーのブレーキランプの状態など、豊富なコンテキスト情報を捉えることに優れています。対照的に、LiDARはレーザーパルスを発して環境の正確な3Dマップを作成し、カメラが複雑なAIアルゴリズムを通じてしか近似できない比類のない深度知覚と空間認識を提供します。長年にわたり、これらの違いは、ソフトウェア中心のピュアビジョンとハードウェア冗長なマルチセンサーフュージョンの対立する技術哲学を煽ってきました。

カメラモジュールの進化:2Dピクセルからインテリジェントな認識へ

カメラモジュールは、AIと計算写真技術の進歩により、基本的な画像キャプチャデバイスから洗練された知覚ツールへと進化しました。テスラのカメラのみのアプローチは、FSD V12システムと1000億マイルを超える実走行データによって支えられており、高度なニューラルネットワークとBEV(Bird’s Eye View)+ Transformerアーキテクチャと組み合わせれば、カメラがほとんどの日常的な運転シナリオに対応できることを証明しました。このアプローチの主な利点はスケーラビリティにあります。8台のカメラセットアップは500ドル未満で、初期のLiDARシステムの価格のほんの一部であるため、量産車にも対応可能です。
最近のイノベーションにより、カメラの機能はさらに拡張されています。最新の自動車用カメラは、可視光スペクトルを超えて動作し、サーマルイメージングを使用して低照度下で歩行者を検知したり、近赤外線センサーを使用して薄霧を透過したりします。ソフトウェア面では、「シャドーモード」学習により、カメラベースのシステムは数百万もの同時走行シナリオを通じて継続的に改善され、毎週のOTAアップデートによって意思決定が洗練されます。しかし、カメラには依然として乗り越えられない物理的な限界があります。大雨、雪、または濃霧の中では、認識率が最大40%低下し、空の高速道路や白い壁のトンネルのような特徴のない環境での奥行き知覚に苦労します。

LiDARの復活:コスト削減と性能向上

LiDARは、かつてはプレミアムなテスト車両に限定されたニッチな技術でしたが、ソリッドステート設計と規模の経済のおかげで劇的な変革を遂げました。2018年には、自動車用LiDARユニット1台のコストは約800ドルでしたが、RoboSenseのような企業は2025年までに200ドル未満に価格を押し下げ、2027年までには100ドル未満のユニットになると予測されています。このコスト革命は、機械式の回転LiDARからソリッドステート型への移行によって推進されており、可動部品が排除され、サイズが縮小し、信頼性が向上するため、量産にとって重要な要素となります。
パフォーマンスの向上も同様に目覚ましい。ファーウェイの192チャンネルLiDARは0.05°の角度分解能を実現し、200メートル離れた歩行者を検出できる。これは、ほとんどの車載カメラの有効範囲の2倍以上である。Waymoの実際のテストでは、濃霧や豪雨時においてLiDARはビジョンシステムよりも3倍高いデータ安定性を維持しており、重大な安全上のギャップを解消している。しかし、LiDARも完璧ではない。ガラスのカーテンウォールや水たまりのような反射面には苦戦し、「ゴーストブレーキング」を引き起こす可能性があり、また、複雑な都市環境をナビゲートするために不可欠な、信号機のような色分けされた情報を区別することができない。

転換点:なぜフュージョンが競争に取って代わるのか

単一の「優れた」センサーという神話は、現実世界の失敗によって覆されました。2024年、ロサンゼルスでFSD V12を搭載したテスラが、水たまりを障害物と誤認し、急ブレーキを踏んで追突事故寸前になった—これはカメラのみのシステムの典型的な限界です。逆に、初期のLiDARのみのプロトタイプは、明るい日差しの中で赤信号を認識できず、テクノロジーが文脈的な視覚情報を処理できないことを浮き彫りにしました。これらの出来事は、センサーフュージョン、特に「早期フュージョン」への業界のシフトを加速させています。早期フュージョンとは、処理の最も早い段階でカメラとLiDARからの生データを組み合わせる技術であり、後で解釈された結果をマージするのではなく、そのように処理されます。
Haomo.AIの最新の早期融合アルゴリズムは、このアプローチの力を実証し、単一センサーシステムと比較して認識エラーを72%削減します。カメラピクセルとLiDAR点群をリアルタイムで整列させることで、システムはカメラの文脈的強度とLiDARの空間精度を活用し、より包括的な環境モデルを作成します。例えば、深センの夕方のラッシュアワーにおいて、192チャンネルLiDARと8台のカメラを組み合わせたHuaweiのADS 3.0は、単独では困難であったであろう、道路を横断する照明のない三輪車を正常に識別しました。

シナジーを形成する新興トレンド

カメラモジュールとLiDARの関係を再定義する3つの重要なトレンドがあり、彼らの協力はさらに影響力を持つようになります:
1. 4Dミリ波レーダーを橋渡しとして:コンチネンタルグループの最新の4Dレーダーは、LiDARの1/10のコストで0.5°の角度分解能を達成し、カメラとLiDARの間の補完的な層として機能します。これは、穏やかな天候での距離測定を強化し、要求が少ないシナリオでのLiDARへの依存を減らし、コストパフォーマンス比をさらに最適化します。
2. V2X統合による認識範囲の拡大:中国の5G対応車両間通信(V2X)ネットワークは、現在10万キロメートル以上の道路をカバーしており、車載センサーを補完するリアルタイムの交通情報や危険情報を提供しています。このエコシステムでは、カメラとLiDARは直接的な周囲に焦点を当て、V2Xはセンサー範囲外の死角を埋めることで、「360°+」の認識バブルを創り出します。
3. AI駆動型アダプティブセンサー割り当て:将来の自動運転システムは、走行状況に応じてカメラまたはLiDARからのデータを動的に優先します。高速道路での晴れた日中には、エネルギー節約のためにカメラへの依存度を高める可能性があります。霧のかかった都市部では、精度を高めるためにLiDARに切り替わります。この適応的なアプローチは、安全性を維持しながら効率を最大化します。

業界動向と政策の影響

自動車メーカーの戦略は、この融合トレンドをますます反映しており、極端な立場から離れています。BMWはLiDARメーカーのLuminarとカメラ中心のMobileyeの両方に投資しています。フォルクスワーゲンはHorizon Roboticsと協力しながら、LiDARオプションも維持しています。純粋なビジョンシステムの代表格であるテスラでさえ、ロボタクシーのプロトタイプでLiDAR統合を静かに模索しており、商用自動運転サービスにおける潜在的なシフトを示唆しています。
政策もマルチセンサーソリューションに向かっています。中国はL3+自動運転車にLiDARを義務付けており、欧州NCAPは2025年の安全評価システムにLiDARを含める予定です。米国NHTSAは技術的に中立ですが、安全要件における「冗長性」を強調しています。この言葉は、単一センサーへの依存よりもセンサーフュージョンを支持しています。これらの規制の変化は、カメラとLiDARの統合アーキテクチャの採用を加速させています。

2027年のビジョン:LiDAR検証を伴うカメラ中心

2027年に向けて、カメラモジュールとLiDARの未来は明確です。それは、L4レベルの自動運転を実現するための「カメラファースト、LiDARバリデーション」という黄金の組み合わせです。カメラは、その低コスト、高い状況認識能力、継続的なAIの改善を活用して、90%の運転シナリオに対応する主要なセンシングレイヤーであり続けます。LiDARは、悪天候、複雑な交差点、工事区域などの高リスク状況で起動し、壊滅的なエラーを防ぐための正確な3Dデータを提供する、重要なセーフティネットとして機能します。
このシナジーは、自律運転の核心的なジレンマを解決します:スケーラビリティと安全性のバランスを取ることです。カメラはコストを低く抑えることで大規模な導入を可能にし、LiDARは完全な自律性を妨げてきた「エッジケース」に対処します。LiDARの価格が下がり続け、カメラのAIがより高度になるにつれて、両者の統合はすべての自律車両の階層で標準となるでしょう—消費者向けADASシステムからロボタクシーまで。

結論:競争を超えて、信頼へ

カメラとLiDARの議論は、技術の優位性についてではなく、信頼を築くことについてでした。自動運転車が主流になるためには、人間のドライバーよりも安全でなければならず、単一のセンサーだけではそれを達成できません。カメラは文脈的な知性とスケーラビリティを提供し、LiDARは精度と信頼性をもたらします。彼らの未来は競争することではなく、お互いを補完することにあります。
自動運転モビリティの世界へと進むにつれて、もはや「カメラかLiDARか?」という問いではなく、「それらをどのように最適に統合するか?」という問いになります。その答えが、テクノロジーが調和して、安全でアクセス可能で効率的な自律走行の約束をすべての人に届ける次の時代の交通を定義するでしょう。
自動運転車、カメラモジュール、LiDAR技術、セルフドライビングカー
連絡先
あなたの情報を残しておき、後ほどご連絡いたします。

私たちについて

サポート

+8618520876676

+8613603070842

ニュース

leo@aiusbcam.com

vicky@aiusbcam.com

WhatsApp
WeChat