Будущее модулей камер против LiDAR в автономных автомобилях

Создано 01.21
Дебаты о камерных модулях против LiDAR в автономных транспортных средствах давно позиционировались как битва с одним победителем: Илон Маск называет LiDAR «дорогой костылем», в то время как Waymo и Huawei ставят миллиарды на лазерные датчики для обеспечения безопасного автопилотирования. Но по мере того, как индустрия автономного вождения вступает в критическую переломную точку в 2025 году, появляется новый нарратив — в котором эти две технологии являются не соперниками, а партнерами по танцу в стремлении к по-настоящему надежной автономии. В этой статье рассматривается, какмодули камер и LiDAR развиваются, почему их синергия становится неизбежной и что это означает для будущего мобильности.
Чтобы понять их будущее, мы должны сначала признать основные сильные стороны и присущие ограничения, которые определяют каждую технологию. Камеры, смоделированные по человеческим глазам, превосходно захватывают богатую контекстную информацию — цвета светофоров, разметку полос движения, жесты пешеходов и даже состояние стоп-сигналов других водителей. LiDAR, напротив, испускает лазерные импульсы для создания точных 3D-карт окружающей среды, обеспечивая непревзойденное восприятие глубины и пространственное осознание, которое камеры могут лишь приблизительно передать с помощью сложных алгоритмов искусственного интеллекта. Годами эти различия подпитывали противоположные технические философии: программно-ориентированное чистое зрение против избыточного аппаратного обеспечения с мультисенсорным слиянием.

Эволюция модулей камер: от 2D пикселей к интеллектуальному восприятию

Модули камер прошли долгий путь от простых устройств для захвата изображений до сложных инструментов восприятия, чему способствовали достижения в области искусственного интеллекта и вычислительной фотографии. Подход Tesla, основанный исключительно на камерах и работающий на системе FSD V12 с использованием более чем 100 миллиардов миль данных реального вождения, доказал, что камеры могут справляться с большинством повседневных сценариев вождения при использовании передовых нейронных сетей и архитектур BEV (вид сверху) + Transformer. Ключевое преимущество этого подхода заключается в масштабируемости: комплект из 8 камер стоит менее 500 долларов, что составляет лишь малую часть стоимости ранних систем LiDAR, делая его доступным для массовых автомобилей.
Современные инновации еще больше расширяют возможности камер. Современные автомобильные камеры теперь работают за пределами видимого спектра света, используя тепловизионное изображение для обнаружения пешеходов при слабом освещении и датчики ближнего инфракрасного диапазона для преодоления легкого тумана. С точки зрения программного обеспечения, обучение в "теневом режиме" позволяет системам на базе камер постоянно совершенствоваться благодаря миллионам одновременных сценариев вождения, а еженедельные обновления OTA улучшают их способность принимать решения. Однако камеры по-прежнему сталкиваются с непреодолимыми физическими ограничениями: в сильный дождь, снег или густой туман их коэффициент распознавания снижается до 40%, и они испытывают трудности с восприятием глубины в безликих средах, таких как пустые автомагистрали или туннели с белыми стенами.

Ренессанс LiDAR: снижение затрат и скачки производительности

LiDAR, некогда нишевая технология, предназначенная для премиальных тестовых автопарков, претерпела кардинальные изменения благодаря твердотельной конструкции и эффекту масштаба. В 2018 году один автомобильный блок LiDAR стоил около 800 долларов США; к 2025 году такие компании, как RoboSense, снизили цены до менее чем 200 долларов США, а прогнозы предполагают снижение до менее чем 100 долларов США к 2027 году. Эта революция в стоимости обусловлена переходом от механических вращающихся LiDAR к твердотельным вариантам, которые исключают движущиеся части, уменьшают размер и повышают надежность — критически важные факторы для массового производства.
Производительность также впечатляет. 192-канальный лидар Huawei обеспечивает угловое разрешение 0,05°, что позволяет ему обнаруживать пешеходов на расстоянии 200 метров — более чем в два раза превышает эффективную дальность большинства автомобильных камер. Реальные испытания Waymo показывают, что лидар поддерживает в 3 раза более высокую стабильность данных по сравнению с системами технического зрения в условиях сильного тумана и сильного дождя, устраняя серьезный пробел в безопасности. Однако лидар не безупречен: он испытывает трудности с отражающими поверхностями, такими как стеклянные навесные стены и лужи, что может вызывать инциденты "фантомного торможения", и он не может различать информацию, закодированную цветом, такую как светофоры — что необходимо для навигации в сложных городских условиях.

Ключевой момент: почему слияние заменяет конкуренцию

Миф о едином «превосходном» датчике был развенчан реальными сбоями. В 2024 году автомобиль Tesla с системой FSD V12 в Лос-Анджелесе ошибочно принял лужу за препятствие, что привело к резкому торможению и чуть не спровоцировало столкновение сзади — классическое ограничение систем, основанных только на камерах. Напротив, ранние прототипы, использующие только LiDAR, не смогли распознать красные сигналы светофора при ярком солнечном свете, что подчеркнуло неспособность технологии обрабатывать контекстные визуальные сигналы. Эти инциденты ускорили переход отрасли к сенсорному слиянию, в частности, к «раннему слиянию» — методу, который объединяет необработанные данные с камер и LiDAR на самой ранней стадии обработки, а не объединяет интерпретированные результаты позже.
Новейший алгоритм раннего слияния от Haomo.AI демонстрирует мощь этого подхода, сокращая ошибки восприятия на 72% по сравнению с системами, использующими один датчик. Сопоставляя пиксели камеры с облаками точек LiDAR в режиме реального времени, система использует контекстную силу камеры и пространственную точность LiDAR для создания более полной модели окружающей среды. Например, в час пик в Шэньчжэне система ADS 3.0 от Huawei, сочетающая 192-канальный LiDAR с 8 камерами, успешно идентифицировала неосвещенный трехколесный велосипед, пересекающий дорогу, — сценарий, который был бы сложным для каждого из датчиков по отдельности.

Новые тенденции, формирующие синергию

Три ключевые тенденции переопределяют отношения между модулями камер и LiDAR, делая их сотрудничество еще более значимым:
1. 4D миллиметровый радиолокационный радар как мост: последний 4D радар группы Continental достигает углового разрешения 0,5° при 1/10 стоимости LiDAR, действуя как дополнительный слой между камерами и LiDAR. Он улучшает измерение расстояния в умеренных погодных условиях и снижает зависимость от LiDAR в менее требовательных сценариях, дополнительно оптимизируя соотношение цена-производительность.
2. Интеграция V2X расширяет границы восприятия: сеть V2X, поддерживаемая 5G в Китае, теперь охватывает более 100 000 километров дорог, предоставляя данные о движении и опасностях в реальном времени, которые дополняют бортовые датчики. В этой экосистеме камеры и LiDAR сосредоточены на ближайшем окружении, в то время как V2X заполняет слепые зоны за пределами диапазона датчиков — создавая "360°+" пузырь восприятия.
3. Адаптивное распределение датчиков на основе ИИ: Будущие автономные системы будут динамически приоритизировать данные с камер или LiDAR в зависимости от условий движения. При ярком дневном свете на автомагистралях система может больше полагаться на камеры для экономии энергии; в туманных городских районах она переключится на LiDAR для обеспечения точности. Такой адаптивный подход максимизирует эффективность при сохранении безопасности.

Динамика отрасли и влияние политики

Стратегии автопроизводителей все чаще отражают эту тенденцию слияния, отходя от крайних позиций. BMW инвестирует как в производителя LiDAR Luminar, так и в ориентированную на камеры Mobileye; Volkswagen сотрудничает с Horizon Robotics, сохраняя при этом варианты с LiDAR. Даже Tesla, яркий пример чисто визуального подхода, тихо исследовала интеграцию LiDAR в прототипы своих роботакси, что предполагает потенциальный сдвиг для коммерческих автономных услуг.
Политика также способствует много датчиковым решениям. Китай требует LiDAR для автономных транспортных средств уровня L3+, в то время как европейская NCAP включит LiDAR в свою систему оценки безопасности 2025 года. NHTSA США остается технически нейтральной, но подчеркивает "избыточность" в требованиях безопасности — язык, который отдает предпочтение слиянию датчиков, а не полаганию на один датчик. Эти регуляторные изменения ускоряют внедрение комбинированных архитектур камер и LiDAR.

Видение 2027 года: ориентированное на камеру с валидацией LiDAR

Заглядывая в 2027 год, будущее модулей камер и LiDAR выглядит ясно: "камера прежде всего, LiDAR для валидации" — золотое сочетание для автономии уровня L4. Камеры останутся основным сенсорным слоем, используя свою низкую стоимость, высокую контекстную осведомленность и постоянное совершенствование ИИ для обработки 90% сценариев вождения. LiDAR будет выступать в качестве критически важной системы безопасности, активируясь в ситуациях высокого риска — сильная непогода, сложные перекрестки, зоны строительства — для предоставления точных 3D-данных, которые предотвращают катастрофические ошибки.
Эта синергия решает основную дилемму автономного вождения: балансировку масштабируемости и безопасности. Камеры способствуют массовому принятию, снижая затраты, в то время как LiDAR решает "крайние случаи", которые мешали полной автономии. Поскольку цены на LiDAR продолжают снижаться, а ИИ камер становится более сложным, их интеграция станет стандартом для всех уровней автономных транспортных средств — от потребительских систем ADAS до роботакси.

Заключение: За пределами конкуренции, к доверию

Дебаты о камерах и LiDAR никогда не были по поводу превосходства технологий — это было о построении доверия. Чтобы автономные транспортные средства стали мейнстримом, они должны быть безопаснее, чем водители-люди, и ни один датчик не может достичь этого в одиночку. Камеры приносят контекстуальный интеллект и масштабируемость; LiDAR приносит точность и надежность. Их будущее заключается не в конкуренции, а в дополнении друг друга.
По мере того как мы движемся к миру автономной мобильности, вопрос больше не будет "камеры или LiDAR?", а "как лучше всего их интегрировать?" Ответ определит следующую эру транспорта — эру, в которой технологии работают в гармонии, чтобы обеспечить обещание безопасной, доступной и эффективной автономии для всех.
автономные транспортные средства, модули камер, технология LiDAR, автомобили с автопилотом
Контакт
Оставьте свои контактные данные, и мы свяжемся с вами.

Поддержка

+8618520876676

+8613603070842

Новости

leo@aiusbcam.com

vicky@aiusbcam.com

WhatsApp
WeChat