자율 주행 자동차에서 카메라 모듈과 LiDAR의 미래

생성 날짜 01.21
자율주행차에서 카메라 모듈과 LiDAR에 대한 논쟁은 오랫동안 승자독식의 싸움으로 여겨져 왔습니다. 일론 머스크는 LiDAR를 "비싼 목발"이라고 일축하는 반면, Waymo와 Huawei는 안전한 자율주행을 위해 레이저 기반 센싱에 수십억 달러를 투자하고 있습니다. 하지만 자율주행 산업이 2025년 중요한 전환점에 접어들면서 새로운 이야기가 등장하고 있습니다. 바로 이 두 기술이 경쟁자가 아니라 진정으로 신뢰할 수 있는 자율성을 추구하는 춤 파트너라는 것입니다. 이 글에서는 어떻게카메라 모듈 및 LiDAR가 발전함에 따라 이들의 시너지가 불가피해지고 있으며, 이는 모빌리티의 미래에 어떤 의미를 갖는지 설명합니다.
미래를 이해하기 위해서는 먼저 각 기술을 정의하는 핵심 강점과 내재된 한계를 인정해야 합니다. 인간의 눈을 모델로 한 카메라는 교통 신호등 색상, 차선 표시, 보행자 제스처, 심지어 다른 운전자의 브레이크등 상태와 같이 풍부한 맥락 정보를 포착하는 데 탁월합니다. 반면에 LiDAR는 레이저 펄스를 방출하여 주변 환경의 정밀한 3D 지도를 생성하며, 복잡한 AI 알고리즘을 통해서만 카메라가 근사할 수 있는 탁월한 깊이 인식 및 공간 인식을 제공합니다. 수년 동안 이러한 차이점은 소프트웨어 중심의 순수 비전 대 하드웨어 중복 다중 센서 융합이라는 상반된 기술 철학을 부추겼습니다.

카메라 모듈의 진화: 2D 픽셀에서 지능적 인식으로

카메라 모듈은 AI 및 컴퓨팅 사진 기술의 발전으로 인해 단순한 이미지 캡처 장치에서 정교한 인식 도구로 발전했습니다. 테슬라의 카메라 전용 접근 방식은 FSD V12 시스템과 1,000억 마일 이상의 실제 주행 데이터를 기반으로 하며, 고급 신경망과 BEV(버드아이 뷰) + 트랜스포머 아키텍처를 결합하면 카메라가 대부분의 일상 주행 시나리오를 처리할 수 있음을 입증했습니다. 이 방식의 핵심 장점은 확장성에 있습니다. 8개의 카메라 설정 비용은 500달러 미만으로, 초기 LiDAR 시스템 가격의 극히 일부에 불과하여 대중 시장 차량에 적용 가능합니다.
최근의 혁신은 카메라의 기능을 더욱 확장하고 있습니다. 현대 자동차 카메라는 이제 가시광선 스펙트럼을 넘어 작동하며, 열화상 기술을 사용하여 저조도 환경에서 보행자를 감지하고, 근적외선 센서를 사용하여 옅은 안개를 뚫고 볼 수 있습니다. 소프트웨어 측면에서는 "섀도우 모드" 학습을 통해 카메라 기반 시스템이 수백만 개의 동시 주행 시나리오를 통해 지속적으로 개선되며, 주간 OTA 업데이트를 통해 의사 결정 능력이 향상됩니다. 그러나 카메라는 여전히 극복할 수 없는 물리적 한계에 직면해 있습니다. 폭우, 눈 또는 짙은 안개 속에서는 인식률이 최대 40%까지 떨어지며, 빈 고속도로나 흰 벽으로 된 터널과 같이 특징이 없는 환경에서는 깊이 인식이 어렵습니다.

LiDAR의 르네상스: 비용 절감과 성능 도약

LiDAR는 한때 프리미엄 테스트 차량에만 사용되던 틈새 기술이었지만, 솔리드 스테이트 설계와 규모의 경제 덕분에 극적인 변화를 겪었습니다. 2018년에는 단일 자동차 LiDAR 유닛의 비용이 약 800달러였지만, 2025년에는 RoboSense와 같은 회사들이 가격을 200달러 미만으로 낮췄으며, 2027년에는 100달러 미만으로 하락할 것으로 예상됩니다. 이러한 비용 혁명은 기계식 회전 LiDAR에서 솔리드 스테이트 변형으로의 전환에 의해 주도되고 있으며, 이는 움직이는 부품을 제거하고 크기를 줄이며 신뢰성을 향상시켜 대량 생산에 중요한 요소가 됩니다.
성능 향상 또한 인상적이었습니다. 화웨이의 192채널 LiDAR는 0.05°의 각도 해상도를 달성하여 200미터 떨어진 보행자를 감지할 수 있으며, 이는 대부분의 자동차 카메라의 유효 범위를 두 배 이상 능가합니다. 웨이모의 실제 테스트에 따르면 LiDAR는 짙은 안개와 폭우 속에서 비전 시스템보다 3배 더 높은 데이터 안정성을 유지하여 주요 안전 격차를 해소합니다. 그러나 LiDAR도 완벽하지는 않습니다. 유리 커튼월이나 물웅덩이와 같은 반사 표면에 취약하여 "고스트 브레이킹" 사고를 유발할 수 있으며, 복잡한 도시 환경을 탐색하는 데 필수적인 신호등과 같은 색상 코드가 있는 정보를 구별할 수 없습니다.

전환점: 왜 융합이 경쟁을 대체하고 있는가

단일 "우월한" 센서에 대한 신화는 실제 실패 사례로 인해 근거 없음이 밝혀졌습니다. 2024년 로스앤젤레스에서 FSD V12가 장착된 테슬라 차량이 웅덩이를 장애물로 잘못 인식하여 갑자기 제동하는 바람에 후방 충돌 직전까지 가는 사고가 발생했습니다. 이는 카메라 전용 시스템의 고질적인 한계입니다. 반대로, 초기 LiDAR 전용 프로토타입은 밝은 햇빛 아래에서 빨간색 신호등을 인식하지 못해, 해당 기술이 맥락적 시각 정보를 처리하는 데 한계가 있음을 보여주었습니다. 이러한 사건들은 센서 융합, 특히 "얼리 퓨전(early fusion)"으로의 업계 전환을 가속화했습니다. 얼리 퓨전은 해석된 결과를 나중에 병합하는 대신, 처리 초기 단계에서 카메라와 LiDAR의 원시 데이터를 결합하는 기술입니다.
Haomo.AI의 최신 얼리 퓨전 알고리즘은 이러한 접근 방식의 강력함을 보여주며, 단일 센서 시스템에 비해 인식 오류를 72% 줄였습니다. 카메라 픽셀을 실시간으로 LiDAR 포인트 클라우드와 정렬함으로써, 시스템은 카메라의 맥락적 강점과 LiDAR의 공간적 정밀도를 활용하여 보다 포괄적인 환경 모델을 생성합니다. 예를 들어, 선전의 저녁 출퇴근 시간 동안 192채널 LiDAR와 8대의 카메라를 결합한 Huawei의 ADS 3.0은 도로를 건너는 불빛 없는 삼륜차를 성공적으로 식별했는데, 이는 단일 센서로는 어려웠을 시나리오입니다.

시너지를 형성하는 새로운 트렌드

세 가지 주요 트렌드가 카메라 모듈과 LiDAR 간의 관계를 재정의하고, 이들의 협력이 더욱 영향력 있게 만들고 있습니다:
1. 4D 밀리미터파 레이더를 다리로: 콘티넨탈 그룹의 최신 4D 레이더는 LiDAR의 1/10 비용으로 0.5° 각도 해상도를 달성하며, 카메라와 LiDAR 사이의 보완적인 층으로 작용합니다. 이는 중간 날씨에서 거리 측정을 향상시키고, 덜 까다로운 시나리오에서 LiDAR에 대한 의존도를 줄여 비용-성능 비율을 더욱 최적화합니다.
2. V2X 통합이 인식 경계를 확장합니다: 중국의 5G 지원 차량-모든 것(V2X) 네트워크는 현재 100,000킬로미터 이상의 도로를 커버하며, 온보드 센서를 보완하는 실시간 교통 및 위험 데이터를 제공합니다. 이 생태계에서 카메라와 LiDAR는 즉각적인 주변에 집중하고, V2X는 센서 범위를 넘어서는 블라인드 스팟을 채워 "360°+" 인식 버블을 생성합니다.
3. AI 기반 적응형 센서 할당: 미래 자율 주행 시스템은 주행 조건에 따라 카메라 또는 LiDAR의 데이터 우선순위를 동적으로 조정할 것입니다. 고속도로의 맑은 낮에는 에너지를 절약하기 위해 카메라에 더 의존할 수 있으며, 안개가 낀 도심 지역에서는 정밀도를 위해 LiDAR로 전환할 것입니다. 이러한 적응형 접근 방식은 안전을 유지하면서 효율성을 극대화합니다.

산업 동향 및 정책 영향

자동차 제조업체의 전략은 이러한 융합 추세를 점점 더 반영하며 극단적인 입장에서 벗어나고 있습니다. BMW는 LiDAR 제조사 Luminar와 카메라 중심의 Mobileye 모두에 투자하고 있으며, Volkswagen은 Horizon Robotics와 협력하면서도 LiDAR 옵션을 유지하고 있습니다. 순수 비전의 대표 주자인 Tesla조차도 로보택시 프로토타입에서 LiDAR 통합을 조용히 탐색해 왔으며, 이는 상업용 자율 주행 서비스의 잠재적인 변화를 시사합니다.
정책 또한 다중 센서 솔루션으로 나아가고 있습니다. 중국은 L3+ 자율주행차에 LiDAR를 의무화하고 있으며, 유럽 NCAP은 2025 안전 등급 시스템에 LiDAR를 포함할 것입니다. 미국 NHTSA는 기술적으로 중립적인 입장을 유지하지만 안전 요구 사항에서 "중복성"을 강조합니다. 이는 단일 센서 의존보다 센서 융합을 선호하는 언어입니다. 이러한 규제 변화는 카메라-LiDAR 통합 아키텍처의 채택을 가속화하고 있습니다.

2027 비전: LiDAR 검증을 갖춘 카메라 중심

2027년을 내다볼 때, 카메라 모듈과 LiDAR의 미래는 명확합니다. 바로 L4 수준의 자율 주행을 위한 "카메라 우선, LiDAR 검증"이라는 황금 조합입니다. 카메라는 저렴한 비용, 높은 상황 인식 능력, 지속적인 AI 개선을 활용하여 90%의 주행 시나리오를 처리하는 주요 센싱 계층으로 남을 것입니다. LiDAR는 악천후, 복잡한 교차로, 공사 구역과 같은 고위험 상황에서 활성화되어 치명적인 오류를 방지하는 정밀한 3D 데이터를 제공하는 중요한 안전망 역할을 할 것입니다.
이 시너지는 자율 주행의 핵심 딜레마를 해결합니다: 안전성과 확장성의 균형을 맞추는 것입니다. 카메라는 비용을 낮추어 대량 채택을 가능하게 하고, LiDAR는 완전 자율성을 방해해 온 "엣지 케이스"를 해결합니다. LiDAR 가격이 계속 하락하고 카메라 AI가 더욱 정교해짐에 따라, 이들의 통합은 소비자 ADAS 시스템에서 로보택시에 이르기까지 모든 자율 차량 계층에서 표준이 될 것입니다.

결론: 경쟁을 넘어 신뢰로

카메라와 LiDAR 논쟁은 결코 기술 우월성에 관한 것이 아니었습니다. 그것은 신뢰를 구축하는 것이었습니다. 자율주행차가 주류가 되기 위해서는 인간 운전자보다 더 안전해야 하며, 단일 센서만으로는 이를 달성할 수 없습니다. 카메라는 맥락적 지능과 확장성을 제공하고, LiDAR는 정밀성과 신뢰성을 제공합니다. 이들의 미래는 경쟁하는 것이 아니라 서로 보완하는 데 있습니다.
자율주행 이동 수단의 세계로 나아가면서, 질문은 더 이상 "카메라 또는 LiDAR?"가 아니라 "이들을 어떻게 최적으로 통합할 것인가?"가 될 것입니다. 이 답변은 안전하고 접근 가능하며 효율적인 자율성을 모두에게 제공하는 기술이 조화를 이루는 다음 교통 시대를 정의할 것입니다.
자율주행차, 카메라 모듈, 라이다 기술, 셀프 드라이빙 카
연락처
Leave your information and we will contact you.

회사 소개

지원

+8618520876676

+8613603070842

뉴스

leo@aiusbcam.com

vicky@aiusbcam.com

WhatsApp
WeChat