안개는 자율 주행 및 첨단 운전자 지원 시스템(ADAS)의 가장 강력한 적 중 하나입니다. 안개는 빛을 왜곡하고, 신호를 산란시키며, 운전자와 보행자의 안전을 지키는 핵심 기능인 환경 인식의 신뢰성을 저하시킵니다. 카메라 비전과 LiDAR(Light Detection and Ranging) 간의 논쟁은 수년간 계속되어 왔지만, 안개 조건은 마케팅 과장을 벗겨내고 근본적인 성능에 집중하게 만듭니다. 즉, 가시성이 급격히 떨어질 때 어떤 기술이 진정으로 성능을 발휘하는가 하는 문제입니다.
이 글은 일반적인 "하드웨어 대 소프트웨어" 이분법을 넘어섭니다. 대신, 우리는 두 가지 다른 "안전 철학"을 중심으로 비교합니다: 카메라 비전의물리적 한계를 극복하기 위한 알고리즘적 독창성에 대한 의존과, 신뢰성의 기준선을 설정하기 위한 LiDAR의 하드웨어 중복성 사용. 2025년의 최신 실제 테스트 데이터, 기술적 돌파구, 산업 사례 연구를 바탕으로 안개 속에서 무엇이 더 잘 작동하는지에 대한 중요한 질문에 답할 것입니다. 핵심적인 차이: 안개 속 두 가지 안전 철학
안개가 각 기술의 강점과 약점을 드러내는 이유를 이해하기 위해, 먼저 그 근본적인 작동 원리와 채택을 이끄는 안전 마인드셋을 풀어보겠습니다.
카메라 비전 시스템은 "뇌가 탑재된 눈"처럼 작동합니다. 인간의 시각 인식을 모방하기 위해 고화질 카메라(고급 설정에서는 일반적으로 8-10개)와 강력한 AI 칩, 방대한 데이터셋을 사용합니다. 여기서 철학은 미니멀리즘입니다. 제한된 하드웨어를 보완하기 위해 소프트웨어를 사용하고, 머신러닝을 활용하여 2D 시각 데이터를 3D 환경 이해로 변환합니다. 테슬라와 샤오펑이 이 접근 방식의 가장 두드러진 지지자이며, 이 접근 방식은 풍부한 시각적 단서가 알고리즘을 번성하게 하는 맑은 조건에서 빛을 발합니다.
LiDAR는 그와 대조적으로 "하드웨어 우선 수호자"입니다. 초당 수백만 개의 레이저 펄스를 방출하여 주변 환경의 고정밀 3D 포인트 클라우드를 생성하고, 거리, 모양, 속도를 탁월한 정확도로 측정합니다. 여기서의 철학은 중복성입니다. 즉, 환경 조건이 시각적 세부 정보를 가리더라도 물리적 감지 기능을 사용하여 안전 기준을 설정하는 것입니다. 화웨이, BYD 및 대부분의 고급 ADAS 제공업체는 비용 절감보다 일관된 성능을 우선시하여 이 "LiDAR + 카메라 + 밀리미터파 레이더" 삼위일체를 채택하고 있습니다.
안개는 두 시스템 모두에 영향을 미치지만 근본적으로 다른 방식으로 영향을 미칩니다. 카메라의 경우 안개는 빛을 산란시키고, 가장자리를 흐릿하게 하며, 대비를 희미하게 하여 알고리즘이 장애물을 식별하는 데 필요한 시각적 특징을 빼앗습니다. LiDAR의 경우 안개 입자가 레이저 펄스를 산란시켜 실제 표적을 가리거나 잘못된 양성 반응을 생성할 수 있는 "포인트 클라우드 노이즈"를 만듭니다. 문제는 어느 것이 "영향을 받지 않는가"가 아니라, 최악의 가시성 상황에서 어느 것이 더 빨리 복구하고 중요한 성능 지표를 유지하며 운전자를 안전하게 보호할 수 있는가입니다.
실제 데이터: 안개 속에서의 성능 (2025 최신 테스트)
가장 설득력 있는 증거는 중국 자동차 공학 연구소(CAERI)와 동차디가 공동 발표한 2025년 "지능형 주행 극한 시나리오 테스트 백서"에서 나옵니다. 이 획기적인 연구는 15km의 실제 도로 안개 경로에서 36개의 주류 모델을 테스트하고 216개의 시뮬레이션 충돌 시나리오를 통해 성능 격차를 하드 데이터로 정량화했습니다. 안개 심각도에 따라 주요 발견을 분석해 보겠습니다.
1. 약한 안개 (가시성: 200-500m)
약한 안개에서는—주로 이른 아침이나 해안 지역에서 흔히 발생하는—두 기술 모두 적절하게 작동하지만 미세한 차이가 나타납니다. 고급 디헤이징 알고리즘에 힘입은 카메라 비전 시스템은 기본적인 장애물 인식에서 제 역할을 합니다. 예를 들어, 테슬라의 FSD V12.5는 실제 세계 데이터에서 수십억 킬로미터를 기반으로 훈련된 빗방울 및 안개 제거 알고리즘 덕분에 약한 안개에서 90%의 장애물 인식 정확도를 달성했습니다.
한편, LiDAR 시스템은 최소한의 노이즈로 거의 완벽한 정확도(98% 이상)를 유지했습니다. 새로 출시된 장거리 모델인 Hesai ATX Lidar는 픽셀 수준에서 안개 관련 노이즈의 99%를 필터링하여 주변 차량과 보행자의 명확한 포인트 클라우드를 보존하는 능력을 입증했습니다. 여기서 격차는 미미하지만, LiDAR의 장점은 일관성에 있습니다. 카메라 시스템은 안개 밀도가 갑자기 변동할 경우 어려움을 겪을 수 있지만, LiDAR의 물리적 감지는 안정적으로 유지됩니다.
2. 보통 안개 (시야: 100-200m)
시야가 200m 미만으로 떨어지면 카메라 비전의 알고리즘적 한계가 분명해집니다. CAERI 테스트에 따르면 순수 카메라 모델은 LiDAR 장착 차량에 비해 장애물 감지율이 3배 증가했습니다. Xpeng G6의 보행자 인식 거리는 맑은 날 150m에서 보통 안개 속에서 65m로 급감한 반면, Tesla Model Y는 78m로 떨어졌습니다. 이는 치명적인 단점입니다. 고속도로 속도(100km/h)에서 65m의 감지 거리는 시스템이 반응할 시간을 불과 2.3초밖에 주지 않아 비상 제동에 거의 충분하지 않습니다.
LiDAR 시스템은 대조적으로 80m 이상의 효과적인 탐지 거리를 유지했습니다. 192라인 LiDAR를 탑재한 화웨이의 ADS 3.0은 보통 수준의 안개 속에서 평균 126m의 보행자 인식 거리를 달성하여 4.5초의 반응 시간을 제공했습니다. 이러한 차이는 LiDAR가 카메라에서 사용하는 가시광선보다 산란이 적은 더 긴 파장(1550nm)을 사용하여 안개를 투과하는 능력에서 비롯됩니다. 산란되더라도 레이저 펄스는 센서로 돌아와 거리를 정확하게 계산할 수 있을 만큼 충분한 에너지를 유지합니다.
3. 짙은 안개/이동성 안개 (시야: <100m)
짙은 안개 속에서는 시야가 100m 미만, 극단적인 경우 50m까지 떨어지는데, 이때 구분선은 깊은 협곡이 됩니다. 이는 자율 시스템의 "성패를 좌우하는" 시나리오이며, CAERI 데이터는 명확합니다. 순수 카메라 비전 시스템은 15%의 수동 전환율을 보였고, "인지 실패" 경고가 빈번했습니다. 안개가 차선 표시, 신호등, 심지어 큰 장애물까지 가리는 조건에서는 알고리즘이 안전한 결정을 내릴 만큼 충분한 시각 정보를 확보하지 못합니다.
LiDAR 장착 차량의 경우, 인수율은 3%에 불과했습니다. 화웨이의 ADS 3.0은 정지된 차량을 정확하게 식별하고 30m 시야에서도 회피 기동을 완료하는 능력을 보여주었습니다. 이는 인간 운전자가 헤드라이트 너머를 보기 어려워하는 조건입니다. 이러한 성능의 핵심은 LSLidar에서 개발한 것과 같은 고급 안개 필터링 알고리즘입니다. 이러한 알고리즘은 안개에 산란된 레이저 펄스의 특성을 분석하여 노이즈와 유효한 포인트 클라우드 데이터를 분리하여 중요한 장애물 정보를 보존합니다. 그 결과는 단순히 안개를 "보는" 시스템이 아니라 카메라 시야가 완전히 실패했을 때 상황 인식을 유지하는 시스템입니다.
기술적 돌파구: 격차를 좁히는가?
안개 조건에서는 LiDAR가 우위를 점하고 있지만, 두 기술 모두 빠르게 발전하고 있습니다. 안개 성능을 재편하는 최신 혁신을 살펴보겠습니다.
카메라 비전: 알고리즘 발전
카메라 비전의 안개 성능에서 가장 큰 발전은 AI 기반의 디헤이징 알고리즘과 더 크고 다양한 데이터 세트에서 비롯됩니다. 예를 들어, 테슬라의 FSD V12.5는 감독 학습과 비감독 학습의 조합을 사용하여 "역설계" 안개 효과를 복원하여 흐릿한 이미지의 선명도를 회복합니다. 100억 킬로미터의 야간 및 악천후 데이터를 학습함으로써, 이 시스템은 저시정 조건에서 동적 객체 추적 속도를 40% 향상시켰습니다.
하지만 이러한 발전에는 한계가 있습니다. 이들은 작업을 수행하기 위해 일부 시각적 특징의 존재에 의존하는데, 이는 밀집한 안개 속에서 사라집니다. 가장 좋은 디헤이징 알고리즘조차도 존재하지 않는 정보를 생성할 수 없으므로 카메라 비전의 물리적 한계를 극복하기 어렵습니다.
LiDAR: 하드웨어와 알고리즘의 시너지
LiDAR의 발전은 투과율 향상, 노이즈 감소, 비용 절감에 초점을 맞추고 있습니다. 가장 흥미로운 혁신 중 하나는 영국과 미국 연구진의 협력으로 개발된 차세대 기술인 단일 광자 LiDAR입니다. 이 시스템은 초고감도 초전도 나노와이어 단일 광자 검출기(SNSPD)와 1550nm 파장 레이저를 사용하여 안개를 통과하여 1km 거리에서도 고해상도 3D 이미지를 캡처합니다. 개별 광자를 감지하고 비행 시간을 피코초(1조분의 1초) 정밀도로 측정함으로써, 안개 입자와 실제 객체를 전례 없는 정확도로 구별할 수 있습니다.
상업용 LiDAR 시스템 또한 빠르게 발전하고 있습니다. LSLidar의 자체 먼지/비/안개 필터링 알고리즘은 모든 모델(1550nm 광섬유 및 905nm 하이브리드 솔리드 스테이트 LiDAR 포함)과 호환되며, 타겟 감지를 유지하면서 포인트 클라우드 노이즈를 크게 줄입니다. Hesai의 ATX Lidar는 140° 초광각 시야와 300m 탐지 범위를 갖추고 있으며, 안개, 배기가스, 물방울을 실시간으로 식별하고 표시하여 시스템에 깨끗한 포인트 클라우드 데이터를 보장합니다. 이러한 혁신은 LiDAR를 안개 속에서 더욱 견고하게 만들고 있으며, 한때 채택의 주요 장벽이었던 비용을 절감하여 2025년에는 300~450달러 범위로 가격이 하락할 것으로 예상됩니다.
실용적인 선택: 어떤 기술을 우선시해야 할 때?
안개에서 "어떤 것이 더 잘 작동하는가"에 대한 답은 귀하의 사용 사례와 위험 감수성에 따라 다릅니다. 의사 결정을 위한 프레임워크는 다음과 같습니다:
소비자 차량(ADAS)
자주 안개가 끼는 지역(예: 해안 지역, 계곡 또는 온도 역전이 있는 추운 기후)에 거주하는 경우, LiDAR가 더 안전한 선택입니다. CAERI 데이터는 밀집한 안개 속에서 상황 인식을 유지하는 능력이 중요한 안전 완충 역할을 한다는 것을 증명합니다. 카메라 비전이 개선되더라도, LiDAR의 하드웨어 중복성은 알고리즘이 복제할 수 없는 "안전망" 역할을 합니다.
안개가 거의 없는 지역에서는 순수 카메라 비전이 충분할 수 있습니다. 특히 비용이 주요 고려 사항인 경우에는 더욱 그렇습니다. 테슬라 모델 Y와 Xpeng G6와 같은 모델은 맑고 약간 안개가 낀 조건에서 강력한 ADAS 성능을 제공하며, 지속적인 OTA 업데이트를 통해 시간이 지남에 따라 알고리즘이 지속적으로 개선됩니다.
상업적 자율주행 (로봇택시, 화물 운송)
안전과 신뢰성이 필수적이며 규정 준수가 의무화되는 상업적 애플리케이션에서 LiDAR는 선호되는 것을 넘어 필수적입니다. 예측 불가능한 안개 현상이 발생하는 도시 지역에서 운행하는 로보택시 또는 안개가 잦은 고속도로를 주행하는 장거리 트럭은 순수 카메라 시스템의 15% 인수율을 감당할 수 없습니다. 짙은 안개 속에서 LiDAR의 3% 인수율은 운영 가능성과 안전 위험의 차이를 의미합니다.
미래: 경쟁이 아닌 시너지
가장 진보된 접근 방식은 한 기술을 다른 기술보다 선택하는 것이 아니라, 통합하는 것입니다. 최신 ADAS 시스템(화웨이 ADS 3.0과 같은)은 LiDAR의 안정적인 3D 포인트 클라우드를 사용하여 카메라 비전의 고해상도 시각 데이터를 보완합니다. 안개 속에서 LiDAR는 핵심 장애물 감지를 제공하며, 카메라는 신호등 색상이나 보행자 제스처(보이는 경우)와 같은 세부 정보를 식별하는 데 도움을 줍니다. 이러한 "센서 융합"은 두 기술의 강점을 활용하여 단독으로 사용될 때보다 더 강력한 시스템을 만듭니다.
결론: 안개 속에서는 LiDAR가 우세하지만, 카메라 비전도 뒤처지지 않음
안개 조건에 관해서는 데이터가 명확합니다. LiDAR는 모든 안개 심각도 수준에서 카메라 비전보다 성능이 뛰어나며, 특히 짙은 안개에서는 그 격차가 큽니다. 레이저 펄스로 안개를 투과하고 고급 알고리즘으로 노이즈를 필터링하는 하드웨어 기반의 인식 방식은, 적어도 현재로서는 카메라 비전의 소프트웨어 중심 모델이 따라올 수 없는 안전 기준을 설정합니다.
그렇다고 해서 카메라 비전이 빠르게 발전하지 않는 것은 아닙니다. AI 김 서림 제거 알고리즘과 더 큰 데이터셋은 보통 안개에서의 성능을 향상시키고 있으며, 극심한 안개 발생이 거의 없는 지역에서는 실행 가능한 선택지가 되고 있습니다. 하지만 대부분의 운전자와 상업용 운영자에게 LiDAR의 "안개를 꿰뚫어 보는" 능력과 수동 운전 전환 감소는 무시하기 어려운 안전상의 이점입니다.
궁극적으로 안개 속 자율 인지의 미래는 센서 융합에 달려 있습니다. LiDAR의 신뢰성과 카메라 비전의 디테일을 결합함으로써, 우리는 가장 혹독한 기상 조건에서도 안전하고 효율적이며 적응 가능한 시스템을 만들 수 있습니다. 현재로서는 안개 안전이 최우선이라면 LiDAR가 명확한 승자이지만, 알고리즘이 계속 발전함에 따라 카메라 비전도 간과해서는 안 됩니다.