Wizja kamerowa kontra LiDAR: co działa lepiej we mgle?

Utworzono 01.13
Mgła jest jednym z najgroźniejszych wrogów autonomicznej jazdy i zaawansowanych systemów wspomagania kierowcy (ADAS). Zniekształca światło, rozprasza sygnały i podważa niezawodność percepcji otoczenia – kluczowych zdolności, które zapewniają bezpieczeństwo kierowcom i pieszym. Debata między wizją kamerową a LiDAR (Light Detection and Ranging) trwa od lat, ale mgliste warunki usuwają marketingowy szum i wymuszają skupienie się na podstawowej wydajności: która technologia naprawdę działa, gdy widoczność drastycznie spada?
Ten artykuł wykracza poza typowy podział „sprzęt kontra oprogramowanie”. Zamiast tego, porównanie opieramy na dwóch odrębnych „filozofiach bezpieczeństwa”: opieraniu się na pomysłowości algorytmicznej w celu przezwyciężenia ograniczeń fizycznych przez kamery i wykorzystaniu przez LiDAR redundancji sprzętowej do ustanowienia podstawy niezawodności. Opierając się na najnowszych danych z testów w rzeczywistych warunkach z 2025 roku, przełomowych osiągnięciach technicznych i studiach przypadków branżowych, odpowiemy na kluczowe pytanie: Co lepiej działa we mgle?

Główny podział: Dwie filozofie bezpieczeństwa w mgle

Aby zrozumieć, dlaczego mgła ujawnia mocne i słabe strony każdej technologii, musimy najpierw rozpakować ich podstawowe zasady działania – i nastawienie na bezpieczeństwo, które napędza ich adopcję.
Systemy wizyjne kamer działają jak „oczy napędzane mózgiem”. Opierają się na kamerach o wysokiej rozdzielczości (zazwyczaj 8-10 w zaawansowanych konfiguracjach) w połączeniu z potężnymi układami AI i ogromnymi zbiorami danych, aby naśladować ludzką percepcję wzrokową. Filozofia jest tu minimalistyczna: wykorzystać oprogramowanie do kompensacji ograniczonego sprzętu, wykorzystując uczenie maszynowe do przekształcania dwuwymiarowych danych wizualnych w trójwymiarowe rozumienie otoczenia. Tesla i Xpeng są najbardziej prominentnymi zwolennikami tego podejścia, które sprawdza się w jasnych warunkach, gdzie obfite wskazówki wizualne pozwalają algorytmom prosperować.
LiDAR, natomiast, jest "strażnikiem opartym na sprzęcie". Emituje miliony impulsów laserowych na sekundę, tworząc precyzyjną chmurę punktów 3D otoczenia, mierząc odległości, kształty i prędkości z wyjątkową dokładnością. Filozofia ta opiera się na redundancji: wykorzystuje fizyczne możliwości sensoryczne do stworzenia podstawy bezpieczeństwa, nawet gdy warunki środowiskowe zamazują szczegóły wizualne. Huawei, BYD i większość dostawców luksusowych systemów ADAS stosuje tę trójcę "LiDAR + kamera + radar fal milimetrowych", priorytetowo traktując spójną wydajność ponad oszczędnościami kosztów.
Mgła zakłóca oba systemy – ale w zasadniczo odmienny sposób. W przypadku kamer mgła rozprasza światło, rozmywa krawędzie i spłaszcza kontrast, pozbawiając algorytmy cech wizualnych potrzebnych do identyfikacji przeszkód. W przypadku LiDAR cząsteczki mgły rozpraszają impulsy laserowe, tworząc „szum w chmurze punktów”, który może zaciemniać rzeczywiste cele lub generować fałszywe alarmy. Pytanie nie brzmi, który system jest „nienaruszony” – ale który może szybciej się odzyskać, utrzymać krytyczne wskaźniki wydajności i zapewnić bezpieczeństwo kierowcom w najgorszych warunkach widoczności.

Dane z rzeczywistego świata: Jak działają w mgle (najnowsze testy 2025)

Najbardziej przekonujące dowody pochodzą z „Białej księgi testów ekstremalnych scenariuszy jazdy inteligentnej 2025”, opublikowanej wspólnie przez Chiński Instytut Badań Inżynierii Motoryzacyjnej (CAERI) i Dongchedi. To przełomowe badanie przetestowało 36 popularnych modeli na 15-kilometrowych drogach z mgłą i w 216 symulowanych scenariuszach kolizji, kwantyfikując luki w wydajności za pomocą twardych danych. Rozbijmy kluczowe ustalenia według stopnia nasilenia mgły.

1. Lekka mgła (Widoczność: 200-500 m)

W lekkiej mgle — powszechnej wczesnym rankiem lub na obszarach przybrzeżnych — obie technologie działają odpowiednio, ale pojawiają się subtelne różnice. Systemy wizji kamerowej, wspierane przez zaawansowane algorytmy usuwania zamglenia, radzą sobie w podstawowym rozpoznawaniu przeszkód. Na przykład Tesla FSD V12.5 osiągnęła 90% dokładność rozpoznawania przeszkód w lekkiej mgle, dzięki algorytmom usuwania kropli deszczu i zamglenia, wytrenowanym na miliardach kilometrów danych z rzeczywistego świata.
Systemy LiDAR natomiast utrzymywały niemal doskonałą dokładność (98%+) przy minimalnym szumie. Hesai ATX Lidar, nowo wprowadzony model dalekiego zasięgu, zademonstrował swoją zdolność do filtrowania 99% szumów związanych z mgłą na poziomie pikseli, zachowując czyste chmury punktów otaczających pojazdów i pieszych. Różnica jest niewielka, ale przewaga LiDAR polega na spójności: podczas gdy systemy kamer mogą mieć problemy, jeśli gęstość mgły nagle się zmienia, fizyczne czujniki LiDAR pozostają stabilne.

2. Umiarkowana mgła (Widoczność: 100-200 m)

Gdy widoczność spada poniżej 200 m, ujawniają się algorytmiczne ograniczenia wizji kamerowej. Test CAERI wykazał, że modele oparte wyłącznie na kamerach doświadczyły 3-krotnego wzrostu wskaźnika pominięcia przeszkód w porównaniu do pojazdów wyposażonych w LiDAR. Odległość rozpoznawania pieszych w modelu Xpeng G6 spadła ze 150 m przy czystej pogodzie do zaledwie 65 m w umiarkowanej mgle, podczas gdy w Tesli Model Y spadła do 78 m. Jest to krytyczna luka: przy prędkościach autostradowych (100 km/h) odległość detekcji wynosząca 65 m daje systemowi zaledwie 2,3 sekundy na reakcję – ledwo wystarczająco na hamowanie awaryjne.
Systemy LiDAR, w przeciwieństwie do tego, utrzymywały skuteczne odległości detekcji powyżej 80 m. Huawei ADS 3.0, wyposażony w LiDAR 192-liniowy, osiągnął średnią odległość rozpoznawania pieszych wynoszącą 126 m w umiarkowanej mgle, zapewniając 4,5-sekundowe okno reakcji. Różnica wynika ze zdolności LiDAR do przenikania mgły przy użyciu dłuższych fal (1550 nm), które rozpraszają się mniej niż światło widzialne używane przez kamery. Nawet po rozproszeniu impulsy laserowe zachowują wystarczającą energię, aby powrócić do czujnika i dokładnie obliczyć odległości.

3. Gęsta mgła/mgła adwekcyjna (Widoczność: <100 m)

W gęstej mgle – gdzie widoczność spada poniżej 100 m, a w skrajnych przypadkach nawet poniżej 50 m – podział staje się przepaścią. Jest to scenariusz „wszystko albo nic” dla systemów autonomicznych, a dane CAERI są jednoznaczne: czyste systemy wizyjne oparte na kamerach odnotowały 15% wskaźnik przejęć przez człowieka, z częstymi alertami o „błędzie percepcji”. W warunkach, gdy mgła zasłania oznaczenia pasów ruchu, światła drogowe, a nawet duże przeszkody, algorytmy po prostu nie posiadają wystarczających informacji wizualnych do podejmowania bezpiecznych decyzji.
Jednak pojazdy wyposażone w LiDAR utrzymały wskaźnik przejmowania kontroli na poziomie zaledwie 3%. System ADS 3.0 firmy Huawei wykazał nawet zdolność do dokładnego rozpoznawania stojących pojazdów i wykonywania manewrów omijania przy widoczności 30 m – w warunkach, w których ludzcy kierowcy mieliby trudności z zobaczeniem czegokolwiek poza zasięgiem świateł drogowych. Kluczem do tej wydajności są zaawansowane algorytmy filtrowania mgły, takie jak te opracowane przez LSLidar. Algorytmy te analizują charakterystykę impulsów laserowych rozproszonych przez mgłę, oddzielając szum od prawidłowych danych chmury punktów, aby zachować krytyczne informacje o przeszkodach. Rezultatem jest system, który nie tylko "widzi" przez mgłę – utrzymuje świadomość sytuacyjną, gdy wizja kamery zawodzi całkowicie.

Przełomy techniczne: Zmniejszanie luki?

Chociaż LiDAR ma przewagę w warunkach mglistych, obie technologie szybko ewoluują. Przyjrzyjmy się najnowszym innowacjom, które zmieniają ich działanie w mgle.

Wizja kamery: Algorytmiczne postępy

Największe postępy w zakresie wydajności wizji kamery w warunkach mgły wynikają z algorytmów usuwania zamglenia opartych na sztucznej inteligencji oraz większych, bardziej zróżnicowanych zbiorów danych. Na przykład FSD V12.5 firmy Tesla wykorzystuje kombinację uczenia nadzorowanego i nienadzorowanego do "inżynierii wstecznej" efektów mgły, przywracając klarowność rozmazanym obrazom. Dzięki treningowi na 10 miliardach kilometrów danych z nocy i trudnych warunków pogodowych, system poprawił prędkość śledzenia obiektów dynamicznych o 40% w warunkach słabej widoczności.
Jednak te postępy mają swoje ograniczenia. Opierają się na obecności pewnych cech wizualnych, z którymi można pracować – czegoś, co znika w gęstej mgle. Nawet najlepszy algorytm usuwania zamglenia nie jest w stanie stworzyć informacji, których nie ma, co utrudnia przezwyciężenie fizycznych ograniczeń wizji kamery.

LiDAR: Synergia sprzętu i algorytmów

Ewolucja LiDAR koncentruje się na zwiększeniu penetracji, redukcji szumów i obniżeniu kosztów. Jednym z najbardziej ekscytujących przełomów jest LiDAR oparty na pojedynczych fotonach, technologia nowej generacji opracowana we współpracy badaczy z Wielkiej Brytanii i USA. System ten wykorzystuje ultraczułe detektory pojedynczych fotonów na nadprzewodzących nanodrutach (SNSPD) oraz lasery o długości fali 1550 nm do przechwytywania wysokiej rozdzielczości obrazów 3D przez mgłę – nawet na odległość 1 kilometra. Wykrywając pojedyncze fotony i mierząc czas ich lotu z pikosekundową precyzją (jedna bilionowa część sekundy), system może z niespotykaną dotąd dokładnością odróżnić cząsteczki mgły od rzeczywistych obiektów.
Komercyjne systemy LiDAR również szybko się rozwijają. Wewnętrzny algorytm LSLidar do filtrowania kurzu/deszczu/mgły, kompatybilny ze wszystkimi jego modelami (w tym LiDAR z włóknem 1550 nm i hybrydowym LiDAR półprzewodnikowym 905 nm), znacznie redukuje szum w chmurze punktów, jednocześnie utrzymując wykrywanie celów. LiDAR ATX firmy Hesai, z ultraszerokim polem widzenia 140° i zasięgiem wykrywania 300 m, może w czasie rzeczywistym identyfikować i oznaczać mgłę, spaliny i krople wody, zapewniając czyste dane chmury punktów dla systemu. Te innowacje sprawiają, że LiDAR jest bardziej odporny na mgłę, jednocześnie obniżając koszty – niegdyś główną przeszkodę w adopcji – z cenami na rok 2025 spadającymi do przedziału 300–450 USD.

Praktyczny wybór: Kiedy nadać priorytet której technologii?

Odpowiedź na pytanie „co działa lepiej we mgle” zależy od Twojego przypadku użycia i tolerancji ryzyka. Oto ramy decyzyjne:

Dla pojazdów konsumenckich (ADAS)

Jeśli mieszkasz w regionie z częstymi mgłami (np. na obszarach przybrzeżnych, w dolinach lub w zimnych klimatach z inwersją temperatury), LiDAR jest bezpieczniejszym wyborem. Dane CAERI dowodzą, że jego zdolność do utrzymania świadomości sytuacyjnej w gęstej mgle zapewnia krytyczny bufor bezpieczeństwa. Nawet w miarę poprawy wizji kamer, redundancja sprzętowa LiDAR służy jako „siatka bezpieczeństwa”, której algorytmy nie mogą odtworzyć.
Dla regionów z minimalnym zaparowaniem, czysta wizja kamerowa może być wystarczająca — zwłaszcza jeśli koszt jest głównym czynnikiem. Modele takie jak Tesla Model Y i Xpeng G6 oferują wysoką wydajność ADAS w warunkach bez mgły i lekkiej mgły, a ciągłe aktualizacje OTA stale ulepszają ich algorytmy.

Dla autonomii komercyjnej (Robotaxi, Transport ciężarowy)

W zastosowaniach komercyjnych, gdzie bezpieczeństwo i niezawodność są bezwzględnie wymagane (a zgodność z przepisami jest obowiązkowa), LiDAR jest nie tylko preferowany – jest niezbędny. Robotaxi działające na obszarach miejskich z nieprzewidywalnymi mgłami lub ciężarówki dalekobieżne podróżujące po autostradach podatnych na mgłę nie mogą sobie pozwolić na 15% wskaźnik przejmowania kontroli przez kierowcę w przypadku czysto kamerowych systemów. Wskaźnik przejmowania kontroli przez kierowcę na poziomie 3% w gęstej mgle w przypadku LiDAR stanowi różnicę między możliwością operacyjną a ryzykiem dla bezpieczeństwa.

Przyszłość: Synergia, a nie konkurencja

Najbardziej przyszłościowe podejście polega nie na wyborze jednej technologii zamiast drugiej, ale na ich integracji. Nowoczesne systemy ADAS (takie jak Huawei ADS 3.0) wykorzystują niezawodne chmury punktów 3D LiDAR do uzupełnienia danych wizualnych o wysokiej rozdzielczości z kamer. W mgle LiDAR zapewnia podstawowe wykrywanie przeszkód, podczas gdy kamery pomagają identyfikować szczegóły, takie jak kolory świateł drogowych czy gesty pieszych (gdy są widoczne). Ta "fuzja czujników" wykorzystuje mocne strony obu technologii, tworząc system, który jest bardziej niezawodny niż każda z nich z osobna.

Wniosek: LiDAR przewodzi we mgle, ale wizja kamery nie jest wykluczona

Jeśli chodzi o warunki mgliste, dane są jednoznaczne: LiDAR przewyższa wizję kamery na wszystkich poziomach intensywności mgły, z szczególnie dużą różnicą w gęstej mgle. Jego sprzętowe podejście do percepcji – przenikanie mgły impulsami laserowymi i filtrowanie szumów za pomocą zaawansowanych algorytmów – ustanawia podstawę bezpieczeństwa, której nie może dorównać model wizji kamery oparty na oprogramowaniu, przynajmniej na razie.
Niemniej jednak, wizja kamery szybko ewoluuje. Algorytmy usuwania zamglenia oparte na sztucznej inteligencji i większe zbiory danych poprawiają jej wydajność w lekkiej i umiarkowanej mgle, czyniąc ją realnym wyborem dla regionów z minimalną liczbą ekstremalnych zjawisk mglistych. Jednak dla większości kierowców i operatorów komercyjnych, zdolność LiDAR do „widzenia przez mgłę” i zmniejszania liczby ręcznych przejęć jest przewagą bezpieczeństwa, której trudno zignorować.
Ostatecznie przyszłość autonomicznego postrzegania w mgle leży w fuzji czujników. Łącząc niezawodność LiDAR z detalami wizji kamerowej, możemy tworzyć systemy, które są bezpieczne, wydajne i adaptowalne nawet do najtrudniejszych warunków pogodowych. Na razie, jeśli bezpieczeństwo w mgle jest Twoim priorytetem, LiDAR jest wyraźnym zwycięzcą – ale nie skreślaj wizji kamerowej, ponieważ algorytmy stale się rozwijają.
jazda autonomiczna, zaawansowane systemy wspomagania kierowcy, ADAS
Kontakt
Podaj swoje informacje, a skontaktujemy się z Tobą.

Wsparcie

+8618520876676

+8613603070842

Aktualności

leo@aiusbcam.com

vicky@aiusbcam.com

WhatsApp
WeChat