La nebbia è uno dei nemici più temibili della guida autonoma e dei sistemi avanzati di assistenza alla guida (ADAS). Distorce la luce, disperde i segnali ed erode l'affidabilità della percezione ambientale, capacità fondamentali che garantiscono la sicurezza di conducenti e pedoni. Il dibattito tra visione tramite telecamera e LiDAR (Light Detection and Ranging) infuria da anni, ma le condizioni di nebbia eliminano l'hype di marketing e costringono a concentrarsi sulle prestazioni fondamentali: quale tecnologia offre veramente quando la visibilità diminuisce drasticamente?
La Divisione Fondamentale: Due Filosofie di Sicurezza Sotto la Nebbia
Per capire perché la nebbia mette in evidenza i punti di forza e di debolezza di ciascuna tecnologia, dobbiamo prima analizzare i loro principi operativi sottostanti e le mentalità di sicurezza che guidano la loro adozione.
I sistemi di visione della telecamera funzionano come "occhi potenziati dal cervello". Si basano su telecamere ad alta definizione (tipicamente 8-10 in configurazioni avanzate) abbinate a potenti chip AI e a enormi set di dati per imitare la percezione visiva umana. La filosofia qui è il minimalismo: utilizzare il software per compensare l'hardware limitato, sfruttando l'apprendimento automatico per tradurre dati visivi 2D in comprensione ambientale 3D. Tesla e Xpeng sono i sostenitori più importanti di questo approccio, che eccelle in condizioni chiare dove abbondanti indizi visivi consentono agli algoritmi di prosperare.
LiDAR, al contrario, è un "guardiano basato sull'hardware". Emette milioni di impulsi laser al secondo per creare una nuvola di punti 3D ad alta precisione dell'ambiente circostante, misurando distanze, forme e velocità con eccezionale accuratezza. La filosofia qui è la ridondanza: utilizzare capacità di rilevamento fisico per stabilire un livello di sicurezza, anche quando le condizioni ambientali oscurano i dettagli visivi. Huawei, BYD e la maggior parte dei fornitori di ADAS di lusso adottano questa triade "LiDAR + telecamera + radar a onde millimetriche", dando priorità a prestazioni costanti rispetto al risparmio sui costi.
La nebbia disturba entrambi i sistemi, ma in modi fondamentalmente diversi. Per le telecamere, la nebbia diffonde la luce, sfoca i bordi e lava via il contrasto, privando gli algoritmi delle caratteristiche visive di cui hanno bisogno per identificare gli ostacoli. Per il LiDAR, le particelle di nebbia diffondono gli impulsi laser, creando "rumore nella nuvola di punti" che può oscurare bersagli reali o generare falsi positivi. La domanda non è quale sia "incontaminato", ma quale possa recuperare più velocemente, mantenere metriche di prestazione critiche e mantenere i conducenti al sicuro quando la visibilità è al suo peggio.
Dati del Mondo Reale: Come Si Comportano nella Nebbia (Ultimi Test 2025)
Le prove più convincenti provengono dal "White Paper sul Test degli Scenari Estremi di Guida Intelligente 2025", pubblicato congiuntamente dall'Istituto di Ricerca dell'Ingegneria Automobilistica della Cina (CAERI) e Dongchedi. Questo studio fondamentale ha testato 36 modelli mainstream su percorsi reali nebbiosi di 15 km e 216 scenari di collisione simulati, quantificando le differenze di prestazioni con dati concreti. Analizziamo i risultati chiave in base alla gravità della nebbia.
1. Nebbia Leggera (Visibilità: 200-500m)
In caso di leggera nebbia, comune nelle prime ore del mattino o nelle aree costiere, entrambe le tecnologie si comportano adeguatamente, ma emergono sottili lacune. I sistemi di visione della telecamera, supportati da avanzati algoritmi di dehazing, si difendono bene nel riconoscimento di ostacoli di base. Il FSD V12.5 di Tesla, ad esempio, ha raggiunto un tasso di precisione del 90% nel riconoscimento degli ostacoli in leggera nebbia, grazie ai suoi algoritmi di eliminazione delle gocce d'acqua e della nebbia addestrati su miliardi di chilometri di dati del mondo reale.
I sistemi LiDAR, nel frattempo, hanno mantenuto un'accuratezza quasi perfetta (98%+) con rumore minimo. Il LiDAR Hesai ATX, un modello a lungo raggio appena lanciato, ha dimostrato la sua capacità di filtrare il 99% del rumore legato alla nebbia a livello di pixel, preservando nuvole di punti chiare dei veicoli e dei pedoni circostanti. Il divario qui è stretto, ma il vantaggio del LiDAR risiede nella coerenza: mentre i sistemi a telecamera possono avere difficoltà se la densità della nebbia fluttua improvvisamente, il rilevamento fisico del LiDAR rimane stabile.
2. Nebbia Moderata (Visibilità: 100-200m)
Man mano che la visibilità scende al di sotto dei 200 metri, i limiti algoritmici della visione delle telecamere diventano evidenti. Il test CAERI ha dimostrato che i modelli basati esclusivamente su telecamere hanno registrato un aumento del 300% nei tassi di mancata rilevazione degli ostacoli rispetto ai veicoli dotati di LiDAR. La distanza di riconoscimento dei pedoni della Xpeng G6 è crollata da 150 metri in condizioni di bel tempo a soli 65 metri in nebbia moderata, mentre quella della Tesla Model Y è scesa a 78 metri. Questo è un deficit critico: a velocità autostradali (100 km/h), una distanza di rilevamento di 65 metri concede al sistema solo 2,3 secondi per reagire, appena sufficienti per una frenata di emergenza.
I sistemi LiDAR, al contrario, hanno mantenuto distanze di rilevamento efficaci superiori agli 80 metri. L'ADS 3.0 di Huawei, equipaggiato con un LiDAR a 192 linee, ha raggiunto una distanza media di riconoscimento pedoni di 126 metri in nebbia moderata, fornendo una finestra di reazione di 4,5 secondi. La differenza deriva dalla capacità del LiDAR di penetrare la nebbia utilizzando lunghezze d'onda più lunghe (1550 nm) che si disperdono meno della luce visibile utilizzata dalle telecamere. Anche quando dispersi, gli impulsi laser mantengono energia sufficiente per tornare al sensore e calcolare accuratamente le distanze.
3. Nebbia Fitta/Nebbia da Avvezione (Visibilità: <100m)
Nella fitta nebbia—dove la visibilità scende sotto i 100 metri, o addirittura 50 metri nei casi estremi—la differenza diventa un abisso. Questo è lo scenario "decisivo" per i sistemi autonomi, e i dati CAERI sono chiari: i sistemi di sola visione tramite telecamera hanno registrato un tasso di intervento manuale del 15%, con frequenti avvisi di "fallimento della percezione". In condizioni in cui la nebbia oscura le linee della corsia, i semafori e persino i grandi ostacoli, gli algoritmi semplicemente non dispongono di informazioni visive sufficienti per prendere decisioni sicure.
I veicoli dotati di LiDAR, tuttavia, hanno mantenuto un tasso di intervento di solo il 3%. L'ADS 3.0 di Huawei ha persino dimostrato la capacità di identificare accuratamente veicoli fermi e completare manovre evasive con una visibilità di 30 metri, condizioni in cui i conducenti umani farebbero fatica a vedere oltre i propri fari. Fondamentali per queste prestazioni sono algoritmi avanzati di filtraggio della nebbia, come quelli sviluppati da LSLidar. Questi algoritmi analizzano le caratteristiche degli impulsi laser diffusi dalla nebbia, separando il rumore dai dati validi della nuvola di punti per preservare le informazioni critiche sugli ostacoli. Il risultato è un sistema che non si limita a "vedere" attraverso la nebbia, ma mantiene la consapevolezza della situazione quando la visione della telecamera fallisce completamente.
Scoperte Tecniche: Ridurre il Divario?
Mentre il LiDAR ha il vantaggio nelle condizioni nebbiose, entrambe le tecnologie stanno evolvendo rapidamente. Esaminiamo le ultime innovazioni che stanno rimodellando le loro prestazioni nella nebbia.
Visione della Camera: Progressi Algoritmici
I maggiori progressi nelle prestazioni della visione della camera in condizioni di nebbia provengono da algoritmi di dehazing potenziati dall'IA e da dataset più grandi e diversificati. Il FSD V12.5 di Tesla, ad esempio, utilizza una combinazione di apprendimento supervisionato e non supervisionato per "ingegnerizzare" gli effetti della nebbia, ripristinando la chiarezza delle immagini sfocate. Addestrando su 10 miliardi di chilometri di dati notturni e in condizioni meteorologiche avverse, il sistema ha migliorato la velocità di tracciamento degli oggetti dinamici del 40% in condizioni di bassa visibilità.
Tuttavia, questi progressi hanno dei limiti. Si basano sulla presenza di alcune caratteristiche visive con cui lavorare, qualcosa che scompare nella nebbia fitta. Anche il miglior algoritmo di dehazing non può creare informazioni che non ci sono, rendendo difficili da superare i limiti fisici della visione della camera.
LiDAR: Sinergia tra Hardware e Algoritmi
L'evoluzione del LiDAR si concentra sul miglioramento della penetrazione, sulla riduzione del rumore e sull'abbassamento dei costi. Una delle scoperte più entusiasmanti è il LiDAR a singolo fotone, una tecnologia di prossima generazione sviluppata da una collaborazione di ricercatori del Regno Unito e degli Stati Uniti. Questo sistema utilizza rivelatori di singoli fotoni a nanofilo superconduttore ultrasensibili (SNSPD) e laser a lunghezza d'onda di 1550 nm per catturare immagini 3D ad alta risoluzione attraverso la nebbia, anche a distanze di 1 chilometro. Rilevando singoli fotoni e misurando il loro tempo di volo con precisione picoseconda (un trilionesimo di secondo), il sistema può distinguere tra particelle di nebbia e oggetti reali con un'accuratezza senza precedenti.
Anche i sistemi LiDAR commerciali stanno avanzando rapidamente. L'algoritmo proprietario di LSLidar per il filtraggio di polvere/pioggia/nebbia, compatibile con tutti i suoi modelli (inclusi LiDAR a fibra da 1550 nm e ibridi a stato solido da 905 nm), riduce significativamente il rumore della nuvola di punti mantenendo il rilevamento del bersaglio. L'ATX Lidar di Hesai, con un campo visivo ultra-ampio di 140° e un raggio di rilevamento di 300 m, può identificare e contrassegnare nebbia, fumi di scarico e goccioline d'acqua in tempo reale, garantendo dati di nuvola di punti puliti per il sistema. Queste innovazioni stanno rendendo il LiDAR più robusto in condizioni di nebbia, riducendo al contempo i costi, un tempo una barriera importante all'adozione, con prezzi nel 2025 che scendono nella fascia di 300-450 dollari.
Scelta Pratica: Quando Dare Priorità a Quale Tecnologia?
La risposta a "quale funziona meglio nella nebbia" dipende dal tuo caso d'uso e dalla tua tolleranza al rischio. Ecco un quadro per il processo decisionale:
Per Veicoli di Consumo (ADAS)
Se vivi in una regione con nebbia frequente (ad esempio, aree costiere, valli o climi freddi con inversioni di temperatura), il LiDAR è la scelta più sicura. I dati del CAERI dimostrano che la sua capacità di mantenere la consapevolezza situazionale in condizioni di nebbia fitta fornisce un importante margine di sicurezza. Anche se la visione della telecamera migliora, la ridondanza hardware del LiDAR funge da "rete di sicurezza" che gli algoritmi non possono replicare.
Per le regioni con minima nebbia, la visione della telecamera pura può essere sufficiente, specialmente se il costo è una preoccupazione primaria. Modelli come la Tesla Model Y e l'Xpeng G6 offrono prestazioni ADAS solide in condizioni di chiarezza e leggera nebbia, con aggiornamenti OTA continui che migliorano continuamente i loro algoritmi nel tempo.
Per l'Autonomia Commerciale (Robotaxi, Trasporti)
Nelle applicazioni commerciali in cui sicurezza e affidabilità sono imprescindibili (e la conformità normativa è obbligatoria), il LiDAR non è solo preferito: è essenziale. I robotaxi che operano in aree urbane con eventi di nebbia imprevedibili, o i camion a lungo raggio che viaggiano attraverso autostrade soggette a nebbia, non possono permettersi il tasso di takeover del 15% dei sistemi a sola telecamera. Il tasso di takeover del 3% del LiDAR in condizioni di nebbia fitta fa la differenza tra la viabilità operativa e i rischi per la sicurezza.
Il Futuro: Sinergia, Non Competizione
L'approccio più lungimirante non consiste nello scegliere una tecnologia rispetto all'altra, ma nell'integrarle. I moderni sistemi ADAS (come Huawei ADS 3.0) utilizzano le affidabili nuvole di punti 3D del LiDAR per integrare i dati visivi ad alta risoluzione delle telecamere. Nella nebbia, il LiDAR fornisce il rilevamento degli ostacoli principale, mentre le telecamere aiutano a identificare dettagli come i colori dei semafori o i gesti dei pedoni (quando visibili). Questa "fusione di sensori" sfrutta i punti di forza di entrambe le tecnologie, creando un sistema più robusto di quanto non sarebbe ciascuna da sola.
Conclusione: LiDAR Vince nella Nebbia, Ma la Visione della Telecamera Non è Fuori Gioco
Quando si tratta di condizioni di nebbia, i dati sono inequivocabili: LiDAR supera la visione della telecamera a tutti i livelli di gravità della nebbia, con un divario particolarmente ampio nella nebbia fitta. Il suo approccio basato sull'hardware alla percezione, che penetra la nebbia con impulsi laser e filtra il rumore con algoritmi avanzati, stabilisce una base di sicurezza che il modello incentrato sul software della visione della telecamera non può eguagliare, almeno per ora.
Detto questo, la visione della telecamera si sta evolvendo rapidamente. Gli algoritmi di dehazing basati sull'IA e set di dati più ampi stanno migliorando le sue prestazioni nella nebbia leggera e moderata, rendendola una scelta praticabile per le regioni con eventi di nebbia estrema minimi. Per la maggior parte dei conducenti e degli operatori commerciali, tuttavia, la capacità del LiDAR di "vedere attraverso la nebbia" e ridurre le interruzioni manuali rappresenta un vantaggio per la sicurezza difficile da ignorare.
In definitiva, il futuro della percezione autonoma nella nebbia risiede nella fusione dei sensori. Combinando l'affidabilità del LiDAR con i dettagli della visione della telecamera, possiamo creare sistemi che sono sicuri, efficienti e adattabili anche alle condizioni meteorologiche più avverse. Per ora, se la sicurezza nella nebbia è la tua massima priorità, il LiDAR è il chiaro vincitore, ma non sottovalutare la visione della telecamera mentre gli algoritmi continuano a progredire.