La niebla es uno de los enemigos más formidables de la conducción autónoma y los sistemas avanzados de asistencia al conductor (ADAS). Distorsiona la luz, dispersa las señales y erosiona la fiabilidad de la percepción del entorno, capacidades fundamentales que mantienen seguros a conductores y peatones. El debate entre la visión por cámara y el LiDAR (detección y alcance de luz) ha estado vigente durante años, pero las condiciones de niebla eliminan la exageración del marketing y obligan a centrarse en el rendimiento fundamental: ¿Qué tecnología realmente cumple cuando la visibilidad se reduce drásticamente?
La División Central: Dos Filosofías de Seguridad Bajo la Niebla
Para entender por qué la niebla expone las fortalezas y debilidades de cada tecnología, primero necesitamos desglosar sus principios operativos subyacentes—y las mentalidades de seguridad que impulsan su adopción.
Los sistemas de visión por cámara funcionan como "ojos impulsados por inteligencia artificial". Se basan en cámaras de alta definición (típicamente de 8 a 10 en configuraciones avanzadas) combinadas con potentes chips de IA y enormes conjuntos de datos para imitar la percepción visual humana. La filosofía aquí es el minimalismo: usar software para compensar el hardware limitado, aprovechando el aprendizaje automático para traducir datos visuales 2D en comprensión ambiental 3D. Tesla y Xpeng son los defensores más destacados de este enfoque, que brilla en condiciones claras donde las abundantes señales visuales permiten que los algoritmos prosperen.
LiDAR, por el contrario, es un "guardián centrado en el hardware". Emite millones de pulsos láser por segundo para crear una nube de puntos 3D de alta precisión del entorno circundante, midiendo distancias, formas y velocidades con una precisión excepcional. La filosofía aquí es la redundancia: utilizar capacidades de detección física para establecer un nivel de seguridad, incluso cuando las condiciones ambientales oscurecen los detalles visuales. Huawei, BYD y la mayoría de los proveedores de ADAS de lujo adoptan esta trinidad de "LiDAR + cámara + radar de onda milimétrica", priorizando un rendimiento constante sobre el ahorro de costos.
La niebla interrumpe ambos sistemas, pero de maneras fundamentalmente diferentes. Para las cámaras, la niebla dispersa la luz, difumina los bordes y reduce el contraste, privando a los algoritmos de las características visuales que necesitan para identificar obstáculos. Para LiDAR, las partículas de niebla dispersan los pulsos láser, creando "ruido en la nube de puntos" que puede oscurecer objetivos reales o generar falsos positivos. La pregunta no es cuál se ve "afectado", sino cuál puede recuperarse más rápido, mantener métricas de rendimiento críticas y mantener a los conductores seguros cuando la visibilidad es la peor.
Datos del Mundo Real: Cómo Se Desempeñan en la Niebla (Últimas Pruebas de 2025)
La evidencia más convincente proviene del "Documento Blanco sobre Pruebas de Escenarios Extremos de Conducción Inteligente 2025", publicado conjuntamente por el Instituto de Investigación de Ingeniería Automotriz de China (CAERI) y Dongchedi. Este estudio pionero probó 36 modelos de consumo en rutas reales de 15 km con niebla y 216 escenarios de colisión simulados, cuantificando las brechas de rendimiento con datos concretos. Desglosemos los hallazgos clave según la gravedad de la niebla.
1. Niebla Ligera (Visibilidad: 200-500m)
En niebla ligera, común en las primeras horas de la mañana o en áreas costeras, ambas tecnologías funcionan adecuadamente, pero surgen sutiles diferencias. Los sistemas de visión de cámara, respaldados por avanzados algoritmos de eliminación de neblina, se defienden en el reconocimiento básico de obstáculos. El FSD V12.5 de Tesla, por ejemplo, logró una tasa de precisión del 90% en el reconocimiento de obstáculos en niebla ligera, gracias a sus algoritmos de eliminación de gotas de lluvia y neblina entrenados en miles de millones de kilómetros de datos del mundo real.
Los sistemas LiDAR, por su parte, mantuvieron una precisión casi perfecta (98%+) con un ruido mínimo. El LiDAR Hesai ATX, un modelo de largo alcance recién lanzado, demostró su capacidad para filtrar el 99% del ruido relacionado con la niebla a nivel de píxel, preservando nubes de puntos claras de los vehículos y peatones circundantes. La brecha aquí es estrecha, pero la ventaja del LiDAR radica en la consistencia: mientras que los sistemas de cámaras pueden tener dificultades si la densidad de la niebla fluctúa repentinamente, la detección física del LiDAR permanece estable.
2. Niebla Moderada (Visibilidad: 100-200m)
A medida que la visibilidad cae por debajo de los 200 metros, los límites algorítmicos de la visión por cámara se vuelven evidentes. La prueba CAERI mostró que los modelos de cámara puros experimentaron un aumento de 3 veces en las tasas de omisión de obstáculos en comparación con los vehículos equipados con LiDAR. La distancia de reconocimiento de peatones del Xpeng G6 se desplomó de 150 metros con tiempo despejado a solo 65 metros con niebla moderada, mientras que la del Tesla Model Y cayó a 78 metros. Este es un déficit crítico: a velocidades de autopista (100 km/h), una distancia de detección de 65 metros le da al sistema solo 2.3 segundos para reaccionar, apenas suficiente para un frenado de emergencia.
Los sistemas LiDAR, por el contrario, mantuvieron distancias de detección efectivas superiores a los 80 m. El ADS 3.0 de Huawei, equipado con un LiDAR de 192 líneas, logró una distancia media de reconocimiento de peatones de 126 m en niebla moderada, proporcionando una ventana de reacción de 4,5 segundos. La diferencia radica en la capacidad del LiDAR para penetrar la niebla utilizando longitudes de onda más largas (1550 nm) que se dispersan menos que la luz visible utilizada por las cámaras. Incluso cuando se dispersan, los pulsos láser conservan suficiente energía para regresar al sensor y calcular distancias con precisión.
3. Niebla Densa/Niebla de Advección (Visibilidad: <100m)
Con niebla densa —donde la visibilidad cae por debajo de 100 m, o incluso 50 m en casos extremos— la división se convierte en un abismo. Este es el escenario "decisivo" para los sistemas autónomos, y los datos de CAERI son contundentes: los sistemas de visión por cámara pura sufrieron una tasa de intervención manual del 15%, con frecuentes alertas de "fallo de percepción". En condiciones donde la niebla oculta las marcas de carril, los semáforos e incluso obstáculos grandes, los algoritmos simplemente carecen de información visual suficiente para tomar decisiones seguras.
Sin embargo, los vehículos equipados con LiDAR mantuvieron una tasa de intervención de solo el 3%. El ADS 3.0 de Huawei incluso demostró la capacidad de identificar con precisión vehículos estacionarios y completar maniobras evasivas con una visibilidad de 30 metros, condiciones en las que los conductores humanos tendrían dificultades para ver más allá de sus faros. Clave para este rendimiento son los algoritmos avanzados de filtrado de niebla, como los desarrollados por LSLidar. Estos algoritmos analizan las características de los pulsos láser dispersos por la niebla, separando el ruido de los datos válidos de la nube de puntos para preservar la información crítica de los obstáculos. El resultado es un sistema que no solo "ve" a través de la niebla, sino que mantiene la conciencia situacional cuando la visión de la cámara falla por completo.
Avances Técnicos: ¿Acercando la Brecha?
Mientras que el LiDAR tiene la ventaja en condiciones de niebla, ambas tecnologías están evolucionando rápidamente. Examinemos las últimas innovaciones que están remodelando su rendimiento en la niebla.
Visión de Cámara: Avances Algorítmicos
Los mayores avances en el rendimiento de la visión de cámara en condiciones de niebla provienen de algoritmos de desneblado impulsados por IA y conjuntos de datos más grandes y diversos. El FSD V12.5 de Tesla, por ejemplo, utiliza una combinación de aprendizaje supervisado y no supervisado para "ingeniería inversa" de los efectos de la niebla, restaurando la claridad en imágenes borrosas. Al entrenar con 10 mil millones de kilómetros de datos de noche y en condiciones climáticas adversas, el sistema ha mejorado la velocidad de seguimiento de objetos dinámicos en un 40% en condiciones de baja visibilidad.
Sin embargo, estos avances tienen límites. Dependen de la presencia de algunas características visuales con las que trabajar, algo que desaparece en la niebla densa. Incluso el mejor algoritmo de desneblado no puede crear información que no está presente, lo que hace que las limitaciones físicas de la visión de cámara sean difíciles de superar.
LiDAR: Sinergia entre Hardware y Algoritmo
La evolución del LiDAR se centra en mejorar la penetración, reducir el ruido y disminuir los costos. Uno de los avances más emocionantes es el LiDAR de fotón único, una tecnología de próxima generación desarrollada por una colaboración de investigadores del Reino Unido y EE. UU. Este sistema utiliza detectores de fotones únicos de nanocables superconductores ultrasensibles (SNSPD) y láseres de longitud de onda de 1550 nm para capturar imágenes 3D de alta resolución a través de la niebla, incluso a distancias de 1 kilómetro. Al detectar fotones individuales y medir su tiempo de vuelo con precisión de picosegundos (una billonésima de segundo), el sistema puede distinguir entre partículas de niebla y objetos reales con una precisión sin precedentes.
Los sistemas LiDAR comerciales también están avanzando rápidamente. El algoritmo interno de filtrado de polvo/lluvia/niebla de LSLidar, compatible con todos sus modelos (incluidos los LiDAR de estado sólido híbridos de fibra de 1550 nm y 905 nm), reduce significativamente el ruido de la nube de puntos mientras mantiene la detección de objetivos. El LiDAR ATX de Hesai, con un campo de visión ultraancho de 140° y un rango de detección de 300 m, puede identificar y marcar niebla, humos de escape y gotas de agua en tiempo real, garantizando datos de nube de puntos limpios para el sistema. Estas innovaciones están haciendo que el LiDAR sea más robusto en condiciones de niebla, al tiempo que reducen los costos —una vez una barrera importante para la adopción—, con precios en 2025 que caen en el rango de $300-$450.
Elección Práctica: ¿Cuándo Priorizar Qué Tecnología?
La respuesta a "cuál funciona mejor en la niebla" depende de tu caso de uso y tolerancia al riesgo. Aquí hay un marco para la toma de decisiones:
Para Vehículos de Consumo (ADAS)
Si vives en una región con niebla frecuente (por ejemplo, áreas costeras, valles o climas fríos con inversiones de temperatura), LiDAR es la opción más segura. Los datos de CAERI demuestran que su capacidad para mantener la conciencia situacional en niebla densa proporciona un margen de seguridad crítico. Incluso a medida que mejora la visión de la cámara, la redundancia de hardware de LiDAR actúa como una "red de seguridad" que los algoritmos no pueden replicar.
Para regiones con niebla mínima, la visión de cámara pura puede ser suficiente, especialmente si el costo es una preocupación principal. Modelos como el Tesla Model Y y el Xpeng G6 ofrecen un sólido rendimiento de ADAS en condiciones claras y ligeramente neblinosas, con actualizaciones OTA continuas que mejoran continuamente sus algoritmos con el tiempo.
Para Autonomía Comercial (Robotaxis, Transporte de Carga)
En aplicaciones comerciales donde la seguridad y la fiabilidad son innegociables (y el cumplimiento normativo es obligatorio), el LiDAR no es solo preferible, es esencial. Los robotaxis que operan en áreas urbanas con eventos de niebla impredecibles, o los camiones de larga distancia que viajan por autopistas propensas a la niebla, no pueden permitirse la tasa de intervención del 15% de los sistemas de cámaras puros. La tasa de intervención del 3% del LiDAR en niebla densa es la diferencia entre la viabilidad operativa y los riesgos de seguridad.
El Futuro: Sinergia, No Competencia
El enfoque más vanguardista no es elegir una tecnología sobre la otra, sino integrarlas. Los sistemas ADAS modernos (como Huawei ADS 3.0) utilizan las confiables nubes de puntos 3D de LiDAR para complementar los datos visuales de alta resolución de las cámaras. En condiciones de niebla, LiDAR proporciona la detección central de obstáculos, mientras que las cámaras ayudan a identificar detalles como los colores de los semáforos o los gestos de los peatones (cuando son visibles). Esta "fusión de sensores" aprovecha las fortalezas de ambas tecnologías, creando un sistema más robusto que cualquiera de ellas por sí sola.
Conclusión: LiDAR Lidera en Niebla, Pero la Visión de Cámara No Está Fuera
Cuando se trata de condiciones de niebla, los datos son inequívocos: LiDAR supera a la visión de cámara en todos los niveles de severidad de niebla, con una brecha particularmente amplia en la niebla densa. Su enfoque impulsado por hardware para la percepción—penetrando la niebla con pulsos láser y filtrando el ruido con algoritmos avanzados—establece una base de seguridad que el modelo centrado en software de la visión de cámara no puede igualar, al menos por ahora.
Dicho esto, la visión de cámara está evolucionando rápidamente. Los algoritmos de desneblado de IA y conjuntos de datos más grandes están mejorando su rendimiento en niebla ligera a moderada, convirtiéndola en una opción viable para regiones con eventos extremos de niebla mínimos. Sin embargo, para la mayoría de los conductores y operadores comerciales, la capacidad de LiDAR para "ver a través de la niebla" y reducir las asunciones manuales es una ventaja de seguridad que es difícil de ignorar.
En última instancia, el futuro de la percepción autónoma en la niebla radica en la fusión de sensores. Al combinar la fiabilidad del LiDAR con el detalle de la visión de la cámara, podemos crear sistemas que sean seguros, eficientes y adaptables incluso a las condiciones climáticas más adversas. Por ahora, si la seguridad en la niebla es tu máxima prioridad, el LiDAR es el claro ganador—pero no descartes la visión de la cámara a medida que los algoritmos continúan avanzando.