Red de conocimientos turísticos - Evaluación hotelera - La fusión de sensores es el camino a seguir para la conducción autónoma

La fusión de sensores es el camino a seguir para la conducción autónoma

El 21 de octubre, el director ejecutivo de Tesla, Elon Musk, tuiteó que la versión beta del software de conducción autónoma total (en adelante, ? FSD) de Tesla se ha enviado a un pequeño número de clientes. A principios del 11 de octubre, Baidu también anunció que su servicio de taxi sin conductor Baidu Apollo estaba oficialmente abierto para operar en Beijing.

Desde octubre, dos oleadas consecutivas de tecnología de conducción autónoma han llevado el entusiasmo de la gente por la conducción autónoma a su clímax. Y este año es en realidad un año relativamente importante para la conducción autónoma, porque si contamos desde el lanzamiento del proyecto de conducción autónoma de Google en 2010, este año resulta ser el décimo año de comercialización de la tecnología de conducción autónoma.

Durante los últimos diez años, como el escenario de aplicación de la inteligencia artificial más cercano a la vida, la conducción autónoma siempre ha tenido grandes esperanzas. Hoy en día, con los avances y aplicaciones de big data, IA, 5G y otras tecnologías, Baidu, Uber, Didi, WeRide y cada vez más tecnologías de conducción autónoma han pasado del laboratorio a la carretera.

Para los sistemas de conducción asistida (ADAS) y los vehículos autónomos (AV), es posible que nunca exista una forma única y más eficiente de implementar la tecnología de detección. Ese número mágico es probablemente seis, ya que cada fabricante de automóviles decidirá cómo hacerlo a su manera basándose en seis consideraciones fundamentales, lo que llevará a que cada uno cree su propio enfoque único para integrar sensores en vehículos futuros.

Algunas empresas nacionales y extranjeras de autopartes con una gran fortaleza integral han desarrollado diseños de múltiples productos en sensores de vehículos autónomos, que pueden brindar a los clientes posteriores soluciones integrales de conducción autónoma y generar una fuerte competitividad. Estas empresas incluyen empresas extranjeras como Bosch, Continental, Valeo, Hella, Delphi, Fujitsu Ten, Autoliv y empresas nacionales como Desay SV, Huayu Automobile y Baolong Technology.

Cada vez se implementan más sensores en todo el vehículo para abordar de forma proactiva los problemas de seguridad. ¿Cuántos sensores hay en nuestros coches hoy en día? ¿Cuántos sensores más se necesitan para aumentar aún más la autonomía? La respuesta a esta pregunta es si se tienen en cuenta los sensores para ADAS: ultrasónicos, radar, cámaras de detección, cámaras de observación y LiDAR, ¿se estima que un vehículo tiene de 10 a 20 sensores, dependiendo del tipo de vehículo?

Los sensores serán clave para abordar los altos niveles de automatización, y se espera que aumente la cantidad y el tipo de sensores.

Los sensores de monitoreo ambiental para la conducción autónoma incluyen principalmente cámaras y radares: en primer lugar, la cámara utiliza tecnología de reconocimiento de imágenes para lograr funciones como la medición de distancia y el reconocimiento de objetivos; en segundo lugar, el radar utiliza la relación entre la onda transmitida y; la onda reflejada a la diferencia de tiempo, la diferencia de fase. Obtener datos como la posición y la velocidad del objeto objetivo. Según los diferentes tipos de ondas utilizadas, el radar se puede dividir en tres categorías: radar de onda milimétrica, lidar y radar ultrasónico.

Cámara: Los ojos de la conducción autónoma

En términos de cámaras, según la posición de cobertura del campo de visión, se pueden dividir en vista frontal, vista envolvente ( vista lateral + vista trasera) y cámaras de visión interna, entre las cuales las cámaras de visión frontal. La cámara visual es la más crítica y puede realizar funciones como el sistema de advertencia de cambio de carril (LDW), el sistema de advertencia de colisión frontal (FCW) y el sistema de advertencia de peatones. Advertencia de reconocimiento (PCW). La cámara de visión frontal tiene diferentes soluciones, como cámara monocular, cámara binocular e incluso cámara multiojo. Aunque las cámaras binoculares o multiojo tienen mayor precisión de alcance y ángulos de visión más amplios, no se han producido en masa debido a su alto costo y altos requisitos de precisión y chips informáticos. Actualmente se utilizan en... La solución de cámara monocular de Mobileye es. la corriente principal en el mercado.

La cadena de la industria de cámaras para automóviles involucra principalmente tres eslabones principales: materiales upstream, componentes midstream y productos downstream. En los materiales ascendentes, se utilizan lentes ópticas, filtros y películas protectoras para fabricar conjuntos de lentes, y obleas para fabricar chips CMOS y procesadores de señales DSP, en el medio, se ensamblan conjuntos de lentes, chips CMOS y materiales adhesivos en módulos, y empaquetado con un procesador de señal DSP en un producto de cámara. En este nivel de la cadena industrial, los proveedores ascendentes ya pueden suministrar productos de cámaras completos a clientes de vehículos descendentes o proveedores de primer nivel.

En la cadena de la industria de cámaras para automóviles, las cámaras y los algoritmos de software juntos forman soluciones de cámaras para automóviles y se utilizan en vehículos autónomos. La cadena de la industria de las cámaras para automóviles es larga, con muchos eslabones ascendentes y descendentes, y en cada eslabón participan muchos fabricantes y empresas nacionales y extranjeros.

En comparación con las cámaras utilizadas en electrónica de consumo, las cámaras de grado automotriz tienen mayores requisitos de resistencia a los golpes, estabilidad, características de enfoque continuo, compensación térmica, luz parásita y fuerte resistencia a la interferencia de la luz, etc., por lo que su proceso de ensamblaje del módulo es complejo y su fortaleza técnica es alta. Desde la perspectiva del mercado mundial de suministro de cámaras, empresas extranjeras como Panasonic, Valeo, Fujitsu Ten, Continental y Magna ocupan actualmente una gran participación. La participación de mercado total de los cinco principales fabricantes es de alrededor del 59%, con un grado relativamente alto. de concentración.

Radar: el cerebro de la conducción autónoma

En términos de radar, se divide principalmente en tres categorías: 1. Radar de ondas milimétricas: entre microondas e infrarrojos, rango de frecuencia: ¿10 GHz? — 200 GHz, la longitud de onda es de nivel milimétrico; 2. Lidar: entre la luz infrarroja y visible, la frecuencia es de aproximadamente 100 000 GHz, la longitud de onda es de nivel nanométrico 3. Radar ultrasónico: la frecuencia es superior a 20 000 Hz; Según la fórmula: velocidad de la luz = longitud de onda * frecuencia, cuanto mayor es la frecuencia, más corta es la longitud de onda. Cuanto más corta sea la longitud de onda, mayor será la resolución; cuanto mayor sea la resolución, mayor será la precisión de la medición en términos de distancia, velocidad y ángulo.

El radar de marcha atrás que utilizamos habitualmente es el radar ultrasónico, que emite ondas sonoras y sólo puede alcanzar la velocidad del sonido. El radar ultrasónico es pequeño en tamaño y de bajo precio, pero tiene poca precisión de detección, pequeño alcance y tiene un gran impacto cuando se mueve a altas velocidades. No se usa ampliamente en la conducción autónoma.

El radar más utilizado es el radar de ondas milimétricas, que emite ondas electromagnéticas y se propaga a la velocidad de la luz. Los principales radares de ondas milimétricas son los de 24GHz y 77GHz. 24 GHz tiene baja frecuencia, ancho de banda estrecho y precisión relativamente baja. Se utiliza principalmente para monitoreo de puntos ciegos, estacionamiento automático, etc. El de 77 GHz tiene una precisión mucho mayor y puede detectar distancias con mayor precisión, y el clima y otros factores tienen poco impacto en ello. Integrarlo con la cámara puede completar perfectamente la percepción del entorno.

Sin embargo, el radar de ondas milimétricas puede detectar la distancia, pero no puede detectar con precisión la forma específica de un objeto, o la distancia entre dos personas delante, etc., y también hay mucho ruido en la detección. . Por ejemplo, en una carretera vacía, algunas ondulaciones o partículas de la superficie de la carretera también formarán reflejos que interfieren con la evaluación del radar de ondas milimétricas.

Lidar puede resolver estos problemas muy bien y su precisión puede alcanzar el nivel de centímetros. Cada generador láser en el lidar representa una línea. Los lidares giratorios mecánicos de uso común incluyen 10 líneas, 64 líneas, 128 líneas, etc. Lidar es en realidad un radar que funciona en la banda óptica (banda especial) y sus ventajas son muy obvias.

En primer lugar, tiene una resolución extremadamente alta: el lidar opera en la banda óptica y la frecuencia es más de 2 o 3 órdenes de magnitud mayor que la de las microondas. Por lo tanto, en comparación con el radar de microondas, el lidar tiene una resolución extremadamente alta. Resolución de distancia, resolución angular y resolución de velocidad.

En segundo lugar, gran capacidad antiinterferencias: la longitud de onda del láser es corta, puede emitir rayos láser con ángulos de divergencia muy pequeños (nivel μrad) y el efecto multitrayectoria es pequeño (no formará emisión direccional, a diferencia de las microondas u ondas milimétricas) Produce un efecto de trayectoria múltiple) y puede detectar objetivos de baja altitud/ultrabaja altitud.

En tercer lugar, la cantidad de información obtenida es rica: la distancia, el ángulo, la intensidad de la reflexión, la velocidad y otra información del objetivo se pueden obtener directamente para generar una imagen multidimensional del objetivo. En cuarto lugar, puede funcionar las 24 horas del día: la detección activa por láser no depende de las condiciones de iluminación externa ni de las características de radiación del propio objetivo. Sólo necesita emitir su propio rayo láser y obtener información del objetivo detectando la señal de eco del rayo láser emitido.

Sin embargo, debido a limitaciones de precio y tamaño, actualmente el lidar rara vez se instala en vehículos producidos en masa. Musk ha criticado el lidar como "voluminoso" y "feo" en múltiples ocasiones. Esta es también una deficiencia importante del lidar. En esta etapa, es difícil reducir su tamaño y su posición en el techo es bastante abrupta, lo que afecta directamente el progreso de la producción en masa. Por lo tanto, todavía no hemos visto sistemas lidar instalados. En un coche de producción.

Este último tipo de radar ultrasónico se ha convertido ahora en un componente común en los automóviles, admite funciones de asistencia a la conducción como el aparcamiento automático y también "contribuirá" a la conducción totalmente autónoma en el futuro. Su principio de funcionamiento es medir obstáculos dentro de un rango de 0,2 a 5 m con una precisión de 1 a 3 cm, actuando como los "ojos del coche". Los radares ultrasónicos se pueden dividir en analógicos, digitales de cuatro hilos, digitales de dos hilos y digitales activos de tres hilos. Sus capacidades antiinterferencias de señal se mejoran gradualmente y su dificultad técnica y precio generalmente aumentan.

Desde el lanzamiento del piloto automático de Tesla, ha dependido mucho del radar ultrasónico y siempre ha insistido en utilizar un diseño de radar ultrasónico 4+4+4. En la primera versión, Tesla utilizaba 8 radares delanteros y traseros en asistencia de aparcamiento y los 12 radares en conducción asistida. Tesla dijo que, a diferencia de las cámaras que monitorean las marcas de los carriles, el radar ultrasónico puede monitorear el área circundante y despejar puntos ciegos como vehículos u otros objetos.

En realidad, hay una razón por la que Tesla "prefiere" el radar ultrasónico. Como se mencionó anteriormente, aunque el lidar es bueno, el costo es demasiado alto y no se puede ensamblar a gran escala en modelos producidos en masa. Por el momento, esto también ha llevado a que se haya restringido la promoción de la tecnología de conducción autónoma de alto nivel.

Y el radar ultrasónico es barato. En la actualidad, el precio de un solo radar ultrasónico es de aproximadamente decenas de yuanes, el costo del hardware del radar de un sistema de radar de marcha atrás es de menos de 200 yuanes y el costo del hardware del radar de un sistema de estacionamiento automático es de aproximadamente 500 yuanes. En comparación, el precio del radar de ondas milimétricas todavía se encuentra en el nivel de los mil yuanes y el precio del lidar llega a cientos de miles de yuanes. El precio relativamente bajo ha vinculado estrechamente a las empresas automotrices con el radar ultrasónico y ha promovido la prosperidad del mercado de radar ultrasónico para automóviles.

Según datos de P&S Intelligence, el tamaño del mercado mundial de radares ultrasónicos para automóviles fue de 3.460 millones de dólares estadounidenses (aproximadamente 24.390 millones de yuanes) en 2019. La agencia predice que de 2020 a 2030, el tamaño del mercado mundial de radares ultrasónicos para automóviles aumentará; Mantendrá una tasa de crecimiento anual compuesta del 5,1% y alcanzará los 6.100 millones de dólares estadounidenses (aproximadamente 42.980 millones de yuanes) en 2030.

Sin embargo, el radar ultrasónico no es un gran avance en la tecnología de conducción autónoma. Está limitado por las características físicas. El alcance de detección del radar ultrasónico montado en un vehículo está limitado a unos pocos metros y no puede describir con precisión la ubicación. de obstáculos, además, muchos vehículos en la misma banda de frecuencia. Para evitar la "lucha" de ecos, la mayoría de los radares adoptan multiplexación por división de tiempo, lo que ralentiza la velocidad de recopilación de información. Su precisión de detección se ve fácilmente afectada por la velocidad del vehículo, la vibración, temperatura y humedad, etc., y está lleno de desafíos en términos de antiinterferencia y calibración. En resumen, el radar ultrasónico es un "material auxiliar" en lugar de un "alimento básico". Sólo cuando se combina con un radar de ondas milimétricas, cámaras e incluso lidar puede admitir funciones de conducción asistida de mayor nivel.

La integración es el camino a seguir para los sensores

Obviamente, los sensores serán la clave para resolver altos niveles de automatización, y se espera que aumente la cantidad y el tipo de sensores. El creciente número de sensores es sólo la punta del iceberg. Los sensores generan grandes cantidades de datos y los sistemas están gravemente limitados por la capacidad de procesamiento.

Entonces, ¿cuantos más sensores, mejor? Algunos pueden pensar que sí, pero la cantidad de sensores en un automóvil no aumentará indefinidamente por razones de costo o integración. Se espera que el número de sensores automatizados se estabilice en algún momento, siendo las principales diferencias el nivel de software y la capacidad de las empresas para procesar eficientemente grandes cantidades de datos. Algunos fabricantes de equipos originales, como Tesla, todavía no utilizan LiDAR, pero apuestan por una combinación de sensores y computación de IA para lograr altos niveles de automatización.

Al igual que los sentidos humanos, los sensores deben estar ubicados estratégicamente para transmitir información continuamente alrededor del automóvil. Pero existen limitaciones técnicas sobre dónde se pueden colocar los sensores. Por ejemplo, la condensación en un faro puede impedir que funcione el lidar. En climas fríos o con nieve, la escarcha puede provocar fallos en el sensor. Los sensores infrarrojos no pueden atravesar el cristal y no pueden colocarse detrás del parabrisas.

Actualmente, existen tres soluciones principales para la conducción autónoma. Una se basa en el dominio visual, utilizando mapas GPS e inteligencia artificial AI para la conducción autónoma. El modelo actual basado en visión es principalmente el de Tesla. Tesla recopila datos ambientales a través de las cámaras de todos los automóviles Tesla y combina procesamiento de imágenes y aprendizaje automático para transmitirlos sin depender de mapas pregrabados. Los autos Tesla recopilan datos mientras conducen y comparten lo que aprenden con todos los autos Tesla, viendo así el terreno de manera similar a los ojos humanos y luego analizándolo a través de inteligencia artificial para guiar a los autos autónomos en la toma de decisiones.

El segundo se basa en guía visual basada en lidar y en el uso de mapas de alta precisión e inteligencia artificial para la conducción autónoma. Este es el método de conducción autónoma adoptado por los principales fabricantes de equipos originales tradicionales actuales, como General Motors, Mercedes-Benz, Ford y muchas empresas de conducción autónoma, incluidas Waymo, Google, etc. Estos vehículos se basan en mapas 3D de alta resolución pregrabados de su entorno, que se dibujan mediante captura previa mediante vehículos equipados con lidar. Luego, el vehículo puede usar el mapa para determinar si el entorno ha cambiado usando el posicionamiento de su propio dispositivo lidar y luego tomar el control mientras navega por el área mapeada.

El tercero es la conducción autónoma con inteligencia artificial basada en el Internet de los Vehículos y la fusión de múltiples sensores. El Internet de los vehículos requiere una enorme inversión en infraestructura y requiere que todos los vehículos de conducción autónoma estén en la misma plataforma. Se trata de un ecosistema mucho más amplio que las dos primeras estrategias y, al invertir en carreteras más inteligentes, se puede reducir la complejidad y la incertidumbre de la autonomía de los vehículos. Esto requiere que los fabricantes de automóviles, los proveedores de V2X y los municipios trabajen juntos y creen infraestructura y estándares para vehículos que permitan a los vehículos navegar sin problemas y reducir el umbral de error.

Obviamente, las dos primeras soluciones son soluciones realistas basadas en las condiciones tradicionales actuales de las carreteras, las condiciones de los automóviles y las leyes y regulaciones. Aunque se dice que Tesla es el único que adopta la solución, Tesla también tiene una gran presencia en el mercado de vehículos eléctricos. Es difícil decir que la solución de conducción autónoma basada en la conducción basada en la visión sea necesariamente peor que la solución basada en la visión. lidar.

Sin embargo, una cosa es segura: la tercera solución basada en Internet de los vehículos es el único camino a seguir para el desarrollo de la conducción autónoma en el futuro. Bajo el dominio de Internet de los vehículos, inevitablemente se necesitará una gran cantidad de sensores que cooperarán entre sí y formarán un sistema de conducción autónomo completo con el propio automóvil. Por lo tanto, las perspectivas de desarrollo de los sensores casi pueden describirse como un camino tranquilo.

Public People Review Cars

La producción global de vehículos autónomos en 2019 es de unos pocos miles de unidades, y se espera que aumente a una producción anual de 400.000 unidades para 2032, con la producción total acumulada alcanzará los 10 mil millones de vehículos. Los ingresos totales relacionados con la producción de vehículos autónomos también alcanzarán los 60 mil millones de dólares, de los cuales el 40% provendrá del propio vehículo, el 28% del hardware de detección, el 28% del hardware informático y el 4% restante de la integración. Esto significa que en los próximos 15 años se construirá un ecosistema industrial completo en torno a la tecnología de vehículos autónomos.

En este sentido, los analistas de Yole Développement esperan que los ingresos por sensores en 2024 sean: Lidar alcanzará los 400 millones de dólares, el radar alcanzará los 60 millones de dólares, las cámaras alcanzarán los 160 millones de dólares y el IMU alcanzará los 230 dólares. millones de dólares para dispositivos GNSS, pero la distribución entre los diferentes tipos de sensores puede cambiar nuevamente en los próximos 15 años. Los ingresos totales por hardware de detección alcanzarán los 17 mil millones de dólares en 2032 y, en comparación, los ingresos por hardware de computación deberían estar dentro del mismo orden de magnitud. En cualquier caso, se trata de un mercado enorme y nadie está dispuesto a renunciar automáticamente a este pedazo de pastel.

Este artículo proviene del autor de Autohome Chejiahao y no representa los puntos de vista ni las posiciones de Autohome.