¿Puede AR HUD reemplazar la pantalla de control central?
Hace diez años, cuando Elon Musk presentó por primera vez la pantalla de control central del Tesla Model S, todos los presentes sabían que se avecinaba una nueva era, porque el último iPhone usaba una pantalla para subvertir el poder del teclado físico. La "inteligencia" ha sido perfectamente probada con acciones prácticas. Además, la pantalla de control central de Tesla no sólo reemplaza en forma los botones físicos del automóvil, sino que también subvierte la experiencia interactiva en la cabina del automóvil. Desde entonces, las "pantallas grandes" se han convertido en una característica estándar de los coches inteligentes.
Aún hoy, 10 años después, los fabricantes de automóviles siguen insistiendo en su búsqueda de “pantallas”. El último AITO Wenjie M5 de Huawei está equipado con un panel de instrumentos LCD completo curvo de 10,4 pulgadas y una pantalla de control central semisuspendido de 15,6 pulgadas. Además de la pantalla de instrumentos de 14,6 pulgadas y la pantalla de control central de 16,9 pulgadas, Gaohe HiPhi X también está equipado con una pantalla grande para el pasajero de 19,9 pulgadas. El último Ideal ONE incluso logra una "conexión de cuatro pantallas". Además de los nuevos actores en la fabricación de automóviles, las empresas de automóviles tradicionales también están trabajando arduamente en pantallas grandes. El último iDrive 8 de BMW utiliza la pantalla flotante curva más grande y clara en la historia de BMW. ¡La pantalla equipada por Mercedes-Benz en su modelo estrella eléctrico EQS alcanza los 1,4 metros! Debes saber que el ancho de este coche es de sólo 1,9 metros.
Sin embargo, Tesla, el pionero de la era de la "pantalla grande", se ha vuelto conservador en su actitud hacia las pantallas de los automóviles, en su última versión del Model S Plaid sólo instala una pantalla que puede "salir". y a la derecha"Mobile” pantalla de 17 pulgadas. Esto hace que la gente se pregunte: ¿Tesla "no puede enrollarse"? ¿O cree Elon Musk que la tecnología puede lograr otro avance?
Durante el Salón del Automóvil de Shanghai 2021, Huawei no solo demostró su impresionante tecnología de conducción autónoma de cuatro plazas, sino que también lanzó su última tecnología HUD que puede proyectar una imagen de alta definición de 70 pulgadas a una distancia de 7,5. Metros Las empresas de automóviles que luchan con las "pantallas grandes" en los vehículos ven una nueva esperanza.
HUD (Head Up Display), también conocido como sistema de visualización frontal, es una evolución de la tecnología de mira óptica de los aviones de combate. Puede proyectar información del vehículo en el parabrisas delantero del mismo para que el usuario pueda verlo. El conductor no tiene que bajar la cabeza para comprobar la información del instrumento y puede mantener la vista en la carretera para garantizar la seguridad en la conducción. Con el desarrollo de la tecnología, los HUD de los vehículos han evolucionado gradualmente desde la capacidad de mostrar solo información básica, como íconos de velocidad y recordatorios, hasta una etapa en la que el rango de visualización es mayor, la imagen es más clara y puede reemplazar completamente el panel de instrumentos.
El avance de la tecnología de conducción autónoma puede liberar la atención del conductor o de los ocupantes del automóvil de la carretera, lo que ha planteado requisitos más altos para la función de entretenimiento del HUD y también ha llevado al HUD a tener pantallas más grandes. Se están desarrollando en una dirección más clara, y el HUD de Huawei mencionado anteriormente es esta ruta.
Otro requisito que el desarrollo de la tecnología de conducción autónoma impone al HUD es la integración. El sistema de conducción autónoma debe detectar el entorno circundante y planificar una ruta de conducción en el espacio virtual establecido. Andrej Karpathy, director del departamento de inteligencia artificial de Tesla, propuso en el Tesla AI Day de 2021 que el espacio virtual establecido por el sistema de conducción autónoma debe lograr una "fusión espacial", es decir, que se reconozcan las posiciones de todos los objetos en la carretera. correcto. Y "fusión de tiempo", lo que significa que no puede haber demoras.
El espacio virtual creado por el sistema de conducción autónoma suele mostrarse en una gran pantalla del coche para que el conductor lo supervise. Sin embargo, cuando la vista del conductor está fuera de la carretera, se pierde el significado de supervisión. Por lo tanto, la integración de la información virtual y el mundo de visualización en HUD se convierte en la mejor solución, lo que dio origen a AR-HUD.
AR-HUD comenzó a recibir una atención generalizada cuando se lanzó el nuevo Mercedes-Benz Clase S a principios de 2021, y las flechas que flotaban se convirtieron en una función de demostración imprescindible para las principales empresas automovilísticas. En la exposición CES 2022 que acaba de concluir, AR-HUD también se ha convertido en una nueva pista para que compitan los principales fabricantes.
Panasonic Motors ha lanzado AR-HUD 2.0 con tecnología de seguimiento ocular, que puede optimizar la distancia ocular según los cambios en el punto de mirada del conductor, garantizando que no importa cómo el conductor mueva su cabeza y su línea de visión. , puede disfrutar de un efecto de navegación AR claro y preciso. Qualcomm Snapdragon Automotive Cockpit Platform presentará la visión por computadora y la tecnología de inteligencia artificial espacial de Phiar para implementar un sistema AR HUD en el vehículo que puede percibir el entorno y navegar. CY Vision lanzó el AR-HUD de próxima generación con pantalla 3D, pantalla de enfoque dinámico, seguimiento ocular, simulación de imágenes AR de efectos visuales del ojo humano, gran campo de visión, alto brillo, adecuado para diversas distancias y condiciones climáticas, y anunció una asociación con BMW colabora para desarrollar la última tecnología AR. EyeLights y AGC han unido fuerzas para introducir la funcionalidad AR industrializada en una serie de vehículos, afirmando poder proyectar una pantalla virtual de hasta 550 pulgadas a una distancia de proyección de 50 m.
Aunque AR-HUD ha iniciado nuevamente la tendencia de "rollo" en CES 2022, AR-HUD no es fácil de implementar técnicamente. Es posible que a menudo veas este tipo de video mágico que usa "posición prestada", pero si estás en la escena, esta "magia" quedará fácilmente expuesta, porque en comparación con la cámara "de un solo ojo", dos ojos humanos La percepción de El espacio y la distancia de los objetos es mucho más sensible.
Esto hará que el ojo humano vea claramente objetos distantes si quiere verlos con claridad, y si quiere ver objetos distantes, los objetos cercanos interferirán en gran medida con la línea de visión.
La mayoría de las tecnologías HUD actuales sólo proyectan una imagen bidimensional a una distancia fija delante del coche. Si usa efectos de animación para simular la fusión en esta pantalla, será como la magia de "préstamo" mencionada anteriormente, lo cual es muy vergonzoso ~ Tome este video de demostración AR-HUD publicado por el Mercedes-Benz Clase S como ejemplo. la flecha virtual seguirá el movimiento al girar el volante, pero cuando los ojos están fijos en las flechas, la carretera en la distancia es virtual. Cuando el foco está en la carretera en la distancia, las flechas cercanas se convierten en una. lío intermitente.
Por lo tanto, para AR-HUD, la distancia a la que se proyecta la información virtual no puede ser fija y debe coincidir con la posición de los objetos reales para no interferir con la conducción. Además, las personas, los automóviles y el entorno en la carretera son muy complejos, por lo que el espacio en el que AR-HUD proyecta información no es una superficie, sino un campo de luz 3D con profundidad, y la información proyectada en el campo de luz es la misma que En el entorno virtual percibido por la conducción autónoma, es necesario lograr una fusión espacial precisa y una fusión temporal de "retraso cero". Actualmente, sólo hay unas pocas empresas en el mundo que poseen esta tecnología de visualización. WayRay, una startup de realidad aumentada holográfica con sede en Zurich, afirma que su tecnología Deep Reality Display puede proyectar información virtual a diferentes distancias para lograr una verdadera "AR".
Si se puede lograr la perfecta integración de virtualidad y realidad, la imaginación de AR-HUD no se limitará a proyectar información de conducción. En 2021, el fundador de Facebook, Zuckerberg, propuso el concepto de "Metaverso" que conmocionó al mundo. El núcleo del concepto de Metaverso es la experiencia interactiva inmersiva que combina realidad y realidad. WayRay también aprovechó la tendencia y lanzó el "Metaverso sobre ruedas". "Auto concepto Holograktor. . En la actualidad, WayRay ha recibido un total de 140 millones de dólares en financiación de gigantes como Alibaba, Porsche y Hyundai Motor basándose en el concepto de "True AR", que muestra las expectativas del mercado para el futuro de la verdadera tecnología AR-HUD.
Además de WayRay, una nueva empresa nacional Future Black Technology (FUTURUS) también tiene tecnología AR-HUD de campo de luz 3D. El sistema AR-HUD de campo de luz exclusivo de FUTURUS puede realizar la imagen virtual de la pantalla HUD desde 4. Metros hasta el infinito. El zoom continuo de largo alcance realmente puede lograr la integración perfecta de carreteras virtuales y reales a nivel óptico. En la actualidad, FUTURUS ha completado con éxito la tercera iteración del hardware de vehículo real AR HUD de campo de luz 3D, y el sistema se ha optimizado para pruebas reales en carretera durante tres años. Se informa que la compañía lanzará su producto AR-HUD en el Salón del Automóvil de Beijing 2022.
Además de las startups, el gigante tecnológico Apple también utiliza AR-HUD como una de sus armas secretas para subvertir los coches. En 2021, la Oficina de Patentes y Marcas de EE. UU. concedió a Apple una patente del Proyecto Titán: pantalla frontal de campo luminoso. El contenido de su patente muestra que el HUD del automóvil Apple "puede ser una pantalla de campo de luz que genera una salida de campo de luz que permite al espectador observar contenido tridimensional en la pantalla frontal. Una serie de unidades de visualización de campo de luz y sus correspondientes Se pueden usar lentes para convertir el campo de luz. La salida se dirige hacia el espectador. La lente dirige la salida del campo de luz superpuesta de la unidad de visualización hacia el espectador, creando un área de visualización del campo de luz ampliada y sin interrupciones en la ventana del automóvil. p>
En 2007, Apple lo reinventó. El teléfono móvil revolucionó el teléfono con teclado con una pantalla limpia. En 2012, el Model S lanzado por Tesla también utilizó una pantalla, subvirtiendo por completo la experiencia interactiva en la cabina del automóvil. Hoy, 10 años después, con el desarrollo de la tecnología HUD, puede que haya comenzado una revolución en la que "sin pantalla" gana a "con pantalla".