Envisics muestra un impresionante HUD automático de realidad aumentada

2022-08-20 11:20:55 By : Ms. Amy Cao

Más del 99 % del contenido de Display Daily es gratuito para que cualquiera pueda verlo.Mostrar Los artículos diarios pueden ser vistos por usuarios registrados y registrados.Cualquiera que tenga un año de antigüedad se puede ver gratis.Los más recientes están limitados a dos por mes para usuarios registrados.Los artículos de Display Insider solo están disponibles para los suscriptores que también obtienen acceso ilimitado a los artículos de Display Daily.También hemos introducido una opción de menor costo para obtener acceso a todos los artículos de Display Daily (sin Display Insider). Si usted o su empresa desean mover un artículo para verlo libremente o aumentar el número disponible de forma gratuita, comuníquese con nosotros.Después de trabajar durante un año en modo sigiloso, Envisics, pionero de la holografía y desarrollador de pantalla frontal automática (HUD), mostró su solución avanzada en CES 2019. Me perdí esa demostración, pero la compañía me invitó a su oficina de Detroit para hablar sobre la tecnología.Lo que vi fue claramente el mejor HUD automático que he visto hasta la fecha.Hoy en día, casi todos los HUD están basados ​​en imágenes.Un HUD automotriz crea una imagen en una vista directa o micropantalla y luego "proyecta" la imagen virtual en un plano focal fijo, generalmente en la parte delantera del automóvil.El enfoque de Envisics utiliza un modulador de luz espacial (SLM) desarrollado a medida, que es una micropantalla modificada, diseñada para manipular la fase de la luz.Se calcula un holograma de la imagen que desea mostrar y el patrón de holograma se envía al SLM, que se ilumina con un láser o un LED.Esquema automático de HUD: haga clic para obtener una resolución más altaEl nuevo segundo enfoque tiene la ventaja de permitir que se use toda la luz para mostrar contenido en lugar de bloquear mucha luz como con el enfoque basado en imágenes.La desventaja puede ser la gran carga computacional necesaria para calcular el holograma de fase.En nuestra discusión, el CTO de Envisics, el Dr. Jamieson Christmas, explicó que no desea calcular el holograma simplemente tomando la transformada de Fourier de la imagen.Eso crea un holograma de amplitud que es ópticamente ineficiente y tiene un gran componente de orden cero, que se manifiesta como un punto brillante en el medio de la pantalla.“Un holograma de fase elimina este orden cero no deseado, pero se produce a expensas de un cálculo adicional.Los métodos de computación tradicionales utilizan un método de prueba y error para determinar iterativamente el holograma hasta obtener un buen facsímil de la imagen que desea”, explicó el Dr. Christmas.“Pero eso no se puede hacer en tiempo real.Parte de mi Ph.D.se trataba de una nueva forma de hacer esto y ahora es la base de nuestra solución de holograma.Esto nos permite calcular dinámicamente hologramas de alta resolución a todo color a más de 180 fotogramas por segundo”.El Dr. Christmas también explicó que han desarrollado a medida una placa posterior de silicio del LCOS para una modulación de fase optimizada.Esto requiere un material de cristal líquido de muy alta birrefringencia para permitir una modulación de fase precisa a velocidades de video de movimiento completo.“Estas mejoras son realmente fundamentales para optimizar el rendimiento y la eficiencia del sistema”, señaló el Dr. Christmas.Los moduladores de luz espacial tienen otra ventaja significativa en la capacidad de fabricación.El holograma será visible incluso si faltan muchos píxeles en el modulador de fase; simplemente se vuelve un poco menos eficiente, explicó el Dr. Christmas.Y, la alineación también es muy simple.Desde el punto de vista del sistema, un HUD modulado en fase tendrá aproximadamente la mitad del tamaño de un HUD más convencional basado en DLP o LCD.Con la generación dinámica de hologramas en tiempo real, se puede implementar toda una gama de funciones ópticas.La simbología como la velocidad, las flechas direccionales y más es, por supuesto, un componente necesario, pero también se pueden implementar elementos ópticos, como lentes.¿Qué significa eso?Significa que el plano focal de la imagen virtual se puede mover en tiempo real.Lo que es más importante, la compensación de rendimiento de elementos como el color, el contraste, la velocidad de fotogramas, la profundidad de bits y más ahora se puede realizar en el software en lugar del hardware, lo que permite demostrar nuevas características o envolventes de rendimiento con bastante rapidez.El HUD Gen 2 que Envisics está mostrando a la industria automotriz implementa una solución de dos planos a 2,5 m y 10 m de profundidad.En términos de resolución, es mucho mejor hablar de píxeles por grado.Envisics ofrece 350 píxeles por grado para el plano de la imagen cercana y 170 píxeles por grado para el plano de la imagen lejana.Para comparar esto, la visión 20/20 es de aproximadamente 60 píxeles por grado, por lo que estamos hablando de imágenes de muy alta fidelidad.El brillo puede variar de 1 cd/m² a 25K cd/m².El Dr. Christmas no especificó el campo de visión, pero dijo que pueden cubrir 'tres carriles de autopista' con imágenes.En la demostración de Envisics, un proyector muestra un video de conducción en una pantalla ubicada a 10 m del HUD.A medida que el automóvil avanza, vemos que aparecen flechas direccionales junto con amplios parches iluminados que resaltan la ruta.Estos parches se mueven en el campo de visión (FOV) del HUD a medida que el automóvil gira.Hay líneas para mantenerse en el carril, señales de advertencia para un ciclista y otras señales AR.Estas señales parecen estar asignadas al mundo físico y las imágenes de campo lejano no parecen estar ubicadas a una distancia específica del espectador.La generación de imágenes aprovecha las señales de profundidad 3D de mayor distancia, como la geometría, para engañar al cerebro haciéndole creer que estamos viendo un espacio de profundidad continuo.Las imágenes a continuación muestran que puede enfocarse en la simbología de campo cercano con el fondo ahora desenfocado, o enfocarse en la imagen de campo lejano con el primer plano desenfocado, como en la vida real.Una cosa que me distrajo en la demostración fue un efecto fantasma en las imágenes.Por ejemplo, un ícono circular estaba bastante fantasma cuando aparecía en la parte inferior del campo de visión, pero convergía rápidamente a medida que se movía hacia arriba en el FOV.La imagen fantasma solo estaba presente porque el parabrisas no estaba optimizado para el gran campo de visión en el demostrador de visualización frontal;es algo que podría abordarse fácilmente para la variante de producción, nos dijeron.También pensé que los colores rojos se veían un poco tenues.Curiosamente, el Dr. Christmas dijo que otros lo han considerado demasiado brillante, lo que sugiere que algunos problemas de factores humanos pueden estar en juego aquí.Por ejemplo, la respuesta fotópica de cada persona es diferente, por lo que la elección de la longitud de onda del láser afectará a las personas de manera diferente.En general, esta fue una demostración muy impresionante y el Dr. Christmas insinuó que Envisics está trabajando con varios fabricantes y proveedores de automóviles para desarrollar e implementar esta tecnología en vehículos nuevos y que hay versiones aún más avanzadas en desarrollo.Por lo general, pasa mucho tiempo desde tales demostraciones hasta la implementación en un automóvil real, pero dado el historial anterior con una compañía anterior de HUD para automóviles, tal vez podamos tener la esperanza de que dicha tecnología esté aquí antes de lo que piensa.(CC)