ES2819239T3 - Vehicle display system - Google Patents
Vehicle display system Download PDFInfo
- Publication number
- ES2819239T3 ES2819239T3 ES15894424T ES15894424T ES2819239T3 ES 2819239 T3 ES2819239 T3 ES 2819239T3 ES 15894424 T ES15894424 T ES 15894424T ES 15894424 T ES15894424 T ES 15894424T ES 2819239 T3 ES2819239 T3 ES 2819239T3
- Authority
- ES
- Spain
- Prior art keywords
- vehicle
- light
- electronic display
- region
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/008—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/211—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/22—Display screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/30—Collimators
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
- G02B6/0001—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
- G02B6/0011—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
- G02B6/0033—Means for improving the coupling-out of light from the light guide
- G02B6/0035—Means for improving the coupling-out of light from the light guide provided on the surface of the light guide or in the bulk of it
- G02B6/0038—Linear indentations or grooves, e.g. arc-shaped grooves or meandering grooves, extending over the full length or width of the light guide
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Closed-Circuit Television Systems (AREA)
- Instrument Panels (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Un sistema de vigilancia de vehículos (100, 300) que comprende: un escáner tridimensional 3D, (110, 310) configurado para escanear una región (102) adyacente a un vehículo, siendo utilizado el escaneo para proporcionar un modelo 3D que incluye una configuración espacial de objetos ubicados dentro de la región escaneada; y una pantalla electrónica (120, 330) configurada para mostrar una parte (108) de la región escaneada usando el modelo 3D y para resaltar visualmente un objeto (104') dentro de la parte mostrada que se encuentra a menos de un umbral de distancia del vehículo, en donde el resaltado visual está configurado para mejorar la percepción del usuario del objeto que está más cerca del vehículo que la distancia de umbral caracterizado porque la pantalla electrónica comprende una pantalla electrónica 3D, la distancia de umbral corresponde a un plano de disparidad cero asociado con la parte de la región escaneada mostrada por la pantalla electrónica 3D, y en donde el resaltado visual del objeto ubicado a menos de la distancia umbral (106) del vehículo es una percepción visual del objeto que está frente al plano de disparidad cero en la pantalla electrónica 3D.A vehicle surveillance system (100, 300) comprising: a 3D three-dimensional scanner (110, 310) configured to scan a region (102) adjacent to a vehicle, the scan being used to provide a 3D model that includes a configuration spatial of objects located within the scanned region; and an electronic display (120, 330) configured to display a portion (108) of the scanned region using the 3D model and to visually highlight an object (104 ') within the portion shown that is less than a threshold away. of the vehicle, where the visual highlighting is configured to improve the user's perception of the object that is closer to the vehicle than the threshold distance characterized in that the electronic screen comprises a 3D electronic screen, the threshold distance corresponds to a disparity plane zero associated with the part of the scanned region shown by the 3D electronic display, and where the visual highlight of the object located less than the threshold distance (106) of the vehicle is a visual perception of the object that is in front of the plane of zero disparity on the 3D electronic screen.
Description
DESCRIPCIÓNDESCRIPTION
Sistema de visualización de un vehículoVehicle display system
REFERENCIA CRUZADA A APLICACIONES RELACIONADASCROSS REFERENCE TO RELATED APPLICATIONS
[0001] N/A[0001] N / A
DECLARACIÓN CON RESPECTO A INVESTIGACIÓN O DESARROLLO PATROCINADOS FEDERALMENTESTATEMENT REGARDING FEDERALLY SPONSORED RESEARCH OR DEVELOPMENT
[0002] N/A[0002] N / A
ANTECEDENTESBACKGROUND
[0003] US 2010/0117812 A1 describe un sistema para la visualización de un vehículo que rodea con un punto de vista ajustable, incluyendo un dispositivo sensor en el vehículo, un procesador y una pantalla. La pantalla está configurada para mostrar el mapa del entorno tridimensional con un punto de vista ajustable en función de una situación de conducción particular. El documento US 2012/0075878 A1 describe un dispositivo de visualización en donde se proyectan patrones de luz codificados espacialmente desde dos proyectores sobre la superficie de un objeto diana. El documento JP 2011/070593 A describe un dispositivo de vigilancia de vehículos configurado para determinar y enfatizar una región en el video de vista área que incluye el obstáculo detectado.[0003] US 2010/0117812 A1 describes a system for displaying a surrounding vehicle with an adjustable point of view, including a sensing device in the vehicle, a processor and a screen. The screen is configured to display the map of the three-dimensional environment with an adjustable point of view based on a particular driving situation. US 2012/0075878 A1 describes a display device where spatially coded light patterns are projected from two projectors onto the surface of a target object. JP 2011/070593 A describes a vehicle surveillance device configured to determine and emphasize a region in the area view video that includes the detected obstacle.
[0004] Los sistemas de control de vehículos se están volviendo cada vez más comunes como un medio para proporcionar conocimiento de la situación y de evitación de colisión. Dichos sistemas de control de vehículos incluyen a menudo una pantalla electrónica para comunicar información a un usuario (por ejemplo, un conductor del vehículo). En particular, la pantalla electrónica puede proporcionar una vista de una región adyacente al vehículo para que el usuario se dé cuenta y le facilite evitar los objetos en la región adyacente.[0004] Vehicle control systems are becoming increasingly common as a means of providing situational awareness and collision avoidance. Such vehicle control systems often include an electronic display for communicating information to a user (eg, a driver of the vehicle). In particular, the electronic display can provide a view of a region adjacent to the vehicle for the user to be aware of and make it easier for him to avoid objects in the adjacent region.
[0005] Una amplia variedad de pantallas electrónicas pueden usarse en un vehículo de sistema de monitorización, incluyendo, pero no limitado a, pantallas sobre la base de los tubos de rayos catódicos (CRT), pantallas de plasma (PDP), pantallas de cristal líquido (LCD), electroluminiscente (EL), pantallas de diodos emisores de luz orgánicos (OLED) y OLED de matriz activa (AMOLED), pantallas electroforéticas (EP) y varias pantallas que emplean modulación de luz electromecánica o electrofluídica (por ejemplo, dispositivos de microespejos digitales, pantallas de electrowetting, etc.). En general, las pantallas electrónicas se pueden clasificar como pantallas activas (es decir, pantallas que emiten luz) o pantallas pasivas (es decir, pantallas que modulan la luz proporcionada por otra fuente). Entre los ejemplos más evidentes de pantallas activas se encuentran los CRT, PDP y OLED/AMOLED. Las pantallas que normalmente se clasifican como pasivas cuando se considera la luz emitida son las pantallas LCD y EP. Las pantallas pasivas, aunque a menudo exhiben características de rendimiento atractivas que incluyen, pero no se limitan a un consumo de energía inherentemente bajo, pueden encontrar un uso algo limitado en muchas aplicaciones prácticas dada la falta de capacidad para emitir luz.[0005] A wide variety of electronic displays can be used in a vehicle monitoring system, including, but not limited to, displays based on cathode ray tubes (CRT), plasma displays (PDP), glass displays liquid (LCD), electroluminescent (EL), organic light-emitting diode (OLED) and active matrix OLED (AMOLED) displays, electrophoretic displays (EP), and various displays employing electromechanical or electrofluidic light modulation (for example, devices of digital micromirrors, electrowetting screens, etc.). In general, electronic displays can be classified as either active displays (that is, displays that emit light) or passive displays (that is, displays that modulate the light provided by another source). Among the most obvious examples of active displays are CRT, PDP, and OLED / AMOLED. Displays that are normally classified as passive when considering emitted light are LCD and EP displays. Passive displays, while often exhibiting attractive performance characteristics including but not limited to inherently low power consumption, can find somewhat limited use in many practical applications given the lack of ability to emit light.
[0006] Para superar las limitaciones de las pantallas pasivas asociadas con la luz emitida, muchas pantallas pasivas se acoplan a una fuente de luz externa. La fuente de luz acoplada puede permitir que estas pantallas de otro modo pasivas emitan luz y funcionen sustancialmente como una pantalla activa. Ejemplos de tales fuentes de luz acopladas son las luces de fondo. Las luces de fondo son fuentes de luz (a menudo fuentes de luz de panel) que se colocan detrás de una pantalla pasiva para iluminar la pantalla pasiva. Por ejemplo, se puede acoplar una luz de fondo a una pantalla LCD o EP. La luz de fondo emite luz que pasa a través de la pantalla LCD o EP. La luz emitida es modulada por la pantalla LCD o la pantalla EP y la luz modulada se emite, a su vez, desde la pantalla LCD o la pantalla EP. A menudo, las luces de fondo están configuradas para emitir luz blanca. Luego, se utilizan filtros de color para transformar la luz blanca en varios colores utilizados en la pantalla. Los filtros de color se pueden colocar en una salida de la pantalla LCD o EP (menos común) o entre la luz de fondo y la pantalla LCD o EP, por ejemplo.[0006] To overcome the limitations of passive screens associated with emitted light, many passive screens are coupled to an external light source. The coupled light source can allow these otherwise passive displays to emit light and function substantially as an active display. Examples of such coupled light sources are backlights. Backlights are light sources (often panel light sources) that are placed behind a passive screen to illuminate the passive screen. For example, a backlight can be attached to an LCD or EP display. The backlight emits light that passes through the LCD or EP screen. The emitted light is modulated by the LCD screen or the EP screen and the modulated light is emitted, in turn, from the LCD screen or the EP screen. Backlights are often set to emit white light. Then, color filters are used to transform the white light into various colors used on the screen. Color filters can be placed in an outlet on the LCD or EP (less common) or between the backlight and the LCD or EP, for example.
BREVE DESCRIPCIÓN DE LOS DIBUJOSBRIEF DESCRIPTION OF THE DRAWINGS
[0007] Varias características de los ejemplos y formas de realización de acuerdo con los principios descritos en este documento pueden entenderse más fácilmente con referencia a la siguiente descripción detallada tomada en conjunción con los que acompañan a los dibujos, donde números de referencia similares designan elementos estructurales similares, y en donde:[0007] Various characteristics of the examples and embodiments in accordance with the principles described in this document can be more easily understood with reference to the following detailed description taken in conjunction with those accompanying the drawings, where like reference numerals designate elements similar structural elements, and where:
Figura 1 ilustra un diagrama de bloques de un sistema de vigilancia de vehículos en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento.Figure 1 illustrates a block diagram of a vehicle surveillance system in one example, according to an embodiment consistent with the principles described in this document.
Figura 2A ilustra una vista en perspectiva de una región monitoreada usando el sistema de vigilancia de vehículos de la figura 1 en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento.Figure 2A illustrates a perspective view of a monitored region using the vehicle surveillance system of Figure 1 in one example, in accordance with an embodiment consistent with the principles described herein.
Figura 2B ilustra una vista lateral de la región supervisada de la figura 2B en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento. Figure 2B illustrates a side view of the monitored region of Figure 2B in one example, in accordance with an embodiment consistent with the principles described herein.
Figura 3A ilustra una parte visualizada de una región que se escanea en un ejemplo, según una realización consistente con los principios descritos en este documento.Figure 3A illustrates a displayed portion of a region that is scanned in one example, according to an embodiment consistent with the principles described herein.
Figura 3B ilustra un objeto resaltado visualmente en la parte 108 mostrada de la figura 3A en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento.Figure 3B illustrates an object visually highlighted in the portion 108 shown of Figure 3A in an example, in accordance with an embodiment consistent with the principles described herein.
Figura 3C ilustra un objeto resaltado visualmente en la parte mostrada de la figura 3A en un ejemplo, de acuerdo con otra realización consistente con los principios aquí descritos.Figure 3C illustrates an object visually highlighted in the shown portion of Figure 3A in an example, in accordance with another embodiment consistent with the principles described herein.
Figura 4 ilustra una vista en perspectiva de una pantalla electrónica 3D que representa un objeto resaltado visualmente en un ejemplo, de acuerdo con otra realización consistente con los principios descritos en este documento.Figure 4 illustrates a perspective view of a 3D electronic display representing an object visually highlighted in one example, in accordance with another embodiment consistent with the principles described in this document.
Figura 5A ilustra una vista en sección transversal de una pantalla electrónica tridimensional (3D) que tiene una luz de fondo basada en red de haces múltiples en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento.Figure 5A illustrates a cross-sectional view of a three-dimensional (3D) electronic display having a multi-beam array-based backlight in one example, in accordance with an embodiment consistent with the principles described herein.
Figura 5B ilustra una vista en sección transversal de una pantalla electrónica tridimensional (3D) que tiene una luz de fondo basada en red de haces múltiples en un ejemplo, de acuerdo con otra realización consistente con los principios descritos en este documento.Figure 5B illustrates a cross-sectional view of a three-dimensional (3D) electronic display having a multi-beam array-based backlight in one example, in accordance with another embodiment consistent with the principles described herein.
Figura 5C ilustra una vista en perspectiva de una parte de una pantalla electrónica 3D que tiene una luz de fondo basada en red de haces múltiples en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento.Figure 5C illustrates a perspective view of a portion of a 3D electronic display having a multi-beam array-based backlight in one example, in accordance with an embodiment consistent with the principles described herein.
Figura 6 ilustra un diagrama de bloques de un sistema de monitorización de vehículos tridimensional (3D) en un ejemplo, de acuerdo con una realización de los principios descritos en este documento.Figure 6 illustrates a block diagram of a three-dimensional (3D) vehicle monitoring system in one example, in accordance with one embodiment of the principles described herein.
Figura 7 ilustra un diagrama de flujo de un método de control de vehículos en un ejemplo, según una realización consistente con los principios descritos en este documento.Figure 7 illustrates a flow chart of a vehicle control method in an example, according to an embodiment consistent with the principles described in this document.
[0008] Ciertos ejemplos y realizaciones tienen otras características que son además de y en lugar de las características ilustradas en las figuras referenciadas anteriormente. Estas y otras características se detallan a continuación con referencia a las figuras mencionadas anteriormente.[0008] Certain examples and embodiments have other features that are in addition to and in place of the features illustrated in the figures referenced above. These and other features are detailed below with reference to the figures mentioned above.
DESCRIPCIÓN DETALLADADETAILED DESCRIPTION
[0009] La invención se refiere a un sistema de vigilancia de vehículos de acuerdo con la reivindicación 1 y a un método de vigilancia de vehículo de acuerdo con la reivindicación 11. Otras formas de realización están representadas por las reivindicaciones dependientes. Las realizaciones de acuerdo con los principios descritos en el presente documento proporcionan un sistema de vigilancia de vehículos que emplea información tridimensional (3D). En particular, de acuerdo con algunas realizaciones de los principios descritos en el presente documento, se recopila información 3D que comprende imágenes o escaneos 3D para una región monitorizada adyacente a un vehículo. La región supervisada puede ser una o más de delante, al lado y detrás del vehículo, por ejemplo. La información 3D de la región monitoreada se usa luego para construir un modelo 3D que incluye una configuración espacial de objetos dentro de la región monitoreada. Además, se muestra una parte de la región supervisada basada en el modelo 3D y los objetos dentro de la parte de la pantalla que están a menos de una distancia umbral predeterminada del vehículo son objetos resaltados visualmente. De acuerdo con varias realizaciones, la percepción de los objetos resaltados visualmente por un usuario puede mejorarse. Además, la percepción mejorada de los objetos resaltados visualmente puede facilitar la prevención de colisiones con respecto a los objetos resaltados visualmente que están demasiado cerca del vehículo, por ejemplo.[0009] The invention relates to a vehicle surveillance system according to claim 1 and to a vehicle surveillance method according to claim 11. Other embodiments are represented by the dependent claims. Embodiments in accordance with the principles described herein provide a vehicle surveillance system that employs three-dimensional (3D) information. In particular, in accordance with some embodiments of the principles described herein, 3D information comprising 3D images or scans is collected for a monitored region adjacent to a vehicle. The monitored region can be one or more in front of, to the side and behind the vehicle, for example. The 3D information from the monitored region is then used to build a 3D model that includes a spatial configuration of objects within the monitored region. In addition, a part of the monitored region based on the 3D model is shown and objects within the part of the screen that are less than a predetermined threshold distance from the vehicle are visually highlighted objects. According to various embodiments, the perception of the visually highlighted objects by a user can be improved. In addition, improved perception of visually highlighted objects can facilitate collision avoidance with visually highlighted objects that are too close to the vehicle, for example.
[0010] De acuerdo con diversas realizaciones, un escáner 3D o cámara 3D se combina con una pantalla electrónica como un sistema de vigilancia de vehículos para vigilar la región adyacente al vehículo. El escáner 3D recopila la información 3D sobre los objetos en la región monitoreada para facilitar la construcción del modelo 3D. La pantalla electrónica proporciona una imagen de la región monitoreada basada en el modelo 3D. Además, la pantalla electrónica proporciona el resaltado visual de los objetos que se consideran demasiado cerca del vehículo (es decir, los objetos que están a menos de la distancia umbral predeterminada del vehículo).According to various embodiments, a 3D scanner or 3D camera is combined with an electronic display as a vehicle surveillance system to monitor the region adjacent to the vehicle. The 3D scanner collects the 3D information about the objects in the monitored region to facilitate the construction of the 3D model. The electronic display provides an image of the monitored region based on the 3D model. In addition, the electronic display provides visual highlighting of objects that are considered too close to the vehicle (ie, objects that are less than the predetermined threshold distance from the vehicle).
[0011] De acuerdo con algunas formas de realización descritas en este documento, el resaltado visual de los objetos es proporcionado por una pantalla electrónica 3D (uno o ambos de monocromática y color). Además, en diversas realizaciones, la pantalla electrónica 3D puede configurarse para presentar imágenes e información relacionada de una manera denominada 3D "sin gafas" o 3D autoestereoscópico. En particular, en algunas realizaciones, la pantalla electrónica 3D puede emplear una luz de fondo basada en red de difracción o "basada en rejilla" para producir diferentes vistas de las imágenes o información 3D. En una pantalla electrónica 3D que emplea una luz de fondo basada en rejillas, la luz se acopla fuera de la guía de luz utilizando una pluralidad de redes de difracción. La luz acoplada forma una pluralidad de haces de luz que se dirigen en una dirección predefinida (por ejemplo, una dirección de visión). Además, los haces de luz de la pluralidad de haces de luz pueden tener diferentes direcciones angulares principales entre sí para formar o proporcionar un campo de luz en la dirección de visualización de la pantalla electrónica y también pueden representar una pluralidad de colores primarios, en algunas realizaciones. Los haces de luz que tienen las diferentes direcciones angulares principales (también denominados ''haces de luz dirigidos de manera diferente'') y, en algunas realizaciones, que representan colores diferentes, pueden emplearse para mostrar información de forma autosteroscópica, incluida información tridimensional (3D). Por ejemplo, los haces de luz de diferentes colores y dirigidos de manera diferente pueden modularse y servir como píxeles de color o representar una vista diferente de la pantalla electrónica en color 3D "sin gafas".[0011] According to some embodiments described in this document, the visual highlighting of the objects is provided by a 3D electronic display (one or both of monochrome and color). Furthermore, in various embodiments, the 3D electronic display can be configured to present images and related information in a manner referred to as "glasses-free" 3D or autostereoscopic 3D. In particular, in some embodiments, the 3D electronic display may employ a diffraction grating-based or "grating-based" backlight to produce different views of the 3D images or information. In a 3D electronic display employing a grating-based backlight, light is coupled outside the light guide using a plurality of diffraction gratings. The coupled light forms a plurality of light beams that are directed in a predefined direction (eg, a viewing direction). Furthermore, the light beams of the plurality of light beams may have different main angular directions to each other to form or provide a light field in the viewing direction of the electronic display and may also represent a plurality of primary colors, in some accomplishments. Beams of light that have the different main angular directions (also called "differently directed light beams") and, in some embodiments, that represent different colors, can be used to display information autoscopically, including three-dimensional information ( 3D). For example, beams of light of different colors and directed differently can be modulated and serve as color pixels or represent a different view of electronic 3D color screen "without glasses".
[0012] En este documento, una “guía de luz” se define como una estructura que guía la de luz dentro de la estructura utilizando la reflexión interna total. En particular, la guía de luz puede incluir un núcleo que es sustancialmente transparente a una longitud de onda operativa de la guía de luz. En varias realizaciones, el término "guía de luz" generalmente se refiere a una guía de ondas óptica dieléctrica que emplea una reflexión interna total para guiar la luz en una interfaz entre un material dieléctrico de la guía de luz y un material o medio que rodea esa guía de luz. Por definición, una condición para la reflexión interna total es que el índice de refracción de la guía de luz sea mayor que el índice de refracción de un medio circundante adyacente a una superficie del material de guía de luz. En algunas realizaciones, la guía de luz puede incluir un recubrimiento además o en lugar de la diferencia de índice de refracción antes mencionada para facilitar aún más la reflexión interna total. El revestimiento puede ser un revestimiento reflectante, por ejemplo. La guía de luz puede ser cualquiera de varias guías de luz que incluyen, pero no se limitan a, una o ambas de una guía de placa o placa y una guía de tira.[0012] In this document, a "light guide" is defined as a structure that guides the light within the structure using total internal reflection. In particular, the light guide can include a core that is substantially transparent at an operating wavelength of the light guide. In various embodiments, the term "light guide" generally refers to a dielectric optical waveguide that employs total internal reflection to guide light at an interface between a dielectric material of the light guide and a surrounding material or medium. that light guide. By definition, a condition for total internal reflection is that the refractive index of the light guide is greater than the refractive index of a surrounding medium adjacent to a surface of the light guide material. In some embodiments, the light guide may include a coating in addition to or in place of the aforementioned refractive index difference to further facilitate total internal reflection. The coating can be a reflective coating, for example. The light guide can be any of a number of light guides including, but not limited to, one or both of a plate or plate guide and a strip guide.
[0013] Además, en el presente documento el término “placa” cuando se aplica a una guía de luz como en una “placa de guía de luz” se define como un nivel de pieza o diferencialmente capa plana o lámina, que a veces se hace referencia como una guía “losa”. En particular, una guía de luz de placa se define como una guía de luz configurada para guiar la luz en dos direcciones sustancialmente ortogonales limitadas por una superficie superior y una superficie inferior (es decir, superficies opuestas) de la guía de luz. Además, por definición en el presente documento, las superficies superior e inferior están ambas separadas entre sí y pueden ser sustancialmente paralelas entre sí en al menos un sentido diferencial. Es decir, dentro de cualquier sección diferencialmente pequeña de la guía de luz de la placa, las superficies superior e inferior son sustancialmente paralelas o coplanares.[0013] Furthermore, herein the term "plate" when applied to a light guide as in a "light guide plate" is defined as a piece level or differentially flat layer or sheet, which is sometimes referred to as a "slab" guide. In particular, a plate light guide is defined as a light guide configured to guide light in two substantially orthogonal directions bounded by an upper surface and a lower surface (ie, opposite surfaces) of the light guide. Furthermore, by definition herein, the upper and lower surfaces are both spaced apart and may be substantially parallel to each other in at least one differential sense. That is, within any differentially small section of the plate light guide, the upper and lower surfaces are substantially parallel or coplanar.
[0014] En algunas realizaciones, una guía de luz de la placa puede ser sustancialmente plana (es decir, confinada a un plano) y así la placa de guía de luz es una guía de luz planar. En otras realizaciones, la guía de luz de placa puede estar curvada en una o dos dimensiones ortogonales. Por ejemplo, la guía de luz de placa puede estar curvada en una única dimensión para formar una guía de luz de placa de forma cilíndrica. Sin embargo, cualquier curvatura tiene un radio de curvatura suficientemente grande para asegurar que la reflexión interna total se mantenga dentro de la guía de luz de la placa para guiar la luz.[0014] In some embodiments, a plate light guide may be substantially flat (ie, confined to one plane) and thus the light guide plate is a planar light guide. In other embodiments, the plate light guide may be curved in one or two orthogonal dimensions. For example, the plate light guide may be curved in a single dimension to form a cylindrical shaped plate light guide. However, any curvature has a sufficiently large radius of curvature to ensure that the total internal reflection is maintained within the light guide of the plate to guide the light.
[0015] De acuerdo con diversas realizaciones descritas en el presente documento, una red de difracción (por ejemplo, un patrón de difracción de haces múltiples de rejilla) se puede emplear para la dispersión o acoplar luz de una guía de luz (por ejemplo, una guía de luz de la placa) como un haz de luz. Aquí, una "red de difracción" se define generalmente como una pluralidad de características (es decir, características de difracción) dispuestas para proporcionar difracción de la luz incidente en la red de difracción. En algunas realizaciones, la pluralidad de características puede disponerse de manera periódica o cuasiperiódica. Por ejemplo, la red de difracción puede incluir una pluralidad de características (por ejemplo, una pluralidad de ranuras en una superficie de material) dispuestas en una matriz unidimensional (1D). En otros ejemplos, la red de difracción puede ser una matriz bidimensional (2D) de características. La red de difracción puede ser una matriz bidimensional de protuberancias o agujeros en la superficie de un material, por ejemplo.In accordance with various embodiments described herein, a diffraction grating (eg, a grating multiple beam diffraction pattern) can be employed to scatter or couple light from a light guide (eg, a plate light guide) as a beam of light. Here, a "diffraction grating" is generally defined as a plurality of features (ie, diffraction characteristics) arranged to provide diffraction of incident light in the diffraction grating. In some embodiments, the plurality of features can be arranged periodically or quasi-periodically. For example, the diffraction grating can include a plurality of features (eg, a plurality of grooves in a material surface) arranged in a one-dimensional (1D) matrix. In other examples, the diffraction grating can be a two-dimensional (2D) matrix of features. The diffraction grating can be a two-dimensional array of bumps or holes in the surface of a material, for example.
[0016] Como tal, y por definición en el presente documento, la 'red de difracción' es una estructura que proporciona la difracción de la luz incidente sobre la red de difracción. Si la luz incide en la red de difracción procedente de una guía de luz, la difracción o la dispersión por difracción proporcionadas pueden dar como resultado, y, por lo tanto, denominarse “acoplamiento difractivo”, ya que la red de difracción puede extraer la luz de la guía de luz por difracción. La red de difracción también redirige o cambia un ángulo de la luz por difracción (es decir, en un ángulo de difracción). En particular, como resultado de la difracción, la luz que sale de la red de difracción (es decir, luz difractada) generalmente tiene una dirección de propagación diferente a la dirección de propagación de la luz incidente en la red de difracción (es decir, luz incidente). El cambio en la dirección de propagación de la luz por difracción se denomina aquí "redireccionamiento difractivo". Por lo tanto, se puede entender que la red de difracción es una estructura que incluye características de difracción que redirigen de manera difractiva la luz incidente en la red de difracción y, si la luz incide desde una guía de luz, la red de difracción también puede acoplar de manera difractiva la luz de la guía de luz.As such, and by definition herein, the 'diffraction grating' is a structure that provides for the diffraction of incident light on the diffraction grating. If light is incident on the diffraction grating from a light guide, the provided diffraction or scattering may result, and therefore be called "diffractive coupling", as the diffraction grating can extract the light from the light guide by diffraction. The diffraction grating also redirects or changes an angle of light by diffraction (that is, by a diffraction angle). In particular, as a result of diffraction, the light exiting the diffraction grating (i.e. diffracted light) generally has a different direction of propagation than the propagation direction of incident light in the diffraction grating (i.e. incident light). The change in the propagation direction of light by diffraction is referred to herein as "diffractive redirection". Therefore, it can be understood that the diffraction grating is a structure that includes diffraction characteristics that diffractively redirect the incident light in the diffraction grating and, if the light is incident from a light guide, the diffraction grating as well. can diffractively couple the light from the light guide.
[0017] Además, por definición en el presente documento, las características de una red de difracción se denominan como 'características de difracción' y pueden ser uno o más de a, en y sobre una superficie (es decir, en donde una 'superficie' se refiere a un límite entre dos materiales). La superficie puede ser la superficie de una placa de guía de luz. Las características de difracción pueden incluir cualquiera de una variedad de estructuras que difractan la luz que incluyen, pero no se limitan a, una o más ranuras, aristas, agujeros y protuberancias, y estas estructuras pueden ser una o más en, dentro y sobre la superficie. Por ejemplo, la red de difracción puede incluir una pluralidad de ranuras paralelas en la superficie de un material. En otro ejemplo, la red de difracción puede incluir una pluralidad de crestas paralelas que se elevan desde la superficie del material. Las características de difracción (ya sean ranuras, crestas, agujeros, protuberancias, etc.) pueden tener cualquiera de una variedad de formas o perfiles de sección transversal que proporcionan difracción que incluyen, entre otros, uno o más de un perfil sinusoidal, un perfil rectangular (por ejemplo, una red de difracción binaria), un perfil triangular y un perfil de diente de sierra (por ejemplo, una rejilla flameada). La invención reivindicada incluye una pantalla electrónica que comprende una pantalla electrónica 3D. Furthermore, by definition herein, the characteristics of a diffraction grating are referred to as' diffraction characteristics' and can be one or more of a, in and on a surface (ie, where a 'surface 'refers to a boundary between two materials). The surface can be the surface of a light guide plate. Diffraction characteristics can include any of a variety of light-diffraction structures including, but not limited to, one or more grooves, edges, holes, and bulges, and these structures can be one or more in, in, and on the surface. For example, the diffraction grating can include a plurality of parallel grooves in the surface of a material. In another example, the diffraction grating may include a plurality of parallel ridges that rise from the surface of the material. The diffraction characteristics (be it slits, ridges, holes, bulges, etc.) can have any of a variety of shapes or cross-sectional profiles that provide diffraction including, but not limited to, one or more than one sinusoidal profile, a profile rectangular (for example, a binary diffraction grating), a triangular profile, and a sawtooth profile (for example, a flamed grating). The claimed invention includes an electronic display comprising a 3D electronic display.
[0018] Por definición en la presente memoria, una red de difracción ‘multihaz’ es una red de difracción que produce acoplado de salida de luz que incluye una pluralidad de haces de luz. Además, los haces de luz de la pluralidad producidos por una red de difracción de haces múltiples tienen diferentes direcciones angulares principales entre sí, por definición aquí. En particular, por definición, un haz de luz de la pluralidad tiene una dirección angular principal predeterminada que es diferente de otro haz de luz de la pluralidad de haces de luz como resultado del acoplamiento difractivo y la redirección difractiva de la luz incidente por la red de difracción de haces múltiples. La pluralidad de haces de luz puede representar un campo de luz. Por ejemplo, la pluralidad de haces de luz puede incluir ocho haces de luz que tienen ocho direcciones angulares principales diferentes. Los ocho haces de luz en combinación (es decir, la pluralidad de haces de luz) pueden representar el campo de luz, por ejemplo. Según diversas realizaciones, las diferentes direcciones angulares principales de los diversos haces de luz se determinan mediante una combinación de un paso o espaciado de rejilla y una orientación o rotación de las características de difracción de la red de difracción de haces múltiples en los puntos de origen de los respectivos haces de luz relativos. a una dirección de propagación de la luz incidente en la red de difracción de haces múltiples.By definition herein, a 'multibeam' diffraction grating is a diffraction grating that produces light output coupling that includes a plurality of light beams. Furthermore, the plurality light beams produced by a multi-beam diffraction grating have different principal angular directions from each other, by definition here. In particular, by definition, one light beam of the plurality has a predetermined principal angular direction that is different from another light beam of the plurality of light beams as a result of diffractive coupling and diffractive redirection of incident light by the grating. multi-beam diffraction. The plurality of light beams can represent a field of light. For example, the plurality of light beams may include eight light beams having eight different main angular directions. The eight light beams in combination (ie, the plurality of light beams) can represent the light field, for example. According to various embodiments, the different principal angular directions of the various light beams are determined by a combination of a grating pitch or spacing and an orientation or rotation of the diffraction characteristics of the multi-beam diffraction grating at the points of origin. of the respective relative light beams. to a propagation direction of the incident light in the multi-beam diffraction grating.
[0019] De acuerdo con diversas realizaciones descritas en el presente documento, la luz acoplada fuera de la guía de luz por la red de difracción (por ejemplo, una red de difracción de haces múltiples) representa un pixel de una pantalla electrónica. En particular, la guía de luz que tiene una red de difracción de haces múltiples para producir los haces de luz de la pluralidad que tienen diferentes direcciones angulares principales puede ser parte de una luz de fondo o usarse junto con una pantalla electrónica tal como, pero no limitado a una pantalla electrónica tridimensional (3D) "sin gafas" (también denominada pantalla electrónica multivista u "holográfica" o pantalla autoestereoscópica). Como tales, los haces de luz dirigidos de manera diferente producidos acoplando la luz guiada de la guía de luz usando la rejilla difractiva multihaz pueden ser o representar "píxeles" de la pantalla electrónica 3D.[0019] In accordance with various embodiments described herein, light coupled outside the light guide by the diffraction grating (eg, a multiple beam diffraction grating) represents a pixel of an electronic display. In particular, the light guide having a multi-beam diffraction grating to produce the plurality light beams having different main angular directions can be part of a backlight or used in conjunction with an electronic display such as, but not limited to a "glasses-free" three-dimensional (3D) electronic display (also called a multi-view or "holographic" electronic display or autostereoscopic display). As such, the differently directed light beams produced by coupling the guided light from the light guide using the multibeam diffractive grating can be or represent "pixels" of the 3D electronic display.
[0020] En la presente memoria un espejo 'colimar' se define como un espejo que tiene una forma curvada que está configurado para colimar la luz reflejada por el espejo de colimación. Por ejemplo, el espejo de colimación puede tener una superficie reflectante caracterizada por una curva o forma parabólica. En otro ejemplo, el espejo colimador puede comprender un espejo parabólico conformado. Por "parabólico conformado" se entiende que una superficie reflectante curvada del espejo parabólico conformado se desvía de una curva parabólica "verdadera" de una manera determinada para lograr una característica de reflexión predeterminada (por ejemplo, un grado de colimación). En algunas realizaciones, el espejo de colimación puede ser un espejo continuo (es decir, que tiene una superficie reflectante continua sustancialmente lisa), mientras que en otras realizaciones el espejo puede comprender un reflector Fresnel o un espejo Fresnel que proporciona colimación de luz. Según diversas realizaciones, la cantidad de colimación proporcionada por el espejo colimador puede variar en un grado o cantidad predeterminados de una realización a otra. Además, el espejo de colimación puede configurarse para proporcionar colimación en una o ambas de las dos direcciones ortogonales (por ejemplo, una dirección vertical y una dirección horizontal). Es decir, el espejo de colimación puede incluir una forma parabólica o forma conformada parabólica en una o ambas de las dos direcciones ortogonales, según varios ejemplos.[0020] Herein a 'collimating' mirror is defined as a mirror having a curved shape that is configured to collimate the light reflected by the collimating mirror. For example, the collimating mirror may have a reflective surface characterized by a parabolic curve or shape. In another example, the collimating mirror may comprise a shaped parabolic mirror. By "shaped parabolic" it is meant that a curved reflective surface of the shaped parabolic mirror deviates from a "true" parabolic curve in a certain way to achieve a predetermined reflection characteristic (eg, a degree of collimation). In some embodiments, the collimating mirror may be a continuous mirror (ie, having a substantially smooth continuous reflective surface), while in other embodiments the mirror may comprise a Fresnel reflector or a Fresnel mirror that provides collimation of light. According to various embodiments, the amount of collimation provided by the collimating mirror may vary by a predetermined degree or amount from one embodiment to another. In addition, the collimation mirror can be configured to provide collimation in one or both of the two orthogonal directions (eg, a vertical direction and a horizontal direction). That is, the collimating mirror can include a parabolic shape or parabolic shaped shape in one or both of the two orthogonal directions, according to various examples.
[0021] Aquí, el término 'plano de disparidad cero' cuando se usa con respecto a una pantalla electrónica 3D se define como un plano o sección plana de una escena 3D o región que está siendo visualizada o presentada que aparece idéntica (es decir, no tiene disparidad visual) en todas las vistas de la pantalla electrónica 3D. Además, por definición en el presente documento, el plano de disparidad cero aparece, corresponde o coincide con una superficie física de la pantalla electrónica 3D. Es decir, un objeto en la escena o región mostrada ubicada en el plano de disparidad cero dentro de la región 3D parecerá estar colocado con la superficie física de la pantalla electrónica 3D cuando se presente y se vea en la pantalla electrónica 3D. Los objetos que están más lejos que el plano de disparidad cero parecerán estar detrás de la superficie física, mientras que los objetos que están más cerca que el plano de disparidad cero parecerán estar delante de la superficie física.[0021] Here, the term 'plane of zero disparity' when used with respect to a 3D electronic display is defined as a plane or planar section of a 3D scene or region being displayed or presented that appears identical (i.e. has no visual disparity) in all views of the 3D electronic display. Furthermore, by definition herein, the zero disparity plane appears, corresponds to, or coincides with a physical surface of the 3D electronic display. That is, an object in the scene or region shown located on the plane of zero disparity within the 3D region will appear to be positioned with the physical surface of the 3D electronic screen when presented and viewed on the 3D electronic screen. Objects that are further than the plane of zero disparity will appear to be behind the physical surface, while objects that are closer than the plane of zero disparity will appear to be in front of the physical surface.
[0022] En este documento, una 'transformación proyectiva' o equivalentemente 'transformar de manera proyectiva' se define como una transformación (posiblemente no lineal) del espacio 3D que mapea líneas en líneas (o rayos de luz en rayos de luz). Tenga en cuenta que una transformación proyectiva generalmente se puede expresar en términos de una transformación lineal en un espacio de cuatro dimensiones (4D) (es decir, un 'espacio proyectivo') por medio de una matriz de 4x4. En algunas realizaciones del presente documento, la transformación proyectiva puede incluir una transformación óptica configurada para comprimir el contenido de profundidad sustancialmente equivalente para ver una escena a través de una lente divergente (por ejemplo, una lente de ojo de pez). En particular, una transformación proyectiva puede mapear un plano lejano infinito en una distancia deseada 1/h desde el plano de disparidad cero. La transformación proyectiva que proporciona el plano lejano infinito al mapeo de distancia 1/h puede estar dada por la ecuación (1) como[0022] In this document, a 'projective transformation' or equivalently 'projective transformation' is defined as a transformation (possibly non-linear) of 3D space that maps lines to lines (or light rays to light rays). Note that a projective transformation can generally be expressed in terms of a linear transformation in a four-dimensional (4D) space (that is, a 'projective space') by means of a 4x4 matrix. In some embodiments herein, the projective transform may include an optical transform configured to compress substantially equivalent depth content to view a scene through a diverging lens (eg, a fisheye lens). In particular, a projective transformation can map an infinite far plane at a desired distance 1 / h from the plane of zero disparity. The projective transformation that provides the infinite far plane to the 1 / h distance mapping can be given by equation (1) as
donde (x', y ’, z ’, w') son coordenadas de imagen correspondientes a la transformación proyectiva de las coordenadas (x, y, z, w). Además, por definición aquí, la transformación proyectiva de la ecuación (1) generalmente no comprime la profundidad o el paralaje cerca del plano de disparidad cero en sí. En otras realizaciones, se puede emplear otra transformación óptica (por ejemplo, representada por una matriz 4x4) como la transformación proyectiva en el presente documento. Por ejemplo, la transformación proyectiva puede ser sustancialmente cualquier transformación proyectiva que resalte un objeto o una parte del mismo como se describe a continuación, de acuerdo con algunas realizaciones de los principios descritos en este documento. Además, en el presente documento, la transformación proyectiva puede comprender una transformación lineal o una transformación no lineal, según diversas realizaciones.where (x ', y', z ', w') are image coordinates corresponding to the projective transformation of the coordinates (x, y, z, w). Also, by definition here, the projective transformation of equation (1) generally does not compress depth or parallax near the plane of zero disparity itself. In other embodiments, another optical transformation (eg, represented by a 4x4 matrix) may be employed as the projective transformation herein. For example, the projective transformation can be substantially any projective transformation that highlights an object or a part thereof as described below, in accordance with some embodiments of the principles described in this document. Furthermore, herein, the projective transformation may comprise a linear transformation or a non-linear transformation, according to various embodiments.
[0023] Además, como se utiliza aquí, el artículo 'un' se pretende que tenga su significado normal en las técnicas de patentes, a saber, 'uno o más'. Por ejemplo, "una rejilla" significa una o más rejillas y, como tal, "la rejilla" significa "la(s) rejilla(s)" en el presente documento. Además, cualquier referencia en este documento a 'arriba', 'abajo', 'superior', 'inferior', 'arriba', 'abajo', 'frente', atrás’, ‘primero’, ‘segundo’, ‘izquierda’ o ‘derecho' no pretende ser una limitación en este documento. Aquí, el término 'aproximadamente' cuando se aplica a un valor generalmente significa dentro del rango de tolerancia del equipo usado para producir el valor, o puede significar más o menos 10%, o más o menos 5%, o más o menos 1%, a menos que se especifique expresamente lo contrario. Además, el término "sustancialmente" como se usa en este documento significa una mayoría, o casi todo, o todo, o una cantidad dentro de un rango de aproximadamente 51% a aproximadamente 100%. Además, los ejemplos de la presente están destinados a ser ilustrativos únicamente y se presentan con fines de discusión y no a modo de limitación.Furthermore, as used herein, the article 'a' is intended to have its normal meaning in patent arts, namely, 'one or more'. For example, "a grid" means one or more grids and, as such, "the grid" means "the grid (s)" herein. Also, any references in this document to 'top', 'bottom', 'top', 'bottom', 'top', 'bottom', 'front', back ',' first ',' second ',' left ' or 'right' is not intended to be a limitation on this document. Here, the term 'about' when applied to a value generally means within the tolerance range of the equipment used to produce the value, or it can mean plus or minus 10%, or plus or minus 5%, or plus or minus 1%. , unless expressly specified otherwise. Furthermore, the term "substantially" as used herein means a majority, or nearly all, or all, or an amount within a range of about 51% to about 100%. Furthermore, the examples herein are intended to be illustrative only and are presented for discussion purposes and not by way of limitation.
[0024] De acuerdo con algunas realizaciones de los principios descritos en el presente documento, es un sistema de seguimiento de vehículo proporcionado. La figura 1 ilustra un diagrama de bloques de un sistema de vigilancia de vehículos 100 en un ejemplo, según una realización consistente con los principios descritos en este documento. La Figura 2A ilustra una vista en perspectiva de una región 102 monitoreada usando el sistema de vigilancia de vehículos 100 de la figura 1 en un ejemplo, de acuerdo con una realización consistente con los principios descritos aquí. La figura 2B ilustra una vista lateral de la región monitorizada 102 de la figura 2A en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento. Por definición en el presente documento, la "región" que es monitoreada por el sistema de vigilancia de vehículos 100 es un área en la vecindad de, adyacente o alrededor de un vehículo (en adelante, la "región" puede denominarse colectivamente como "región adyacente"). Según diversas realizaciones, la región 102 que se supervisa puede incluir una o más de delante del vehículo, detrás del vehículo y a un lado del vehículo.In accordance with some embodiments of the principles described herein, it is a provided vehicle tracking system. Figure 1 illustrates a block diagram of a vehicle surveillance system 100 in one example, in accordance with an embodiment consistent with the principles described herein. Figure 2A illustrates a perspective view of a region 102 monitored using the vehicle surveillance system 100 of Figure 1 in one example, in accordance with an embodiment consistent with the principles described herein. Figure 2B illustrates a side view of the monitored region 102 of Figure 2A in one example, in accordance with an embodiment consistent with the principles described herein. By definition herein, the "region" that is monitored by the vehicle surveillance system 100 is an area in the vicinity of, adjacent to, or around a vehicle (hereinafter, the "region" may be collectively referred to as the "region adjacent"). According to various embodiments, the region 102 that is monitored may include one or more in front of the vehicle, behind the vehicle, and to one side of the vehicle.
[0025] Por ejemplo, el sistema de monitorización de vehículos 100 puede usarse para monitorizar una región 102 detrás de un vehículo y así servir como una copia de seguridad o sistema de monitoreo de retrovisores. En particular, el sistema de vigilancia del vehículo 100 puede configurarse como un sistema de vigilancia del vehículo de retrovisor o asistencia de respaldo para ayudar a evitar colisiones cuando el vehículo se está moviendo hacia atrás. En otro ejemplo, la región 102 que se supervisa puede estar delante del vehículo. Como tal, el sistema de vigilancia del vehículo 100 puede servir como un sistema de prevención de colisiones frontal para cuando el vehículo está avanzando, por ejemplo.[0025] For example, vehicle monitoring system 100 can be used to monitor a region 102 behind a vehicle and thus serve as a backup or mirror monitoring system. In particular, the vehicle surveillance system 100 may be configured as a rear view or backup assist vehicle surveillance system to help avoid collisions when the vehicle is moving backwards. In another example, the region 102 that is monitored may be in front of the vehicle. As such, the vehicle surveillance system 100 can serve as a frontal collision avoidance system for when the vehicle is moving forward, for example.
[0026] Como se ilustra en la Figura 1, el sistema de vigilancia de vehículos 100 comprende un escáner de tres dimensiones (3D) 110. El escáner 3D 110 está configurado para analizar la región 102 adyacente al vehículo. El escaneo realizado por el escáner 3D se utiliza luego para generar o proporcionar un modelo 3d de la región 102. En particular, el modelo 3D incluye una configuración espacial de objetos 104 ubicados dentro de la región 102 que se escanea. La región 102 que se escanea adyacente al vehículo también puede denominarse en este documento la región 102 'escaneada' o, de manera equivalente, una región 102 de 'imagen'.[0026] As illustrated in Figure 1, the vehicle surveillance system 100 comprises a three-dimensional (3D) scanner 110. The 3D scanner 110 is configured to analyze the region 102 adjacent to the vehicle. The scanning performed by the 3D scanner is then used to generate or provide a 3d model of region 102. In particular, the 3D model includes a spatial pattern of objects 104 located within region 102 that is scanned. The region 102 that is scanned adjacent to the vehicle may also be referred to herein as the 'scanned' region 102 or, equivalently, an 'image' region 102.
[0027] En general, el escáner 110 3D puede comprender cualquiera de una variedad de diferentes sistemas de escaneo o imagen 3D capaces de determinar una distancia a varios objetos 104 en la región escaneada 102. Según algunas realizaciones, el escáner 3D 110 comprende una pluralidad de cámaras desplazadas entre sí. La distancia desde el escáner 3D 110 a un objeto 104 dentro de la región escaneada 102 puede determinarse, por ejemplo, mediante estimación de disparidad usando imágenes separadas capturadas por diferentes cámaras de la pluralidad de cámaras. Por ejemplo, la pluralidad de cámaras puede comprender un par de cámaras binoculares y la distancia al objeto 104 puede determinarse usando la estimación de disparidad binocular dentro de la región 102 que se escanea. Un procesador de imágenes (no ilustrado en las Figuras 1, 2A, 2B) del sistema de vigilancia de vehículos 100 puede realizar la estimación de disparidad y además puede generar o proporcionar el modelo 3D a partir de la distancia determinada de estimación de disparidad a los objetos 104, de acuerdo con algunas realizaciones. El procesador de imágenes puede ser parte del escáner 3D 110, por ejemplo.[0027] In general, 3D scanner 110 may comprise any of a variety of different 3D imaging or scanning systems capable of determining a distance to various objects 104 in scanned region 102. According to some embodiments, 3D scanner 110 comprises a plurality of cameras shifted from each other. The distance from the 3D scanner 110 to an object 104 within the scanned region 102 can be determined, for example, by disparity estimation using separate images captured by different cameras of the plurality of cameras. For example, the plurality of cameras can comprise a pair of binocular cameras and the distance to the object 104 can be determined using the binocular disparity estimate within the region 102 being scanned. An image processor (not illustrated in Figures 1, 2A, 2B) of the vehicle surveillance system 100 can perform the disparity estimate and can also generate or provide the 3D model from the determined disparity estimate distance to the objects 104, according to some embodiments. The image processor can be part of the 3D scanner 110, for example.
[0028] En otra realización, el escáner 3D 110 comprende un sistema de detección de luz y alcance sin escaner (LIDAR), como una cámara de tiempo de vuelo en donde la distancia se determina a partir de un tiempo de propagación de un impulso de luz reflejada por un objeto en la región 102 que se escanea. En particular, la cámara de tiempo de vuelo genera un pulso de luz usando un láser u otra fuente de luz similar. El pulso de luz se usa luego para iluminar la región escaneada 102. Cualquier objeto 104 dentro de la región escaneada 102 refleja el pulso de luz iluminante de regreso a la cámara de tiempo de vuelo. La distancia al objeto 104 se determina a partir de un período de tiempo o 'tiempo de vuelo' que tarda el pulso de luz iluminadora en propagarse al objeto, reflejarse en el objeto y luego regresar a un sensor óptico (por ejemplo, una matriz de plano focal) de la cámara de tiempo de vuelo. La distancia de tiempo de vuelo puede determinarse píxel por píxel usando la cámara de tiempo de vuelo para proporcionar el modelo 3D de la región escaneada 102, por ejemplo.In another embodiment, the 3D scanner 110 comprises a scannerless light and range detection system (LIDAR), such as a time-of-flight camera where the distance is determined from a propagation time of a pulse of light reflected by an object in the region 102 being scanned. In particular, the time-of-flight camera generates a pulse of light using a laser or other similar light source. The light pulse is then used to illuminate the scanned region 102. Any object 104 within the scanned region 102 reflects the illuminating pulse of light back to the time-of-flight camera. Distance to object 104 is determined from a period of time or 'flight time' it takes for the pulse of illuminating light to propagate to the object, reflect off the object, and then return to an optical sensor (eg, a focal plane array) of the time-of-flight camera. The time of flight distance can be determined pixel by pixel using the time of flight camera to provide the 3D model of the scanned region 102, for example.
[0029] En otra realización, el escáner 3D 110 comprende un sensor de distancia configurado para medir una distancia a una pluralidad de puntos dentro de la región 102 que se escanea. La pluralidad de puntos puede incluir el objeto 104, por ejemplo. En algunas realizaciones que incluyen un sensor de distancia, el escáner 3D 110 puede comprender además una cámara configurada para capturar una imagen bidimensional (2D) correspondiente de la región escaneada 102. La distancia medida proporcionada por el sensor de distancia puede usarse para generar una o más de una nube de puntos y una malla de objetos de la región escaneada 102. A su vez, la nube de puntos o la malla de objetos pueden usarse directamente como modelo 3D o emplearse para generar el modelo 3D (por ejemplo, en un procesador de imágenes del sistema de vigilancia del vehículo 100). La imagen 2D capturada por la cámara se puede utilizar para pintar el modelo 3D. Por "pintar" se entiende que la imagen 2D se superpone o se combina con el modelo 3D (por ejemplo, cuando el modelo 3D se representa en una pantalla). Se puede emplear una variedad de sensores de distancia en esta realización del escáner 3D 110 que incluyen, pero no se limitan a un sensor de distancia acústico y un sensor de distancia óptico (por ejemplo, basado en láser de escaneo), por ejemplo.[0029] In another embodiment, 3D scanner 110 comprises a distance sensor configured to measure a distance to a plurality of points within region 102 being scanned. The plurality of points may include object 104, for example. In some embodiments that include a distance sensor, the 3D scanner 110 may further comprise a camera configured to capture a corresponding two-dimensional (2D) image of the scanned region 102. The measured distance provided by the distance sensor can be used to generate one or more than one point cloud and one object mesh of the scanned region 102. In turn, the point cloud or object mesh can be used directly as a 3D model or used to generate the 3D model (for example, in a processor image from the vehicle surveillance system 100). The 2D image captured by the camera can be used to paint the 3D model. By "painting" it is meant that the 2D image is overlaid or combined with the 3D model (for example, when the 3D model is rendered on a screen). A variety of distance sensors can be employed in this embodiment of 3D scanner 110 including, but not limited to, an acoustic distance sensor and an optical distance sensor (eg, scanning laser-based), for example.
[0030] En particular, el sensor de distancia del escáner 3D 110 puede comprender un láser configurado para escanear la región 102. Además, el sensor de distancia puede comprender un sensor óptico configurado para medir la distancia a la pluralidad de puntos usando luz láser reflejada desde uno o más objetos 104 en la región 102 que se escanea. Por ejemplo, el escáner 3D 110 puede comprender una cámara 3D Intel RealSense® que combina una cámara 2D, una segunda cámara de infrarrojos y un proyector láser de infrarrojos. La cámara 2D está configurada para capturar una imagen 2D de la región escaneada 102, mientras que el proyector láser infrarrojo y la segunda cámara infrarroja funcionan de manera cooperativa como sensor de distancia para recopilar información de distancia dentro de la región escaneada 102. Intel RealSense® e Intel® son marcas comerciales registradas de Intel Corporation, Santa Clara, CA, EE.UU.In particular, the 3D scanner distance sensor 110 may comprise a laser configured to scan region 102. In addition, the distance sensor may comprise an optical sensor configured to measure the distance to the plurality of points using reflected laser light. from one or more objects 104 in the region 102 being scanned. For example, 3D scanner 110 may comprise an Intel RealSense® 3D camera that combines a 2D camera, a second infrared camera, and an infrared laser projector. The 2D camera is configured to capture a 2D image of the scanned region 102, while the infrared laser projector and the second infrared camera work cooperatively as a distance sensor to collect distance information within the scanned region 102. Intel RealSense® and Intel® are registered trademarks of Intel Corporation, Santa Clara, CA, USA.
[0031] El sistema de vigilancia de vehículo 100 ilustrado en la Figura 1 comprende además una pantalla electrónica 120. El seguimiento de pantalla electrónica 120 está configurado para mostrar una parte de la región 102 utilizando el modelo 3D. Además, la pantalla electrónica 120 está configurada para resaltar visualmente un objeto 104’ dentro de la parte mostrada que se encuentra a menos de un umbral de distancia desde el vehículo (o equivalentemente, desde el sistema de vigilancia del vehículo 100). El resaltado visual está configurado para mejorar la percepción del usuario del objeto 104' que está más cerca del vehículo que la distancia de umbral, según diversas realizaciones. La percepción mejorada del objeto resaltado visualmente 104’ puede facilitar evitar una colisión entre el objeto 104' y el vehículo, por ejemplo. En las Figuras 2A y 2B, la distancia de umbral, etiquetada dr, se ilustra como una distancia desde el sistema de vigilancia de vehículos 100 a un plano 106, ilustrado como un límite de línea discontinua que se cruza con (por ejemplo, biseca) el objeto 104’, dentro de la región monitorizada 102.The vehicle surveillance system 100 illustrated in Figure 1 further comprises an electronic display 120. The electronic display tracking 120 is configured to display a portion of region 102 using the 3D model. In addition, electronic display 120 is configured to visually highlight an object 104 'within the portion shown that is less than a threshold distance from the vehicle (or equivalently, from the vehicle surveillance system 100). The visual highlighting is configured to enhance the user's perception of the object 104 'that is closer to the vehicle than the threshold distance, according to various embodiments. The improved perception of the visually highlighted object 104 'can facilitate avoiding a collision between the object 104' and the vehicle, for example. In Figures 2A and 2B, the threshold distance, labeled dr, is illustrated as a distance from the vehicle surveillance system 100 to a plane 106, illustrated as a dashed line boundary that intersects (eg, bisect) object 104 ', within monitored region 102.
[0032] La Figura 3A ilustra una parte visualizada 108 de la región 102 en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento. En particular, la Figura 3A ilustra los diversos objetos 104 en la región 102 que se escanea cuando los objetos 104 pueden aparecer en una pantalla de visualización de la pantalla electrónica 120. Por ejemplo, la pantalla electrónica 120 puede ser una pantalla electrónica bidimensional (2D). la pantalla 120 (por ejemplo, una pantalla LCD) y la parte 108 mostrada de la región escaneada 102 pueden mostrarse o representarse como una imagen 2D en la pantalla electrónica 2D. Además, como se ilustra en la Figura 3A, ninguno de los objetos 104 está resaltado visualmente.[0032] Figure 3A illustrates a displayed portion 108 of region 102 in one example, in accordance with an embodiment consistent with the principles described herein. In particular, Figure 3A illustrates the various objects 104 in region 102 that is scanned when objects 104 may appear on a display screen of electronic display 120. For example, electronic display 120 may be a two-dimensional electronic display (2D ). the screen 120 (eg, an LCD screen) and the displayed portion 108 of the scanned region 102 can be displayed or represented as a 2D image on the 2D electronic screen. Furthermore, as illustrated in Figure 3A, none of the objects 104 are visually highlighted.
[0033] De acuerdo con algunas formas de realización, el objeto 104' que está más cerca que la distancia umbral puede ser visualmente resaltado en o por la pantalla electrónica 120 usando una máscara aplicada al objeto 104'. Por ejemplo, se puede aplicar una máscara que comprenda sombreado en cruz o sombreado de color al objeto 104’ o una parte del mismo que se está resaltando. Además, la máscara puede comprender un color (por ejemplo, amarillo, rojo, etc.) configurado para llamar la atención sobre el objeto 104’ enmascarado, por ejemplo. En algunos ejemplos, la máscara se puede aplicar a cualquier parte (por ejemplo, cualquier píxel) de la región escaneada 102 que se determina que está a una distancia del vehículo que es menor que la distancia umbral.[0033] According to some embodiments, the object 104 'that is closer than the threshold distance can be visually highlighted on or by the electronic display 120 using a mask applied to the object 104'. For example, a mask comprising cross hatching or color shading can be applied to the object 104 'or a part thereof that is being highlighted. Furthermore, the mask may comprise a color (eg yellow, red, etc.) configured to draw attention to the masked object 104 ', for example. In some examples, the mask can be applied to any part (eg, any pixel) of the scanned region 102 that is determined to be at a distance from the vehicle that is less than the threshold distance.
[0034] La figura 3B ilustra un objeto 104’ resaltado visualmente en la parte 108 mostrada de la figura 3A en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento. En particular, la Figura 3B ilustra la parte mostrada de la región escaneada 102 que incluye el objeto 104’ resaltado visualmente usando una máscara 210. Como se ilustra en la Figura 3B, la máscara 210 comprende un sombreado cruzado que se superpone sobre o en el objeto 104' que está más cerca que la distancia de umbral. El objeto 104’ completo está sustancialmente cubierto por la máscara 210 de sombreado cruzado en este ejemplo. En otros ejemplos (no ilustrados), solo la parte del objeto 104’ que está realmente más cerca que la distancia de umbral está cubierta por la máscara 210 para proporcionar un resaltado visual, mientras que el resto del objeto 104' puede estar sustancialmente sin la máscara 210 (es decir, descubierto por la máscara 210).[0034] Figure 3B illustrates an object 104 'visually highlighted in the portion 108 shown of Figure 3A in an example, in accordance with an embodiment consistent with the principles described herein. In particular, Figure 3B illustrates the shown portion of scanned region 102 that includes object 104 'highlighted visually using a mask 210. As illustrated in Figure 3B, mask 210 comprises a cross hatch that is superimposed on or on the object 104 'that is closer than the threshold distance. The entire object 104 'is substantially covered by the cross hatch mask 210 in this example. In other examples (not illustrated), only the portion of the object 104 'that is actually closer than the threshold distance is covered by the mask 210 to provide visual highlighting, while the remainder of the object 104' may be substantially without the mask 210 (ie, discovered by mask 210).
[0035] En otro ejemplo, el resaltado visual representado en la pantalla electrónica 120 comprende un contorno que rodea un borde o periferia del objeto que está más cerca que la distancia umbral. El contorno puede comprender un color para llamar la atención específica sobre el objeto tal como, pero no limitado a, amarillo, naranja o rojo, por ejemplo. Además, en algunos ejemplos, el contorno puede proporcionarse alrededor de cualquier parte o partes de la región 102 que se determine que está a menos de la distancia umbral del vehículo. En algunos ejemplos, el contorno se puede usar junto con la máscara (por ejemplo, el objeto enmascarado también se puede delinear).[0035] In another example, the visual highlight displayed on electronic display 120 comprises an outline surrounding an edge or periphery of the object that is closer than the threshold distance. The outline may comprise a color to draw specific attention to the object such as, but not limited to, yellow, orange, or red, for example. Furthermore, in some examples, the contour may be provided around any portion or portions of region 102 that is determined to be less than the threshold distance from the vehicle. In some examples, the outline can be used in conjunction with the mask (for example, the masked object can also be outlined).
[0036] En aún otros ejemplos, un icono de alerta puede aparecer en la pantalla electrónica 120 para resaltar el objeto determinado a estar a una distancia del vehículo que es menor que la distancia de umbral. Por ejemplo, el icono de alerta puede mostrarse superpuesto sobre el objeto o, de manera equivalente, la parte de la región escaneada 102 que se encuentra dentro de la distancia umbral. El icono de alerta se puede representar en un color que llame la atención y puede incluir, entre otros, un triángulo, un círculo o un cuadrado, por ejemplo. El triángulo, círculo o cuadrado puede circunscribir un signo de exclamación u otro carácter alfanumérico, en algunos ejemplos, para llamar más la atención sobre el icono de alerta. En algunas realizaciones, el icono de alerta puede usarse junto con una o ambas de la máscara y el contorno (por ejemplo, el icono de alerta puede estar ubicado dentro de la máscara o el contorno).[0036] In still other examples, an alert icon may appear on electronic display 120 to highlight the object determined to be at a distance from the vehicle that is less than the threshold distance. For example, the alert icon may be displayed superimposed on the object or, equivalently, the portion of the scanned region 102 that is within the threshold distance. The alert icon can be represented in an attention-grabbing color and can include, but is not limited to, a triangle, circle, or square, for example. The triangle, circle, or square may circumscribe an exclamation point or other alphanumeric character, in some examples, to draw more attention to the alert icon. In some embodiments, the alert icon may be used in conjunction with one or both of the mask and the outline (eg, the alert icon may be located within the mask or outline).
[0037] La figura 3C ilustra un objeto 104’ resaltado visualmente en la parte 108 mostrada de la figura 3A en un ejemplo, de acuerdo con otra realización consistente con los principios descritos en este documento. En particular, la figura 3C ilustra la parte mostrada de la región escaneada 102 que incluye el objeto 104’ resaltado visualmente usando un contorno 220. Además, en la figura 3C se ilustra un icono de alerta 230. Mientras que el icono de alerta 230 puede estar ubicado generalmente en cualquier lugar de la pantalla mostrada, en la figura 3C el icono de alerta 230 está ubicado dentro del contorno 220 y superpuesto sobre el objeto 104’, a modo de ejemplo.Figure 3C illustrates an object 104 'visually highlighted in the portion 108 shown of Figure 3A in an example, in accordance with another embodiment consistent with the principles described herein. In particular, Figure 3C illustrates the displayed portion of scanned region 102 that includes object 104 'highlighted visually using an outline 220. In addition, Figure 3C illustrates an alert icon 230. While alert icon 230 may being located generally anywhere on the screen shown, in FIG. 3C alert icon 230 is located within outline 220 and superimposed on object 104 ', by way of example.
[0038] Con referencia de nuevo a las figuras 1, la pantalla electrónica 120 del sistema de vigilancia de vehículos 100 puede comprender una pantalla electrónica 3D 120, según algunas realizaciones. Según la invención, la distancia de umbral corresponde a un plano de disparidad cero asociado con la parte de la región 102 que se muestra en la pantalla electrónica 3D 120. Además, el objeto 104’ resaltado visualmente puede ser un objeto percibido como si estuviera frente al plano de disparidad cero de la pantalla electrónica 3D 120, según algunas realizaciones. De acuerdo con la invención, cuando se visualiza o representa, el objeto 104’ ubicado a una distancia menor que la distancia de umbral se representa en la pantalla electrónica 3D 120 frente al plano de disparidad cero. Como tal, el objeto es percibido (por ejemplo, por un espectador) como que sobresale o se proyecta desde o está enfrente de una superficie de visualización física de la pantalla electrónica 3D 120 para resaltar visualmente el objeto 104’, según varias realizaciones.[0038] Referring again to Figures 1, the electronic display 120 of the vehicle surveillance system 100 may comprise a 3D electronic display 120, according to some embodiments. According to the invention, the threshold distance corresponds to a plane of zero disparity associated with the portion of the region 102 displayed on the 3D electronic display 120. Furthermore, the visually highlighted object 104 'may be a perceived object as if it were facing to the zero disparity plane of the 3D electronic display 120, according to some embodiments. According to the invention, when displayed or represented, the object 104 'located at a distance less than the threshold distance is represented on the 3D electronic display 120 against the plane of zero disparity. As such, the object is perceived (eg, by a viewer) as protruding or projecting from or in front of a physical display surface of the 3D electronic screen 120 to visually highlight the object 104 ', according to various embodiments.
[0039] La figura 4 ilustra una vista en perspectiva de una pantalla electrónica 3D 120 que representa un objeto 104’ resaltado visualmente en un ejemplo, de acuerdo con otra realización consistente con la invención. En particular, la Figura 4 ilustra una parte 108 visualizada de la región escaneada 102 que incluye el objeto 104’ resaltado visualmente al ser renderizado delante del plano de disparidad cero. El objeto 104’ (por ejemplo, una bicicleta de juguete para niños) aparece en la pantalla electrónica 3D como proyectado fuera de o estando frente a una superficie física 120' de la pantalla electrónica 3D. Otros objetos 104 que están a una distancia que es mayor que la distancia umbral aparecen detrás de la superficie física 120' de la pantalla electrónica en 3D, como se ilustra en la Figura 4.[0039] Figure 4 illustrates a perspective view of a 3D electronic display 120 representing an object 104 'highlighted visually in one example, according to another embodiment consistent with the invention. In particular, Figure 4 illustrates a displayed portion 108 of scanned region 102 that includes object 104 'highlighted visually when rendered in front of the zero disparity plane. The object 104 '(eg, a children's toy bicycle) appears on the 3D electronic screen as projected out of or being in front of a physical surface 120' of the 3D electronic screen. Other objects 104 that are at a distance that is greater than the threshold distance appear behind the physical surface 120 'of the 3D electronic display, as illustrated in Figure 4.
[0040] En algunas realizaciones, una transformación proyectiva se puede aplicar al modelo 3D antes de que la parte mostrada se represente en la pantalla electrónica 3D 120. En particular, el sistema de vigilancia de vehículos 100 puede comprender además un procesador de imágenes, por ejemplo, como se describe a continuación con respecto a la Figura 6. El procesador de imágenes puede ser parte de la pantalla electrónica 3D 120, por ejemplo. En otros ejemplos, el procesador de imagen es parte del escáner 3D 110 o puede ser otro elemento (por ejemplo, por separado) del sistema de vigilancia de vehículos 100.[0040] In some embodiments, a projective transformation can be applied to the 3D model before the displayed part is rendered on the 3D electronic screen 120. In particular, the vehicle surveillance system 100 can further comprise an image processor, for example, as described below with respect to Figure 6. The image processor may be part of the 3D electronic display 120, for example. In other examples, the image processor is part of the 3D scanner 110 or it may be another element (eg, separately) of the vehicle surveillance system 100.
[0041] El procesador de imagen puede estar configurado para aplicar la transformación proyectiva al modelo 3D antes para que la parte mostrada se represente en la pantalla electrónica 3D 120. Según varias realizaciones, la transformación proyectiva está configurada para mejorar un tamaño relativo del objeto 104’ resaltado visualmente en comparación con otros objetos 104 en la imagen a una distancia mayor que la distancia umbral correspondiente al plano de disparidad cero. Como resultado, no solo el objeto 104’ resaltado visualmente aparecerá frente a la superficie de visualización física 120' de la pantalla electrónica 3d 120, el objeto 104’ resaltado visualmente se distorsionará espacialmente o aumentará de tamaño como se muestra en la pantalla electrónica 3D 120. El efecto es como si el objeto 104’ resaltado visualmente se magnifica, agranda o infla o expande visualmente en relación con los otros objetos mostrados por la pantalla electrónica 3D 120. Por ejemplo, el objeto 104' ilustrado en la Figura 4 está distorsionado espacialmente por aplicación de la transformación proyectiva. Como tal, la percepción del objeto 104’ resaltado visualmente se mejora aún más por la representación distorsionada por el tamaño resultante de la aplicación de la transformación proyectiva, según diversas realizaciones.The image processor may be configured to apply the projective transformation to the 3D model in advance so that the displayed portion is rendered on the 3D electronic screen 120. According to various embodiments, the projective transformation is configured to enhance a relative size of the object 104 'visually highlighted compared to other objects 104 in the image at a distance greater than the threshold distance corresponding to the plane of zero disparity. As a result, not only will the visually highlighted object 104 'appear in front of the physical display surface 120' of the 3d electronic display 120, the visually highlighted object 104 'will be spatially distorted or enlarged as shown on the 3D electronic display 120. The effect is as if the visually highlighted object 104 'is visually magnified, enlarged or inflated or expanded relative to the other objects displayed by the 3D electronic display 120. For example, the object 104' illustrated in Figure 4 is spatially distorted by application of the projective transformation. As such, the perception of the visually highlighted object 104 'is further enhanced by the size distorted representation resulting from the application of the projective transformation, according to various embodiments.
[0042] De acuerdo con diversas realizaciones, la pantalla electrónica 3D 120 puede ser sustancialmente cualquier pantalla electrónica 3D. En particular, en algunas realizaciones, la pantalla electrónica 3D 120 es una pantalla electrónica 3D 120 basada en red de haces múltiples que comprende una luz de fondo basada en red de haces múltiples y una capa de modulación de luz. La figura 5A ilustra una vista en sección transversal de la pantalla electrónica 3D 120 que tiene una luz de fondo basada en red de haces múltiples en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento. La figura 5B ilustra una vista en sección transversal de la pantalla electrónica 3D 120 que tiene una luz de fondo basada en red de haces múltiples en un ejemplo, de acuerdo con otra realización consistente con los principios descritos en este documento. La figura 5C ilustra una vista en perspectiva de una parte de la pantalla electrónica 3D 120 que tiene una luz de fondo basada en red de haces múltiples en un ejemplo, de acuerdo con una realización consistente con los principios descritos en este documento. La parte de la pantalla electrónica 3D 120 ilustrada en la Figura 5C puede representar la pantalla electrónica 3D 120 ilustrada en la Figura 5A o la Figura 5B, por ejemplo. Según varias realizaciones, la pantalla electrónica 3D 120 que tiene la luz de fondo basada en red de haces múltiples puede proporcionar una percepción mejorada del objeto resaltado visualmente como se describe anteriormente.[0042] In accordance with various embodiments, 3D electronic display 120 can be substantially any 3D electronic display. In particular, in some embodiments, 3D electronic display 120 is a multi-beam array-based 3D electronic display 120 comprising a multi-beam array-based backlight and a light modulation layer. Figure 5A illustrates a cross-sectional view of the 3D electronic display 120 having a multi-beam array-based backlight in one example, in accordance with a performance consistent with the principles described in this document. FIG. 5B illustrates a cross-sectional view of 3D electronic display 120 having a multi-beam array-based backlight in one example, in accordance with another embodiment consistent with the principles described herein. FIG. 5C illustrates a perspective view of a portion of the 3D electronic display 120 having a multi-beam array-based backlight in one example, in accordance with an embodiment consistent with the principles described herein. The portion of the 3D electronic display 120 illustrated in Figure 5C may represent the 3D electronic display 120 illustrated in Figure 5A or Figure 5B, for example. According to various embodiments, the 3D electronic display 120 having the multi-beam array based backlight can provide enhanced perception of the visually highlighted object as described above.
[0043] De acuerdo con diversas realizaciones, la pantalla electrónica 3D 120 ilustrada en las figuras 5A-5C está configurada para producir luz 'direccional' modulada, es decir, luz que comprende haces de luz que tienen diferentes direcciones principales angulares. Por ejemplo, como se ilustra en las Figuras 5A-5C, la pantalla electrónica 3D 120 puede proporcionar o generar una pluralidad de haces de luz ilustrados como flechas dirigidas hacia afuera y lejos de la pantalla electrónica 3D 120 en diferentes direcciones angulares principales predeterminadas (por ejemplo, como un campo de luz). A su vez, los haces de luz de la pluralidad pueden modularse para facilitar la visualización de información que tiene contenido 3D que incluye, pero no se limita al objeto resaltado visualmente. En algunas realizaciones, los haces de luz modulados que tienen diferentes direcciones angulares principales predeterminadas forman una pluralidad de píxeles de la pantalla electrónica 3D 120. Además, la pantalla electrónica 3D 120 es una pantalla electrónica 3D llamada 'sin gafas' (por ejemplo, una visualización de vista múltiple, 'holográfica' o autoestereoscópica) en donde los haces de luz corresponden a los píxeles asociados con diferentes 'vistas' de la pantalla electrónica 3D 120.[0043] In accordance with various embodiments, the 3D electronic display 120 illustrated in Figures 5A-5C is configured to produce modulated 'directional' light, that is, light comprising light beams having different principal angular directions. For example, as illustrated in Figures 5A-5C, 3D electronic display 120 may provide or generate a plurality of light beams illustrated as arrows directed outward and away from 3D electronic display 120 in different predetermined principal angular directions (e.g. example, as a field of light). In turn, the light beams of the plurality can be modulated to facilitate the display of information that has 3D content that includes, but is not limited to, the visually highlighted object. In some embodiments, modulated light beams having different predetermined principal angular directions form a plurality of pixels of 3D electronic display 120. In addition, 3D electronic display 120 is a so-called 'glasses-free' 3D electronic display (eg, a multiple view, 'holographic' or autostereoscopic display) wherein the light beams correspond to the pixels associated with different 'views' of the 3D electronic display 120.
[0044] Como se ilustra en las figuras 5A, 5B y 5C, la luz de fondo basada en rejilla de haces múltiples de la pantalla electrónica 3D 120 comprende una guía de luz 122. En particular, la guía de luz 122 puede ser una guía de luz de placa 122, según algunas realizaciones. La guía de luz de placa 122 está configurada para guiar la luz desde una fuente de luz (no ilustrada en las Figuras 5A-5C) como luz guiada (ilustrada como una flecha extendida que se propaga en la guía de luz 122, como se describe más adelante). Por ejemplo, la guía de luz de placa 122 puede incluir un material dieléctrico configurado como guía de ondas óptica. El material dieléctrico puede tener un primer índice de refracción que sea mayor que un segundo índice de refracción de un medio que rodea la guía de ondas óptica dieléctrica. La diferencia en los índices de refracción está configurada para facilitar la reflexión interna total de la luz guiada según uno o más modos guiados de la guía de luz de placa 122, por ejemplo.[0044] As illustrated in Figures 5A, 5B and 5C, the multi-beam grating-based backlight of the 3D electronic display 120 comprises a light guide 122. In particular, the light guide 122 may be a guide. plate light source 122, according to some embodiments. Plate light guide 122 is configured to guide light from a light source (not illustrated in Figures 5A-5C) as guided light (illustrated as an extended arrow propagating in light guide 122, as described later). For example, plate light guide 122 may include a dielectric material configured as an optical waveguide. The dielectric material may have a first refractive index that is greater than a second refractive index of a medium surrounding the dielectric optical waveguide. The difference in refractive indices is configured to facilitate total internal reflection of the guided light according to one or more guided modes of the plate light guide 122, for example.
[0045] En diversas realizaciones, la luz de la fuente de luz es guiada como un haz de luz a lo largo de una longitud de la placa de guía de luz 122. Además, la guía de luz de la placa 122 puede estar configurada para guiar la luz (es decir, el haz de luz guiado) en un ángulo de propagación distinto de cero. El haz de luz guiado puede ser guiado con un ángulo de propagación distinto de cero dentro de la guía de luz de placa 122 usando la reflexión interna total, por ejemplo. En particular, el haz de luz guiado se propaga reflejándose o 'rebotando' entre la superficie superior y la superficie inferior de la guía de luz de la placa 122 en el ángulo de propagación distinto de cero (por ejemplo, ilustrado por la flecha en ángulo extendida que representa un rayo de luz del haz de luz guiado).[0045] In various embodiments, the light from the light source is guided as a beam of light along a length of the light guide plate 122. In addition, the light guide from the plate 122 may be configured to guiding the light (i.e. the guided light beam) at a nonzero propagation angle. The guided light beam can be guided with a non-zero propagation angle within plate light guide 122 using total internal reflection, for example. In particular, the guided light beam propagates by reflecting or 'bouncing' between the upper surface and the lower surface of the light guide of plate 122 at the non-zero propagation angle (e.g., illustrated by the angled arrow extended representing a beam of light from the guided light beam).
[0046] Tal como se define en el presente documento, el 'ángulo de propagación no cero’ es un ángulo con respecto a una superficie (por ejemplo, una superficie superior o una superficie inferior) de la placa de guía de luz 122. En algunos ejemplos, el ángulo de propagación no cero del haz de luz guiado puede estar entre aproximadamente diez (10) grados y aproximadamente cincuenta (50) grados o, en algunos ejemplos, entre aproximadamente veinte (20) grados y aproximadamente cuarenta (40) grados, o entre aproximadamente veinticinco (25) grados y aproximadamente treinta y cinco (35) grados. Por ejemplo, el ángulo de propagación distinto de cero puede ser de aproximadamente treinta (30) grados. En otros ejemplos, el ángulo de propagación distinto de cero puede ser de aproximadamente 20 grados, o aproximadamente 25 grados, o aproximadamente 35 grados.[0046] As defined herein, the 'non-zero propagation angle' is an angle with respect to a surface (eg, an upper surface or a lower surface) of the light guide plate 122. In In some examples, the non-zero propagation angle of the guided light beam may be between about ten (10) degrees and about fifty (50) degrees or, in some examples, between about twenty (20) degrees and about forty (40) degrees. , or between approximately twenty-five (25) degrees and approximately thirty-five (35) degrees. For example, the nonzero propagation angle may be approximately thirty (30) degrees. In other examples, the nonzero propagation angle can be about 20 degrees, or about 25 degrees, or about 35 degrees.
[0047] En algunos ejemplos, la luz de una fuente de luz se introduce o se acopla en la guía de luz de la placa 122 en el ángulo de propagación no cero (por ejemplo, unos 30-35 grados). Uno o más de una lente, un espejo o reflector similar (por ejemplo, un reflector de colimación inclinado) y un prisma (no ilustrado) pueden facilitar el acoplamiento de la luz en un extremo de entrada de la guía de luz de la placa 122 como el haz de luz en el ángulo de propagación no cero, por ejemplo. Una vez acoplado a la guía de luz de placa 122, el haz de luz guiado se propaga a lo largo de la guía de luz de placa 122 en una dirección que generalmente está alejada del extremo de entrada (por ejemplo, ilustrado por flechas en negrita que apuntan a lo largo de un eje x en las figuras 5A-5B).[0047] In some examples, light from a light source is introduced or coupled to the light guide of plate 122 at the nonzero propagation angle (eg, about 30-35 degrees). One or more of a lens, mirror or similar reflector (for example, a tilted collimation reflector), and a prism (not shown) can facilitate coupling of light at an input end of the light guide of plate 122 like the light beam at nonzero propagation angle, for example. Once coupled to plate light guide 122, the guided light beam propagates along plate light guide 122 in a direction that is generally away from the input end (for example, illustrated by bold arrows pointing along an x-axis in Figures 5A-5B).
[0048] Además, el haz de luz guiado producido por el acoplamiento de la luz en la guía de luz de la placa 122 puede ser un haz de luz colimado, de acuerdo con algunos ejemplos. En particular, por "haz de luz colimado" se entiende que los rayos de luz dentro del haz de luz guiado son sustancialmente paralelos entre sí dentro del haz de luz guiado. Los rayos de luz que divergen o se dispersan del haz de luz colimado del haz de luz guiado no se consideran parte del haz de luz colimado, por definición aquí. La colimación de la luz para producir el haz de luz guiado colimado puede ser proporcionada por la lente o espejo (por ejemplo, reflector colimador inclinado, etc.) usado para acoplar la luz en la guía de luz de placa 122, por ejemplo. Furthermore, the guided light beam produced by coupling the light in the light guide of the plate 122 may be a collimated light beam, according to some examples. In particular, by "collimated light beam" is meant that the light rays within the guided light beam are substantially parallel to each other within the guided light beam. Light rays that diverge or scatter from the collimated light beam of the guided light beam are not considered part of the collimated light beam, by definition here. Collimation of the light to produce the collimated guided light beam can be provided by the lens or mirror (eg, inclined collimating reflector, etc.) used to couple the light to the plate light guide 122, for example.
[0049] En algunos ejemplos, la placa de guía de luz 122 puede ser una losa o placa de guía de ondas óptica que comprende una hoja extendida sustancialmente plana de material ópticamente transparente, dieléctrico. La hoja sustancialmente plana de material dieléctrico está configurada para guiar el haz de luz guiado usando una reflexión interna total. De acuerdo con varios ejemplos, el material ópticamente transparente de la guía de luz de placa 122 puede incluir o estar compuesto por cualquiera de una variedad de materiales dieléctricos que incluyen, pero no se limitan a, uno o más de varios tipos de vidrio (por ejemplo, vidrio de sílice, vidrio alcalino-aluminosilicato, vidrio borosilicato, etc.) y plásticos o polímeros sustancialmente ópticamente transparentes (por ejemplo, poli(metilo metacrilato) o 'vidrio acrílico', policarbonato, etc.). En algunos ejemplos, la guía de luz de placa 122 puede incluir además una capa de revestimiento en al menos una parte de una superficie (por ejemplo, una o ambas de la superficie superior y la superficie inferior) de la guía de luz de placa 122 (no ilustrada). La capa de revestimiento se puede utilizar para facilitar aún más la reflexión interna total, según algunos ejemplos.[0049] In some examples, light guide plate 122 may be an optical waveguide plate or slab comprising a substantially flat extended sheet of dielectric, optically transparent material. The substantially flat sheet of dielectric material is configured to guide the guided light beam using total internal reflection. According to various examples, the optically transparent material of plate light guide 122 may include or be composed of any of a variety of dielectric materials including, but not limited to, one or more of several types of glass (e.g. eg silica glass, alkaline aluminosilicate glass, borosilicate glass, etc.) and substantially optically transparent plastics or polymers (eg poly (methyl methacrylate) or 'acrylic glass', polycarbonate, etc.). In some examples, the plate light guide 122 may further include a coating layer on at least a portion of a surface (eg, one or both of the top surface and the bottom surface) of the plate light guide 122. (not illustrated). The coating layer can be used to further facilitate total internal reflection, according to some examples.
[0050] En las figuras 5A, 5B y 5C, la luz de fondo a base de rejilla de haces múltiples de la pantalla electrónica 3D ilustrada 120 comprende, además, un conjunto de redes de difracción de haces múltiples 124. Como se ilustra en las figuras 5A-5B, las redes de difracción de haces múltiples 124 están situadas en una superficie de la guía de luz de placa 122 (por ejemplo, una superficie superior o frontal). En otros ejemplos (no ilustrados), una o más de las redes de difracción de haces múltiples 124 pueden estar ubicadas dentro de la guía de luz de placa 122. En otros ejemplos más (no ilustrados), una o más de las redes de difracción de haces múltiples 124 pueden estar ubicadas sobre o en una superficie inferior o trasera de la guía de luz de placa 122 (es decir, una superficie opuesta a la superficie ilustrada con las redes de difracción de haces múltiples 124). En combinación, la guía de luz de la placa 122 y el conjunto de redes de difracción de haces múltiples 124 proporcionan o sirven como luz de fondo a base de rejilla de haces múltiples de la pantalla electrónica 3D 120.[0050] In Figures 5A, 5B and 5C, the multi-beam grating-based backlight of the illustrated 3D electronic display 120 further comprises a set of multi-beam diffraction gratings 124. As illustrated in FIGS. Figures 5A-5B, the multi-beam diffraction gratings 124 are located on a surface of the plate light guide 122 (eg, a top or front surface). In other examples (not illustrated), one or more of the multi-beam diffraction gratings 124 may be located within plate light guide 122. In still other examples (not illustrated), one or more of the diffraction gratings Multiple beams 124 may be located on or on a bottom or rear surface of plate light guide 122 (ie, a surface opposite the surface illustrated with multiple beam diffraction gratings 124). In combination, the plate light guide 122 and the multi-beam diffraction grating assembly 124 provide or serve as the multi-beam grating-based backlight of the 3D electronic display 120.
[0051] De acuerdo con diversas realizaciones, una red de difracción de haces múltiples 124 de la matriz es configurada para dispersar o acoplar difractivamente una parte del haz de luz guiado como una pluralidad de haces de luz que tienen diferentes direcciones angulares principales correspondientes a diferentes vistas de la pantalla electrónica 3D 120. Por ejemplo, la parte del haz de luz guiado puede estar acoplada de forma difractiva a través de la red de difracción de haces múltiples 124 a través de la superficie de la guía de luz de la placa (por ejemplo, a través de la superficie superior de la guía de luz 122 de la placa). Además, la red de difracción de haces múltiples 124 está configurada para acoplar difractivamente la parte del haz de luz guiado como haces de luz acoplados y para redirigir de manera difractiva los haces de luz acoplados lejos de la superficie de la guía de luz de la placa como la pluralidad de haces de luz. Como se discutió anteriormente, cada uno de los haces de luz de la pluralidad tiene una dirección angular principal predeterminada diferente determinada por las características de las características de difracción de la red de difracción de haces múltiples 124.In accordance with various embodiments, a multiple beam diffraction grating 124 of the array is configured to scatter or diffractively couple a portion of the guided light beam as a plurality of light beams having different principal angular directions corresponding to different views of the 3D electronic display 120. For example, the portion of the guided light beam may be diffractively coupled through the multi-beam diffraction grating 124 through the light guide surface of the plate (e.g. for example, through the top surface of plate light guide 122). Furthermore, the multiple beam diffraction grating 124 is configured to diffractively couple the portion of the guided light beam as coupled light beams and to diffractively redirect the coupled light beams away from the light guide surface of the plate. like the plurality of light beams. As discussed above, each of the plurality of light beams has a different predetermined principal angular direction determined by the characteristics of the diffraction characteristics of the multiple beam diffraction grating 124.
[0052] De acuerdo con varias realizaciones, las redes de difracción de haces múltiples 124 de la matriz incluyen una pluralidad de características difractivas que proporcionan difracción. La difracción proporcionada es responsable del acoplamiento difractivo de la parte del haz de luz guiado fuera de la guía de luz de placa 122. Por ejemplo, la red de difracción de haces múltiples 124 puede incluir una o ambas ranuras en una superficie de la guía de luz de placa 122 y crestas que sobresalen de la superficie de la guía de luz de la placa que sirven como características de difracción. Las ranuras y crestas pueden estar dispuestas paralelas entre sí y, al menos en algún punto a lo largo de las características de difracción, las ranuras y crestas son perpendiculares a una dirección de propagación del haz de luz guiado que debe ser acoplado por la red de difracción de haces múltiples 124.[0052] In accordance with various embodiments, the multiple beam diffraction gratings 124 of the array include a plurality of diffractive characteristics that provide diffraction. The provided diffraction is responsible for the diffractive coupling of the portion of the light beam guided away from the plate light guide 122. For example, the multiple beam diffraction grating 124 may include one or both slots in a surface of the plate light guide. plate light 122 and ridges protruding from the plate light guide surface that serve as diffraction characteristics. The grooves and ridges may be arranged parallel to one another and, at least at some point along the diffraction characteristics, the grooves and ridges are perpendicular to a direction of propagation of the guided light beam that is to be coupled by the grating. multiple beam diffraction 124.
[0053] En algunos ejemplos, las ranuras o crestas pueden ser grabadas, molidas o moldeadas en la superficie de guía de luz de placa. Como tal, un material de las redes de difracción de haces múltiples 124 puede incluir el material de la guía de luz de placa 122. Como se ilustra en la Figura 5A, por ejemplo, las redes de difracción de haces múltiples 124 incluyen ranuras sustancialmente paralelas que penetran la superficie de la guía de luz de placa 122. En la figura 5B, las redes de difracción de haces múltiples 124 incluyen crestas sustancialmente paralelas que sobresalen de la superficie de la guía de luz de placa 122. En otros ejemplos (no ilustrados), las redes de difracción de haces múltiples 124 pueden ser una película o capa aplicada o fijada a la superficie de la guía de luz de la placa.[0053] In some examples, the grooves or ridges may be etched, ground, or molded into the light guide surface of the plate. As such, a multi-beam diffraction grating material 124 may include the material of plate light guide 122. As illustrated in Figure 5A, for example, multi-beam diffraction grating 124 includes substantially parallel grooves. penetrating the surface of plate light guide 122. In FIG. 5B, multiple beam diffraction gratings 124 include substantially parallel ridges protruding from the surface of plate light guide 122. In other examples (not illustrated ), the multiple beam diffraction gratings 124 may be a film or layer applied or affixed to the light guide surface of the plate.
[0054] De acuerdo con algunas realizaciones, la red de difracción de haces múltiples 124 puede ser o comprender una red de difracción chirped. Por definición, la red de difracción chirped es una red de difracción que exhibe o tiene un espaciado de difracción de las características de difracción (es decir, un paso de difracción) que varía en una extensión o longitud de la red de difracción chirped, por ejemplo, como se ilustra en las figuras 5A-5C. Aquí, el espaciado de difracción variable se define y se denomina "chirped". Como resultado del chirped, la parte del haz de luz guiado que está acoplada difractivamente fuera de la guía de luz de placa 122 sale o se emite desde la red de difracción chirped como los haces de luz acoplados en diferentes ángulos de difracción correspondientes a diferentes puntos de origen a través de la red de difracción chirped de la red de difracción de haces múltiples 124. En virtud de un chirped predefinido, la red de difracción chirped es responsable de las direcciones angulares principales predeterminadas y diferentes de los haces de luz acoplados de la pluralidad de haces de luz.[0054] In accordance with some embodiments, the multi-beam diffraction grating 124 may be or comprise a chirped grating. By definition, the chirped diffraction grating is a diffraction grating that exhibits or has a diffraction spacing of diffraction characteristics (i.e., a diffraction step) that varies over an extent or length of the chirped diffraction grating, for example, as illustrated in Figures 5A-5C. Here, the variable diffraction spacing is defined and called "chirped". As a result of the chirped, the part of the guided light beam that is diffractively coupled outside the plate light guide 122 exits or is emitted from the chirped diffraction grating as the coupled light beams at different diffraction angles corresponding to different points. of origin through the chirped diffraction grating of the multi-beam diffraction grating 124. By virtue of a predefined chirped, the chirped diffraction grating is responsible for the predetermined and different principal angular directions of the coupled light beams of the plurality of light beams.
[0055] En algunos ejemplos, la red de difracción chirped de la red de difracción de haces múltiples 124 puede tener o exhibir un chirp de la separación de difracción que varía linealmente con la distancia. Como tal, la red de difracción chirped es una red de difracción de 'chirped lineal’, por definición. Las figuras 5A-5C ilustran la red de difracción de haces múltiples 124 como una red de difracción linealmente chirped, por ejemplo. En particular, como se ilustra, las características de difracción están más juntas en un segundo extremo de la red de difracción de haces múltiples 124 que en un primer extremo. Además, la separación difractiva de las características difractivas ilustradas varía linealmente desde el primer extremo al segundo extremo, como se ilustra a modo de ejemplo y no de limitación.[0055] In some examples, the chirped grating of the multi-beam grating 124 may have or exhibit a diffraction gap chirp that varies linearly with distance. As such, the chirped grating is a 'linear chirped' grating, by definition. Figures 5A-5C illustrate the diffraction grating of multiple beams 124 like a linearly chirped diffraction grating, for example. In particular, as illustrated, the diffraction characteristics are closer together at a second end of the multi-beam diffraction grating 124 than at a first end. Furthermore, the diffractive spacing of the illustrated diffractive characteristics varies linearly from the first extreme to the second extreme, as illustrated by way of example and not limitation.
[0056] En otro ejemplo (no ilustrado), la red de difracción chirped de la red de difracción de haces múltiples 124 puede exhibir un chirp no lineal de la separación de difracción. Varios chirpeds no lineales que pueden usarse para realizar la red de difracción de haces múltiples 124 incluyen, pero no se limitan a, un chirped exponencial, un chirped logarítmico o un chirped que varía de otra manera sustancialmente no uniforme o aleatoria pero aún monótona. También se pueden emplear chirpeds no monótonos tales como, pero sin limitarse a, un chirped sinusoidal o un chirped triangular o de diente de sierra. También se pueden emplear combinaciones de cualquiera de estos tipos de chirpeds.[0056] In another example (not illustrated), the chirped grating of the multi-beam grating 124 may exhibit a non-linear chirp of diffraction separation. Various non-linear chirpeds that can be used to realize the multi-beam diffraction grating 124 include, but are not limited to, an exponential chirped, a logarithmic chirped, or an otherwise substantially non-uniform or random but still monotonous varying chirped. Non-monotonous chirpeds such as, but not limited to, a sinusoidal chirped or a triangular or sawtooth chirped can also be used. Combinations of any of these types of chirpeds can also be used.
[0057] De acuerdo con algunas realizaciones, la red de difracción de haces múltiples 124 puede comprender características de difracción que son uno o ambos de curvado y chirped. La figura 5C ilustra una vista en perspectiva de una red de difracción de haces múltiples 124 a, en o sobre una superficie de la guía de luz de placa 122 que está curvada y con chirpeds (es decir, la red de difracción de haces múltiples 124 es una red de difracción chirped curvada). En la figura 5C, el haz de luz guiado tiene una dirección de incidencia con respecto a la red de difracción de haces múltiples 124 ilustrada como una flecha en negrita en un primer extremo de la red de difracción de haces múltiples 124. También se ilustra la pluralidad de haces de luz emitidos o acoplados ilustrados por flechas que apuntan en dirección opuesta a la red de difracción de haces múltiples 124 en la superficie de la guía de luz de placa 122. Como se ilustra, los haces de luz se emiten en una pluralidad de direcciones angulares principales diferentes predeterminadas. En particular, las diferentes direcciones angulares principales predeterminadas de los haces de luz emitidos son diferentes entre sí tanto en azimut como en elevación, como se ilustra. Según varios ejemplos, tanto el chirped predefinido de las características difractivas como la curva de las características difractivas pueden ser responsables de las diferentes direcciones angulares principales predeterminadas de los haces de luz emitidos.According to some embodiments, the multiple beam diffraction grating 124 may comprise diffraction characteristics that are one or both of bending and chirped. Figure 5C illustrates a perspective view of a multi-beam diffraction grating 124 a, in or on a surface of plate light guide 122 that is curved and chirped (i.e., multi-beam diffraction grating 124 is a curved chirped diffraction grating). In Figure 5C, the guided light beam has a direction of incidence with respect to the multi-beam diffraction grating 124 illustrated as a bold arrow at a first end of the multi-beam diffraction grating 124. Also illustrated is plurality of emitted or coupled light beams illustrated by arrows pointing away from the multiple beam diffraction grating 124 on the surface of plate light guide 122. As illustrated, the light beams are emitted in a plurality different principal angular directions predetermined. In particular, the different predetermined principal angular directions of the emitted light beams are different from each other in both azimuth and elevation, as illustrated. According to various examples, both the predefined chirped of the diffractive characteristics and the curve of the diffractive characteristics can be responsible for the different predetermined principal angular directions of the emitted light beams.
[0058] En particular, en diferentes puntos a lo largo de la curva de las características de difracción, una 'red de difracción subyacente' de la red de difracción de haces múltiples 124 asociada con las características de difracción curvada tiene diferentes ángulos de orientación azimutal yf. Por “red de difracción subyacente" se entiende una red de difracción de una pluralidad de redes de difracción no curvadas que, en superposición, producen las características difractivas curvas de la red de difracción de haces múltiples 124. En un punto dado a lo largo de las características difractivas curvas, la curva tiene un ángulo de orientación azimutal particular y f que generalmente difiere del ángulo de orientación azimutal y f en otro punto a lo largo de las características difractivas curvas. Además, el ángulo de orientación azimutal particular y f da como resultado un componente azimutal correspondiente y de una dirección angular principal {8, y } de un haz de luz emitido desde el punto dado. En algunos ejemplos, la curva de las características de difracción (por ejemplo, surcos, crestas, etc.) puede representar una sección de un círculo. El círculo puede ser coplanar con la superficie de la guía de luz. En otros ejemplos, la curva puede representar una sección de una elipse u otra forma curva, por ejemplo, que es coplanar con la superficie de la guía de luz.In particular, at different points along the curve of the diffraction characteristics, an 'underlying diffraction grating' of the multi-beam diffraction grating 124 associated with the curved diffraction characteristics has different azimuth orientation angles. and f. By "underlying diffraction grating" is meant a diffraction grating of a plurality of uncurved diffraction gratings that, in superposition, produce the curved diffractive characteristics of the multi-beam diffraction grating 124. At a given point along the curved diffractive characteristics, the curve has a particular azimuth orientation angle yf which generally differs from the azimuth orientation angle yf at another point along the curved diffractive characteristics. In addition, the particular azimuth orientation angle yf results in a component corresponding azimuth and of a principal angular direction {8, y} of a beam of light emitted from the given point. In some examples, the curve of the diffraction characteristics (for example, grooves, ridges, etc.) may represent a section of a circle. The circle may be coplanar with the light guide surface. In other examples, the curve may represent a section of an ellipse or another curved shape, for example, that is coplanar with the surface of the light guide.
[0059] Con referencia de nuevo a las figuras 5A-5B, la capa de modulación de la pantalla electrónica 3D 120 comprende una válvula de luz de matriz 126. De acuerdo con diversas realizaciones, la matriz de válvula de luz 126 está configurada para modular los haces de luz dirigidos de manera diferente (es decir, la pluralidad de haces de luz que tienen diferentes direcciones angulares principales predeterminadas) correspondientes a las diferentes vistas de la pantalla electrónica 3D 120. En particular, los haces de luz de la pluralidad de haces de luz atraviesan y son modulados por válvulas de luz individuales del conjunto de válvulas de luz 126. Los haces de luz modulados, de diferente manera directa, pueden representar píxeles de la pantalla electrónica 3D 120, según diversas realizaciones. En varios ejemplos, se pueden emplear diferentes tipos de válvulas luminosas en la matriz 126 de válvulas luminosas que incluyen, pero no se limitan a, una o más válvulas luminosas de cristal líquido, válvulas luminosas electroforéticas y válvulas luminosas basadas en electrohumectación.[0059] Referring again to Figures 5A-5B, the 3D electronic display modulation layer 120 comprises a matrix light valve 126. In accordance with various embodiments, the light valve matrix 126 is configured to modulate the differently directed light beams (that is, the plurality of light beams having different predetermined principal angular directions) corresponding to the different views of the 3D electronic display 120. In particular, the light beams of the plurality of beams The light beams pass through and are modulated by individual light valves of the light valve assembly 126. The light beams modulated, in different direct ways, can represent pixels of the 3D electronic display 120, according to various embodiments. In various examples, different types of glow valves may be employed in the glow valve array 126 including, but not limited to, one or more liquid crystal glow valves, electrophoretic glow valves, and electrowetting based glow valves.
[0060] De acuerdo con algunos ejemplos de los principios descritos en el presente documento, se proporciona un sistema de vigilancia del vehículo de tres dimensiones (3D). La figura 6 ilustra un diagrama de bloques de un sistema de vigilancia de vehículos tridimensional (3D) 300 en un ejemplo, de acuerdo con una realización de los principios descritos en este documento. En particular, el sistema de vigilancia de vehículos (3D) 300 puede configurarse para evitar colisiones cuando un vehículo se mueve en una dirección supervisada. Por ejemplo, el sistema 300 de monitorización de vehículos en 3D se puede configurar para monitorizar una región detrás del vehículo y así proporcionar asistencia de respaldo a un operador del vehículo.[0060] In accordance with some examples of the principles described herein, a three-dimensional (3D) vehicle surveillance system is provided. Figure 6 illustrates a block diagram of a three-dimensional (3D) vehicle surveillance system 300 in one example, in accordance with one embodiment of the principles described herein. In particular, the vehicle surveillance system (3D) 300 can be configured to avoid collisions when a vehicle is moving in a monitored direction. For example, the 3D vehicle monitoring system 300 can be configured to monitor a region behind the vehicle and thus provide backup assistance to a vehicle operator.
[0061] Como se ilustra en la Figura 6, el sistema de vigilancia de vehículos 3D 300 comprende una cámara 3D 310. En algunas realizaciones, la cámara 3D 310 es una cámara con orientación hacia atrás 3D 310. La cámara 3D 310 está configurada para capturar una imagen 3D de una región adyacente al vehículo (por ejemplo, detrás del vehículo). Según varias realizaciones, la cámara 3D 310 puede ser sustancialmente similar al escáner 3D 110 descrito anteriormente con respecto al sistema de vigilancia de vehículos 100. En particular, la cámara 3D 310 puede comprender una o más de una pluralidad de cámaras desplazadas entre sí, una cámara de tiempo de vuelo y una combinación de un sensor de distancia basado en láser y una cámara bidimensional (2D) configurada para monitorear la región adyacente al vehículo.[0061] As illustrated in Figure 6, the 3D vehicle surveillance system 300 comprises a 3D camera 310. In some embodiments, the 3D camera 310 is a 3D rear-facing camera 310. The 3D camera 310 is configured to Capture a 3D image of a region adjacent to the vehicle (for example, behind the vehicle). According to various embodiments, 3D camera 310 may be substantially similar to 3D scanner 110 described above with respect to vehicle surveillance system 100. In particular, 3D camera 310 may comprise one or more than a plurality of cameras offset from one another, a time-of-flight camera and a combination of a laser-based distance sensor and a two-dimensional (2D) camera configured to monitor the region adjacent to the vehicle.
[0062] El sistema de vigilancia de vehículos 3D 300 ilustrado en la Figura 6 comprende además un procesador de imágenes 320. El procesador de imagen 320 está configurado para proporcionar un modelo 3D de la región fotografiada 3D utilizando la imagen en 3D capturada por la cámara 3D 310. Según diversas realizaciones, el modelo 3D incluye una configuración espacial de objetos dentro de la región de imágenes 3D. La región con imágenes 3D y los objetos dentro de la región de 3D fotografiada pueden ser sustancialmente similares a la región 102 y los objetos 104, 104' descritos anteriormente con respecto al sistema de vigilancia de vehículos 100.The 3D vehicle surveillance system 300 illustrated in Figure 6 further comprises an image processor 320. The image processor 320 is configured to provide a 3D model of the 3D photographed region using the 3D image captured by the camera. 3D 310. According to various embodiments, the 3D model includes a spatial configuration of objects within the 3D image region. The 3D imaged region and objects within the imaged 3D region may be substantially similar to region 102 and objects 104, 104 'described above with respect to vehicle surveillance system 100.
[0063] Según la invención, el sistema de vigilancia de vehículos 3D 300 comprende además una pantalla electrónica 3D 330. La pantalla electrónica 3D 330 está configurada para mostrar una parte de la región de imagen 3D usando el modelo 3D. Según algunas realizaciones, cualquier objeto dentro de la parte mostrada ubicado a una distancia del vehículo (por ejemplo, una distancia desde la parte trasera del vehículo) que sea menor que una distancia de umbral puede resaltarse visualmente en la pantalla electrónica 3D 330. En particular, la pantalla electrónica 3D 330 está configurada además para resaltar visualmente el objeto dentro de la parte mostrada que se encuentra a menos de la distancia umbral del vehículo, según algunas realizaciones.According to the invention, the 3D vehicle surveillance system 300 further comprises a 3D electronic display 330. The 3D electronic display 330 is configured to display a portion of the 3D image region using the 3D model. According to some embodiments, any object within the portion shown located at a distance from the vehicle (eg, a distance from the rear of the vehicle) that is less than a threshold distance can be visually highlighted on the 3D electronic display 330. In particular , the 3D electronic display 330 is further configured to visually highlight the object within the portion shown that is less than the threshold distance from the vehicle, according to some embodiments.
[0064] En algunas realizaciones, la pantalla electrónica 3D 330 es sustancialmente similar a la pantalla electrónica 3D 120 del sistema de vigilancia de vehículos 100, descrito anteriormente. Por ejemplo, la distancia de umbral corresponde según la invención a un plano de disparidad cero asociado con la parte de la región de imagen 3D que se muestra en la pantalla electrónica 3D 330. El objeto visualmente resaltado se percibe como si estuviera delante del plano de disparidad cero (es decir, delante de una superficie física de la pantalla electrónica 3D 330) de acuerdo con la invención. Además, en algunas realizaciones, el procesador de imágenes 320 está configurado además para aplicar una transformación proyectiva al modelo 3D antes de que la parte mostrada se represente en la pantalla electrónica 3D 330. La transformación proyectiva aplicada puede configurarse para mejorar un tamaño relativo del objeto visualmente resaltado en comparación con otros objetos en la parte mostrada ubicada a una distancia que es mayor que la distancia de umbral correspondiente al plano de disparidad cero.In some embodiments, 3D electronic display 330 is substantially similar to 3D electronic display 120 of vehicle surveillance system 100, described above. For example, the threshold distance corresponds according to the invention to a plane of zero disparity associated with the part of the 3D image region that is displayed on the 3D electronic display 330. The visually highlighted object is perceived as being in front of the plane of zero disparity (ie in front of a physical surface of the 3D electronic display 330) according to the invention. Furthermore, in some embodiments, the image processor 320 is further configured to apply a projective transformation to the 3D model before the displayed portion is rendered on the 3D electronic screen 330. The applied projective transformation can be configured to enhance a relative size of the object. visually highlighted compared to other objects in the portion shown located at a distance that is greater than the threshold distance corresponding to the plane of zero disparity.
[0065] En algunas realizaciones, la pantalla electrónica 3D 330 puede comprender una pantalla electrónica 3D basada en red de haces múltiples. Por ejemplo, en algunas realizaciones, la pantalla electrónica 3D 330 puede ser sustancialmente similar a la pantalla electrónica 3D 120 que tiene una luz de fondo basada en red de haces múltiples y una capa de modulación descrita anteriormente con respecto al sistema de vigilancia del vehículo 100. En particular, la pantalla electrónica 3D 330 puede comprender luz de fondo basada en red de haces múltiples y una capa de modulación. La retroiluminación basada en red de haces múltiples puede comprender una guía de luz para guiar un haz de luz (por ejemplo, un haz de luz colimado) y una matriz de redes de difracción de haces múltiples configuradas para acoplar difractivamente porciones del haz de luz guiado como una pluralidad de haces de luz dirigidos lejos de la guía de luz. La guía de luz y las redes de difracción de haces múltiples pueden ser sustancialmente similares a la guía de luz de placa 122 y las redes de difracción de haces múltiples 124 descritas anteriormente para el sistema de vigilancia de vehículos 100. Además, la capa de modulación puede comprender una matriz de válvulas de luz para modular los haces de luz de dirección diferente. Los haces de luz modulados y dirigidos de manera diferente forman una pluralidad de vistas diferentes de la pantalla electrónica 3D 330, según varias realizaciones. La matriz de válvulas de luz puede ser sustancialmente similar a la matriz de válvulas de luz 126 descrita anteriormente con respecto al sistema de vigilancia del vehículo 100. En particular, los haces de luz modulados y dirigidos de manera diferente tienen diferentes direcciones angulares principales predeterminadas que forman una pluralidad de píxeles asociados con diferentes 'vistas' de la pantalla electrónica 3D 330.[0065] In some embodiments, 3D electronic display 330 may comprise a multi-beam network based 3D electronic display. For example, in some embodiments, 3D electronic display 330 may be substantially similar to 3D electronic display 120 having a multi-beam array based backlight and modulation layer described above with respect to vehicle surveillance system 100. In particular, the 3D electronic display 330 may comprise a multi-beam array based backlight and a modulation layer. Multi-beam grating-based backlighting may comprise a light guide for guiding a light beam (e.g., a collimated light beam) and an array of multi-beam diffraction gratings configured to diffractively couple portions of the guided light beam. as a plurality of light beams directed away from the light guide. The light guide and multi-beam diffraction gratings may be substantially similar to the plate light guide 122 and the multi-beam diffraction gratings 124 described above for the vehicle surveillance system 100. In addition, the modulation layer It may comprise an array of light valves to modulate the light beams of different direction. The differently directed and modulated light beams form a plurality of different views of the 3D electronic display 330, according to various embodiments. The light valve array may be substantially similar to the light valve array 126 described above with respect to the vehicle surveillance system 100. In particular, the differently directed and modulated light beams have different predetermined principal angular directions that they form a plurality of pixels associated with different 'views' of the 3D electronic display 330.
[0066] Según algunas realizaciones (no ilustradas), la pantalla electrónica 3D 330 puede incluir además una fuente de luz. La fuente de luz está configurada para proporcionar luz que se propaga en la guía de luz como haz de luz guiado. En particular, la luz guiada es luz de la fuente de luz que se acopla al borde (o extremo de entrada) de la guía de luz, según algunas realizaciones. Por ejemplo, una lente, un reflector colimador o un dispositivo similar (no ilustrado) puede facilitar el acoplamiento de la luz en la guía de luz en el extremo de entrada o borde de la misma. En varios ejemplos, la fuente de luz puede comprender sustancialmente cualquier fuente de luz que incluye, pero no se limita a, un diodo emisor de luz (LED). En algunos ejemplos, la fuente de luz puede comprender un emisor óptico configurado para producir una luz sustancialmente monocromática que tiene un espectro de banda estrecha indicado por un color particular. En particular, el color de la luz monocromática puede ser un color primario de un espacio de color o modelo de color particular (por ejemplo, un modelo de color rojo-verde-azul (RGB)).According to some embodiments (not illustrated), the 3D electronic display 330 may further include a light source. The light source is configured to provide light that propagates in the light guide as a guided beam of light. In particular, the guided light is light from the light source that is coupled to the edge (or lead-in end) of the light guide, according to some embodiments. For example, a lens, collimating reflector, or similar device (not illustrated) can facilitate coupling of the light to the light guide at the entry end or edge thereof. In various examples, the light source can comprise substantially any light source including, but not limited to, a light emitting diode (LED). In some examples, the light source may comprise an optical emitter configured to produce substantially monochromatic light having a narrow band spectrum indicated by a particular color. In particular, the color of monochromatic light can be a primary color of a particular color space or color model (eg, a red-green-blue (RGB) color model).
[0067] De acuerdo con algunos ejemplos de los principios descritos en el presente documento, se proporciona un método de vigilancia de vehículos. El método de vigilancia de vehículos se puede utilizar para monitorizar un área o región adyacente a un vehículo. El área o región puede incluir, pero no se limita a, una región delante, a un lado y detrás o en la parte trasera del vehículo, por ejemplo.According to some examples of the principles described herein, a vehicle surveillance method is provided. The vehicle surveillance method can be used to monitor an area or region adjacent to a vehicle. The area or region may include, but is not limited to, a region in front of, to the side and behind or at the rear of the vehicle, for example.
[0068] La figura 7 ilustra un diagrama de flujo de un método de vigilancia de vehículos 400 en un ejemplo, según una realización consistente con los principios descritos en el presente documento. Como se ilustra en la figura 7, el método de vigilancia de vehículos 400 comprende capturar 410 un escaneo 3D de una región adyacente a un vehículo usando un escáner 3D. De acuerdo con varias realizaciones, el escáner 3D utilizado en la captura 410 puede ser sustancialmente similar al escáner 3D 110 descrito anteriormente con respecto al sistema de vigilancia de vehículos 100. Por ejemplo, el escáner 3D puede comprender una o más de una pluralidad de cámaras desplazadas desde entre sí (por ejemplo, un par de cámaras binoculares), una cámara de tiempo de vuelo y una combinación de un sensor de distancia basado en láser y una cámara bidimensional (2D). En algunos ejemplos, el escáner 3D puede ser sustancialmente similar a la cámara 3D 310 descrita anteriormente con respecto al sistema de vigilancia de vehículos 3D 300.[0068] Figure 7 illustrates a flow chart of a vehicle surveillance method 400 in one example, according to an embodiment consistent with the principles described herein. As illustrated in FIG. 7, vehicle surveillance method 400 comprises capturing 410 a 3D scan of a region adjacent to a vehicle using a 3D scanner. According to various embodiments, the 3D scanner used in capture 410 can be substantially similar to the 3D scanner 110 described above with respect to the vehicle surveillance system 100. For example, the 3D scanner may comprise one or more than a plurality of cameras offset from each other (for example, a pair of binocular cameras), a time-of-flight camera and a combination of a laser-based distance sensor and a two-dimensional (2D) camera. In some examples, the 3D scanner may be substantially similar to the 3D camera 310 described above with respect to the 3D vehicle surveillance system 300.
[0069] El método de vigilancia de vehículos 400 ilustrado en la figura 7 comprende además la producción de un modelo 3D del escaneado capturado 3D. Según diversas formas de realización, el modelo 3D incluye una configuración espacial de objetos ubicados dentro de la región escaneada. El modelo 3D se puede producir a partir del escaneo 3D usando una o ambas de una nube de puntos y una malla de objetos producida por el escáner 3D, por ejemplo.The vehicle surveillance method 400 illustrated in FIG. 7 further comprises producing a 3D model of the captured 3D scan. According to various embodiments, the 3D model includes a spatial configuration of objects located within the scanned region. The 3D model can be produced from the 3D scan using one or both of a point cloud and a mesh of objects produced by the 3D scanner, for example.
[0070] De acuerdo con diversas realizaciones, el método de vigilancia de vehículos 400 comprende además exhibir una parte 430 de la región escaneada utilizando el modelo 3D. Según varias realizaciones, mostrar una parte 430 de la región escaneada comprende resaltar visualmente un objeto dentro de la parte mostrada que está a una distancia del vehículo menor que una distancia de umbral. En algunas realizaciones, mostrar una parte 430 de la región escaneada puede emplear una pantalla electrónica sustancialmente similar a la pantalla electrónica 120 del sistema de vigilancia del vehículo 100, descrito anteriormente. Además, resaltar visualmente el objeto puede ser sustancialmente similar a cualquier forma de resaltar visualmente descrita anteriormente. Por ejemplo, el objeto puede resaltarse visualmente usando una o más de una máscara, un contorno y un icono de alerta. En otro ejemplo, mostrar una parte 430 de la región escaneada comprende usar una pantalla electrónica 3D, por ejemplo, como se describió anteriormente con respecto a la pantalla electrónica 3D 330 del sistema de vigilancia de vehículos 3D 300. Con una pantalla electrónica 3D, el objeto resaltadp visualmente parece estar delante de un plano de disparidad cero de la pantalla electrónica 3D correspondiente a la distancia de umbral.According to various embodiments, the vehicle surveillance method 400 further comprises displaying a portion 430 of the scanned region using the 3D model. According to various embodiments, displaying a portion 430 of the scanned region comprises visually highlighting an object within the portion shown that is less than a threshold distance from the vehicle. In some embodiments, displaying a portion 430 of the scanned region may employ an electronic display substantially similar to the electronic display 120 of the vehicle surveillance system 100, described above. In addition, visually highlighting the object can be substantially similar to any form of visually highlighting described above. For example, the object can be visually highlighted using one or more of a mask, an outline, and an alert icon. In another example, displaying a portion 430 of the scanned region comprises using a 3D electronic display, for example, as described above with respect to the 3D electronic display 330 of the 3D vehicle surveillance system 300. With a 3D electronic display, the The highlighted object visually appears to be in front of a plane of zero disparity of the 3D electronic display corresponding to the threshold distance.
[0071] De acuerdo con algunas formas de realización, mostrando una parte 430 de la región escaneada utilizando una pantalla electrónica 3D (por ejemplo, una pantalla electrónica 3D que tiene una luz de fondo basada en red de haces múltiples) puede comprender además luz de guía en una placa de guía de luz como un haz de luz en un ángulo de propagación distinto de cero. Mostrar una parte 430 de la región escaneada usando una pantalla electrónica 3D puede comprender además acoplar difractivamente una parte del haz de luz guiado usando una matriz de redes de difracción de haces múltiples en la guía de luz de placa. El acoplamiento difractivo de la parte del haz de luz guiado puede comprender producir una pluralidad de haces de luz acoplados que se dirigen lejos de la guía de luz de la placa en una pluralidad de diferentes direcciones angulares principales correspondientes a diferentes vistas de la pantalla electrónica 3D, por ejemplo. Además, mostrar una parte 430 de la región escaneada usando una pantalla electrónica 3D puede comprender además modular la pluralidad de haces de luz acoplados usando una pluralidad de válvulas de luz, representando los haces de luz modulados píxeles de la pantalla electrónica 3D.[0071] According to some embodiments, showing a portion 430 of the scanned region using a 3D electronic display (eg, a 3D electronic display having a multi-beam array-based backlight) may further comprise light from guide on a light guide plate as a beam of light at a nonzero propagation angle. Displaying a portion 430 of the scanned region using a 3D electronic display may further comprise diffractively coupling a portion of the guided light beam using a multi-beam diffraction grating array on the plate light guide. Diffractive coupling of the guided light beam portion may comprise producing a plurality of coupled light beams that are directed away from the plate light guide in a plurality of different main angular directions corresponding to different views of the 3D electronic display. , for example. Furthermore, displaying a portion 430 of the scanned region using a 3D electronic display may further comprise modulating the plurality of coupled light beams using a plurality of light valves, the modulated light beams representing pixels of the 3D electronic display.
[0072] Además, el método de vigilancia de vehículos 400 puede comprender la aplicación de una transformación proyectiva al modelo 3D antes de mostrar la porción 430 de la región escaneada en la pantalla 3D. En algunas realizaciones, la transformación proyectiva puede incluir una compresión en profundidad de la parte visualizada para mejorar un tamaño relativo del objeto resaltado en comparación con los objetos en la imagen a una distancia mayor que la distancia umbral correspondiente al plano de disparidad cero.Furthermore, the vehicle surveillance method 400 may comprise applying a projective transformation to the 3D model prior to displaying the portion 430 of the scanned region on the 3D screen. In some embodiments, the projective transformation may include depth compression of the displayed portion to enhance a relative size of the highlighted object compared to objects in the image at a distance greater than the threshold distance corresponding to the plane of zero disparity.
[0073] De este modo, se han descrito ejemplos de un sistema de vigilancia del vehículo, un sistema de vigilancia de vehículos en 3D y un método de vigilancia de vehículo que resaltan visualmente un objeto que está más cerca de un vehículo de una distancia umbral. Debe entenderse que los ejemplos descritos anteriormente son simplemente ilustrativos de algunos de los muchos ejemplos específicos que representan los principios descritos en este documento. Claramente, los expertos en la técnica pueden idear fácilmente otras numerosas disposiciones sin apartarse del alcance de la invención tal como se define en las siguientes reivindicaciones. Thus, examples of a vehicle monitoring system, a 3D vehicle monitoring system and a vehicle monitoring method that visually highlight an object that is closer to a vehicle by a threshold distance have been described. . It should be understood that the examples described above are merely illustrative of some of the many specific examples that represent the principles described in this document. Clearly, those skilled in the art can easily devise numerous other arrangements without departing from the scope of the invention as defined in the following claims.
Claims (13)
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/US2015/033432 WO2016195647A1 (en) | 2015-05-30 | 2015-05-30 | Vehicle monitoring system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2819239T3 true ES2819239T3 (en) | 2021-04-15 |
Family
ID=57440791
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES15894424T Active ES2819239T3 (en) | 2015-05-30 | 2015-05-30 | Vehicle display system |
Country Status (8)
| Country | Link |
|---|---|
| US (2) | US10703375B2 (en) |
| EP (1) | EP3303088B1 (en) |
| JP (1) | JP6754425B2 (en) |
| KR (1) | KR102329110B1 (en) |
| CN (1) | CN107771344B (en) |
| ES (1) | ES2819239T3 (en) |
| TW (1) | TWI615299B (en) |
| WO (1) | WO2016195647A1 (en) |
Families Citing this family (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102017200965A1 (en) * | 2017-01-20 | 2018-07-26 | Robert Bosch Gmbh | Method for representing an environment of a vehicle |
| KR102719930B1 (en) * | 2017-01-23 | 2024-10-23 | 삼성전자주식회사 | Method and apparatus for generating an image representing an object around a vehicle |
| US11422292B1 (en) | 2018-06-10 | 2022-08-23 | Apple Inc. | Super-blazed diffractive optical elements with sub-wavelength structures |
| DE102019133642A1 (en) | 2018-12-12 | 2020-06-18 | Magna Closures Inc. | DIGITAL IMAGING SYSTEM INCLUDING OPTICAL PLENOPTIC DEVICE AND IMAGE DATA PROCESSING METHOD FOR DETECTING VEHICLE OBSTACLES AND GESTURES |
| US20190141310A1 (en) * | 2018-12-28 | 2019-05-09 | Intel Corporation | Real-time, three-dimensional vehicle display |
| CN109760688B (en) * | 2018-12-29 | 2020-07-28 | 百度在线网络技术(北京)有限公司 | Road section information determination method and device, vehicle and computer readable storage medium |
| US11204417B2 (en) * | 2019-05-08 | 2021-12-21 | GM Global Technology Operations LLC | Selective attention mechanism for improved perception sensor performance in vehicular applications |
| US11137534B2 (en) | 2019-06-26 | 2021-10-05 | Synaptics Incorporated | Systems and methods for optical imaging based on diffraction gratings |
| JP7625574B2 (en) * | 2019-07-26 | 2025-02-03 | オーロラ・オペレイションズ・インコーポレイティッド | Focal Plane Array System for FMCW LiDAR |
| TWI706335B (en) | 2019-10-17 | 2020-10-01 | 國立交通大學 | Object characteristic locating device and laser and imaging integration system |
| US11436876B2 (en) * | 2019-11-01 | 2022-09-06 | GM Global Technology Operations LLC | Systems and methods for diagnosing perception systems of vehicles based on temporal continuity of sensor data |
| US11754767B1 (en) | 2020-03-05 | 2023-09-12 | Apple Inc. | Display with overlaid waveguide |
| CN112698353B (en) * | 2020-12-31 | 2024-07-16 | 清华大学苏州汽车研究院(吴江) | A vehicle-mounted visual radar system combining structured line laser and tilted binocular |
| WO2022197339A1 (en) | 2021-03-17 | 2022-09-22 | Apple Inc. | Waveguide-based transmitters with adjustable lighting |
| DE102021203482A1 (en) | 2021-04-08 | 2022-10-13 | Volkswagen Aktiengesellschaft | Method and optical output system for a vehicle for the optical output of a feature of a vehicle to be detected located in a vehicle environment |
| CN113752832B (en) * | 2021-09-13 | 2022-03-29 | 黑龙江天有为电子有限责任公司 | Automobile instrument panel |
| CN116605245A (en) * | 2023-06-27 | 2023-08-18 | 东莞立腾创新电子有限公司 | Vehicle steering auxiliary control method and system |
Family Cites Families (145)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2269697A (en) | 1992-08-11 | 1994-02-16 | Sharp Kk | Display device |
| JP2979951B2 (en) | 1994-04-18 | 1999-11-22 | 凸版印刷株式会社 | Display with diffraction grating pattern |
| JP3528994B2 (en) | 1994-11-08 | 2004-05-24 | 大日本印刷株式会社 | Parallel light source for liquid crystal display device and liquid crystal display device using the same |
| JP3778966B2 (en) | 1995-07-31 | 2006-05-24 | 凸版印刷株式会社 | Full color image display device |
| EP0787316B1 (en) | 1995-08-23 | 2004-05-19 | Koninklijke Philips Electronics N.V. | Illumination system for a flat-panel picture display device |
| JP3336200B2 (en) | 1995-12-12 | 2002-10-21 | シャープ株式会社 | Three-dimensional image display device having element hologram panel |
| US5721598A (en) | 1995-12-26 | 1998-02-24 | Hughes Electronics | High efficiency, high color purity, on-axis holographic color filter and full-color liquid crystal display |
| US7215451B1 (en) | 1996-04-15 | 2007-05-08 | Dai Nippon Printing Co., Ltd. | Reflection type diffuse hologram, hologram for reflection hologram color filters, etc., and reflection type display device using such holograms |
| JPH10117340A (en) * | 1996-10-11 | 1998-05-06 | Yazaki Corp | Vehicle periphery monitoring device, alarm display method used in this device, and medium storing this display method |
| AU8639498A (en) | 1997-08-05 | 1999-03-01 | Allan John Davie | Liquid crystal controlled display apparatus |
| JPH11142863A (en) | 1997-11-13 | 1999-05-28 | Nec Corp | Liquid crystal display panel and its manufacture |
| AU3052499A (en) | 1998-04-02 | 1999-10-25 | Elop Electro-Optics Industries Ltd. | Holographic optical devices |
| CN1213097A (en) | 1998-10-29 | 1999-04-07 | 厦门大学 | Making tomographic combined three-D holograph display device for medical image diagnosis |
| FI106323B (en) | 1998-12-30 | 2001-01-15 | Nokia Mobile Phones Ltd | The backlight light guide for a flat screen |
| JP2000267041A (en) | 1999-03-16 | 2000-09-29 | Fuji Xerox Co Ltd | Head-mounted type color video projection device, color hologram optical element, and manufacture of color hologram optical element |
| FI107085B (en) | 1999-05-28 | 2001-05-31 | Ics Intelligent Control System | Lighting panel |
| JP4006918B2 (en) | 2000-02-28 | 2007-11-14 | オムロン株式会社 | Surface light source device and manufacturing method thereof |
| JP2002031788A (en) | 2000-07-18 | 2002-01-31 | Sony Corp | Optical device |
| US6919950B2 (en) | 2000-08-29 | 2005-07-19 | Roman S. Dabrowski | Liquid crystal device and a liquid crystal material |
| US6490393B1 (en) | 2000-11-27 | 2002-12-03 | Advanced Interfaces, Llc | Integrated optical multiplexer and demultiplexer for wavelength division transmission of information |
| JP4011544B2 (en) | 2001-09-28 | 2007-11-21 | シチズンホールディングス株式会社 | Liquid crystal display |
| US7027671B2 (en) | 2002-03-18 | 2006-04-11 | Koninklijke Philips Electronics N.V. | Polarized-light-emitting waveguide, illumination arrangement and display device comprising such |
| GB0210568D0 (en) | 2002-05-08 | 2002-06-19 | Screen Technology Ltd | Display |
| JP3742038B2 (en) | 2002-08-01 | 2006-02-01 | Nec液晶テクノロジー株式会社 | Liquid crystal display device and manufacturing method thereof |
| JP2004077897A (en) | 2002-08-20 | 2004-03-11 | Nippon Telegr & Teleph Corp <Ntt> | Display device |
| KR100624408B1 (en) | 2003-01-07 | 2006-09-18 | 삼성전자주식회사 | Backlight unit |
| US7184625B2 (en) | 2003-02-11 | 2007-02-27 | Luxtera, Inc | Optical waveguide grating coupler incorporating reflective optical elements and anti-reflection elements |
| JP2004302186A (en) | 2003-03-31 | 2004-10-28 | Mitsubishi Electric Corp | Portable information terminal |
| TWI257490B (en) | 2003-07-09 | 2006-07-01 | Hon Hai Prec Ind Co Ltd | A light guide plate and a method of manufacturing the same |
| JP4043416B2 (en) * | 2003-07-30 | 2008-02-06 | オリンパス株式会社 | Safe movement support device |
| JP2005062692A (en) | 2003-08-19 | 2005-03-10 | Internatl Business Mach Corp <Ibm> | Color display device, optical element, and method for manufacturing color display device |
| JP2005075190A (en) * | 2003-09-01 | 2005-03-24 | Nissan Motor Co Ltd | Vehicle display device |
| CN1619373A (en) | 2003-11-17 | 2005-05-25 | 鸿富锦精密工业(深圳)有限公司 | Light guide plate and backlight module |
| US7369584B2 (en) | 2003-12-31 | 2008-05-06 | Symbol Technologies, Inc. | Laser projection display |
| US8723779B2 (en) | 2004-01-26 | 2014-05-13 | Mcmaster University | Tiled optical fiber display |
| TWI254166B (en) | 2004-05-25 | 2006-05-01 | Au Optronics Corp | 3D display system and method |
| KR101227068B1 (en) | 2004-05-26 | 2013-01-28 | 티버 발로그 | Method and apparatus for generating 3d images |
| WO2006040698A1 (en) | 2004-10-13 | 2006-04-20 | Koninklijke Philips Electronics N.V. | A stereoscopic display apparatus |
| US7171080B2 (en) | 2004-11-15 | 2007-01-30 | Seagate Technology Llc | Coupling grating for focusing light within a waveguide for heat assisted magnetic recording |
| EP1666933A1 (en) | 2004-12-02 | 2006-06-07 | Asulab S.A. | Dual illumination function optical device and figurative image formation |
| US7773849B2 (en) | 2004-12-14 | 2010-08-10 | Oms Displays Ltd. | Device and method for optical resizing and backlighting |
| EP1696669B1 (en) | 2005-02-24 | 2013-07-03 | Aisin Seiki Kabushiki Kaisha | Vehicle surrounding monitoring device |
| JP4687160B2 (en) * | 2005-03-14 | 2011-05-25 | アイシン精機株式会社 | Perimeter monitoring device |
| WO2007043036A1 (en) | 2005-10-11 | 2007-04-19 | Prime Sense Ltd. | Method and system for object reconstruction |
| DE102005017313A1 (en) * | 2005-04-14 | 2006-10-19 | Volkswagen Ag | Method for displaying information in a means of transport and instrument cluster for a motor vehicle |
| CN1932602A (en) | 2005-09-14 | 2007-03-21 | 鸿富锦精密工业(深圳)有限公司 | Light-conducting plate |
| WO2007042852A1 (en) | 2005-10-13 | 2007-04-19 | Nokia Corporation | Illumination method for displaying different graphical layouts |
| JP2007145158A (en) | 2005-11-28 | 2007-06-14 | Fujitsu Ten Ltd | In-vehicle display device and display control method thereof |
| JP2007163294A (en) | 2005-12-14 | 2007-06-28 | Sony Corp | Wristwatch, wristwatch display method, and program |
| JP4600269B2 (en) | 2005-12-21 | 2010-12-15 | カシオ計算機株式会社 | Liquid crystal display |
| EP1966636A2 (en) | 2005-12-22 | 2008-09-10 | Université Jean-Monnet | Mirror structure and laser device comprising such a mirror structure |
| JP4990275B2 (en) | 2006-05-18 | 2012-08-01 | パナソニック株式会社 | Planar light source device and liquid crystal display device |
| US7714368B2 (en) | 2006-06-26 | 2010-05-11 | Aptina Imaging Corporation | Method and apparatus providing imager pixel array with grating structure and imager device containing the same |
| WO2008003814A1 (en) | 2006-07-03 | 2008-01-10 | Nokia Corporation | Changing graphics in an apparatus including user interface illumination |
| JP5157115B2 (en) | 2006-09-28 | 2013-03-06 | 凸版印刷株式会社 | Display comprising diffraction grating and printed matter using the same |
| US8593734B2 (en) | 2006-09-28 | 2013-11-26 | Nokia Corporation | Beam expansion with three-dimensional diffractive elements |
| WO2008049907A1 (en) | 2006-10-26 | 2008-05-02 | Seereal Technologies S.A. | 3d content generation system |
| CN101568889B (en) | 2006-10-26 | 2013-03-20 | 视瑞尔技术公司 | Holographic display device |
| EP2080044B1 (en) | 2006-10-31 | 2012-07-11 | Modilis Holdings LLC | Light outcoupling structure for a lighting device |
| JP2008164963A (en) | 2006-12-28 | 2008-07-17 | Citizen Electronics Co Ltd | Optical apparatus and display apparatus |
| WO2008081071A1 (en) | 2006-12-28 | 2008-07-10 | Nokia Corporation | Light guide plate and a method of manufacturing thereof |
| US8160411B2 (en) | 2006-12-28 | 2012-04-17 | Nokia Corporation | Device for expanding an exit pupil in two dimensions |
| KR101086422B1 (en) * | 2007-01-05 | 2011-11-25 | 삼성전자주식회사 | High efficiency 2D / 3D video display device |
| US20080204873A1 (en) | 2007-02-23 | 2008-08-28 | Strategic Patent Acquisitions Llc | Techniques for three dimensional displays |
| US8150142B2 (en) | 2007-04-02 | 2012-04-03 | Prime Sense Ltd. | Depth mapping using projected patterns |
| US7507012B2 (en) | 2007-05-16 | 2009-03-24 | Rohm And Haas Denmark Finance A/S | LCD displays with light redirection |
| JP5010527B2 (en) | 2007-06-04 | 2012-08-29 | 住友化学株式会社 | Light guide plate unit, surface light source device, and liquid crystal display device |
| EP2158518B1 (en) | 2007-06-14 | 2015-01-14 | Nokia Corporation | Displays with integrated backlighting |
| WO2008155770A2 (en) | 2007-06-19 | 2008-12-24 | Prime Sense Ltd. | Distance-varying illumination and imaging techniques for depth mapping |
| JP2009053499A (en) | 2007-08-28 | 2009-03-12 | Fuji Xerox Co Ltd | Optical modulator and optical modulation module |
| EP2208106A1 (en) * | 2007-10-04 | 2010-07-21 | 3M Innovative Properties Company | Embedded stereoscopic 3d display and 2d display film stack |
| TWI363900B (en) | 2007-10-04 | 2012-05-11 | Ind Tech Res Inst | Light guiding film |
| US8619363B1 (en) | 2007-11-06 | 2013-12-31 | Fusion Optix, Inc. | Light redirecting element comprising a forward diffracting region and a scattering region |
| JP2009123553A (en) | 2007-11-15 | 2009-06-04 | Sumitomo Chemical Co Ltd | Light guide plate, surface light source device, and liquid crystal display device |
| US20090290837A1 (en) | 2008-05-22 | 2009-11-26 | The Chinese University Of Hong Kong | Optical devices for coupling of light |
| JP2009288718A (en) | 2008-05-30 | 2009-12-10 | Kyoto Institute Of Technology | Resonance grating coupler |
| GB2461294B (en) | 2008-06-26 | 2011-04-06 | Light Blue Optics Ltd | Holographic image display systems |
| TWI428645B (en) | 2008-06-30 | 2014-03-01 | Cpt Technology Group Co Ltd | Color light guide panel and liquid crystal display device |
| US8456517B2 (en) | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
| WO2010010749A1 (en) | 2008-07-22 | 2010-01-28 | シャープ株式会社 | Backlight unit and liquid crystal display device |
| DE102008034594B4 (en) | 2008-07-25 | 2021-06-24 | Bayerische Motoren Werke Aktiengesellschaft | Method and information system for informing an occupant of a vehicle |
| JP2010102188A (en) | 2008-10-24 | 2010-05-06 | Colcoat Kk | Light-emitting display board |
| JP2010108264A (en) * | 2008-10-30 | 2010-05-13 | Honda Motor Co Ltd | Vehicle periphery monitoring device |
| US20120127751A1 (en) | 2008-11-10 | 2012-05-24 | Nokia Corporation | Diffractive backlight structure |
| US8044781B2 (en) * | 2008-11-10 | 2011-10-25 | Volkswagen Ag | System and method for displaying a 3D vehicle surrounding with adjustable point of view including a distance sensor |
| TWI387316B (en) | 2008-11-18 | 2013-02-21 | 財團法人工業技術研究院 | Stereoscopic image display device and stereoscopic image display method |
| CN101750664B (en) | 2008-12-12 | 2012-05-23 | 比亚迪股份有限公司 | Diffractive light guide film and preparation method thereof |
| EP2380048A1 (en) | 2008-12-16 | 2011-10-26 | Koninklijke Philips Electronics N.V. | Device for mixing light |
| WO2010072065A1 (en) | 2008-12-25 | 2010-07-01 | 深圳市泛彩溢实业有限公司 | Hologram three-dimensional image information collecting device and method, reproduction device and method |
| US8026997B2 (en) | 2009-01-28 | 2011-09-27 | Sharp Laboratories Of America, Inc. | Area active backlight with steerable light source |
| JP2010237416A (en) | 2009-03-31 | 2010-10-21 | Sharp Corp | 3D display device |
| US8629784B2 (en) * | 2009-04-02 | 2014-01-14 | GM Global Technology Operations LLC | Peripheral salient feature enhancement on full-windshield head-up display |
| WO2010119426A2 (en) | 2009-04-16 | 2010-10-21 | Koninklijke Philips Electronics N.V. | A light guide apparatus |
| DE102009003069A1 (en) | 2009-05-13 | 2010-11-25 | Seereal Technologies S.A. | 3D display with controllable visibility tracker |
| JP5442113B2 (en) | 2009-05-29 | 2014-03-12 | クォルコム・メムズ・テクノロジーズ・インコーポレーテッド | Lighting device and method for manufacturing the lighting device |
| US8251563B2 (en) | 2009-05-29 | 2012-08-28 | Sharp Kabushiki Kaisha | Polarized diffractive backlight |
| US8807810B2 (en) | 2009-06-08 | 2014-08-19 | National University Corporation Nagoya Institute Of Technology | Three-dimensional information presentation device |
| JP2011029161A (en) | 2009-06-26 | 2011-02-10 | Sumitomo Chemical Co Ltd | Three-dimensional display device |
| WO2011018982A1 (en) | 2009-08-13 | 2011-02-17 | 凸版印刷株式会社 | Image-displaying body and labeled article |
| JP2009295598A (en) | 2009-09-18 | 2009-12-17 | Toppan Printing Co Ltd | Light guide plate, and illuminating device and display using the same |
| JP5240149B2 (en) * | 2009-09-28 | 2013-07-17 | 三菱自動車工業株式会社 | Vehicle periphery monitoring device |
| CN101739843B (en) * | 2009-12-04 | 2012-08-29 | 河海大学常州校区 | Device and method for real-time three-dimensionally sensing safe driving of vehicle having mixed multi-visual information |
| CN102102829A (en) | 2009-12-21 | 2011-06-22 | 富准精密工业(深圳)有限公司 | LED (Light-Emitting Diode) lamp |
| JP2011133677A (en) | 2009-12-24 | 2011-07-07 | Toppan Printing Co Ltd | Blank medium, image display body, and information medium |
| US8964013B2 (en) | 2009-12-31 | 2015-02-24 | Broadcom Corporation | Display with elastic light manipulator |
| TW201126204A (en) | 2010-01-25 | 2011-08-01 | J Touch Corp | Three-dimensional video imaging device |
| EP2372512A1 (en) * | 2010-03-30 | 2011-10-05 | Harman Becker Automotive Systems GmbH | Vehicle user interface unit for a vehicle electronic device |
| TWI424206B (en) | 2010-04-06 | 2014-01-21 | Coretronic Corp | Light guide plate and light source module |
| JP5512380B2 (en) | 2010-04-30 | 2014-06-04 | 株式会社フジクラ | Display device |
| GB201008599D0 (en) | 2010-05-24 | 2010-07-07 | Design Led Products Ltd | Light guide device |
| JP2011258532A (en) | 2010-06-11 | 2011-12-22 | Omron Corp | Surface light source device and stereoscopic display device |
| KR101680770B1 (en) | 2010-07-09 | 2016-11-29 | 삼성전자주식회사 | Back light unit and display apparatus employing the same |
| JP5659589B2 (en) | 2010-07-13 | 2015-01-28 | 株式会社ニコン | Display device and control method |
| US8200055B2 (en) | 2010-07-19 | 2012-06-12 | Harish Subbaraman | Two-dimensional surface normal slow-light photonic crystal waveguide optical phased array |
| JP4930631B2 (en) | 2010-09-27 | 2012-05-16 | ソニー株式会社 | 3D display device |
| JP2012108316A (en) | 2010-11-17 | 2012-06-07 | Sony Corp | Stereoscopic display device |
| KR101911835B1 (en) | 2010-11-19 | 2019-01-04 | 리얼디 스파크, 엘엘씨 | Directional flat illuminators |
| WO2012069071A1 (en) | 2010-11-24 | 2012-05-31 | Fraunhofer-Gesellschaft zur Föderung der angewandten Forschung e.V. | Method for compensating a misalignment between a subpixel array of a display and an optical grating and autostereoscopic display |
| US9264672B2 (en) | 2010-12-22 | 2016-02-16 | Magna Mirrors Of America, Inc. | Vision display system for vehicle |
| CN102170558B (en) * | 2010-12-30 | 2012-12-19 | 财团法人车辆研究测试中心 | Obstacle detection warning system and method |
| KR101807691B1 (en) | 2011-01-11 | 2017-12-12 | 삼성전자주식회사 | Three-dimensional image display apparatus |
| CN102141707B (en) | 2011-03-30 | 2013-01-23 | 昆山龙腾光电有限公司 | Light transmission mode switching device and two-dimensional/three-dimensional switchable display equipment |
| TWI476483B (en) | 2011-03-31 | 2015-03-11 | Chi Mei Materials Technology Corp | Display device and liquid crystal display device |
| EP2511656A1 (en) * | 2011-04-14 | 2012-10-17 | Hexagon Technology Center GmbH | Measuring system for determining the 3D coordinates of an object surface |
| CN202126538U (en) | 2011-06-17 | 2012-01-25 | 中航华东光电有限公司 | High-definition LCD (Liquid Crystal Display) auto-stereoscopic display with cylindrical grating |
| JP5861293B2 (en) * | 2011-07-20 | 2016-02-16 | 日産自動車株式会社 | Video display device for vehicle |
| US20130021453A1 (en) | 2011-07-22 | 2013-01-24 | Jean-Paul Gignac | Autostereoscopic rear-view display system for vehicles |
| KR20130025767A (en) | 2011-09-02 | 2013-03-12 | 엘지디스플레이 주식회사 | Barrier panel and three dimensional image display using the same |
| DE102011082483A1 (en) * | 2011-09-12 | 2013-03-14 | Robert Bosch Gmbh | Method for assisting a driver of a motor vehicle |
| US9019240B2 (en) | 2011-09-29 | 2015-04-28 | Qualcomm Mems Technologies, Inc. | Optical touch device with pixilated light-turning features |
| KR102072124B1 (en) | 2011-11-24 | 2020-02-04 | 에스케이텔레콤 주식회사 | Method and Apparatus for Image Encoding/Decoding using detailed prediction unit |
| US9389415B2 (en) | 2012-04-27 | 2016-07-12 | Leia Inc. | Directional pixel for use in a display screen |
| US9459461B2 (en) | 2012-05-31 | 2016-10-04 | Leia Inc. | Directional backlight |
| US9201270B2 (en) | 2012-06-01 | 2015-12-01 | Leia Inc. | Directional backlight with a modulation layer |
| US8681423B1 (en) | 2013-01-29 | 2014-03-25 | Hewlett-Packard Development Company, L.P. | Light modulation employing fluid movement |
| US20150355403A1 (en) | 2013-01-30 | 2015-12-10 | Hewlett-Packard Development Company, L.P. | Directional grating-based backlighting |
| US9298168B2 (en) | 2013-01-31 | 2016-03-29 | Leia Inc. | Multiview 3D wrist watch |
| US20160018582A1 (en) | 2013-03-13 | 2016-01-21 | Hewlett-Packard Development Company, L.P. | Backlight having collimating reflector |
| JP6136565B2 (en) * | 2013-05-23 | 2017-05-31 | 日産自動車株式会社 | Vehicle display device |
| US20140354684A1 (en) * | 2013-05-28 | 2014-12-04 | Honda Motor Co., Ltd. | Symbology system and augmented reality heads up display (hud) for communicating safety information |
| JP5983547B2 (en) * | 2013-07-02 | 2016-08-31 | 株式会社デンソー | Head-up display and program |
| KR101660911B1 (en) * | 2013-07-30 | 2016-09-28 | 레이아 인코포레이티드 | Multibeam diffraction grating-based backlighting |
| US9488589B2 (en) * | 2013-10-29 | 2016-11-08 | The Boeing Company | Mapping damaged regions on objects |
| US9557466B2 (en) | 2014-07-30 | 2017-01-31 | Leia, Inc | Multibeam diffraction grating-based color backlighting |
| JP6223630B2 (en) * | 2015-04-17 | 2017-11-01 | 三菱電機株式会社 | Display control apparatus, display system, display control method, and display control program |
-
2015
- 2015-05-30 WO PCT/US2015/033432 patent/WO2016195647A1/en not_active Ceased
- 2015-05-30 EP EP15894424.9A patent/EP3303088B1/en active Active
- 2015-05-30 CN CN201580080581.7A patent/CN107771344B/en active Active
- 2015-05-30 JP JP2018514771A patent/JP6754425B2/en active Active
- 2015-05-30 KR KR1020177017225A patent/KR102329110B1/en active Active
- 2015-05-30 ES ES15894424T patent/ES2819239T3/en active Active
-
2016
- 2016-05-26 TW TW105116473A patent/TWI615299B/en active
-
2017
- 2017-11-15 US US15/814,273 patent/US10703375B2/en active Active
-
2020
- 2020-05-29 US US16/888,341 patent/US11203346B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| KR102329110B1 (en) | 2021-11-18 |
| EP3303088B1 (en) | 2020-06-24 |
| US10703375B2 (en) | 2020-07-07 |
| HK1246955A1 (en) | 2018-09-14 |
| TW201700322A (en) | 2017-01-01 |
| CN107771344A (en) | 2018-03-06 |
| US11203346B2 (en) | 2021-12-21 |
| JP6754425B2 (en) | 2020-09-09 |
| EP3303088A4 (en) | 2019-01-23 |
| KR20180015608A (en) | 2018-02-13 |
| TWI615299B (en) | 2018-02-21 |
| EP3303088A1 (en) | 2018-04-11 |
| CN107771344B (en) | 2021-05-07 |
| US20200290622A1 (en) | 2020-09-17 |
| WO2016195647A1 (en) | 2016-12-08 |
| US20180072320A1 (en) | 2018-03-15 |
| JP2018518000A (en) | 2018-07-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2819239T3 (en) | Vehicle display system | |
| ES2928663T3 (en) | multi view camera | |
| ES2907502T3 (en) | Multibeam diffraction grating based display with head tracking | |
| ES2961964T3 (en) | Multibeam diffraction grating based head-up display | |
| TWI721519B (en) | Multiview display, system, and method with user tracking | |
| KR102309395B1 (en) | Multiview camera array, multiview system, and method with camera sub-arrays with shared cameras | |
| KR20210069729A (en) | Multiview backlight, display and method with optical mask elements | |
| JP2022514069A (en) | Multi-view displays, systems, and methods with shiftable convergent surfaces | |
| KR20200083653A (en) | Cross-render multiview camera, system and method | |
| JP2020187762A (en) | Vehicle monitoring system | |
| HK1246955B (en) | Vehicle monitoring system | |
| HK1254584A1 (en) | Multibeam diffraction grating-based display with head tracking | |
| HK1254460B (en) | Multibeam diffraction grating-based head-up display |