[go: up one dir, main page]

WO2019149625A1 - Method for superimposing a virtual graphical object on a real environment by means of an ar display device for augmented reality, and motor vehicle - Google Patents

Method for superimposing a virtual graphical object on a real environment by means of an ar display device for augmented reality, and motor vehicle Download PDF

Info

Publication number
WO2019149625A1
WO2019149625A1 PCT/EP2019/051827 EP2019051827W WO2019149625A1 WO 2019149625 A1 WO2019149625 A1 WO 2019149625A1 EP 2019051827 W EP2019051827 W EP 2019051827W WO 2019149625 A1 WO2019149625 A1 WO 2019149625A1
Authority
WO
WIPO (PCT)
Prior art keywords
observation
display device
time
display
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/EP2019/051827
Other languages
German (de)
French (fr)
Inventor
Cedomir DIJANOVIC
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Publication of WO2019149625A1 publication Critical patent/WO2019149625A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management

Definitions

  • the invention relates to a method for superposing a virtual graphic object over an indication of a real environment in an AR display device for augmented reality.
  • the invention also includes a motor vehicle with an AR display device, wherein the motor vehicle the method according to the invention can perform.
  • augmented reality systems are each based on a closed, highly-integrated computer system in which the detection sensor system, the control device with the processing processor and the actual AR display device (display) are directly connected to one another, that is to say a single, closed device .
  • the transmission paths and therefore the transmission times from the detection sensor system to the AR display device are correspondingly short.
  • the development target for an AR display device for example an AR head-up display, is the time-accurate or precise overlay of the displayed augmenting graphical objects over the real environment to be augmented with the AR display. For a temporal and / or spatial deviation of the display position of a graphical object with respect to an associated environment object in the real environment can lead to a user being irritated by the use of the AR display device.
  • Ensuring the exact superposition of a graphical object over a real environment object detected in the environment by means of the AR display device requires that the acquired and / or fused sensor values be ready in time in the control device for the display position calculated for a graphical object to be up-to-date means the current position of the environment object visible in the real environment.
  • an AR display in a motor vehicle the need may arise for a distributed system comprising at least one observation device and / or one Control unit for a sensor data function and a control device for the AR display device must be implemented, which requires the transmission of Be obachtungsense over a data network and thus brings the corre sponding transmission latency From US 2015/0268473 A1 is known, an AR display device with to operate a different smartphone via a cable.
  • An example of an AR display device is known from US 2015062000 A1.
  • the invention is based on the object of positioning an illustrated virtual graphic object precisely with respect to the real environment represented in the AR display device in the case of an AR display device.
  • the invention provides a method for superimposing a virtual graphical object over a real environment by means of an AR display device for augmented reality AR.
  • the real environment may be displayed in the AR display as a camera image.
  • the AR display device may also include a transparent pane through which the real environment is visible directly or through a mirror.
  • the AR display device may, for example, be configured as a head-up display or AR glasses.
  • the AR display device can also be configured, for example, as a screen.
  • a control device updates a display position of said virtual graphic object on the AR display device at successive predetermined output times (ie, displaces the object on the AR display device), for which purpose the display position is determined or set on the basis of observation values.
  • observation values respectively describe the real environment, that is, for example, at least one real environment object in the environment, and / or a relative position of the AR display device relative to the environment.
  • a display position for the virtual graphic object can be calculated based on the observation values in which the graphical object then has a predetermined relative position with respect to at least one environmental object that is visible in the real environment.
  • a frame or arrow may be provided on the AR display device relative to a real environment object in a predetermined relative position (eg next to or overlying) to be positioned.
  • the environment object and / or the AR display device may be in motion.
  • the calculation of a suitable display position therefore requires that the observation values are current, ie the real environment and / or the relative position of the AR display device with respect to the environment at the current time when the graphic object is displayed or displayed on the AR display device. is described. Otherwise, the graphical object is positioned based on outdated observation values at a display position, which may deviate from the desired, predetermined relative position, for example because the environment object has moved and / or the AR display device has been moved relative to the surroundings.
  • the said observation values are provided with a respective time stamp.
  • the respective time stamp indicates a respective observation time at which the respective associated observation value was detected.
  • Each observation value therefore also includes a time value which indicates the observation time.
  • the fact is now known that the respective next, future output time at which the display position of the graphic object on the AR display device has to be updated or newly displayed or set is known. So you know for which future output time you should calculate or determine the display position for the graphical object.
  • at least one of the observation values of the at least one future observation value, that is to say an artificial observation value, and / or the next, future display position is half estimated or extrapolated or predicted on the basis of the respective time stamp.
  • At least one Environment object located in the environment and / or which Relativpositi on the AR display device with respect to the environment in the future, namely the next, future issue date will have.
  • at least one future observation value is estimated. For example, based on a respective observation value for a speed and a position of an environment object at a given time (indicated by the respective timestamp) by the extrapolation or prediction, the movement of the object may be predicted and thus the position of the surrounding object to the next, future output. Time to be predicted or estimated.
  • the next, future display position can also be extrapolated directly, so that a future observation value does not have to be explicitly extrapolated.
  • the invention provides the advantage that a time offset between the respective observation time of the observation values on the one hand and the respective output time for the graphic object on the AR display device can be compensated for by the extrapolation.
  • the invention also includes embodiments that provide additional benefits.
  • the respective output time (for the graphic object on the AR display device) is determined by a V-sync signal of the AR display device.
  • a V-sync signal of the AR display device.
  • the V sync signal indicates that the picture should start at the top or bottom of the screen.
  • a respective timer unit of the at least one observation device and a timer unit of the control device of the AR display device are synchronized in time with one another by means of synchronization data.
  • This timing may, for example, provide for setting an identical absolute or relative time in each timing unit. Synchronizing the time units results in the advantage that a time value, as may be indicated in a time stamp, has the same meaning in an observation device on the one hand and the control device on the other hand
  • the synchronization data used for this purpose are generated and / or transmitted by means of a Time Precision Protocol (TPP).
  • TPP can be implemented, for example, on the basis of the description according to IEEE 1588 and / or IEC 61588.
  • the use of this protocol has the advantage that time values or times which differ at most by a known maximum value can be set in all said timer units. In particular, the maximum value is less than 1 / framerate.
  • said observation values, together with their respective time stamps are transmitted from the respective observation device via a data network and / or via a gateway device to the control device. The transmission thereby has a transmission latency.
  • a CAN bus Controller Area Network
  • Flexray bus or a Media Oriented Systems Transport (MOST) bus or an Ethernet network
  • Ethernet network can be used as the data network.
  • a gateway device can interconnect multiple network threads and transmit observation values between the network threads. This results in a processing time through the gateway device, which contributes to the transmission latency.
  • a spatial distance between at least one observation device on the one hand and the control device for the AR display device for AR on the other hand can be at least 50 centimeters, in particular more than 1 meter. Nevertheless, one can Display position for the graphic object on the AR display device can be determined precisely.
  • One embodiment provides that a position and / or a speed and / or an acceleration at least one environment object of the environment and / or the AR display device are used as the respective observation value for setting the future display position of the graphic object.
  • a movement dynamics of the respective surrounding object and / or the AR display device can be extrapolated or predicted.
  • sensor values from at least one sensor and / or fused sensor values are used as observation values.
  • Fused sensor values are observation values which are based on more than one sensor, that is to say on sensor values of different sensors and / or on sensor values acquired at different times. At least one sensor and / or a control unit for the sensor value fusion can therefore be used as the respective observation device.
  • An embodiment provides that the said predication or extrapolation is performed by means of a Kalman filter. This has the advantage that in addition a measurement noise can be compensated.
  • the method according to the invention can be realized or provided in a device by which an AR display device for AR (AR display device) is operated.
  • the method is realized in a motor vehicle with an AR display device for AR.
  • the invention also encompasses such a motor vehicle with an AR display device for AR and with a control device for the AR display device and with at least one observation device for generating observation values, each of which has a real environment of the motor vehicle and / or a relative position of the AR display device describe to the environment.
  • An observation device can be realized, for example, by a sensor and / or a control unit for a sensor value fusion.
  • the Steuerein device may have a processor device which is adapted to perform the control device of the respective steps of the method.
  • the processor device can have at least one microprocessor and / or at least one microcontroller.
  • the processor device may further comprise a program code adapted to execute, when executed by the processor device, the steps of the method concerning the control device.
  • Each observation device can also have a processor device which is set up to carry out the steps of the method relating to the observation device, ie to supplement observation values with a time stamp.
  • the processor device of each observation device can also provide at least one microprocessor and / or at least one microcontroller.
  • the processor device of each observation device may have a program code that is configured to execute the steps of the method concerning the observation device when it is executed by the processor device of the observation device.
  • the motor vehicle according to the invention is preferably designed as a motor vehicle, in particular special as a passenger car or truck.
  • the invention also includes the combinations of the embodiments described Ausry
  • FIG. 1 is a schematic representation of an embodiment of a Ge apparatus that an embodiment of the method according to the invention rens can perform, the device is in particular a motor vehicle;
  • Figure 2 is a Flußschaudiagramm to an embodiment of the inventions to the invention process.
  • FIG. 1 shows a system 10 for presenting augmented reality (extended reality).
  • the system 10 may be installed, for example, in a motor vehicle 11.
  • the device 10 can have an output device 12 for displaying the augmented reality, which can be, for example, a head-up display (HUD).
  • HUD head-up display
  • a Steuerein device 13 may be provided for controlling a graphic content or output content of the output device 12.
  • a virtu elles graphic object 14 which is displayed on the AR display device 12, are controlled.
  • a display position 15 may be tuned to an environment object 17 located in an environment 16 of the system 10 such that a user of the system 10, viewing the AR display 12, the object 15 with respect to the ambient object 17 in a predetermined relative position, for example superimposed, sees.
  • the system 10 determines the relative position between the system 10 and the environment object 17.
  • at least one sensor 18 may be provided in the system 10.
  • a sensor 18 may be, for example, a camera or a radar or an ultrasonic sensor or a radio receiving device for receiving position data of the Be environment object 17.
  • a control unit 19 can receive sensor data 20 and thereby generate fused sensor data 21, that is, for example, combined or averaged sensor data 20. Control unit 19 can send sensor data 20 and / or fused sensor data 21 to respective control values 13 as respective observation values.
  • the observation values 22 are provided with a respective time stamp 23 of the observation time point to which the observation values 22 were generated, that is to say, for example, the sensor values 20 were measured.
  • the transmission of the observation values 22 can take place via a data network 24. In this case, a transmission via a gate way device or a gateway 25 may be provided or necessary. Overall, the transmission over the data network 24 results in a latency or transmission duration.
  • the observation values 22 are present with a time offset between the two Observation time on the one hand and the output time of the graphi's object 14 at the respective display position 15th
  • the system 10 is prevented from causing or causing the temporal offset to cause the graphical object 14 to be sluggish or offset from the transient obstruction 17. Based on synchronization data 28, it may be achieved in respective timing units 27 of the sensors 18 , the control unit
  • the synchronization data 28 may be generated, for example, on the basis of the IEEE1588 / IEC61588 protocol or the TPP.
  • the control device 13 can then, according to a method according to FIG. 2, display the display position 15 of the graphic object in a step S10 on the AR display device 12 in successive, predetermined output modes. Update timings by setting the display position 15 based on the observation values 22, respectively.
  • the observation values can be provided with a respective time stamp 23 (performed by the sensors 18 and / or the control unit 19).
  • a step S12 at least one of the observation values 22 for the time stamp can then be used by the control unit 13 the next, future output time at least one future observation value 22 'and / or the next future display position 15' will be extrapolated.
  • Such an output time may be, for example, the V-sync time 28 of the output device 12.
  • this method for timely precise synchronization of the output at the output device 12 by means of the V-sync timing 28 based on sensor data fusion, taking into account the time stamps 23 of the sensor data 20, 21 based on the PTP, enables a future position of the surrounding object 17 is anticipated, and thus the graphic object 14 is displayed at a display position 15 that matches the relative position of the surrounding object 17 at this output time, that is, the target relative position between object 14 and surrounding object 17 in FIG the output device 12 results.
  • the method makes it possible to carry out the image calculation on the basis of the transmission latency of obsolete observation values 22, without the temporal synchronization deteriorating.
  • the desired superimposition of the graphic object 14 on the AR display device 12 with real environment objects 17 results in multiple graphic objects 14 for several surrounding objects 17 may be provided.
  • the overall system 10 receives a global, synchronized (relative) time, this can be realized for example by IEEE1588 / IEC61588 protocols.
  • the raw sensor data 20 or the fused sensor data 21 can be timestamped 23 of the global time then be provided. After starting or booting up system 10, the synchronized time is available.
  • the system has 1 / framerate per second available from T_vsync to calculate the image, which should be output at the time T_ausgabe. It does not matter when exactly the calculation and generation of the image content of the graphical object takes place, since the image output always takes place only at the fixed, next output time. This offers the advantage that the resources for the calculation can be flexibly assigned to the system 10.
  • the control device 13 can now calculate the graphics data for the future output time T_output.
  • the graphic object and its display position can be calculated.
  • the coordinates of the object 14 to be displayed or of the objects to be displayed that is to say the respective display position or display position, are extrapolated such that they become the output time T_ausgabe with a real environment object 17 cover over.
  • the calculated graphic data of the at least one graphic object 14 is displayed by means of the AR display 12, and the process repeats cyclically.
  • an error message can be generated accordingly to initiate appropriate optimization measures.
  • Such an optimization measure may, for example, provide for stopping or switching off another program module.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The invention relates to a method for superimposing a virtual graphical object (14) on a real environment (16) in an AR display device (12) for AR, augment reality, wherein: - a display position (15) of the graphical object (14) on the AR display device (12) is updated by a control device (13) at predefined output times following one another; - the display position (15) is set on the basis of observation values (22), which each describe the real environment (16) and/or a position of the AR display device (12) relative to the environment (16). According to the invention, the observation values (22) are provided with respective time stamps (23), each time stamp (23) indicating an observation time at which the associated observation value (22) was captured, and, on the basis of the time stamp (23) of at least one of the observation values (22), at least one future observation value (22') and/or the next, future display position (15') being extrapolated for the next, future output time (28).

Description

Verfahren zum Überlagern eines virtuellen graphischen Objekts über eine reale Umgebung mittels einer AR-Anzeigeeinrichtung für Augmented-Reality sowie Kraftfahrzeug  A method for superimposing a virtual graphic object on a real environment by means of an augmented reality AR display device and motor vehicle

BESCHREIBUNG: DESCRIPTION:

Die Erfindung betrifft ein Verfahren zum Überlagern eines virtuellen graphi- schen Objekts über eine Anzeige einer realen Umgebung in einer AR- Anzeigeeinrichtung für Augmented-Reality (AR - angereichte Realität) Zu der Erfindung gehört auch ein Kraftfahrzeug mit einer AR- Anzeigeeinrichtung, wobei das Kraftfahrzeug das erfindungsgemäße Verfah- ren durchführen kann. The invention relates to a method for superposing a virtual graphic object over an indication of a real environment in an AR display device for augmented reality. The invention also includes a motor vehicle with an AR display device, wherein the motor vehicle the method according to the invention can perform.

Derzeit verfügbare Augmented-Reality-Systeme basieren jeweils auf einem geschlossenen, hochintergrierten Rechnersystem, in welchem die Erfas- sungssensorik, die Steuereinrichtung mit dem Verarbeitungsprozessor und die eigentliche AR-Anzeigeeinrichtung (Display) miteinander unmittelbar verbunden sind, das heißt ein einziges, geschlossenes Gerät darstellen. Entsprechend kurz sind die Übertragungswege und damit die Übertragungs- Zeiten von der Erfassungssensorik zur AR-Anzeigeeinrichtung Das Entwick lungsziel bei einer AR-Anzeigeeinrichtung, beispielsweise einer AR-Kopf- oben-Anzeige (AR-Head-up-Display), ist die zeitgenaue oder präzise Überla gerung der angezeigten, augmentierenden grafischen Objekte über der rea len Umgebung, die mit der AR-Anzeigeeinrichtung augmentiert werden soll. Denn eine zeitliche und/oder örtliche Abweichung der Anzeigeposition eines grafischen Objekts bezüglich eines zugehörigen Umgebungsobjekts in der realen Umgebung kann dazu führen, dass ein Benutzer durch die Verwen dung der AR-Anzeigeeinrichtung irritiert wird. Die Sicherstellung der genauen Überlagerung eines grafischen Objekts über ein in der Umgebung erkanntes reales Umgebungsobjekt mittels der AR- Anzeigeeinrichtung erfordert, dass die erfassten und/oder die fusionierten Sensorwerte rechtzeitig in der Steuereinrichtung bereitstehen, damit die für ein grafisches Objekt berechnete Anzeigeposition aktuell ist, das heißt zu der aktuellen Position des in der realen Umgebung sichtbaren Umgebungsob jekts passt. Currently available augmented reality systems are each based on a closed, highly-integrated computer system in which the detection sensor system, the control device with the processing processor and the actual AR display device (display) are directly connected to one another, that is to say a single, closed device , The transmission paths and therefore the transmission times from the detection sensor system to the AR display device are correspondingly short. The development target for an AR display device, for example an AR head-up display, is the time-accurate or precise overlay of the displayed augmenting graphical objects over the real environment to be augmented with the AR display. For a temporal and / or spatial deviation of the display position of a graphical object with respect to an associated environment object in the real environment can lead to a user being irritated by the use of the AR display device. Ensuring the exact superposition of a graphical object over a real environment object detected in the environment by means of the AR display device requires that the acquired and / or fused sensor values be ready in time in the control device for the display position calculated for a graphical object to be up-to-date means the current position of the environment object visible in the real environment.

Möchte man nun eine AR-Anzeigeeinrichtung für AR in einem Kraftfahrzeug bereitstellen, so ergibt sich das Problem, dass darin die Beobachtungsein richtung, die zum Erzeugen von Beobachtungswerten, wie beispielsweise Sensorwerten, verwendet wird, in der Regel nicht ortsnah an der Steuerein richtung für die AR-Anzeigeeinrichtung angeordnet werden kann, sondern Beobachtungswerte einer Beobachtungseinrichtung über ein Datennetzwerk übertragen werden müssen. Werden dazu noch fusionierte Sensordaten erzeugt, so geschieht dies in der Regel ebenfalls in einem eigenen Steuerge rät Somit kann sich bei der Umsetzung einer AR-Anzeige in einem Kraft fahrzeug die Notwendigkeit ergeben, dies mit einem verteilten System aus zumindest einer Beobachtungseinrichtung und/oder einem Steuergerät für eine Sensordatenfunktion sowie einer Steuereinrichtung für die AR- Anzeigeeinrichtung umgesetzt werden muss, was die Übertragung der Be obachtungswerte über ein Datennetzwerk erfordert und damit die entspre chende Übertragungslatenz mit sich bringt Aus der US 2015/0268473 A1 ist bekannt, eine AR-Anzeigeeinrichtung mit einem davon verschiedenen Smartphone über ein Kabel zu betreiben. If one now wants to provide an AR display device for AR in a motor vehicle, then there is the problem that therein the Beobachtsein direction, which is used for generating observation values, such as sensor values, not usually close to the Steuerein direction for the AR display device can be arranged, but observation values of an observation device must be transmitted over a data network. If fused sensor data are generated in addition, this usually also takes place in a separate control unit. Thus, in the implementation of an AR display in a motor vehicle, the need may arise for a distributed system comprising at least one observation device and / or one Control unit for a sensor data function and a control device for the AR display device must be implemented, which requires the transmission of Be obachtungswerte over a data network and thus brings the corre sponding transmission latency From US 2015/0268473 A1 is known, an AR display device with to operate a different smartphone via a cable.

Aus der CN 105913371 Al ist bekannt, für eine AR-Darstellung den beteilig ten Geräten einen gemeinsamen synchronen Systemtakt aufzuzwingen. Dies erfordert aber eine aufwändige Umgestaltung aller Geräte, um diesen ge meinsamen Systemtakt realisieren zu können. From CN 105913371 Al is known impose a common synchronous system clock for an AR representation of the participating devices th. However, this requires a complex redesign of all devices in order to realize this common system clock.

Ein Beispiel für eine AR-Anzeigeeinrichtung ist aus der US 2015062000 A1 bekannt. Der Erfindung liegt die Aufgabe zugrunde, bei einer AR-Anzeigeeinrichtung ein dargestelltes virtuelles grafisches Objekt präzise bezüglich der in der AR- Anzeigeeinrichtung dargestellten realen Umgebung zu positionieren. An example of an AR display device is known from US 2015062000 A1. The invention is based on the object of positioning an illustrated virtual graphic object precisely with respect to the real environment represented in the AR display device in the case of an AR display device.

Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprü che gelöst. Vorteilhafte Ausführungsformen der Erfindung ergeben sich durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren The object is achieved by the subject matters of the independent patent claims. Advantageous embodiments of the invention will become apparent from the dependent claims, the following description and the figures

Durch die Erfindung ist ein Verfahren zum Überlagern eines virtuellen grafi schen Objekts über eine reale Umgebung mittels einer AR- Anzeigeeinrichtung für AR, Augmented-Reality, bereitgestellt. Die reale Um gebung kann in der AR-Anzeigeeinrichtung beispielsweise als ein Kamera bild angezeigt sein. Die AR-Anzeigeeinrichtung kann auch eine transparente Scheibe aufweisen, durch welche hindurch die reale Umgebung direkt oder über einen Spiegel sichtbar ist. Die AR-Anzeigeeinrichtung kann beispiels weise als ein Head-up-Display oder eine AR-Brille ausgestaltet sein. Die AR- Anzeigeeinrichtung kann aber auch beispielsweise als ein Bildschirm ausge staltet sein. Bei dem Verfahren wird in der für Augmented-Reality bekannten Weise durch eine Steuereinrichtung eine Anzeigeposition des besagten virtuellen grafischen Objekts auf der AR-Anzeigeeinrichtung zu aufeinander folgenden, vorbestimmten Ausgabezeitpunkten aktualisiert (also das Objekt auf der AR-Anzeigeeinrichtung verschoben), wobei hierzu die Anzeigepositi on jeweils auf der Grundlage von Beobachtungswerten festgelegt oder ein gestellt wird. Diese Beobachtungswerte beschreiben jeweils die reale Umge bung, also beispielsweise zumindest ein reales Umgebungsobjekt in der Umgebung, und/oder eine Relativposition der AR-Anzeigeeinrichtung bezüg lich der Umgebung Mit anderen Worten kann auf Grundlage der Beobach tungswerte eine Anzeigeposition für das virtuelle grafische Objekt berechnet werden, an welcher das grafische Objekt dann bezüglich zumindest eines in der realen Umgebung sichtbaren Umgebungsobjekts eine vorbestimmte Relativposition aufweist. Beispielsweise kann als graphisches Objekt ein Rahmen oder Pfeil vorgesehen sein, der auf der AR-Anzeigeeinrichtung bezügliche eines realen Umgebungsobjekts in einer vorbestimmten Relativ position (z.B. daneben oder überlagernd) positioniert werden soll. Dies gilt natürlich insbesondere für die Perspektive des Betrachter der AR- Anzeigeeinrichtung. The invention provides a method for superimposing a virtual graphical object over a real environment by means of an AR display device for augmented reality AR. For example, the real environment may be displayed in the AR display as a camera image. The AR display device may also include a transparent pane through which the real environment is visible directly or through a mirror. The AR display device may, for example, be configured as a head-up display or AR glasses. The AR display device can also be configured, for example, as a screen. In the method, in the manner known for augmented reality, a control device updates a display position of said virtual graphic object on the AR display device at successive predetermined output times (ie, displaces the object on the AR display device), for which purpose the display position is determined or set on the basis of observation values. These observation values respectively describe the real environment, that is, for example, at least one real environment object in the environment, and / or a relative position of the AR display device relative to the environment. In other words, a display position for the virtual graphic object can be calculated based on the observation values in which the graphical object then has a predetermined relative position with respect to at least one environmental object that is visible in the real environment. For example, as a graphic object, a frame or arrow may be provided on the AR display device relative to a real environment object in a predetermined relative position (eg next to or overlying) to be positioned. Of course, this applies in particular to the perspective of the viewer of the AR display device.

Nun kann sich aber das Umgebungsobjekt und/oder die AR- Anzeigeeinrichtung in Bewegung befinden. Die Berechnung einer passenden Anzeigeposition setzt daher voraus, dass die Beobachtungswerte aktuell sind, also die reale Umgebung und/oder die Relativposition der AR- Anzeigeeinrichtung bezüglich der Umgebung zum aktuellen Zeitpunkt, wenn das grafische Objekt auf der AR-Anzeigeeinrichtung angezeigt oder darge stellt wird, beschrieben wird. Andernfalls wird das grafische Objekt auf Grundlage von veralteten Beobachtungswerten an einer Anzeigeposition positioniert, die von der gewünschten, vorgegebenen Relativlage abweichen kann, weil sich das Umgebungsobjekt beispielsweise bewegt hat und/oder die AR-Anzeigeeinrichtung bezüglich der Umgebung bewegt wurde. Now, however, the environment object and / or the AR display device may be in motion. The calculation of a suitable display position therefore requires that the observation values are current, ie the real environment and / or the relative position of the AR display device with respect to the environment at the current time when the graphic object is displayed or displayed on the AR display device. is described. Otherwise, the graphical object is positioned based on outdated observation values at a display position, which may deviate from the desired, predetermined relative position, for example because the environment object has moved and / or the AR display device has been moved relative to the surroundings.

Um eine präzise Positionierung des grafischen Objekts auf der AR- Anzeigeeinrichtung zu erreichen, ist erfindungsgemäß vorgesehen, dass die besagten Beobachtungswerte mit einem jeweiligen Zeitstempel versehen werden. Der jeweilige Zeitstempel gibt dabei einen jeweiligen Beobachtungs zeitpunkt an, zu welchem der jeweils zugehörige Beobachtungswert erfasst wurde. Zu jedem Beobachtungswert gehört also auch ein Zeitwert, der den Beobachtungszeitpunkt angibt. Man nutzt nun die Tatsache, dass der jeweils nächste, zukünftige Ausgabezeitpunkt, zu welchem die Anzeigeposition des grafischen Objekts auf der AR-Anzeigeeinrichtung aktualisiert oder neu an gezeigt oder eingestellt werden muss, bekannt ist. Man weiß also, für wel chen zukünftigen Ausgabezeitpunkt man für das grafische Objekt dessen Anzeigeposition berechnen oder ermitteln soll. Entsprechend wird anhand des jeweiligen Zeitstempels zumindest eines der Beobachtungswerte des halb für den nächsten, zukünftigen Ausgabezeitpunkt zumindest ein zukünf tiger Beobachtungswert, das heißt ein künstlicher Beobachtungswert, und/oder die nächste, zukünftige Anzeigeposition geschätzt oder extrapoliert oder prädiziert. Mit anderen Worten wird ermittelt, wo sich zumindest ein Umgebungsobjekt in der Umgebung befinden und/oder welche Relativpositi on die AR-Anzeigeeinrichtung bezüglich der Umgebung in der Zukunft, näm lich zum nächsten, zukünftigen Ausgabezeitpunkt, aufweisen wird. Hierzu wird zumindest ein zukünftiger Beobachtungswert geschätzt. Beispielsweise kann auf Grundlage eines jeweiligen Beobachtungswerts für eine Geschwin digkeit und einer Position eines Umgebungsobjekts zu einem gegebenen Zeitpunkt (angegeben durch den jeweiligen Zeitstempel) durch das Extrapo lieren oder Prädizieren die Bewegung des Objekts vorausgesagt und somit die Position des Umgebungsobjekts zum nächsten, zukünftigen Ausgabe- Zeitpunkt vorhergesagt oder geschätzt werden. Zusätzlich oder alternativ zu einem geschätzten Beobachtungswert kann auch direkt die nächste, zukünf tige Anzeigeposition extrapoliert werden, sodass nicht explizit ein zukünftiger Beobachtungswert extrapoliert werden muss. Durch die Erfindung ergibt sich der Vorteil, dass ein Zeitversatz zwischen dem jeweiligen Beobachtungszeitpunkt der Beobachtungswerte einerseits und dem jeweiligen Ausgabezeitpunkt für das grafische Objekt auf der AR- Anzeigeeinrichtung durch das Extrapolieren kompensiert werden kann. Die Erfindung umfasst auch Ausführungsformen, durch die sich zusätzliche Vorteile ergeben. In order to achieve a precise positioning of the graphic object on the AR display device, it is provided according to the invention that the said observation values are provided with a respective time stamp. The respective time stamp indicates a respective observation time at which the respective associated observation value was detected. Each observation value therefore also includes a time value which indicates the observation time. The fact is now known that the respective next, future output time at which the display position of the graphic object on the AR display device has to be updated or newly displayed or set is known. So you know for which future output time you should calculate or determine the display position for the graphical object. Accordingly, at least one of the observation values of the at least one future observation value, that is to say an artificial observation value, and / or the next, future display position is half estimated or extrapolated or predicted on the basis of the respective time stamp. In other words, it is determined where at least one Environment object located in the environment and / or which Relativpositi on the AR display device with respect to the environment in the future, namely the next, future issue date will have. For this purpose, at least one future observation value is estimated. For example, based on a respective observation value for a speed and a position of an environment object at a given time (indicated by the respective timestamp) by the extrapolation or prediction, the movement of the object may be predicted and thus the position of the surrounding object to the next, future output. Time to be predicted or estimated. In addition or as an alternative to an estimated observation value, the next, future display position can also be extrapolated directly, so that a future observation value does not have to be explicitly extrapolated. The invention provides the advantage that a time offset between the respective observation time of the observation values on the one hand and the respective output time for the graphic object on the AR display device can be compensated for by the extrapolation. The invention also includes embodiments that provide additional benefits.

Gemäß einer Ausführungsform wird der jeweilige Ausgabezeitpunkt (für das grafische Objekt auf der AR-Anzeigeeinrichtung) durch ein V-Sync-Signal der AR-Anzeigeeinrichtung bestimmt. Durch dieses V-Sync-Signal wird ein Bild aufbau der AR-Anzeigeeinrichtung zyklisch gestartet oder ausgelöst oder begonnen. Durch das V-Sync-Signal wird signalisiert, dass nun der Bildauf bau am oberen oder unteren Ende des Bildschirms starten soll. Das V-Sync- Signal ist ein zyklisches oder periodisches Signal, sodass zuverlässig der nächste, zukünftige Ausgabezeitpunkt ermittelt werden kann oder bekannt ist. Es wird in Zeitabständen T _ausgabe wiederholt, die dem Inversen der Bildwiederholungsrate (framerate) entsprechen (T_ausgabe = 1 /framerate). Eine Ausführungsform sieht vor, dass eine jeweilige Zeitgebereinheit der zumindest einen Beobachtungseinrichtung und eine Zeitgebereinheit der Steuereinrichtung der AR-Anzeigeeinrichtung miteinander mittels Synchroni- sierungsdaten zeitlich synchronisiert werden. Diese zeitliche Synchronisation kann beispielsweise das Einstellen einer identischen absoluten oder relativen Zeit in jeder Zeitgebereinheit vorsehen. Durch Synchronisieren der Zeitge- bereinheiten ergibt sich der Vorteil, dass ein Zeitwert, wie er in einem Zeit stempel angegeben sein kann, in einer Beobachtungseinrichtung einerseits und der Steuereinrichtung andererseits dieselbe Bedeutung aufweist According to one embodiment, the respective output time (for the graphic object on the AR display device) is determined by a V-sync signal of the AR display device. Through this V-sync signal, a picture of the AR display device is cyclically started or triggered or started. The V sync signal indicates that the picture should start at the top or bottom of the screen. The V-sync signal is a cyclic or periodic signal so that the next future output time can be reliably determined or known. It is repeated at intervals T_output corresponding to the inverse of the frame rate (T_output = 1 / framerate). One embodiment provides that a respective timer unit of the at least one observation device and a timer unit of the control device of the AR display device are synchronized in time with one another by means of synchronization data. This timing may, for example, provide for setting an identical absolute or relative time in each timing unit. Synchronizing the time units results in the advantage that a time value, as may be indicated in a time stamp, has the same meaning in an observation device on the one hand and the control device on the other hand

Gemäß einer Ausführungsform werden die hierzu verwendeten Synchroni- sierungsdaten mittels eines Time-Precision-Protocols (TPP) erzeugt und/oder übertragen. Das TPP kann beispielsweise auf der Grundlage der Beschreibung gemäß IEEE 1588 und/oder IEC 61588 implementiert werden Die Verwendung dieses Protokolls weist den Vorteil auf, dass in allen besag ten Zeitgebereinheiten Zeitwerte oder Uhrzeiten eingestellt werden können, die sich höchstens um einen bekannten Maximalwert unterscheiden. Insbe sondere ist der Maximalwert kleiner als 1 /framerate Eine Ausführungsform sieht vor, dass die besagten Beobachtungswerte zusammen mit ihrem jeweiligen Zeitstempel aus der jeweiligen Beobach- tungseinrichtung über ein Datennetzwerk und/oder über eine Gatewayein- richtung zu der Steuereinrichtung übertragen werden. Das Übertragen weist hierdurch einen Übertragungslatenz auf. Als Datennetzwerk kann beispiels- weise ein CAN-Bus (CAN - Controller area network), ein Flexray-Bus oder ein MOST-Bus (Media Oriented Systems Transport) oder ein Ethernet- Netzwerk verwendet werden. Eine Gatewayeinrichtung kann mehrere Netz- werkstränge miteinander verbinden und Beobachtungswerte zwischen den Netzwerksträngen übertragen. Hierbei ergibt sich eine Verarbeitungszeit durch die Gatewayeinrichtung, die zur Übertragungslatenz beiträgt. Durch die Ausführung ergibt sich der Vorteil, dass ein räumlicher Abstand zwischen zumindest einer Beobachtungseinrichtung einerseits und der Steuereinrich- tung für die AR-Anzeigeeinrichtung für AR andererseits mindestens 50 Zen timeter, insbesondere mehr als 1 Meter betragen kann. Dennoch kann eine Anzeigeposition für das grafische Objekt auf der AR-Anzeigeeinrichtung präzise ermittelt werden. According to one embodiment, the synchronization data used for this purpose are generated and / or transmitted by means of a Time Precision Protocol (TPP). The TPP can be implemented, for example, on the basis of the description according to IEEE 1588 and / or IEC 61588. The use of this protocol has the advantage that time values or times which differ at most by a known maximum value can be set in all said timer units. In particular, the maximum value is less than 1 / framerate. One embodiment provides that said observation values, together with their respective time stamps, are transmitted from the respective observation device via a data network and / or via a gateway device to the control device. The transmission thereby has a transmission latency. For example, a CAN bus (Controller Area Network), a Flexray bus or a Media Oriented Systems Transport (MOST) bus or an Ethernet network can be used as the data network. A gateway device can interconnect multiple network threads and transmit observation values between the network threads. This results in a processing time through the gateway device, which contributes to the transmission latency. As a result of the embodiment, there is the advantage that a spatial distance between at least one observation device on the one hand and the control device for the AR display device for AR on the other hand can be at least 50 centimeters, in particular more than 1 meter. Nevertheless, one can Display position for the graphic object on the AR display device can be determined precisely.

Eine Ausführungsform sieht vor, dass als jeweiliger Beobachtungswert eine Position und/oder eine Geschwindigkeit und/oder eine Beschleunigung zu- mindest eines Umgebungsobjekts der Umgebung und/oder der AR- Anzeigeeinrichtung für das Einstellen der zukünftigen Anzeigeposition des grafischen Objekts verwendet werden. Auf Grundlage der besagten Größen kann eine Bewegungsdynamik der jeweiligen Umgebungsobjekts und/oder der AR-Anzeigeeinrichtung extrapoliert oder prädiziert werden. One embodiment provides that a position and / or a speed and / or an acceleration at least one environment object of the environment and / or the AR display device are used as the respective observation value for setting the future display position of the graphic object. On the basis of the said variables, a movement dynamics of the respective surrounding object and / or the AR display device can be extrapolated or predicted.

Eine Ausführungsform sieht vor, dass als Beobachtungswerte Sensorwerte aus zumindest einem Sensor und/oder fusionierte Sensorwerte verwendet werden. Fusionierte Sensorwerte sind Beobachtungswerte, die auf mehr als einem Sensor, also auf Sensorwerten unterschiedlicher Sensoren und/oder auf zu unterschiedlichen Zeitpunkten erfassten Sensorwerten beruhen. Als jeweilige Beobachtungseinrichtung kann jeweils also zumindest ein Sensor und/oder ein Steuergerät für die Sensorwertefusion genutzt werden. Eine Ausführungsform sieht vor, dass das besagte Prädizieren oder Extrapo lieren mittels eines Kalmanfilters durchgeführt wird. Hierdurch ergibt sich der Vorteil, dass zusätzlich auch ein Messrauschen kompensiert werden kann. One embodiment provides that sensor values from at least one sensor and / or fused sensor values are used as observation values. Fused sensor values are observation values which are based on more than one sensor, that is to say on sensor values of different sensors and / or on sensor values acquired at different times. At least one sensor and / or a control unit for the sensor value fusion can therefore be used as the respective observation device. An embodiment provides that the said predication or extrapolation is performed by means of a Kalman filter. This has the advantage that in addition a measurement noise can be compensated.

Das erfindungsgemäße Verfahren kann in einer Vorrichtung realisiert oder vorgesehen sein, durch welche eine AR-Anzeigeeinrichtung für AR (AR- Anzeigeeinrichtung) betrieben wird. The method according to the invention can be realized or provided in a device by which an AR display device for AR (AR display device) is operated.

Insbesondere ist hierbei vorgesehen, dass das Verfahren in einem Kraftfahr zeug mit einer AR-Anzeigeeinrichtung für AR realisiert ist. Entsprechend umfasst die Erfindung auch ein solches Kraftfahrzeug mit einer AR- Anzeigeeinrichtung für AR und mit einer Steuereinrichtung für die AR- Anzeigeeinrichtung sowie mit zumindest einer Beobachtungseinrichtung zum Erzeugen von Beobachtungswerten, welche jeweils eine reale Umgebung des Kraftfahrzeugs und/oder eine Relativposition der AR-Anzeigeeinrichtung zur Umgebung beschreiben. Eine Beobachtungseinrichtung kann jeweils beispielsweise durch einen Sensor und/oder ein Steuergerät für eine Sen sorwertefusion realisiert sein. Bei dem erfindungsgemäßen Kraftfahrzeug ist vorgesehen, dass dieses dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Hierzu kann die Steuerein richtung einen Prozessoreinrichtung aufweisen, die dazu eingerichtet ist, die die Steuereinrichtung betreffenden Schritte des Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller aufweisen. Die Prozessoreinrich- tung kann des Weiteren einen Programmcode aufweisen, der dazu einge richtet ist, bei Ausführen durch die Prozessoreinrichtung die die Steuerein richtung betreffenden Schritte des Verfahrens auszuführen. Auch jede Be obachtungseinrichtung kann eine Prozessoreinrichtung aufweisen, die dazu eingerichtet ist, die die Beobachtungseinrichtung betreffenden Schritte des Verfahrens durchzuführen, also Beobachtungswerte mit einem Zeitstempel zu ergänzen. Auch die Prozessoreinrichtung jeder Beobachtungseinrichtung kann jeweils zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller vorsehen. Die Prozessoreinrichtung jeder Beobachtungsein richtung kann einen Programmcode aufweisen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung der Beobachtungseinrichtung die die Beobachtungseinrichtung betreffenden Schritte des Verfahrens auszufüh ren. In particular, it is provided here that the method is realized in a motor vehicle with an AR display device for AR. Accordingly, the invention also encompasses such a motor vehicle with an AR display device for AR and with a control device for the AR display device and with at least one observation device for generating observation values, each of which has a real environment of the motor vehicle and / or a relative position of the AR display device describe to the environment. An observation device can be realized, for example, by a sensor and / or a control unit for a sensor value fusion. In the motor vehicle according to the invention it is provided that this is set up to carry out an embodiment of the method according to the invention. For this purpose, the Steuerein device may have a processor device which is adapted to perform the control device of the respective steps of the method. For this purpose, the processor device can have at least one microprocessor and / or at least one microcontroller. The processor device may further comprise a program code adapted to execute, when executed by the processor device, the steps of the method concerning the control device. Each observation device can also have a processor device which is set up to carry out the steps of the method relating to the observation device, ie to supplement observation values with a time stamp. The processor device of each observation device can also provide at least one microprocessor and / or at least one microcontroller. The processor device of each observation device may have a program code that is configured to execute the steps of the method concerning the observation device when it is executed by the processor device of the observation device.

Das erfindungsgemäße Kraftfahrzeug ist bevorzugt als Kraftwagen, insbe sondere als Personenkraftwagen oder Lastkraftwagen, ausgestaltet. The motor vehicle according to the invention is preferably designed as a motor vehicle, in particular special as a passenger car or truck.

Die Erfindung umfasst auch die Kombinationen der beschriebenen Ausfüh rungsformen The invention also includes the combinations of the embodiments described Ausfüh

Im Folgenden ist ein Ausführungsbeispiel der Erfindung beschrieben. Hierzu zeigt: In the following an embodiment of the invention is described. This shows:

Fig 1 eine schematische Darstellung einer Ausführungsform eines Ge räts, das eine Ausführungsform des erfindungsgemäßen Verfah- rens durchführen kann, wobei das Gerät insbesondere ein Kraft fahrzeug ist; und 1 is a schematic representation of an embodiment of a Ge apparatus that an embodiment of the method according to the invention rens can perform, the device is in particular a motor vehicle; and

Fig 2 ein Flussschaudiagramm zu einer Ausführungsform des erfin dungsgemäßen Verfahrens. Figure 2 is a Flußschaudiagramm to an embodiment of the inventions to the invention process.

Bei den im Folgenden erläuterten Ausführungsbeispieien handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispie len stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren sind die be- schriebenen Ausführungsformen auch durch weitere der bereits beschriebe nen Merkmale der Erfindung ergänzbar. The exemplary embodiments explained below are preferred embodiments of the invention. In the Ausführungsbeispie len the described components of the embodiments each represent individual, independently of each other to be considered features of the invention, which each further independently develop the invention and thus individually or in any other than the combination shown to be considered part of the invention. Furthermore, the described embodiments can also be supplemented by further features of the invention already described.

Fig. 1 zeigt ein System 10 zum Darstellen einer Augmented-Reality (erwei- terten Realität). Das System 10 kann beispielsweise in einem Kraftfahrzeug 11 eingebaut sein. Das Gerät 10 kann für das Darstellen der Augmented- Reality eine Ausgabeeinrichtung 12 aufweisen, bei der es sich beispielswei se um ein Head-up-Display (HUD) handeln kann. Zum Steuern eines Grafik- inhalts oder Ausgabeinhalts der Ausgabeeinrichtung 12 kann eine Steuerein richtung 13 bereitgestellt sein. Durch die Steuereinrichtung 13 kann ein virtu elles grafisches Objekt 14, das auf der AR-Anzeigeeinrichtung 12 angezeigt wird, gesteuert werden. Insbesondere kann eine Anzeigeposition 15 auf ein in einer Umgebung 16 des Systems 10 befindlichen Umgebungsobjekts 17 derart abgestimmt sein, dass ein Benutzer des Systems 10 beim Betrachten der AR-Anzeigeeinrichtung 12 das Objekt 15 in Bezug auf das Umgebungs objekt 17 in einer vorbestimmten Relativposition, beispielsweise überlagert, sieht. Hierzu wird durch das System 10 die Relativposition zwischen dem System 10 und dem Umgebungsobjekt 17 ermittelt. Hierzu kann in dem System 10 zumindest ein Sensor 18 vorgesehen sein. Ein Sensor 18 kann beispielsweise eine Kamera oder ein Radar oder ein Ultraschallsensor oder eine Funkempfangseinrichtung zum Empfangen von Positionsdaten des Umgebungsobjekts 17 sein. Ein Steuergerät 19 kann Sensordaten 20 emp fangen und dadurch fusionierte Sensordaten 21 erzeugen, also beispielswei se kombinierte oder gemittelte Sensordaten 20 Das Steuergerät 19 kann die Sensordaten 20 und/oder die fusionierten Sensordaten 21 als jeweilige Be- obachtungswerte 22 an die Steuereinrichtung 13 aussenden. Die SensorenFIG. 1 shows a system 10 for presenting augmented reality (extended reality). The system 10 may be installed, for example, in a motor vehicle 11. The device 10 can have an output device 12 for displaying the augmented reality, which can be, for example, a head-up display (HUD). For controlling a graphic content or output content of the output device 12, a Steuerein device 13 may be provided. By the control device 13, a virtu elles graphic object 14, which is displayed on the AR display device 12, are controlled. In particular, a display position 15 may be tuned to an environment object 17 located in an environment 16 of the system 10 such that a user of the system 10, viewing the AR display 12, the object 15 with respect to the ambient object 17 in a predetermined relative position, for example superimposed, sees. For this purpose, the system 10 determines the relative position between the system 10 and the environment object 17. For this purpose, at least one sensor 18 may be provided in the system 10. A sensor 18 may be, for example, a camera or a radar or an ultrasonic sensor or a radio receiving device for receiving position data of the Be environment object 17. A control unit 19 can receive sensor data 20 and thereby generate fused sensor data 21, that is, for example, combined or averaged sensor data 20. Control unit 19 can send sensor data 20 and / or fused sensor data 21 to respective control values 13 as respective observation values. The sensors

18 und das Steuergerät 19 stellen jeweils eine Beobachtungseinrichtung B dar. 18 and the control unit 19 each represent an observation device B.

Die Beobachtungswerte 22 sind dabei mit einem jeweiligen Zeitstempel 23 des Beobachtungszeitpunkts, zu welchem die Beobachtungswerte 22 er zeugt wurden, also beispielsweise die Sensorwerte 20 gemessen wurden, versehen. Die Übertragung der Beobachtungswerte 22 kann über ein Daten netzwerk 24 erfolgen. Hierbei kann auch eine Übertragung über eine Gate wayeinrichtung oder ein Gateway 25 vorgesehen oder notwendig sein Ins- gesamt ergibt sich hierbei durch die Übertragung über das Datennetzwerk 24 eine Latenz oder Übertragungsdauer Somit liegen in der Steuereinrichtung 13 die Beobachtungswerte 22 vor mit einem zeitlichen Versatz zwischen dem Beobachtungszeitpunkt einerseits und dem Ausgabezeitpunkt des grafi schen Objekts 14 an der jeweiligen Anzeigeposition 15 The observation values 22 are provided with a respective time stamp 23 of the observation time point to which the observation values 22 were generated, that is to say, for example, the sensor values 20 were measured. The transmission of the observation values 22 can take place via a data network 24. In this case, a transmission via a gate way device or a gateway 25 may be provided or necessary. Overall, the transmission over the data network 24 results in a latency or transmission duration. Thus, in the control device 13 the observation values 22 are present with a time offset between the two Observation time on the one hand and the output time of the graphi's object 14 at the respective display position 15th

Dennoch ist bei dem System 10 verhindert, dass dieser zeitliche Versatz dazu führt oder verursacht, dass das grafische Objekt 14 nur träge oder versetzt zu dem Umqebunqsobiekt 17 darqestellt wird Auf der Grundlage von Synchronisierungsdaten 28 kann erreicht werden, dass in jeweiligen Zeitgebereinheiten 27 der Sensoren 18, des SteuergerätsNevertheless, the system 10 is prevented from causing or causing the temporal offset to cause the graphical object 14 to be sluggish or offset from the transient obstruction 17. Based on synchronization data 28, it may be achieved in respective timing units 27 of the sensors 18 , the control unit

19 und der Steuereinrichtung 13 synchrone Zeitwerte oder Zeitangaben vorhanden sind die Synchronisierungsdaten 28 können beispielsweise auf der Grundlage des IEEE1588/IEC61588-Protokolls oder des TPP generiert sein. 19 and the controller 13 have synchronous time values or times, the synchronization data 28 may be generated, for example, on the basis of the IEEE1588 / IEC61588 protocol or the TPP.

Die Steuereinrichtung 13 kann dann gemäß einem Verfahren nach Fig. 2 die Anzeigeposition 15 des grafischen Objekts in einem Schritt S10 auf der AR- Anzeigeeinrichtung 12 zu aufeinanderfolgenden, vorbestimmten Ausgabe- Zeitpunkten aktualisieren, indem die Anzeigeposition 15 jeweils auf der Grundlage der Beobachtungswerte 22 eingestellt wird. Hierzu können in einem Schritt S11 die Beobachtungswerte mit einem jeweiligen Zeitstempel 23 versehen werden (durchgeführt durch die Sensoren 18 und/oder das Steuergerät 19) In einem Schritt S12 kann dann durch die Steuereinrichtung 13 anhand des jeweiligen Zeitstempels zumindest eines der Beobachtungs- werte 22 für den nächsten, zukünftigen Ausgabezeitpunkt zumindest ein zukünftiger Beobachtungswert 22‘ und/oder die nächste zukünftige Anzeige position 15‘ extrapoliert werden. Ein solcher Ausgabezeitpunkt kann bei- spielsweise der V-Sync-Zeitpunkt 28 der Ausgabeeinrichtung 12 sein. The control device 13 can then, according to a method according to FIG. 2, display the display position 15 of the graphic object in a step S10 on the AR display device 12 in successive, predetermined output modes. Update timings by setting the display position 15 based on the observation values 22, respectively. For this purpose, in a step S11, the observation values can be provided with a respective time stamp 23 (performed by the sensors 18 and / or the control unit 19). In a step S12, at least one of the observation values 22 for the time stamp can then be used by the control unit 13 the next, future output time at least one future observation value 22 'and / or the next future display position 15' will be extrapolated. Such an output time may be, for example, the V-sync time 28 of the output device 12.

Die Verwendung dieses Verfahrens für die zeitlich präzise Synchronisation der Ausgabe an der Ausgabeeinrichtung 12 mittels des V-Sync-Zeitpunkts 28 auf der Grundlage einer Sensordatenfusion unter Berücksichtigung der Zeit- Stempel 23 der Sensordaten 20, 21 , basierend auf dem PTP, ermöglicht es, dass eine zukünftige Position des Umgebungsobjekts 17 antizipiert wird und somit das grafische Objekt 14 an einer Anzeigeposition 15 angezeigt wird, die zu der Relativposition des Umgebungsobjekts 17 zu diesem Ausgabe- zeitpunkt passt, das heißt dass sich die Soll-Relativlage zwischen Objekt 14 und Umgebungsobjekt 17 in der Ausgabeeinrichtung 12 ergibt. Das Verfah- ren ermöglicht gleichzeitig, dass die Bildberechnung auf Grundlage der Über tragungslatenz veralteten Beobachtungswerten 22 durchgeführt wird, ohne dass es zur Verschlechterung zeitlicher Synchronisation kommt. Somit ergibt sich die gewünschte Überlagerung des grafischen Objekts 14 auf der AR-Anzeigeeinrichtung 12 mit realen Umgebungsobjekten 17 Natür lich können auch mehrere grafische Objekte 14 für mehrere Umgebungsob jekte 17 vorgesehen sein. Zudem ist die Möglichkeit einer Justierung und Korrektur der Abweichung zwischen der Realität und augmentierten Anzei- geinhalten möglich. Für die Verwendung des Verfahrens können folgende Voraussetzungen geschaffen werden. Das Gesamtsystem 10 erhält eine globale, synchronisierte (relative) Uhrzeit, diese kann zum Beispiel durch IEEE1588/IEC61588-Protokolle realisiert werden. Die rohen Sensordaten 20 beziehungsweise die fusionierten Sensordaten 21 können mit Zeitstempeln 23 der globalen Uhrzeit dann versehen werden. Nach dem Starten oder Hochfahren des Systems 10 steht die synchronisierte Uhrzeit zur Verfügung. The use of this method for timely precise synchronization of the output at the output device 12 by means of the V-sync timing 28 based on sensor data fusion, taking into account the time stamps 23 of the sensor data 20, 21 based on the PTP, enables a future position of the surrounding object 17 is anticipated, and thus the graphic object 14 is displayed at a display position 15 that matches the relative position of the surrounding object 17 at this output time, that is, the target relative position between object 14 and surrounding object 17 in FIG the output device 12 results. At the same time, the method makes it possible to carry out the image calculation on the basis of the transmission latency of obsolete observation values 22, without the temporal synchronization deteriorating. Thus, the desired superimposition of the graphic object 14 on the AR display device 12 with real environment objects 17 of course results in multiple graphic objects 14 for several surrounding objects 17 may be provided. In addition, it is possible to adjust and correct the deviation between reality and augmented display content. For the use of the method, the following conditions can be created. The overall system 10 receives a global, synchronized (relative) time, this can be realized for example by IEEE1588 / IEC61588 protocols. The raw sensor data 20 or the fused sensor data 21 can be timestamped 23 of the global time then be provided. After starting or booting up system 10, the synchronized time is available.

Nach der Initialisierung des Grafik-Programmmoduls in der Steuereinrichtung 13, beispielsweise einem Infotainmentsystem (Informations-After the initialization of the graphics program module in the control device 13, for example an infotainment system (information

Unterhaltungssystem) des Kraftfahrzeugs 11 wird mit jedem V-Sync-Impuls zu den V-Sync-Zeitpunkten 28 die globale Uhrzeit ausgelesen und zwi schengespeichert Da die Bildausgabe in der AR-Anzeigeeinrichtung 12 immer mit einer festen Aktualisierungsrate erfolgt, ist somit auch der Zeit- punkt der Ausgabe des nächsten, zukünftigen Bildes bekannt. Diese erfolgt immer um 1/Aktualisierungsrate oder 1 /framerateversetzt zum letzten V- Sync-Impuls. Dementsprechend kann der Ausgabezeitpunkt für die Ausgabe des nächsten Bilds berechnet und zwischengespeichert werden. Dement sprechend gilt für den nächsten Ausgabezeitpunkt: T_ausgabe= T_vsync + 1 /framerate, wobei T_vsync der Ausgabezeitpunkt des V-Sync-Impules und framereite die Aktualisierungsrate ist. Entertainment system) of the motor vehicle 11, the global time is read out and buffered with each V sync pulse at the V sync times 28. Since the image output in the AR display device 12 always takes place at a fixed update rate, the time point of the output of the next, future image known. This is always done at 1 / refresh rate or 1 / frame rate off the last V sync pulse. Accordingly, the output timing for the output of the next image can be calculated and buffered. Accordingly, for the next output time, T_output = T_vsync + 1 / framerate, where T_vsync is the output time of the V-sync pulse and the refresh rate is framereite.

Nun stehen dem System ab T_vsync dann 1 /framerate pro Sekunde zur Verfügung, um das Bild zu berechnen, welches zum Zeitpunkt T_ausgabe ausgegeben werden soll. Es ist dabei unerheblich, wann genau die Berech- nung und Generierung des Bildinhaltes des grafischen Objekts erfolgt, da die Bildausgabe immer nur zum festen, nächsten Ausgabezeitpunkt erfolgt. Das bietet den Vorteil, dass die Ressourcen für die Berechnung dem System 10 flexibel zugewiesen werden können. Now the system has 1 / framerate per second available from T_vsync to calculate the image, which should be output at the time T_ausgabe. It does not matter when exactly the calculation and generation of the image content of the graphical object takes place, since the image output always takes place only at the fixed, next output time. This offers the advantage that the resources for the calculation can be flexibly assigned to the system 10.

Die Steuereinrichtung 13 kann nun die Grafikdaten für den künftigen Ausga bezeitpunkt T_ausgabe berechnen. Mit anderen Worten kann das grafische Objekt und dessen Anzeigeposition berechnet werden. Mit Hilfe der Zeit stempel 23 der Sensordaten 20 und/oder der Sensorfusionsdaten 21 sowie mit Hilfe einer Bewegungsprädiktion werden die Koordinaten des anzuzei- genden Objekts 14 oder der anzuzeigenden Objekte, das heißt die jeweilige Anzeigeposition oder Anzeigeposition, so extrapoliert, dass sich diese zum Ausgabezeitpunkt T_ausgabe mit einem realen Umgebungsobjekt 17 über decken. Zum Ausgabezeitpunkt (das heißt am Zeitpunkt V-Sync) werden die berech neten Grafikdaten des zumindest einen grafischen Objekts 14 mittels der AR-Anzeiqeeinrichtunq 12 anqezeiqt und das Verfahren wiederholt sich zyklisch. The control device 13 can now calculate the graphics data for the future output time T_output. In other words, the graphic object and its display position can be calculated. With the aid of the time stamp 23 of the sensor data 20 and / or the sensor fusion data 21 as well as with the aid of a motion prediction, the coordinates of the object 14 to be displayed or of the objects to be displayed, that is to say the respective display position or display position, are extrapolated such that they become the output time T_ausgabe with a real environment object 17 cover over. At the time of dispensing (that is, at time V-sync), the calculated graphic data of the at least one graphic object 14 is displayed by means of the AR display 12, and the process repeats cyclically.

Falls zum Zeitpunkt der Ausgabe (V-Sync) noch keine Grafikdaten berechnet worden sind, gilt das System 10 als überlastet. In diesem Fall kann entspre chend eine Fehlermeldung generiert werden, um entsprechende Optimie- rungsmaßnahmen einzuleiten. Eine solche Optimierungsmaßnahme kann beispielsweise das Anhalten oder Abschalten eines anderen Programmmo duls vorsehen. If no graphics data has been calculated at the time of output (V sync), the system 10 is considered overloaded. In this case, an error message can be generated accordingly to initiate appropriate optimization measures. Such an optimization measure may, for example, provide for stopping or switching off another program module.

Insgesamt zeigen die Beispiele, wie durch die Erfindung ein Verfahren für die Synchronisation eines AR-Anzeigeinhalts mit Sensordaten in einem verteil ten System bereitgestellt werden kann. Overall, the examples show how the invention can provide a method for synchronizing an AR display content with sensor data in a distributed system.

Claims

PATENTANSPRÜCHE: Verfahren zum Überlagern eines virtuellen graphischen Objekts (14) über eine reale Umgebung (16) mittels einer AR-Anzeigeeinrichtung (12), wobei bei dem Verfahren durch eine Steuereinrichtung (13) eineA method for superimposing a virtual graphic object (14) over a real environment (16) by means of an AR display device (12), wherein in the method by a control device (13) a Anzeigeposition (15) des graphischen Objekts (14) auf der AR- Anzeigeeinrichtung (12) zu aufeinander folgenden, vorbestimmten Aus gabezeitpunkten (28) aktualisiert wird, wobei die Anzeigeposition (15) jeweils auf der Grundlage von Beobachtungswerten (22), welche je- weils die reale Umgebung (16) und/oder eine Relativposition der AR-Display position (15) of the graphical object (14) on the AR display device (12) is updated at successive predetermined dispensing times (28), the display position (15) being based on respective observation values (22). because the real environment (16) and / or a relative position of the AR Anzeigeeinrichtung (12) bezüglich Umgebung (16) beschreiben, einge stellt wird, Display device (12) with respect to environment (16) describe is inserted, dadurch gekennzeichnet, dass characterized in that die Beobachtungswerte (22) mit einem jeweiligen Zeitstempel (23) ver- sehen werden, wobei der jeweilige Zeitstempel (23) einen jeweiligenthe observation values (22) are provided with a respective time stamp (23), the respective time stamp (23) having a respective time stamp (23) Beobachtungszeitpunkt, zu welchem der zugehörige Beobachtungswert (22) erfasst wurde, angibt, und anhand des jeweiligen Zeitstempels (23) zumindest eines der Beobachtungswerte (22) für den nächsten, zukünf tigen Ausgabezeitpunkt (28) zumindest ein zukünftiger Beobachtungs- wert (22‘) und/oder die nächste, zukünftige Anzeigeposition (15‘) extra poliert wird Verfahren nach Anspruch 1 , wobei der jeweilige Ausgabezeitpunkt (28) durch ein V-Sync-Signal der AR-Anzeigeeinrichtung (12) bestimmt wird, durch welches ein Bildaufbau der AR-Anzeigeeinrichtung (12) zyklisch gestartet wird Verfahren nach einem der vorhergehenden Ansprüche, wobei eine jeweilige Zeitgebereinheit (27) zumindest einer Beobachtungseinrich- tung (B), durch welche jeweils zumindest einige der Beobachtungswer te (22) erzeugt werden, und eine Zeitgebereinheit (27) der Steuerein richtung (13) miteinander mittels Synchronisierungsdaten (26) zeitlich synchronisiert werden. 4 Verfahren nach Anspruch 3, wobei die Synchronisierungsdaten (26) mittels eines Time-Precision-Protocols erzeugt und/oder übertragen werden 5 Verfahren nach einem der vorhergehenden Ansprüche, wobei die Be obachtungswerte (22) zusammen mit ihrem jeweiligen Zeitstempei (23) über ein Datennetzwerk (25) und/oder über eine Gatewayeinrichtung (25) zu der Steuereinrichtung (13) übertragen werden, wobei das Über tragen einen Übertragungslatenz aufweist Observation time at which the associated observation value (22) has been detected, and based on the respective time stamp (23) of at least one of the observation values (22) for the next, future output time (28) at least one future observation value (22 ') and / or the next, future display position (15 ') is extrapolated. A method according to claim 1, wherein the respective output time (28) is determined by a V-sync signal of the AR display (12), by which an image structure of the AR Method according to one of the preceding claims, wherein a respective timer unit (27) at least one observation device (B), by which at least some of the Beobachtungswer te (22) are generated, and a timer unit (27 ) of the Steuerein direction (13) with each other by means of synchronization data (26) are synchronized in time. A method according to claim 3, wherein the synchronization data (26) is generated and / or transmitted by means of a time-precision protocol. 5. The method according to one of the preceding claims, wherein the observation values (22) together with their respective Zeitstempei (23) via a Data network (25) and / or via a gateway device (25) to the control device (13) are transmitted, wherein the carry over a transmission latency 6 Verfahren nach einem der vorhergehenden Ansprüche, wobei als jewei liger Beobachtungswert (22) eine jeweilige Position und/oder Ge schwindigkeit und/oder Beschleunigung zumindest eines Umgebungs objekts (17) der Umgebung (16) und/oder der AR-Anzeigeeinrichtung (12) für das Einstellen der zukünftigen Anzeigeposition (15‘) verwendet werden 6. Method according to claim 1, wherein a respective position and / or speed and / or acceleration of at least one environment object (17) of the environment (16) and / or the AR display device (12) is determined as the respective observation value (22). for setting the future display position (15 ') 7 Verfahren nach einem der vorhergehenden Ansprüche, wobei als Be obachtungswerte (22) Sensorwerte (20) aus zumindest einem Sensor (18) und/oder fusionierte Sensorwerte (21 ) verwendet werden. 7. Method according to one of the preceding claims, wherein sensor values (20) from at least one sensor (18) and / or fused sensor values (21) are used as observation values (22). 8 Verfahren nach einem der vorhergehenden Ansprüche, wobei das Extrapolieren mittels eines Kalmanfilters durchgeführt wird 9 Kraftfahrzeug (11 ) mit einer AR-Anzeigeeinrichtung (12) und mit einer8. Method according to one of the preceding claims, wherein the extrapolation is carried out by means of a Kalman filter 9 motor vehicle (11) with an AR display device (12) and with a Steuereinrichtung (13) für die AR-Anzeigeeinrichtung (12) und mit zu mindest einer Beobachtungseinrichtung (B) zum Erzeugen von Be obachtungswerten (22), welche jeweils eine reale Umgebung (16) des Kraftfahrzeugs (11 ) und/oder eine Relativposition der AR- Anzeigeeinrichtung (12) zur Umgebung (16) beschreiben, Control device (13) for the AR display device (12) and with at least one observation device (B) for generating Be obachtungswerten (22), each having a real environment (16) of the motor vehicle (11) and / or a relative position of the AR Describe the display device (12) to the environment (16), dadurch gekennzeichnet, dass  characterized in that das Kraftfahrzeug (11 ) dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.  the motor vehicle (11) is adapted to carry out a method according to one of the preceding claims.
PCT/EP2019/051827 2018-02-05 2019-01-25 Method for superimposing a virtual graphical object on a real environment by means of an ar display device for augmented reality, and motor vehicle Ceased WO2019149625A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018201661.5 2018-02-05
DE102018201661.5A DE102018201661A1 (en) 2018-02-05 2018-02-05 A method for superimposing a virtual graphic object on a real environment by means of an augmented reality AR display device and motor vehicle

Publications (1)

Publication Number Publication Date
WO2019149625A1 true WO2019149625A1 (en) 2019-08-08

Family

ID=65241238

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/051827 Ceased WO2019149625A1 (en) 2018-02-05 2019-01-25 Method for superimposing a virtual graphical object on a real environment by means of an ar display device for augmented reality, and motor vehicle

Country Status (2)

Country Link
DE (1) DE102018201661A1 (en)
WO (1) WO2019149625A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150062000A1 (en) 2013-08-29 2015-03-05 Seiko Epson Corporation Head mounted display apparatus
US20150268473A1 (en) 2014-03-18 2015-09-24 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
US20150379772A1 (en) * 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays
US20160055671A1 (en) * 2014-08-22 2016-02-25 Applied Research Associates, Inc. Techniques for Enhanced Accurate Pose Estimation
CN105913371A (en) 2015-11-16 2016-08-31 乐视致新电子科技(天津)有限公司 System optimization method for virtual reality application delay and system optimization device thereof
WO2017047178A1 (en) * 2015-09-16 2017-03-23 ソニー株式会社 Information processing device, information processing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2933707B1 (en) * 2014-04-14 2017-12-06 iOnRoad Technologies Ltd. Head mounted display presentation adjustment
CN106575347B (en) * 2014-06-10 2020-09-25 标记与寻找无线解决方案有限公司 Radio frequency identification reader and antenna system for locating an item using a mobile device
US10122998B2 (en) * 2015-04-30 2018-11-06 Seiko Epson Corporation Real time sensor and method for synchronizing real time sensor data streams
US10365712B2 (en) * 2016-05-17 2019-07-30 Google Llc Object tracking in a head mounted reference frame in an augmented and/or virtual reality environment

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150062000A1 (en) 2013-08-29 2015-03-05 Seiko Epson Corporation Head mounted display apparatus
US20150268473A1 (en) 2014-03-18 2015-09-24 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
US20150379772A1 (en) * 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays
US20160055671A1 (en) * 2014-08-22 2016-02-25 Applied Research Associates, Inc. Techniques for Enhanced Accurate Pose Estimation
WO2017047178A1 (en) * 2015-09-16 2017-03-23 ソニー株式会社 Information processing device, information processing method, and program
EP3352050A1 (en) * 2015-09-16 2018-07-25 Sony Corporation Information processing device, information processing method, and program
CN105913371A (en) 2015-11-16 2016-08-31 乐视致新电子科技(天津)有限公司 System optimization method for virtual reality application delay and system optimization device thereof

Also Published As

Publication number Publication date
DE102018201661A1 (en) 2019-08-08

Similar Documents

Publication Publication Date Title
EP3145793B1 (en) Parking assist system for a motor vehicle
DE102017209328B4 (en) Device for synchronizing clocks in control units and control unit
EP3318057B1 (en) Decentrally synchronized multi-sensor system
EP3615891B1 (en) Method and device for generating dynamic indications relating to a modification of route guidance
EP3547244B1 (en) Method, device and computer readable storage medium with instructions for providing content for display for a passenger of a motor vehicle
DE102013000273A1 (en) Apparatus and method for displaying information on a display device in a vehicle
EP3637205A1 (en) Image activation on an operator station client
EP1211070A2 (en) Device and method for synchronizing processes running in several units
DE112022005489T5 (en) DATA SYNCHRONIZATION DEVICE AND ITS METHOD AND COMPUTER-READABLE STORAGE MEDIUM
DE112013007599T5 (en) Display control device, meter system and display control method
DE102009027613A1 (en) Method for operating a driver assistance system
DE102007045774B4 (en) Method and device for synchronizing an image display in a motor vehicle
DE102015209448A1 (en) Method for displaying safety-relevant display elements
WO2019149625A1 (en) Method for superimposing a virtual graphical object on a real environment by means of an ar display device for augmented reality, and motor vehicle
DE102006009010B4 (en) Apparatus and method for outputting different images on at least two displays
EP3182652B1 (en) Method for periodic measurement of measured values in a real time computer system and real time computer system
DE10333934A1 (en) Synchronization of data processing units
EP1134551A1 (en) Navigation system
DE102021117471A1 (en) Distributed control over a lossy, variable-delay communication link
DE10010310B4 (en) Method and device for displaying a geographical image on a screen
EP2872943B1 (en) Device for operating multiple optical display devices of a vehicle
DE102010029839B4 (en) control system
DE102009000581A1 (en) Synchronization of two communication networks of an electronic data processing system
DE102013101519B4 (en) Synchronous rendering
EP2301175A1 (en) Control network for motor vehicles

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19702230

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19702230

Country of ref document: EP

Kind code of ref document: A1