DE102024000796A1 - Method for providing map data for motor vehicles and system - Google Patents
Method for providing map data for motor vehicles and system Download PDFInfo
- Publication number
- DE102024000796A1 DE102024000796A1 DE102024000796.2A DE102024000796A DE102024000796A1 DE 102024000796 A1 DE102024000796 A1 DE 102024000796A1 DE 102024000796 A DE102024000796 A DE 102024000796A DE 102024000796 A1 DE102024000796 A1 DE 102024000796A1
- Authority
- DE
- Germany
- Prior art keywords
- agents
- aerial photograph
- motor vehicle
- latent
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Bereitstellung von Kartendaten (A) einer Verkehrsszene für Kraftwagen (10), bei welchem zur Bewertung der Kartendaten (A) eine vergangene Bewegung des Kraftwagens (10), Luftaufnahmen (14) und Informationen von in einer Umgebung des Kraftwagens (10) umliegenden Agenten (12) miteinander verglichen werden,wobei ein Diskriminator (2) verwendet wird, der eine Encoder-Decoder Architektur aufweist, wobei ein Encoder (3) die vergangene Bewegung aller erkannten umliegenden Agenten (12) und die Bewegung (X1*, X2, X3, X4) des Kraftwagens (10) in ein latentes Encoding umwandelt und die aktuelle Luftaufnahme (14) in ein anderes latentes Encoding umwandelt, diese latente Encodings fusioniert werden, um ein latentes Encoding pro Agent (12) mit Informationen über die Luftaufnahme (14) zu erstellen, ein Graph Neural Network verwendet wird, um Informationen zwischen den Agenten (12) zu übertragen und einen Featurevektor für die gesamte Verkehrsszene zu erstellen, und ein Decoder (4) angewendet wird, um zu klassifizieren, ob die Bewegungen zur Luftaufnahme (14) passen. Ferner betrifft die Erfindung ein System.The invention relates to a method for providing map data (A) of a traffic scene for motor vehicles (10), in which a past movement of the motor vehicle (10), aerial photographs (14) and information from agents (12) surrounding the motor vehicle (10) are compared with one another to evaluate the map data (A), a discriminator (2) being used which has an encoder-decoder architecture, an encoder (3) converting the past movement of all detected surrounding agents (12) and the movement (X1*, X2, X3, X4) of the motor vehicle (10) into a latent encoding and converting the current aerial photograph (14) into another latent encoding, these latent encodings being merged to create a latent encoding per agent (12) with information about the aerial photograph (14), a graph neural network being used to transmit information between the agents (12) and to create a feature vector for the entire traffic scene, and a decoder (4) is used to classify whether the movements match the aerial photograph (14). The invention further relates to a system.
Description
Die Erfindung betrifft ein Verfahren zur Bereitstellung von Kartendaten für Kraftwagen nach Patentanspruch 1 sowie ein erfindungsgemäßes System.The invention relates to a method for providing map data for motor vehicles according to patent claim 1 and to a system according to the invention.
Die Verhaltensplanung automatisierter Fahrzeuge und die Prädiktion von am Verkehr teilnehmenden Fahrzeugen sind essenzielle Bestandteile autonomer Fahrzeuge.The behavior planning of automated vehicles and the prediction of vehicles participating in traffic are essential components of autonomous vehicles.
Aufgabe der Erfindung ist es eine Konsistenz von Daten für Verkehrskarten wenigstens teilweise zu verbessern.The object of the invention is to at least partially improve the consistency of data for traffic maps.
Diese Aufgabe wird mittels eines Verfahrens mit den Merkmalen des Patentanspruchs 1 sowie mittels eines erfindungsgemäßen Systems gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen sind Gegenstand der abhängigen Ansprüche.This object is achieved by means of a method having the features of patent claim 1 and by means of a system according to the invention. Advantageous embodiments and further developments are the subject of the dependent claims.
Ein Aspekt der Erfindung betrifft ein Verfahren zur Bereitstellung von Kartendaten für Kraftwagen, insbesondere wenigstens teilautonome Kraftwagen, bei welchem zur Bewertung der Kartendaten und somit einer Verkehrsszene eine vergangene Bewegung des Kraftwagens, Luftaufnahmen und Informationen von in einer Umgebung des Kraftwagens umliegenden Agenten miteinander verglichen werden. Agenten sind hierbei Objekte oder bewegliche Objekte, die wenigstens eine Datenerfassung ermöglichen und/oder dessen Daten und/oder physische Daten für das Verfahren anwendbar sind.One aspect of the invention relates to a method for providing map data for motor vehicles, in particular at least partially autonomous motor vehicles, in which a past movement of the motor vehicle, aerial photographs and information from agents in the vicinity of the motor vehicle are compared with one another in order to evaluate the map data and thus a traffic scene. Agents are objects or moving objects that enable at least one data acquisition and/or whose data and/or physical data are applicable to the method.
Hierbei ist es vorgesehen, dass ein Diskriminator verwendet wird, der eine Encoder-Decoder Architektur aufweist, wobei der Encoder die vergangene Bewegung aller erkannten umliegenden Agenten und die Bewegung des Kraftwagens in ein erstes latentes Encoding umwandelt und die aktuelle Luftaufnahme in ein anderes zweites latentes Encoding umwandelt. Diese latenten Encodings werden fusioniert, um ein latentes Encoding pro Agent mit Informationen über die Luftaufnahme zu erstellen. Anschließend wird ein Graph Neural Network verwendet, um Informationen zwischen den Agenten zu übertragen und einen Featurevektor für die gesamte Verkehrsszene zu erstellen, wodurch Beziehungen und Abhängigkeiten zwischen den verschiedenen Agenten in der zu bewertenden Verkehrsszene modelliert und/oder berücksichtigt werden. Schließlich wird ein Decoder angewendet wird, um zu klassifizieren, ob die Bewegungen zur Luftaufnahme passen und somit die Kartendaten zu bewerten und/oder zu bestätigen.Here, it is envisaged that a discriminator is used that has an encoder-decoder architecture, where the encoder converts the past movement of all detected surrounding agents and the movement of the motor vehicle into a first latent encoding and converts the current aerial photograph into another second latent encoding. These latent encodings are fused to create a latent encoding per agent with information about the aerial photograph. A graph neural network is then used to transfer information between the agents and create a feature vector for the entire traffic scene, thereby modeling and/or taking into account relationships and dependencies between the different agents in the traffic scene to be evaluated. Finally, a decoder is applied to classify whether the movements match the aerial photograph and thus evaluate and/or confirm the map data.
In anderen Worten soll eine Möglichkeit bereitgestellt werden, durch die eine Erstellung von Kartendaten mit sicheren Daten ermöglicht wird.In other words, the aim is to provide a way to create map data using secure data.
Im Stand der Technik haben sich lernbasierte Methoden zur Verhaltensplanung und Prädiktion als besonders genau herausgestellt. Dies bedeutet, dass auf diversen Benchmarks die lernbasierten Ansätze dominieren. Ein Kernelement solcher Ansätze ist die Inkludierung der statischen Infrastruktur. Üblicherweise wird die statische Infrastruktur durch sogenannte High Definition Karten bzw. HD Karten repräsentiert. Diese HD Karten sind aufwendig zu erlangen: Von einer Fahrzeugflotte müssen Aufnahmen bspw. mit mehreren Sensoren von Straßen durchgeführt werden, im Anschluss werden Algorithmen dazu verwendet, eine erste Version der HD Karte zu erstellen, und final muss eine menschliche Korrektur durchgeführt werden. Dies ist teuer und aufwendig.In the state of the art, learning-based methods for behavior planning and prediction have proven to be particularly accurate. This means that learning-based approaches dominate on various benchmarks. A core element of such approaches is the inclusion of the static infrastructure. The static infrastructure is usually represented by so-called high definition maps or HD maps. These HD maps are complex to obtain: A fleet of vehicles must take pictures of roads, for example using several sensors, then algorithms are used to create a first version of the HD map, and finally a human correction must be carried out. This is expensive and time-consuming.
Eine Alternative ist die Verwendung von sogenannten „Aerial Images“, also Luftaufnahmen. Luftaufnahmen können beispielsweise von Satelliten, Flugzeugen oder Drohnen oder weiterer Flugobjekte angefertigt werden. Luftaufnahmen sind hierbei kostengünstig und global verfügbar.An alternative is the use of so-called “aerial images”. Aerial photographs can be taken by satellites, airplanes, drones or other flying objects. Aerial photographs are inexpensive and available globally.
Demnach ist es möglich, eine Karte mit Luftaufnahmen zu erstellen. Für eine gegebene Verkehrsszene wird ein Teil der Karte ausgeschnitten. Dieser Ausschnitt zeigt nur einen Bereich von bspw. 100×100 Meter, um das automatisierte Fahrzeug herum. Beispielsweise befindet sich der Ort, an dem sich das automatisierte Fahrzeug zum aktuellen Zeitpunkt befindet, zentral in diesem Ausschnitt. Der Ausschnitt wird auch beispielsweise von einem lernbasierten Planungs- oder Prädiktionsmodell verarbeitet. Hierzu können beispielsweise CNNs bzw. Convolutional Neural Networks oder Vision Transformer verwendet werden.Accordingly, it is possible to create a map using aerial photographs. For a given traffic scene, a part of the map is cut out. This section only shows an area of, for example, 100×100 meters around the automated vehicle. For example, the location where the automated vehicle is currently located is centrally located in this section. The section is also processed, for example, by a learning-based planning or prediction model. For this purpose, CNNs or convolutional neural networks or vision transformers can be used, for example.
Luftaufnahmen zeigen jedoch nicht immer die aktuellen und/oder korrekten Daten und somit auch korrekten Straßen an. Beispielsweise kann eine Verkehrsszene in einem Tunnel stattfindet. Die Luftaufnahme zeigt in diesem Fall nur einen Berg. Beispielsweise kann auch eine Verkehrsszene in einem Bereich stattfindet, indem die eigentliche Straße, auf der das automatisierte Fahrzeug bzw. der Kraftwagen fährt, durch andere Straßen verdeckt ist, welche entsprechend in vertikaler Ausrichtung oberhalb verlaufen. In diesem zweiten Beispiel kann das lernbasierte Modell möglicherweise die verdeckenden Straßen falsch interpretiert und Daten bzw. Informationen einer falsch zugewiesenen Straße für jegliche Planungs- oder Prädiktionsaufgaben und somit für die Bereitstellung von Kartendaten verwenden.However, aerial photographs do not always show the current and/or correct data and thus also the correct roads. For example, a traffic scene may take place in a tunnel. In this case, the aerial photograph only shows a mountain. For example, a traffic scene may also take place in an area where the actual road on which the automated vehicle or motor vehicle is driving is obscured by other roads that run vertically above it. In this second example, the learning-based model may misinterpret the obscuring roads and use data or information from an incorrectly assigned road for any planning or prediction tasks and thus for providing map data.
Demnach ist es vorgesehen, ein Verfahren bereitzustellen und somit bspw. auch ein Modell erzeugen, das in der Lage ist, selbständig zu erkennen, dass die Luftaufnahme nicht passend ist und diese Informationen dann an die Planungs- oder Prädiktionskomponente weiterleitet. In andere Worten wird ein Verfahren zur Bereitstellung von Kartendaten für Kraftwagen bereitgestellt, welches diese Kartendaten auch überprüft.Accordingly, the intention is to provide a method and thus, for example, to create a model that is able to independently recognize that the aerial photograph is not suitable and then forwards this information to the planning or prediction component. In other words, a method for providing map data for motor vehicles is provided, which also checks this map data.
Der hierfür entwickelte Lösungsansatz basiert auf einem Diskriminator, welcher das Klassifikationsproblem löst, indem die vergangene Bewegung des automatisierten Fahrzeugs bzw. Kraftwagens und umliegender, durch die Perzeption erkannten Agenten wie bspw. Fahrzeuge bzw. Kraftwagen, Fußgänger usw. mit den extrahierten Luftaufnahmen überprüft wird.The solution approach developed for this purpose is based on a discriminator, which solves the classification problem by checking the past movement of the automated vehicle or motor vehicle and surrounding agents recognized by perception, such as vehicles or motor vehicles, pedestrians, etc., with the extracted aerial photographs.
Der Diskriminator nutzt erfindungsgemäß eine Encoder-Decoder-Architektur.According to the invention, the discriminator uses an encoder-decoder architecture.
Bei der Encoder-Komponente werden die vergangenen Bewegungen aller erfassten umliegenden Agenten sowie des automatisierten Fahrzeugs bzw. Kraftwagen durch einen Zeitreihenencoder codiert. Das Ergebnis ist ein latentes Encoding pro Agent in der Verkehrsszene. Parallel dazu erfolgt die Codierung der aktuellen Luftaufnahme mittels eines Bildencoders. Diese beiden Encodings werden fusioniert, wobei verschiedene Methoden wie Konkatenation oder Cross-Attention angewendet werden können. Dadurch entsteht ein weiteres latentes Encoding pro Agent, das bereits Informationen über die Luftaufnahme enthält. Anschließend wird bspw. ein Graph erstellt, in dem jeder Agent als Knoten dargestellt wird. Die Merkmale der Knoten sind die latenten Agentenmerkmale. Ein Graph Neural Network führt Message-Passing durch, um den Austausch von Informationen zwischen den Knoten zu ermöglichen. Ein Readout-Operator aggregiert die Merkmale der Knoten zu einem einzelnen Featurevektor, der die gesamte Verkehrsszene beschreibt.In the encoder component, the past movements of all recorded surrounding agents as well as the automated vehicle or motor vehicle are encoded by a time series encoder. The result is a latent encoding per agent in the traffic scene. In parallel, the current aerial photograph is encoded using an image encoder. These two encodings are merged, whereby various methods such as concatenation or cross-attention can be applied. This creates another latent encoding per agent, which already contains information about the aerial photograph. A graph is then created, for example, in which each agent is represented as a node. The characteristics of the nodes are the latent agent characteristics. A graph neural network performs message passing to enable the exchange of information between the nodes. A readout operator aggregates the characteristics of the nodes into a single feature vector that describes the entire traffic scene.
Der Decoder wendet auf den resultierenden Featurevektor eine Klassifikation an, um zu entscheiden, ob die codierten Bewegungen mit den Luftaufnahmen übereinstimmen. Dabei wird eine Sigmoid-Aktivierungsfunktion verwendet, um eine Wahrscheinlichkeit als Ausgabe zu erzeugen.The decoder applies a classification to the resulting feature vector to decide whether the encoded motions match the aerial photographs, using a sigmoid activation function to produce a probability as output.
Die Fähigkeit des Modells, diese Klassifikation durchzuführen, hängt entscheidend vom Trainingsprozess und dem verwendeten Datensatz ab.The ability of the model to perform this classification depends crucially on the training process and the dataset used.
Der verwendete Datensatz besteht aus Paaren von Eingabedaten und Ausgabelabels. Zu den Eingabedaten gehören die in der Umgebung erkannten Agenten, die vergangene Bewegung des automatisierten Fahrzeugs und die Luftaufnahme. Das Ausgabelabel ist bspw. binär. Es sagt aus, ob die erkannten Agenten und das automatisierte Fahrzeug konsistent zur Luftaufnahme sind, wodurch bspw. der Wert 1 ausgegebene wird oder nicht und somit der Wert 0 ausgegebenen.The dataset used consists of pairs of input data and output labels. The input data includes the agents detected in the environment, the past movement of the automated vehicle and the aerial photograph. The output label is binary, for example. It states whether the detected agents and the automated vehicle are consistent with the aerial photograph, which results in the value 1 being output or not, for example, and thus the value 0 being output.
Die Datensatzerstellung erfolgt so, dass automatisierte die Luftaufnahmen zu einigen Verkehrsszenen erstellt werden. Die vergangene Bewegung der Agenten und des automatisierten Fahrzeugs bzw. Kraftwagens werden in dieser Luftaufnahme abgebildet, insbesondere unter Anwendung eines gleichen Koordinatensystems.The dataset is created by automatically creating aerial photographs of some traffic scenes. The past movement of the agents and the automated vehicle or motor vehicle is depicted in this aerial photograph, in particular by using the same coordinate system.
Die Verkehrsszenen werden manuell bzw. händisch durchgegangen und überprüft, ob die Bewegung sinnvoll zu den auf den Luftaufnahmen sichtbaren Straßen passt. Dieser visuelle Test wird durchgeführt, da alles bereits in das gleiche Koordinatensystem übertragen wurde. Durch diese manuelle Überprüfung werden die Labels erstellt, wobei 1 für konsistent, 0 für nicht konsistent ausgegeben werden kann.The traffic scenes are manually checked to see if the movement fits sensibly with the roads visible in the aerial photographs. This visual test is carried out because everything has already been transferred to the same coordinate system. This manual check creates the labels, with 1 being output for consistent and 0 for inconsistent.
Ein Problem hierbei ist, dass vermutlich viel mehr Positivbeispiele (konsistent) entstehen werden als Negativbeispiele (nicht konsistent). Dies erfolgt deswegen, weil eine Verdeckung von Straßen nur selten auftritt.One problem here is that there will probably be many more positive examples (consistent) than negative examples (inconsistent). This is because street occlusion rarely occurs.
Daher können künstlich Negativbeispiele erstellt werden, insbesondere ohne manuellen Aufwand. Hierfür werden zufällig Bewegungen der Agenten und des automatisierten Fahrzeugs mit einer Luftaufnahme aus einer anderen Region kombiniert. Die Verkehrsszene erhält automatisch immer das Label „0“ als Negativbeispiel.Therefore, artificial negative examples can be created, especially without manual effort. For this purpose, movements of the agents and the automated vehicle are randomly combined with an aerial photograph from another region. The traffic scene is always automatically labeled "0" as a negative example.
Im Anschluss wird das oben genannte Encoder-Decoder-Modell bzw. Diskriminator mit dem erstellten Datensatz trainiert. Hierfür werden Methoden des maschinellen Lernens verwendet. Mittels Backpropagation werden die Gewichte im Encoder und Decoder angepasst. Die verwendete Loss-Funktion ist eine binäre Klassifikationsfehlerfunktion wie zum Beispiel Binary Cross Entropy.The encoder-decoder model or discriminator mentioned above is then trained with the created data set. Machine learning methods are used for this. The weights in the encoder and decoder are adjusted using backpropagation. The loss function used is a binary classification error function such as Binary Cross Entropy.
Der Diskriminator ist anschließend in der Lage zu klassifizieren, ob die vergangene Bewegung des automatisierten Fahrzeugs und der umliegenden durch die Wahrnehmung erkannten Agenten zur extrahierten Luftaufnahme passen.The discriminator is then able to classify whether the past movement of the automated vehicle and the surrounding agents detected by perception match the extracted aerial image.
Diese Informationen werden anschließend für einen lernbasierten Planer oder Prädiktor verwendet, welcher ebenfalls die Luftaufnahme als Eingabe kennt. Es soll nun die Möglichkeit gegeben werden, zu wissen, wann diese bekannten Eingaben unbrauchbar sind, um die Anwendung oder das Extrahieren falscher Merkmale zu vermeiden, bspw. Prädiktionen in falsche Richtungen, auf falsche Spuren usw.This information is then used for a learning-based planner or predictor, which also knows the aerial image as input. The aim is to provide the ability to know when these known inputs are useless in order to avoid applying or extracting incorrect features, e.g. Predictions in wrong directions, on wrong tracks, etc.
Sobald der Diskriminator eine Wahrscheinlichkeit von unter 50% ausgibt, wird die Luftaufnahme maskiert. Das bedeutet, dass jeder Pixel den Wert „0“ erhält. Andernfalls wird die Luftaufnahme unverändert übernommen. Zusätzlich wird dem lernbasierten Planer oder Prädiktor im Encoder auch direkt eine binäre „0“ oder „1“ übergeben, je nachdem ob der Diskriminator eine Wahrscheinlichkeit von unter 50% oder über 50% ausgibt.As soon as the discriminator outputs a probability of less than 50%, the aerial photograph is masked. This means that every pixel receives the value "0". Otherwise, the aerial photograph is adopted unchanged. In addition, a binary "0" or "1" is also passed directly to the learning-based planner or predictor in the encoder, depending on whether the discriminator outputs a probability of less than 50% or more than 50%.
Zusammenfassend umfasst die Erfindung das Training eines Diskriminators, der darauf spezialisiert ist, zu bestimmen, ob die vergangene Bewegung des automatisierten Fahrzeugs bzw. Kraftwagens und der umliegenden, durch die Wahrnehmung erkannten Agenten wie Fahrzeuge und Fußgänger zur extrahierten Luftaufnahme passen. Die Ausgabe dieses Diskriminators kann dann verwendet werden, um lernbasierte Planungs- oder Prädiktionsmodelle zu verbessern.In summary, the invention includes training a discriminator that is specialized in determining whether the past movement of the automated vehicle and the surrounding perceptually detected agents such as vehicles and pedestrians match the extracted aerial image. The output of this discriminator can then be used to improve learning-based planning or prediction models.
Die Vorteile dieser Methode sind vielfältig, bspw. wird durch die Überprüfung der Luftaufnahmen und die Vermeidung der Extrahierung falscher Merkmale die Planung und Prädiktion verbessert. Dies geschieht mit minimalem Labelaufwand, da nur eine visuelle Überprüfung erforderlich ist und Negativbeispiele automatisch generiert werden können. Das Training ist einfach, und der Diskriminator kann möglicherweise sogar für mehrere Module gleichzeitig verwendet werden. Darüber hinaus können bestehende lernbasierte Planungs- und Prädiktionsmodelle mit nur geringfügigen Anpassungen weiterverwendet werden.The advantages of this method are manifold, e.g. by checking the aerial images and avoiding the extraction of false features, planning and prediction are improved. This is done with minimal labeling effort, as only visual inspection is required and negative examples can be generated automatically. Training is simple, and the discriminator can potentially even be used for several modules at the same time. In addition, existing learning-based planning and prediction models can be reused with only minor adjustments.
Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels sowie anhand der Zeichnung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in der einzigen Figur/den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.Further advantages, features and details of the invention emerge from the following description of a preferred embodiment and from the drawing. The features and combinations of features mentioned above in the description as well as the features and combinations of features mentioned below in the description of the figures and/or shown alone in the single figure(s) can be used not only in the combination specified in each case, but also in other combinations or on their own, without departing from the scope of the invention.
Dabei zeigen:
-
1 zeigt ein System zur Bereitstellung von Kartendaten einer Karte für einen Kraftwagen.
-
1 shows a system for providing map data of a map for a motor vehicle.
In der Figur sind gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.In the figure, identical or functionally equivalent elements are provided with the same reference symbols.
Das System weist eine zentrale elektronische Recheneinrichtung 1 auf, die dazu ausgebildet ist, verschiedene Datenquellen zu integrieren und zu verarbeiten. Hierbei ist es vorgesehen, dass Entitäten des Systems wie der Kraftwagen 10, die Agenten 12 oder weitere Datenquelle mit der elektronischen Recheneinrichtung 1 datenübertragend, insbesondere kabellos gekoppelt sind. Die zentrale elektronische Recheneinrichtung 1 ermöglicht die Bewertung der Kartendaten A, indem sie eine vergangene Bewegung des Kraftwagens 10, Luftaufnahmen 14 und Informationen von in einer Umgebung des Kraftwagens 10 umliegenden Agenten 12 vergleicht.The system has a central electronic computing device 1, which is designed to integrate and process various data sources. It is provided that entities of the system such as the
Das System umfasst einen Diskriminator 2, der eine Encoder-Decoder-Architektur aufweist. Durch einen Encoder 3 können die vergangene Bewegung aller erkannten umliegenden Agenten 12 und die Bewegung des Kraftwagens 10 in ein latentes Encoding umgewandelt werden. Ebenso kann der Encoder 3 die aktuelle Luftaufnahme in ein anderes latentes Encoding umwandeln. Diese latenten Encodings können fusioniert werden, um ein latentes Encoding pro Agent 12 mit Informationen über die Luftaufnahme 14 zu erstellen.The system comprises a discriminator 2 having an encoder-decoder architecture. An encoder 3 can convert the past movement of all detected surrounding
Das System umfasst auch ein Graph Neural Network, das verwendet wird, um Informationen zwischen den Agenten 12 zu übertragen und einen Featurevektor für die gesamte Verkehrsszene zu erstellen. Das Graph Neural Network ermöglicht es, die Beziehungen und Abhängigkeiten zwischen den verschiedenen Agenten 12 in der Verkehrsszene zu modellieren und zu berücksichtigen.The system also includes a graph neural network that is used to transfer information between the
Schließlich umfasst das System einen Decoder 4, der dazu ausgebildet ist, um zu klassifizieren, ob die Bewegungen X1, X2, X3, X4 der Agenten 12 zur Luftaufnahme 14 passen. Der Decoder 4 spielt eine entscheidende Rolle bei der Bestätigung der Kartendaten und ermöglicht eine benötigte Konsistenz und Zuverlässigkeit der erfassten Daten. In der
Zusammenfassen schlägt die Erfindung eine Methode zur Verwendung von teilweise verdeckten Satellitenkarten mittels eines Diskriminators 2.In summary, the invention proposes a method for using partially obscured satellite maps by means of a discriminator 2.
BezugszeichenlisteList of reference symbols
- 11
- elektronische Recheneinrichtungelectronic computing device
- 22
- DiskriminatorDiscriminator
- 33
- EncoderEncoders
- 44
- Decoderdecoder
- 1010
- KraftwagenMotor vehicles
- 1212
- Agentagent
- 1414
- LuftaufnahmeAerial photography
- tt
- Zeitpunkttime
- TT
- TrajektorieTrajectory
- TxTx
- StraßeStreet
- X1, X2, X3, X4X1, X2, X3, X4
- BewegungenMovements
- X1*X1*
- BewegungMovement
- AA
- KartendatenMap data
Claims (6)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102024000796.2A DE102024000796A1 (en) | 2024-03-09 | 2024-03-09 | Method for providing map data for motor vehicles and system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102024000796.2A DE102024000796A1 (en) | 2024-03-09 | 2024-03-09 | Method for providing map data for motor vehicles and system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102024000796A1 true DE102024000796A1 (en) | 2024-05-08 |
Family
ID=90732064
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102024000796.2A Pending DE102024000796A1 (en) | 2024-03-09 | 2024-03-09 | Method for providing map data for motor vehicles and system |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102024000796A1 (en) |
-
2024
- 2024-03-09 DE DE102024000796.2A patent/DE102024000796A1/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102022201127B4 (en) | Method and computer program for characterizing future trajectories of road users | |
| WO2020048669A1 (en) | Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle | |
| EP4088224A1 (en) | Method for combining a plurality of data sets for generating a current lane model of a road and device for data processing | |
| EP3945338A2 (en) | Signal processing path, environment recognition device and method for validating an automated driving system | |
| DE102022208714A1 (en) | Computer-implemented system and method for semantic analysis of a scene | |
| EP4165370B1 (en) | Method for evaluating a digital map, and evaluation system | |
| DE102014207694A1 (en) | Method for evaluating the calculation of environment models by vehicles | |
| WO2022069088A1 (en) | Map plausibility test method | |
| EP3926304A1 (en) | Method for evaluating the accuracy of a position determination of a landmark and evaluation system | |
| DE102020213831A1 (en) | Method for determining an existence probability of a possible element in an environment of a motor vehicle, driver assistance system and motor vehicle | |
| DE102019206349A1 (en) | Method and computer program product for recognizing signal signs for traffic control of lane-bound vehicles and signal sign recognition system and lane-bound vehicle, in particular rail vehicle | |
| DE102024000796A1 (en) | Method for providing map data for motor vehicles and system | |
| DE102019217648A1 (en) | Graph-based method for the holistic fusion of measurement data | |
| DE102019215656B4 (en) | Method for evaluating a selected route, route evaluation system and computer program | |
| DE102020206134A1 (en) | Method for operating a motor vehicle | |
| EP4045876B1 (en) | Method for detecting a traffic map change with classifiers | |
| WO2015149799A1 (en) | Stereo camera system | |
| DE102022206348A1 (en) | Method and system for determining sensor and/or localization errors | |
| DE102018205146A1 (en) | Test method for high-resolution headlamps using AI | |
| DE102020117812A1 (en) | Method for providing a device for predicting errors when processing image data, device for predicting segmentation errors and motor vehicle | |
| DE102017207958B4 (en) | A method of generating training data for a machine learning based pattern recognition method for a motor vehicle, motor vehicle, method of operating a computing device, and system | |
| DE102023003979A1 (en) | System for detecting, predicting and/or monitoring a vehicle environment and for planning the movement of a vehicle | |
| DE102024002856A1 (en) | Method for annotating environmental data collected by a sensor system of a vehicle | |
| DE102019206348A1 (en) | Method and computer program product for recognizing signal signs for traffic control of track-bound vehicles as well as signal sign recognition system and track-bound vehicle, in particular rail vehicle | |
| DE102023207322A1 (en) | Method and system for predicting changes in a static environment of an automated vehicle compared to a digital map |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R230 | Request for early publication |