[go: up one dir, main page]

DE102024000796A1 - Method for providing map data for motor vehicles and system - Google Patents

Method for providing map data for motor vehicles and system Download PDF

Info

Publication number
DE102024000796A1
DE102024000796A1 DE102024000796.2A DE102024000796A DE102024000796A1 DE 102024000796 A1 DE102024000796 A1 DE 102024000796A1 DE 102024000796 A DE102024000796 A DE 102024000796A DE 102024000796 A1 DE102024000796 A1 DE 102024000796A1
Authority
DE
Germany
Prior art keywords
agents
aerial photograph
motor vehicle
latent
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102024000796.2A
Other languages
German (de)
Inventor
Julian Schmidt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102024000796.2A priority Critical patent/DE102024000796A1/en
Publication of DE102024000796A1 publication Critical patent/DE102024000796A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Bereitstellung von Kartendaten (A) einer Verkehrsszene für Kraftwagen (10), bei welchem zur Bewertung der Kartendaten (A) eine vergangene Bewegung des Kraftwagens (10), Luftaufnahmen (14) und Informationen von in einer Umgebung des Kraftwagens (10) umliegenden Agenten (12) miteinander verglichen werden,wobei ein Diskriminator (2) verwendet wird, der eine Encoder-Decoder Architektur aufweist, wobei ein Encoder (3) die vergangene Bewegung aller erkannten umliegenden Agenten (12) und die Bewegung (X1*, X2, X3, X4) des Kraftwagens (10) in ein latentes Encoding umwandelt und die aktuelle Luftaufnahme (14) in ein anderes latentes Encoding umwandelt, diese latente Encodings fusioniert werden, um ein latentes Encoding pro Agent (12) mit Informationen über die Luftaufnahme (14) zu erstellen, ein Graph Neural Network verwendet wird, um Informationen zwischen den Agenten (12) zu übertragen und einen Featurevektor für die gesamte Verkehrsszene zu erstellen, und ein Decoder (4) angewendet wird, um zu klassifizieren, ob die Bewegungen zur Luftaufnahme (14) passen. Ferner betrifft die Erfindung ein System.The invention relates to a method for providing map data (A) of a traffic scene for motor vehicles (10), in which a past movement of the motor vehicle (10), aerial photographs (14) and information from agents (12) surrounding the motor vehicle (10) are compared with one another to evaluate the map data (A), a discriminator (2) being used which has an encoder-decoder architecture, an encoder (3) converting the past movement of all detected surrounding agents (12) and the movement (X1*, X2, X3, X4) of the motor vehicle (10) into a latent encoding and converting the current aerial photograph (14) into another latent encoding, these latent encodings being merged to create a latent encoding per agent (12) with information about the aerial photograph (14), a graph neural network being used to transmit information between the agents (12) and to create a feature vector for the entire traffic scene, and a decoder (4) is used to classify whether the movements match the aerial photograph (14). The invention further relates to a system.

Description

Die Erfindung betrifft ein Verfahren zur Bereitstellung von Kartendaten für Kraftwagen nach Patentanspruch 1 sowie ein erfindungsgemäßes System.The invention relates to a method for providing map data for motor vehicles according to patent claim 1 and to a system according to the invention.

Die Verhaltensplanung automatisierter Fahrzeuge und die Prädiktion von am Verkehr teilnehmenden Fahrzeugen sind essenzielle Bestandteile autonomer Fahrzeuge.The behavior planning of automated vehicles and the prediction of vehicles participating in traffic are essential components of autonomous vehicles.

Aufgabe der Erfindung ist es eine Konsistenz von Daten für Verkehrskarten wenigstens teilweise zu verbessern.The object of the invention is to at least partially improve the consistency of data for traffic maps.

Diese Aufgabe wird mittels eines Verfahrens mit den Merkmalen des Patentanspruchs 1 sowie mittels eines erfindungsgemäßen Systems gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen sind Gegenstand der abhängigen Ansprüche.This object is achieved by means of a method having the features of patent claim 1 and by means of a system according to the invention. Advantageous embodiments and further developments are the subject of the dependent claims.

Ein Aspekt der Erfindung betrifft ein Verfahren zur Bereitstellung von Kartendaten für Kraftwagen, insbesondere wenigstens teilautonome Kraftwagen, bei welchem zur Bewertung der Kartendaten und somit einer Verkehrsszene eine vergangene Bewegung des Kraftwagens, Luftaufnahmen und Informationen von in einer Umgebung des Kraftwagens umliegenden Agenten miteinander verglichen werden. Agenten sind hierbei Objekte oder bewegliche Objekte, die wenigstens eine Datenerfassung ermöglichen und/oder dessen Daten und/oder physische Daten für das Verfahren anwendbar sind.One aspect of the invention relates to a method for providing map data for motor vehicles, in particular at least partially autonomous motor vehicles, in which a past movement of the motor vehicle, aerial photographs and information from agents in the vicinity of the motor vehicle are compared with one another in order to evaluate the map data and thus a traffic scene. Agents are objects or moving objects that enable at least one data acquisition and/or whose data and/or physical data are applicable to the method.

Hierbei ist es vorgesehen, dass ein Diskriminator verwendet wird, der eine Encoder-Decoder Architektur aufweist, wobei der Encoder die vergangene Bewegung aller erkannten umliegenden Agenten und die Bewegung des Kraftwagens in ein erstes latentes Encoding umwandelt und die aktuelle Luftaufnahme in ein anderes zweites latentes Encoding umwandelt. Diese latenten Encodings werden fusioniert, um ein latentes Encoding pro Agent mit Informationen über die Luftaufnahme zu erstellen. Anschließend wird ein Graph Neural Network verwendet, um Informationen zwischen den Agenten zu übertragen und einen Featurevektor für die gesamte Verkehrsszene zu erstellen, wodurch Beziehungen und Abhängigkeiten zwischen den verschiedenen Agenten in der zu bewertenden Verkehrsszene modelliert und/oder berücksichtigt werden. Schließlich wird ein Decoder angewendet wird, um zu klassifizieren, ob die Bewegungen zur Luftaufnahme passen und somit die Kartendaten zu bewerten und/oder zu bestätigen.Here, it is envisaged that a discriminator is used that has an encoder-decoder architecture, where the encoder converts the past movement of all detected surrounding agents and the movement of the motor vehicle into a first latent encoding and converts the current aerial photograph into another second latent encoding. These latent encodings are fused to create a latent encoding per agent with information about the aerial photograph. A graph neural network is then used to transfer information between the agents and create a feature vector for the entire traffic scene, thereby modeling and/or taking into account relationships and dependencies between the different agents in the traffic scene to be evaluated. Finally, a decoder is applied to classify whether the movements match the aerial photograph and thus evaluate and/or confirm the map data.

In anderen Worten soll eine Möglichkeit bereitgestellt werden, durch die eine Erstellung von Kartendaten mit sicheren Daten ermöglicht wird.In other words, the aim is to provide a way to create map data using secure data.

Im Stand der Technik haben sich lernbasierte Methoden zur Verhaltensplanung und Prädiktion als besonders genau herausgestellt. Dies bedeutet, dass auf diversen Benchmarks die lernbasierten Ansätze dominieren. Ein Kernelement solcher Ansätze ist die Inkludierung der statischen Infrastruktur. Üblicherweise wird die statische Infrastruktur durch sogenannte High Definition Karten bzw. HD Karten repräsentiert. Diese HD Karten sind aufwendig zu erlangen: Von einer Fahrzeugflotte müssen Aufnahmen bspw. mit mehreren Sensoren von Straßen durchgeführt werden, im Anschluss werden Algorithmen dazu verwendet, eine erste Version der HD Karte zu erstellen, und final muss eine menschliche Korrektur durchgeführt werden. Dies ist teuer und aufwendig.In the state of the art, learning-based methods for behavior planning and prediction have proven to be particularly accurate. This means that learning-based approaches dominate on various benchmarks. A core element of such approaches is the inclusion of the static infrastructure. The static infrastructure is usually represented by so-called high definition maps or HD maps. These HD maps are complex to obtain: A fleet of vehicles must take pictures of roads, for example using several sensors, then algorithms are used to create a first version of the HD map, and finally a human correction must be carried out. This is expensive and time-consuming.

Eine Alternative ist die Verwendung von sogenannten „Aerial Images“, also Luftaufnahmen. Luftaufnahmen können beispielsweise von Satelliten, Flugzeugen oder Drohnen oder weiterer Flugobjekte angefertigt werden. Luftaufnahmen sind hierbei kostengünstig und global verfügbar.An alternative is the use of so-called “aerial images”. Aerial photographs can be taken by satellites, airplanes, drones or other flying objects. Aerial photographs are inexpensive and available globally.

Demnach ist es möglich, eine Karte mit Luftaufnahmen zu erstellen. Für eine gegebene Verkehrsszene wird ein Teil der Karte ausgeschnitten. Dieser Ausschnitt zeigt nur einen Bereich von bspw. 100×100 Meter, um das automatisierte Fahrzeug herum. Beispielsweise befindet sich der Ort, an dem sich das automatisierte Fahrzeug zum aktuellen Zeitpunkt befindet, zentral in diesem Ausschnitt. Der Ausschnitt wird auch beispielsweise von einem lernbasierten Planungs- oder Prädiktionsmodell verarbeitet. Hierzu können beispielsweise CNNs bzw. Convolutional Neural Networks oder Vision Transformer verwendet werden.Accordingly, it is possible to create a map using aerial photographs. For a given traffic scene, a part of the map is cut out. This section only shows an area of, for example, 100×100 meters around the automated vehicle. For example, the location where the automated vehicle is currently located is centrally located in this section. The section is also processed, for example, by a learning-based planning or prediction model. For this purpose, CNNs or convolutional neural networks or vision transformers can be used, for example.

Luftaufnahmen zeigen jedoch nicht immer die aktuellen und/oder korrekten Daten und somit auch korrekten Straßen an. Beispielsweise kann eine Verkehrsszene in einem Tunnel stattfindet. Die Luftaufnahme zeigt in diesem Fall nur einen Berg. Beispielsweise kann auch eine Verkehrsszene in einem Bereich stattfindet, indem die eigentliche Straße, auf der das automatisierte Fahrzeug bzw. der Kraftwagen fährt, durch andere Straßen verdeckt ist, welche entsprechend in vertikaler Ausrichtung oberhalb verlaufen. In diesem zweiten Beispiel kann das lernbasierte Modell möglicherweise die verdeckenden Straßen falsch interpretiert und Daten bzw. Informationen einer falsch zugewiesenen Straße für jegliche Planungs- oder Prädiktionsaufgaben und somit für die Bereitstellung von Kartendaten verwenden.However, aerial photographs do not always show the current and/or correct data and thus also the correct roads. For example, a traffic scene may take place in a tunnel. In this case, the aerial photograph only shows a mountain. For example, a traffic scene may also take place in an area where the actual road on which the automated vehicle or motor vehicle is driving is obscured by other roads that run vertically above it. In this second example, the learning-based model may misinterpret the obscuring roads and use data or information from an incorrectly assigned road for any planning or prediction tasks and thus for providing map data.

Demnach ist es vorgesehen, ein Verfahren bereitzustellen und somit bspw. auch ein Modell erzeugen, das in der Lage ist, selbständig zu erkennen, dass die Luftaufnahme nicht passend ist und diese Informationen dann an die Planungs- oder Prädiktionskomponente weiterleitet. In andere Worten wird ein Verfahren zur Bereitstellung von Kartendaten für Kraftwagen bereitgestellt, welches diese Kartendaten auch überprüft.Accordingly, the intention is to provide a method and thus, for example, to create a model that is able to independently recognize that the aerial photograph is not suitable and then forwards this information to the planning or prediction component. In other words, a method for providing map data for motor vehicles is provided, which also checks this map data.

Der hierfür entwickelte Lösungsansatz basiert auf einem Diskriminator, welcher das Klassifikationsproblem löst, indem die vergangene Bewegung des automatisierten Fahrzeugs bzw. Kraftwagens und umliegender, durch die Perzeption erkannten Agenten wie bspw. Fahrzeuge bzw. Kraftwagen, Fußgänger usw. mit den extrahierten Luftaufnahmen überprüft wird.The solution approach developed for this purpose is based on a discriminator, which solves the classification problem by checking the past movement of the automated vehicle or motor vehicle and surrounding agents recognized by perception, such as vehicles or motor vehicles, pedestrians, etc., with the extracted aerial photographs.

Der Diskriminator nutzt erfindungsgemäß eine Encoder-Decoder-Architektur.According to the invention, the discriminator uses an encoder-decoder architecture.

Bei der Encoder-Komponente werden die vergangenen Bewegungen aller erfassten umliegenden Agenten sowie des automatisierten Fahrzeugs bzw. Kraftwagen durch einen Zeitreihenencoder codiert. Das Ergebnis ist ein latentes Encoding pro Agent in der Verkehrsszene. Parallel dazu erfolgt die Codierung der aktuellen Luftaufnahme mittels eines Bildencoders. Diese beiden Encodings werden fusioniert, wobei verschiedene Methoden wie Konkatenation oder Cross-Attention angewendet werden können. Dadurch entsteht ein weiteres latentes Encoding pro Agent, das bereits Informationen über die Luftaufnahme enthält. Anschließend wird bspw. ein Graph erstellt, in dem jeder Agent als Knoten dargestellt wird. Die Merkmale der Knoten sind die latenten Agentenmerkmale. Ein Graph Neural Network führt Message-Passing durch, um den Austausch von Informationen zwischen den Knoten zu ermöglichen. Ein Readout-Operator aggregiert die Merkmale der Knoten zu einem einzelnen Featurevektor, der die gesamte Verkehrsszene beschreibt.In the encoder component, the past movements of all recorded surrounding agents as well as the automated vehicle or motor vehicle are encoded by a time series encoder. The result is a latent encoding per agent in the traffic scene. In parallel, the current aerial photograph is encoded using an image encoder. These two encodings are merged, whereby various methods such as concatenation or cross-attention can be applied. This creates another latent encoding per agent, which already contains information about the aerial photograph. A graph is then created, for example, in which each agent is represented as a node. The characteristics of the nodes are the latent agent characteristics. A graph neural network performs message passing to enable the exchange of information between the nodes. A readout operator aggregates the characteristics of the nodes into a single feature vector that describes the entire traffic scene.

Der Decoder wendet auf den resultierenden Featurevektor eine Klassifikation an, um zu entscheiden, ob die codierten Bewegungen mit den Luftaufnahmen übereinstimmen. Dabei wird eine Sigmoid-Aktivierungsfunktion verwendet, um eine Wahrscheinlichkeit als Ausgabe zu erzeugen.The decoder applies a classification to the resulting feature vector to decide whether the encoded motions match the aerial photographs, using a sigmoid activation function to produce a probability as output.

Die Fähigkeit des Modells, diese Klassifikation durchzuführen, hängt entscheidend vom Trainingsprozess und dem verwendeten Datensatz ab.The ability of the model to perform this classification depends crucially on the training process and the dataset used.

Der verwendete Datensatz besteht aus Paaren von Eingabedaten und Ausgabelabels. Zu den Eingabedaten gehören die in der Umgebung erkannten Agenten, die vergangene Bewegung des automatisierten Fahrzeugs und die Luftaufnahme. Das Ausgabelabel ist bspw. binär. Es sagt aus, ob die erkannten Agenten und das automatisierte Fahrzeug konsistent zur Luftaufnahme sind, wodurch bspw. der Wert 1 ausgegebene wird oder nicht und somit der Wert 0 ausgegebenen.The dataset used consists of pairs of input data and output labels. The input data includes the agents detected in the environment, the past movement of the automated vehicle and the aerial photograph. The output label is binary, for example. It states whether the detected agents and the automated vehicle are consistent with the aerial photograph, which results in the value 1 being output or not, for example, and thus the value 0 being output.

Die Datensatzerstellung erfolgt so, dass automatisierte die Luftaufnahmen zu einigen Verkehrsszenen erstellt werden. Die vergangene Bewegung der Agenten und des automatisierten Fahrzeugs bzw. Kraftwagens werden in dieser Luftaufnahme abgebildet, insbesondere unter Anwendung eines gleichen Koordinatensystems.The dataset is created by automatically creating aerial photographs of some traffic scenes. The past movement of the agents and the automated vehicle or motor vehicle is depicted in this aerial photograph, in particular by using the same coordinate system.

Die Verkehrsszenen werden manuell bzw. händisch durchgegangen und überprüft, ob die Bewegung sinnvoll zu den auf den Luftaufnahmen sichtbaren Straßen passt. Dieser visuelle Test wird durchgeführt, da alles bereits in das gleiche Koordinatensystem übertragen wurde. Durch diese manuelle Überprüfung werden die Labels erstellt, wobei 1 für konsistent, 0 für nicht konsistent ausgegeben werden kann.The traffic scenes are manually checked to see if the movement fits sensibly with the roads visible in the aerial photographs. This visual test is carried out because everything has already been transferred to the same coordinate system. This manual check creates the labels, with 1 being output for consistent and 0 for inconsistent.

Ein Problem hierbei ist, dass vermutlich viel mehr Positivbeispiele (konsistent) entstehen werden als Negativbeispiele (nicht konsistent). Dies erfolgt deswegen, weil eine Verdeckung von Straßen nur selten auftritt.One problem here is that there will probably be many more positive examples (consistent) than negative examples (inconsistent). This is because street occlusion rarely occurs.

Daher können künstlich Negativbeispiele erstellt werden, insbesondere ohne manuellen Aufwand. Hierfür werden zufällig Bewegungen der Agenten und des automatisierten Fahrzeugs mit einer Luftaufnahme aus einer anderen Region kombiniert. Die Verkehrsszene erhält automatisch immer das Label „0“ als Negativbeispiel.Therefore, artificial negative examples can be created, especially without manual effort. For this purpose, movements of the agents and the automated vehicle are randomly combined with an aerial photograph from another region. The traffic scene is always automatically labeled "0" as a negative example.

Im Anschluss wird das oben genannte Encoder-Decoder-Modell bzw. Diskriminator mit dem erstellten Datensatz trainiert. Hierfür werden Methoden des maschinellen Lernens verwendet. Mittels Backpropagation werden die Gewichte im Encoder und Decoder angepasst. Die verwendete Loss-Funktion ist eine binäre Klassifikationsfehlerfunktion wie zum Beispiel Binary Cross Entropy.The encoder-decoder model or discriminator mentioned above is then trained with the created data set. Machine learning methods are used for this. The weights in the encoder and decoder are adjusted using backpropagation. The loss function used is a binary classification error function such as Binary Cross Entropy.

Der Diskriminator ist anschließend in der Lage zu klassifizieren, ob die vergangene Bewegung des automatisierten Fahrzeugs und der umliegenden durch die Wahrnehmung erkannten Agenten zur extrahierten Luftaufnahme passen.The discriminator is then able to classify whether the past movement of the automated vehicle and the surrounding agents detected by perception match the extracted aerial image.

Diese Informationen werden anschließend für einen lernbasierten Planer oder Prädiktor verwendet, welcher ebenfalls die Luftaufnahme als Eingabe kennt. Es soll nun die Möglichkeit gegeben werden, zu wissen, wann diese bekannten Eingaben unbrauchbar sind, um die Anwendung oder das Extrahieren falscher Merkmale zu vermeiden, bspw. Prädiktionen in falsche Richtungen, auf falsche Spuren usw.This information is then used for a learning-based planner or predictor, which also knows the aerial image as input. The aim is to provide the ability to know when these known inputs are useless in order to avoid applying or extracting incorrect features, e.g. Predictions in wrong directions, on wrong tracks, etc.

Sobald der Diskriminator eine Wahrscheinlichkeit von unter 50% ausgibt, wird die Luftaufnahme maskiert. Das bedeutet, dass jeder Pixel den Wert „0“ erhält. Andernfalls wird die Luftaufnahme unverändert übernommen. Zusätzlich wird dem lernbasierten Planer oder Prädiktor im Encoder auch direkt eine binäre „0“ oder „1“ übergeben, je nachdem ob der Diskriminator eine Wahrscheinlichkeit von unter 50% oder über 50% ausgibt.As soon as the discriminator outputs a probability of less than 50%, the aerial photograph is masked. This means that every pixel receives the value "0". Otherwise, the aerial photograph is adopted unchanged. In addition, a binary "0" or "1" is also passed directly to the learning-based planner or predictor in the encoder, depending on whether the discriminator outputs a probability of less than 50% or more than 50%.

Zusammenfassend umfasst die Erfindung das Training eines Diskriminators, der darauf spezialisiert ist, zu bestimmen, ob die vergangene Bewegung des automatisierten Fahrzeugs bzw. Kraftwagens und der umliegenden, durch die Wahrnehmung erkannten Agenten wie Fahrzeuge und Fußgänger zur extrahierten Luftaufnahme passen. Die Ausgabe dieses Diskriminators kann dann verwendet werden, um lernbasierte Planungs- oder Prädiktionsmodelle zu verbessern.In summary, the invention includes training a discriminator that is specialized in determining whether the past movement of the automated vehicle and the surrounding perceptually detected agents such as vehicles and pedestrians match the extracted aerial image. The output of this discriminator can then be used to improve learning-based planning or prediction models.

Die Vorteile dieser Methode sind vielfältig, bspw. wird durch die Überprüfung der Luftaufnahmen und die Vermeidung der Extrahierung falscher Merkmale die Planung und Prädiktion verbessert. Dies geschieht mit minimalem Labelaufwand, da nur eine visuelle Überprüfung erforderlich ist und Negativbeispiele automatisch generiert werden können. Das Training ist einfach, und der Diskriminator kann möglicherweise sogar für mehrere Module gleichzeitig verwendet werden. Darüber hinaus können bestehende lernbasierte Planungs- und Prädiktionsmodelle mit nur geringfügigen Anpassungen weiterverwendet werden.The advantages of this method are manifold, e.g. by checking the aerial images and avoiding the extraction of false features, planning and prediction are improved. This is done with minimal labeling effort, as only visual inspection is required and negative examples can be generated automatically. Training is simple, and the discriminator can potentially even be used for several modules at the same time. In addition, existing learning-based planning and prediction models can be reused with only minor adjustments.

Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels sowie anhand der Zeichnung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in der einzigen Figur/den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.Further advantages, features and details of the invention emerge from the following description of a preferred embodiment and from the drawing. The features and combinations of features mentioned above in the description as well as the features and combinations of features mentioned below in the description of the figures and/or shown alone in the single figure(s) can be used not only in the combination specified in each case, but also in other combinations or on their own, without departing from the scope of the invention.

Dabei zeigen:

  • 1 zeigt ein System zur Bereitstellung von Kartendaten einer Karte für einen Kraftwagen.
Showing:
  • 1 shows a system for providing map data of a map for a motor vehicle.

In der Figur sind gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.In the figure, identical or functionally equivalent elements are provided with the same reference symbols.

1 zeigt ein System zur Bereitstellung von Kartendaten A einer Karte für Kraftwagen 10, insbesondere wenigstens teilautonome Kraftwagen auf einer Trajektorie T, wobei oberhalb der Trajektorie T eine Straße Tx verläuft, die durch Kartendaten A nicht so zuverlässig erkennbar ist. Demnach sollen diese Kartendaten A aus der Luft und somit Luftaufnahmen 14 mit Informationen aus Agenten 12 entlang der Trajektorie T verglichen werden. 1 shows a system for providing map data A of a map for motor vehicles 10, in particular at least partially autonomous motor vehicles on a trajectory T, wherein a road Tx runs above the trajectory T, which is not so reliably recognizable by map data A. Accordingly, these map data A from the air and thus aerial photographs 14 are to be compared with information from agents 12 along the trajectory T.

Das System weist eine zentrale elektronische Recheneinrichtung 1 auf, die dazu ausgebildet ist, verschiedene Datenquellen zu integrieren und zu verarbeiten. Hierbei ist es vorgesehen, dass Entitäten des Systems wie der Kraftwagen 10, die Agenten 12 oder weitere Datenquelle mit der elektronischen Recheneinrichtung 1 datenübertragend, insbesondere kabellos gekoppelt sind. Die zentrale elektronische Recheneinrichtung 1 ermöglicht die Bewertung der Kartendaten A, indem sie eine vergangene Bewegung des Kraftwagens 10, Luftaufnahmen 14 und Informationen von in einer Umgebung des Kraftwagens 10 umliegenden Agenten 12 vergleicht.The system has a central electronic computing device 1, which is designed to integrate and process various data sources. It is provided that entities of the system such as the motor vehicle 10, the agents 12 or other data sources are coupled to the electronic computing device 1 in a data-transmitting manner, in particular wirelessly. The central electronic computing device 1 enables the evaluation of the map data A by comparing a past movement of the motor vehicle 10, aerial photographs 14 and information from agents 12 in the vicinity of the motor vehicle 10.

Das System umfasst einen Diskriminator 2, der eine Encoder-Decoder-Architektur aufweist. Durch einen Encoder 3 können die vergangene Bewegung aller erkannten umliegenden Agenten 12 und die Bewegung des Kraftwagens 10 in ein latentes Encoding umgewandelt werden. Ebenso kann der Encoder 3 die aktuelle Luftaufnahme in ein anderes latentes Encoding umwandeln. Diese latenten Encodings können fusioniert werden, um ein latentes Encoding pro Agent 12 mit Informationen über die Luftaufnahme 14 zu erstellen.The system comprises a discriminator 2 having an encoder-decoder architecture. An encoder 3 can convert the past movement of all detected surrounding agents 12 and the movement of the motor vehicle 10 into a latent encoding. Likewise, the encoder 3 can convert the current aerial photograph into another latent encoding. These latent encodings can be fused to create a latent encoding per agent 12 with information about the aerial photograph 14.

Das System umfasst auch ein Graph Neural Network, das verwendet wird, um Informationen zwischen den Agenten 12 zu übertragen und einen Featurevektor für die gesamte Verkehrsszene zu erstellen. Das Graph Neural Network ermöglicht es, die Beziehungen und Abhängigkeiten zwischen den verschiedenen Agenten 12 in der Verkehrsszene zu modellieren und zu berücksichtigen.The system also includes a graph neural network that is used to transfer information between the agents 12 and to create a feature vector for the entire traffic scene. The graph neural network makes it possible to model and take into account the relationships and dependencies between the different agents 12 in the traffic scene.

Schließlich umfasst das System einen Decoder 4, der dazu ausgebildet ist, um zu klassifizieren, ob die Bewegungen X1, X2, X3, X4 der Agenten 12 zur Luftaufnahme 14 passen. Der Decoder 4 spielt eine entscheidende Rolle bei der Bestätigung der Kartendaten und ermöglicht eine benötigte Konsistenz und Zuverlässigkeit der erfassten Daten. In der 1 wird bspw. die Bewegung X1* als potentieller Fehler dargestellt, die für den Kraftwagen 10 ein Problem darstellen könnten, da eine Kurve ansteht, die aufgrund der Straße Tx nicht sofort erkennbar ist. Demnach ist es vorgesehen, diese Kartendaten A mit möglichen Informationen der Agenten 12 zu vergleichen und sicherzustellen, ob diese übereinstimmen. Spätestens beim Zeitpunkt t muss dem Kraftwagen 10 die Information übermittelt werden, dass eine Geradeausfahrt nicht weiter möglich wäre.Finally, the system comprises a decoder 4, which is designed to classify whether the movements X1, X2, X3, X4 of the agents 12 match the aerial photograph 14. The decoder 4 plays a crucial role in confirming the map data and enables the required consistency and reliability of the recorded data. In the 1 For example, the movement X1* is shown as a potential error that could pose a problem for the motor vehicle 10, since a curve is approaching that is not immediately recognizable due to the road Tx. Accordingly, it is intended to compare this map data A with possible information from the agents 12 and to ensure that they match. At the latest at time t, the motor vehicle 10 the information is transmitted that driving straight ahead is no longer possible.

Zusammenfassen schlägt die Erfindung eine Methode zur Verwendung von teilweise verdeckten Satellitenkarten mittels eines Diskriminators 2.In summary, the invention proposes a method for using partially obscured satellite maps by means of a discriminator 2.

BezugszeichenlisteList of reference symbols

11
elektronische Recheneinrichtungelectronic computing device
22
DiskriminatorDiscriminator
33
EncoderEncoders
44
Decoderdecoder
1010
KraftwagenMotor vehicles
1212
Agentagent
1414
LuftaufnahmeAerial photography
tt
Zeitpunkttime
TT
TrajektorieTrajectory
TxTx
StraßeStreet
X1, X2, X3, X4X1, X2, X3, X4
BewegungenMovements
X1*X1*
BewegungMovement
AA
KartendatenMap data

Claims (6)

Verfahren zur Bereitstellung von Kartendaten (A) einer Verkehrsszene für Kraftwagen (10), bei welchem zur Bewertung der Kartendaten (A) eine vergangene Bewegung des Kraftwagens (10), Luftaufnahmen (14) und Informationen von in einer Umgebung des Kraftwagens (10) umliegenden Agenten (12) miteinander verglichen werden, wobei: - ein Diskriminator (2) verwendet wird, der eine Encoder-Decoder Architektur aufweist, wobei ein Encoder (3) die vergangene Bewegung aller erkannten umliegenden Agenten (12) und die Bewegung (X1*, X2, X3, X4) des Kraftwagens (10) in ein latentes Encoding umwandelt und die aktuelle Luftaufnahme (14) in ein anderes latentes Encoding umwandelt, - diese latente Encodings fusioniert werden, um ein latentes Encoding pro Agent (12) mit Informationen über die Luftaufnahme (14) zu erstellen, - ein Graph Neural Network verwendet wird, um Informationen zwischen den Agenten (12) zu übertragen und einen Featurevektor für die gesamte Verkehrsszene zu erstellen, und - ein Decoder (4) angewendet wird, um zu klassifizieren, ob die Bewegungen zur Luftaufnahme (14) passen.Method for providing map data (A) of a traffic scene for motor vehicles (10), in which a past movement of the motor vehicle (10), aerial photographs (14) and information from agents (12) surrounding the motor vehicle (10) are compared with one another to evaluate the map data (A), whereby: - a discriminator (2) is used which has an encoder-decoder architecture, whereby an encoder (3) converts the past movement of all detected surrounding agents (12) and the movement (X1*, X2, X3, X4) of the motor vehicle (10) into a latent encoding and converts the current aerial photograph (14) into another latent encoding, - these latent encodings are merged to create a latent encoding per agent (12) with information about the aerial photograph (14), - a graph neural network is used to transmit information between the agents (12) and to generate a feature vector for the entire traffic scene, and - a decoder (4) is applied to classify whether the movements match the aerial photograph (14). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass ein Trainingsprozess mit einem Datensatz von Eingabedaten verwendet wird, die die erkannten Agenten (12), die vergangene Bewegung des Kraftwagens (10) und die Luftaufnahme (14) enthalten, wobei das Ausgabelabel binär ist und angibt, ob die erkannten Agenten und der Kraftwagen (10) konsistent zur Luftaufnahme (14) sind oder nicht, wobei der Datensatz sowohl manuell erstellte Positive als auch künstlich erstellte Negative enthält.Procedure according to Claim 1 , characterized in that a training process is used with a data set of input data containing the detected agents (12), the past movement of the motor vehicle (10) and the aerial photograph (14), wherein the output label is binary and indicates whether the detected agents and the motor vehicle (10) are consistent with the aerial photograph (14) or not, wherein the data set contains both manually created positives and artificially created negatives. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der trainierten Diskriminator (2) verwendet wird, um die Luftaufnahme (14) für einen lernbasierten Planer oder Prädiktor zu bewerten.Procedure according to Claim 1 or 2 , characterized in that the trained discriminator (2) is used to evaluate the aerial photograph (14) for a learning-based planner or predictor. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass dem lernbasierten Planer oder Prädiktor die Bewertung der statischen Infrastruktur auf der Grundlage der Luftaufnahme (14) zur Verfügung gestellt wird, um zu erkennen, ob die Luftaufnahme unbrauchbar ist.Method according to one of the preceding claims, characterized in that the learning-based planner or predictor is provided with the assessment of the static infrastructure based on the aerial photograph (14) in order to detect whether the aerial photograph is unusable. System zur Bereitstellung von Kartendaten (A) einer Verkehrsszene für Kraftwagen (10), bei welchem zur Bewertung der Kartendaten (A) eine vergangene Bewegung (X1*, X2, X3, X4) des Kraftwagens, Luftaufnahmen (14) und Informationen von in einer Umgebung des Kraftwagens (10) umliegenden Agenten miteinander mittels einer zentralen elektronischen Recheneinrichtung (1) vergleichbar sind, wobei: - ein Diskriminator (2) verwendbar ist, der eine Encoder-Decoder Architektur aufweist, wobei mittels des Encoders (3) die vergangene Bewegung aller erkannten umliegenden Agenten und die Bewegung des Kraftwagens in ein latentes Encoding umwandelbar und die aktuelle Luftaufnahme in ein anderes latentes Encoding umwandelbar sind, - diese latente Encodings fusionierbar sind, um ein latentes Encoding pro Agent mit Informationen über die Luftaufnahme zu erstellen, - ein Graph Neural Network verwendbar ist, um Informationen zwischen den Agenten zu übertragen und einen Featurevektor für die gesamte Verkehrsszene zu erstellen, und - ein Decoder (4) anwendbar ist, um zu klassifizieren, ob die Bewegungen (X1*, X1, X2, X3, X4) zur Luftaufnahme (14) passen.System for providing map data (A) of a traffic scene for motor vehicles (10), in which, in order to evaluate the map data (A), a past movement (X1*, X2, X3, X4) of the motor vehicle, aerial photographs (14) and information from agents in the vicinity of the motor vehicle (10) are compared with one another by means of a central electronic computing device (1), whereby: - a discriminator (2) can be used which has an encoder-decoder architecture, whereby the past movement of all detected surrounding agents and the movement of the motor vehicle can be converted into a latent encoding and the current aerial photograph can be converted into another latent encoding by means of the encoder (3), - these latent encodings can be merged in order to create a latent encoding per agent with information about the aerial photograph, - a graph neural network can be used to transfer information between the agents and to create a feature vector for the entire traffic scene, and - a decoder (4) is applicable to classify whether the movements (X1*, X1, X2, X3, X4) match the aerial photograph (14). System nach Anspruch 5, dadurch gekennzeichnet, dass sämtliche Informationen zur Bereitstellung von Kartendaten (A) in ein mit der elektronischen Recheneinrichtung (1) gekoppelten Speicher mit Zugang für weitere Flottenfahrzeuge gespeichert werden.System according to Claim 5 , characterized in that all information for the provision of map data (A) is stored in a memory coupled to the electronic computing device (1) with access for other fleet vehicles.
DE102024000796.2A 2024-03-09 2024-03-09 Method for providing map data for motor vehicles and system Pending DE102024000796A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102024000796.2A DE102024000796A1 (en) 2024-03-09 2024-03-09 Method for providing map data for motor vehicles and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102024000796.2A DE102024000796A1 (en) 2024-03-09 2024-03-09 Method for providing map data for motor vehicles and system

Publications (1)

Publication Number Publication Date
DE102024000796A1 true DE102024000796A1 (en) 2024-05-08

Family

ID=90732064

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102024000796.2A Pending DE102024000796A1 (en) 2024-03-09 2024-03-09 Method for providing map data for motor vehicles and system

Country Status (1)

Country Link
DE (1) DE102024000796A1 (en)

Similar Documents

Publication Publication Date Title
DE102022201127B4 (en) Method and computer program for characterizing future trajectories of road users
WO2020048669A1 (en) Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle
EP4088224A1 (en) Method for combining a plurality of data sets for generating a current lane model of a road and device for data processing
EP3945338A2 (en) Signal processing path, environment recognition device and method for validating an automated driving system
DE102022208714A1 (en) Computer-implemented system and method for semantic analysis of a scene
EP4165370B1 (en) Method for evaluating a digital map, and evaluation system
DE102014207694A1 (en) Method for evaluating the calculation of environment models by vehicles
WO2022069088A1 (en) Map plausibility test method
EP3926304A1 (en) Method for evaluating the accuracy of a position determination of a landmark and evaluation system
DE102020213831A1 (en) Method for determining an existence probability of a possible element in an environment of a motor vehicle, driver assistance system and motor vehicle
DE102019206349A1 (en) Method and computer program product for recognizing signal signs for traffic control of lane-bound vehicles and signal sign recognition system and lane-bound vehicle, in particular rail vehicle
DE102024000796A1 (en) Method for providing map data for motor vehicles and system
DE102019217648A1 (en) Graph-based method for the holistic fusion of measurement data
DE102019215656B4 (en) Method for evaluating a selected route, route evaluation system and computer program
DE102020206134A1 (en) Method for operating a motor vehicle
EP4045876B1 (en) Method for detecting a traffic map change with classifiers
WO2015149799A1 (en) Stereo camera system
DE102022206348A1 (en) Method and system for determining sensor and/or localization errors
DE102018205146A1 (en) Test method for high-resolution headlamps using AI
DE102020117812A1 (en) Method for providing a device for predicting errors when processing image data, device for predicting segmentation errors and motor vehicle
DE102017207958B4 (en) A method of generating training data for a machine learning based pattern recognition method for a motor vehicle, motor vehicle, method of operating a computing device, and system
DE102023003979A1 (en) System for detecting, predicting and/or monitoring a vehicle environment and for planning the movement of a vehicle
DE102024002856A1 (en) Method for annotating environmental data collected by a sensor system of a vehicle
DE102019206348A1 (en) Method and computer program product for recognizing signal signs for traffic control of track-bound vehicles as well as signal sign recognition system and track-bound vehicle, in particular rail vehicle
DE102023207322A1 (en) Method and system for predicting changes in a static environment of an automated vehicle compared to a digital map

Legal Events

Date Code Title Description
R230 Request for early publication