DE102017222600B3 - Optical position determination of a vehicle by means of a convolutional autencoder and / or a deep neural network - Google Patents
Optical position determination of a vehicle by means of a convolutional autencoder and / or a deep neural network Download PDFInfo
- Publication number
- DE102017222600B3 DE102017222600B3 DE102017222600.5A DE102017222600A DE102017222600B3 DE 102017222600 B3 DE102017222600 B3 DE 102017222600B3 DE 102017222600 A DE102017222600 A DE 102017222600A DE 102017222600 B3 DE102017222600 B3 DE 102017222600B3
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- localization
- software module
- stream
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/485—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum optischen Ermitteln einer Position eines Fahrzeugs, bei dem während einer Fahrt des Fahrzeugs mit mindestens einer an dem Fahrzeug vorgesehenen Außenkamera fortlaufend Bilder einer Umgebung des Fahrzeugs optisch erfasst werden, um die Position des Fahrzeugs anhand der erfassten Bilder in Echtzeit zu ermitteln.The invention relates to a method for optically determining a position of a vehicle in which, while the vehicle is traveling with at least one exterior camera provided on the vehicle, images of surroundings of the vehicle are continuously optically detected in order to obtain the position of the vehicle in real time based on the captured images determine.
Description
Die Erfindung betrifft ein Verfahren zum optischen Ermitteln einer Position eines Fahrzeugs, bei dem während einer Fahrt des Fahrzeugs mit mindestens einer an dem Fahrzeug vorgesehenen Außenkamera fortlaufend Bilder einer Umgebung des Fahrzeugs optisch erfasst werden, um die Position des Fahrzeugs anhand der erfassten Bilder in Echtzeit zu ermitteln.The invention relates to a method for optically determining a position of a vehicle in which, while the vehicle is traveling with at least one exterior camera provided on the vehicle, images of surroundings of the vehicle are continuously optically detected in order to obtain the position of the vehicle in real time based on the captured images determine.
Aktuelle Bestrebungen gehen dahin, Fahrzeuge zu entwickeln, welche selbständig, d. h. ohne Mitwirken eines Fahrers von einem Ausgangspunkt zu einem bestimmten Fahrtziel navigieren (Autonomes Fahren). Ein selbständig fahrendes Fahrzeug muss daher zum einen während der Fahrt möglichen Hindernissen auf der Fahrtstrecke ausweichen und zum anderen fortlaufend seine Position ermitteln und seine Lenkung entsprechend einer zu dem bestimmten Fahrtziel führenden Fahrtstrecke passend betätigen.Recent efforts are going to develop vehicles that independently, d. H. Navigate from a starting point to a specific destination without the assistance of a driver (autonomous driving). A self-propelled vehicle must therefore dodge on the one hand while driving possible obstacles on the route and on the other hand continuously determine its position and operate his steering according to a leading to the particular destination travel route.
Ein erstes Problem eines selbständig fahrenden Fahrzeugs besteht demnach in einem zuverlässigen Erkennen eines möglichen Hindernisses, wie beispielsweise eines Fußgängers, eines vorausfahrenden Fahrzeugs, einer Verkehrsinsel oder einer Baustellenmarkierung, sowie einem präzisen Ermitteln des Abstands des erkannten Hindernisses von dem Fahrzeug, um dem Hindernis durch Lenken und/oder Bremsen auszuweichen. Hierfür ist im Allgemeinen eine Kombination mehrerer an dem Fahrzeug angebrachter Sensoren zum Erfassen unterschiedlicher Aspekte und/oder Bereiche einer Umgebung des Fahrzeugs notwendig. Die von diesen Sensoren jeweils erzeugten verschiedenen Daten müssen allerdings geeignet zusammengeführt werden, um sowohl eine Art eines Hindernisses als auch einen Abstand des Hindernisses von dem Fahrzeug zuverlässig zu erkennen bzw. präzise zu ermitteln.A first problem of a self-propelled vehicle is therefore reliable detection of a possible obstacle, such as a pedestrian, a preceding vehicle, a traffic island or a construction site mark, as well as a precise determination of the distance of the detected obstacle from the vehicle to the obstacle by steering and / or brakes. For this purpose, a combination of a plurality of sensors mounted on the vehicle for detecting different aspects and / or regions of an environment of the vehicle is generally necessary. However, the different data generated by each of these sensors must be properly combined to reliably detect and accurately detect both a kind of obstacle and a distance of the obstacle from the vehicle.
Die
Die folgenden Druckschriften behandeln weitere Aspekte von Sensoren oder Außenkameras eines Fahrzeugs bzw. die Verarbeitung der von den Sensoren oder Außenkameras erzeugten Bilder oder Videoströme.The following references address other aspects of sensors or exterior cameras of a vehicle or the processing of the images or video streams generated by the sensors or external cameras.
Die
Die
Die
Die
Ein zweites Problem stellt die Ermittlung einer aktuellen Position des Fahrzeugs dar. Die mit satellitengestützten Lokalisierungssystemen erreichbare Präzision beim Ermitteln einer Position, beispielsweise die Präzision des in Fahrzeugen weit verbreiteten GPS-Systems (Global Positioning System), ist allerdings für selbständig fahrende Fahrzeuge völlig unzureichend. Zum einen erlaubt sie es nicht einmal, ein Fahrzeug zuverlässig auf einer sogar breiten Fahrbahn und erst recht nicht auf einer relativ schmalen Fahrspur einer mehrspurigen Fahrbahn zu halten. Zum anderen kann das Empfangen satellitengestützter Positionsdaten aufgrund von Abschattungen, wie beispielsweise in tiefen Häuserschluchten oder in Tunnels, unmöglich oder aufgrund widriger Wetterbedingungen stark behindert sein, wodurch sich die Präzision weiter verringert.A second problem is the determination of a current position of the vehicle. The achievable with satellite localization systems precision in determining a position, such as the precision of the widely used in vehicles GPS system (Global Positioning System), but is completely insufficient for self-driving vehicles. On the one hand, it does not even allow a vehicle to be reliably supported on an even wide lane, much less on a relatively narrow lane on a multi-lane carriageway. On the other hand, receiving satellite-based position data due to shadowing, such as in deep canyons or in tunnels, may be impossible or severely hampered by adverse weather conditions, further reducing precision.
Eine mögliche Lösung dieses Problems liegt in einem fortlaufenden optischen Erfassen einer Umgebung des Fahrzeugs mittels an dem Fahrzeug angebrachter Außenkameras und algorithmischem Auswerten der erfassten Umgebung. Auf diese Weise lassen sich die relativ ungenauen GPS-Positionsdaten lokal präzisieren.One possible solution to this problem is a continuous optical detection of an environment of the vehicle by means of external cameras mounted on the vehicle and algorithmic Evaluate the detected environment. In this way, the relatively inaccurate GPS position data can be specified locally.
So offenbart die
Alternativ dazu offenbart die
Die
In „Robust Intensity-Based Localization Method for Autonomous Driving on Snow-Wet Road Surface“ (
In „Absolute geo-localization thanks to hidden Markov Model and exemplarbased metric learning“ (
In „High-accurate vehicle localization using digital maps an coherency images“ (
Der Erfindung liegt daher die Aufgabe zugrunde, ein verbessertes Verfahren zum optischen Ermitteln einer Position eines Fahrzeugs zu schaffen, welches die beschriebenen Nachteile beseitigt und eine große Robustheit besitzt. Darüber hinaus ist es Aufgabe der Erfindung, ein System zum Ausführen des geschaffenen Verfahrens zur Verfügung zu stellen.The invention is therefore based on the object to provide an improved method for optically detecting a position of a vehicle, which eliminates the disadvantages described and has a great robustness. Moreover, it is an object of the invention to provide a system for carrying out the method provided.
Ein Gegenstand der vorliegenden Erfindung ist ein Verfahren zum optischen Ermitteln einer Position eines Fahrzeugs. Das Verfahren umfasst die folgenden Schritte:
- - Herstellen einer Mobilfunk-Verbindung zwischen dem Fahrzeug und einem Backend-Server mittels eines in dem Fahrzeug vorgesehenen Mobilfunkmoduls;
- - Empfangen mindestens eines Softwaremoduls zum Kodieren/Dekodieren optischer Daten von dem Backend-Server über die hergestellte Mobilfunk-Verbindung und Installieren des mindestens einen empfangenen Softwaremoduls in einem Steuergerät des Fahrzeugs;
- - Bestimmen einer Fahrtstrecke für eine Fahrt des Fahrzeugs;
- - Empfangen, von dem Backend-Server über die hergestellte Mobilfunk-Verbindung, mindestens eines Lokalisierungsstroms für jedes installierte Softwaremodul, welcher der bestimmten Fahrtstrecke zugeordnet ist, und Speichern jedes Lokalisierungsstroms in dem Steuergerät;
- - Bilden eines Positionsstroms zu jedem installierten Softwaremodul durch mehrfaches, insbesondere periodisches Ausführen der folgenden Schritte während der Fahrt des Fahrzeugs auf der bestimmten Fahrtstrecke:
- - Erfassen eines Bildes einer Umgebung des Fahrzeugs durch eine an dem Fahrzeug vorgesehene Außenkamera;
- - Berechnen jeweils eines zu dem erfassten Bild korrespondierenden kodierten Positionswerts mittels jedes installierten Softwaremoduls; und
- - Speichern des berechneten kodierten Positionswerts durch das Steuergerät; und
- - Ermitteln der Position des Fahrzeugs durch fortlaufendes, insbesondere periodisches abstraktes Vergleichen des gebildeten Positionsstroms mit einem Abschnitt des empfangenen mindestens einen Lokalisierungsstroms.
- - Establishing a mobile connection between the vehicle and a back-end server by means provided in the vehicle mobile module;
- Receiving at least one software module for encoding / decoding optical data from the backend server via the established mobile radio connection and installing the at least one received software module in a controller of the vehicle;
- Determining a travel distance for a drive of the vehicle;
- Receiving, from the backend server via the established cellular connection, at least one location stream for each installed software module associated with the particular route and storing each location stream in the controller;
- Forming a position current to each installed software module by executing the following steps several times, in particular periodically, while the vehicle is traveling on the particular route:
- - detecting an image of an environment of the vehicle by an outdoor camera provided on the vehicle;
- Calculating a respective coded position value corresponding to the acquired image by means of each installed software module; and
- - storing the calculated encoded position value by the controller; and
- - Determining the position of the vehicle by continuously, in particular periodically abstract comparing the position current formed with a portion of the received at least one localization current.
Die Position des Fahrzeugs wird erfindungsgemäß ausschließlich durch abstraktes Vergleichen kodierter und komprimierter optischer Bilddaten ermittelt. Dazu wird ein in dem Fahrzeug fortlaufend gebildeter Positionsstrom mit einem von einem Backend-Server empfangenen und zu der bestimmten Fahrtstrecke korrespondierenden Lokalisierungsstrom fortlaufend verglichen, um diejenige Stelle des Lokalisierungsstroms zu ermitteln, welche dem aktuellen Positionsstrom des Fahrzeugs entspricht. Mit anderen Worten kommt es bei dem erfindungsgemäßen Verfahren nicht darauf an, in dem Positionsstrom oder dem Lokalisierungsstrom Objekte zu identifizieren, d. h. dem Positionsstrom oder dem Lokalisierungsstrom Bedeutungen zu verleihen. Vielmehr erfolgt der Vergleich auf einer sehr hohen kodierten Abstraktionsstufe. Auf diese Weise kann die Position des Fahrzeugs auf der Fahrtstrecke sehr präzise und zuverlässig bestimmt werden, was mit einer großen Robustheit des Verfahrens einhergeht. Es versteht sich, dass statt einer Mobilfunk-Verbindung eine beliebige andere drahtlose Verbindung verwendet werden kann, ohne den Schutzumfang der Erfindung zu verlassen.The position of the vehicle is determined according to the invention exclusively by abstract comparing coded and compressed optical image data. For this purpose, a continuously formed in the vehicle position current is continuously compared with a received from a back-end server and corresponding to the particular route localization current to determine that point of the localization current, which corresponds to the current position current of the vehicle. In other words, it is not important in the method according to the invention to identify objects in the position current or the localization current, ie. H. to give meaning to the position current or localization current. Rather, the comparison is made on a very high coded abstraction level. In this way, the position of the vehicle on the route can be determined very precisely and reliably, which is associated with a great robustness of the process. It is understood that instead of a cellular connection, any other wireless connection may be used without departing from the scope of the invention.
In einer bevorzugten Ausführungsform wird eine Korrelationsfunktion zum Vergleichen des erzeugten Positionsstroms mit dem Abschnitt des mindestens einen Lokalisierungsstroms berechnet. Korrelationsfunktionen werden beispielsweise in der Statistik verwendet und eignen sich besonders dafür, signifikante Übereinstimmungen zwischen unterschiedlichen Datenmengen festzustellen. Deshalb kann durch Berechnen einer Korrelationsfunktion die Stelle innerhalb des Lokalisierungsstroms besonders zuverlässig und einfach ermittelt werden, die der aktuellen Stelle in dem Positionsstrom entspricht.In a preferred embodiment, a correlation function is calculated for comparing the generated position current with the portion of the at least one localization current. For example, correlation functions are used in statistics and are particularly useful for finding significant matches between different sets of data. Therefore, by calculating a correlation function, the location within the localization current that corresponds to the current location in the position stream can be determined particularly reliably and easily.
In einer weiteren Ausführungsform werden satellitengestützte Positionsdaten, insbesondere GPS-Daten, mittels eines in dem Fahrzeug vorgesehenen Satellitenempfängers empfangen und der Abschnitt des mindestens einen Lokalisierungsstroms mittels der empfangenen Positionsdaten bestimmt. GPS-Daten können den Aufwand beim Vergleichen verringern, indem sie eine grobe Vorabbestimmung des relevanten Abschnitts des Lokalisierungsstroms ermöglichen. Dadurch kann ein unnötiges und aufwändiges Vergleichen mit irrelevanten Abschnitten des Lokalisierungsstroms vermieden werden.In a further embodiment, satellite-based position data, in particular GPS data, are received by means of a satellite receiver provided in the vehicle, and the section of the at least one localization current is determined by means of the received position data. GPS data can reduce the overhead of comparing by providing a rough prediction of the relevant portion of the localization stream. This avoids unnecessary and time-consuming comparisons with irrelevant portions of the localization stream.
In einer Ausführungsform wird aus der bestimmten Position des Fahrzeugs und mindestens einem Lokalisierungsstrom eine Länge eines von dem Fahrzeug auf der Fahrtstrecke zurückgelegten Streckenabschnitts und/oder ein Abstand des Fahrzeugs zu einem weiteren Fahrzeug auf der Fahrtstrecke berechnet. Dies setzt voraus, dass der Lokalisierungsstrom Angaben enthält, welche ein Berechnen einer longitudinalen Position erlauben. Beispielsweise lässt sich eine longitudinale Position innerhalb des Lokalisierungsstroms berechnen, wenn jedem kodierten und komprimierten Bild ein Zeitpunkt und eine aktuelle Geschwindigkeit zugeordnet sind. Dann erhält man die longitudinale Position durch Bilden eines zeitlichen Integrals der jeweiligen aktuellen Geschwindigkeiten seit dem Ausgangspunkt der Fahrt.In one embodiment, from the determined position of the vehicle and at least one localization current, a length of a route section traveled by the vehicle on the route and / or a distance of the vehicle to another vehicle on the route are calculated. This assumes that the localization stream contains indications that allow a calculation of a longitudinal position. For example, a longitudinal position within the localization stream can be computed if each encoded and compressed image is assigned a time and a current velocity. Then, the longitudinal position is obtained by forming a temporal integral of the respective actual speeds since the starting point of the ride.
Gegenstand der Erfindung ist auch ein Verfahren zum Erzeugen mindestens eines in dem oben beschriebenen Verfahren verwendbaren Lokalisierungsstroms während einer Fahrt eines Messfahrzeugs. Das Verfahren umfasst die folgenden Schritte:
- - Herstellen einer Mobilfunk-Verbindung zwischen dem Messfahrzeug und einem Backend-Server mittels eines in dem Messfahrzeug vorgesehenen Mobilfunkmoduls;
- - Empfangen mindestens eines Softwaremoduls zum Kodieren/Dekodieren optischer Daten von dem Backend-Server über die hergestellte Mobilfunk-Verbindung und Installieren des mindestens einen empfangenen Softwaremoduls in einem Steuergerät des Messfahrzeugs;
- - Bestimmen einer Fahrtstrecke für eine Fahrt des Messfahrzeugs;
- - Bilden mindestens eines Lokalisierungsstroms zu jedem installierten Softwaremodul durch fortlaufendes, insbesondere periodisches Ausführen der folgenden Schritte während der Fahrt des Messfahrzeugs auf der bestimmten Fahrtstrecke:
- - Erfassen eines Bildes einer Umgebung des Messfahrzeugs durch eine an dem Messfahrzeug vorgesehene Außenkamera;
- - Berechnen jeweils eines zu dem erfassten Bild korrespondierenden kodierten Positionswerts mittels jedes installierten Softwaremoduls;
- - Erfassen eines Geschwindigkeitswerts des Messfahrzeugs mittels eines in dem Messfahrzeug vorgesehenen Geschwind igkeitssensors;
- - Erfassen eines Zeitpunkts mittels eines in dem Messfahrzeug vorgesehenen Zeitmessers;
- - Bilden eines Lokalisierungswerts durch Verknüpfen des berechneten Positionswerts mit dem erfassten Geschwindigkeitswert und dem erfassten Zeitpunkt; und
- - Speichern des gebildeten Lokalisierungswerts durch das Steuergerät; und
- - Senden jedes gebildeten Lokalisierungsstroms an den Backend-Server über die hergestellte Mobilfunkverbindung.
- - Establishing a mobile connection between the measuring vehicle and a back-end server by means provided in the measuring vehicle mobile phone module;
- Receiving at least one software module for encoding / decoding optical data from the back-end server via the established mobile radio connection and installing the at least one received software module in a control unit of the measuring vehicle;
- Determining a route for a journey of the measuring vehicle;
- - Forming at least one localization stream to each installed software module by continuously, in particular periodically, performing the following steps while the measurement vehicle is traveling on the particular route:
- Detecting an image of an environment of the measuring vehicle by an external camera provided on the measuring vehicle;
- Calculating a respective coded position value corresponding to the acquired image by means of each installed software module;
- Detecting a speed value of the measuring vehicle by means of a speed sensor provided in the measuring vehicle;
- Detecting a time by means of a timer provided in the measuring vehicle;
- Forming a localization value by associating the calculated position value with the detected velocity value and the detected time; and
- - storing the formed localization value by the controller; and
- Sending each formed localization stream to the backend server via the established cellular connection.
Das in dem Messfahrzeug ausgeführte Verfahren unterscheidet sich von dem zuvor beschriebenen Verfahren, das von einem einen Lokalisierungsstrom verwendenden Fahrzeug ausgeführt wird, dadurch, dass während der Fahrt zusätzlich eine aktuelle Geschwindigkeit sowie eine Fahrtzeit des Messfahrzeugs erfasst und in den Lokalisierungsstrom integriert werden. Aus diesen Größen lässt sich für jede Stelle des Lokalisierungsstroms ihr longitudinaler Abstand von dem Ausgangspunkt der Fahrt berechnen.The method carried out in the measuring vehicle differs from the previously described method, which is carried out by a vehicle using a localization current, in that an actual speed and a traveling time of the measuring vehicle are additionally detected and integrated into the localization current during the journey. From these quantities, it is possible to calculate their longitudinal distance from the starting point of the journey for each location of the localization current.
In einer Ausführungsform werden mindestens zwei Lokalisierungsströme zu einem installierten Softwaremodul gebildet, indem mindestens zwei Bilder der Umgebung des Fahrzeugs durch mindestens zwei Außenkameras, insbesondere genau zwei Bilder durch eine stereoskopische Kamera gleichzeitig erfasst werden. Dadurch lässt sich zum einen der Umfang des Trainingsmaterials für jedes installierte Softwaremodul vergrößern. Zum anderen kann das Softwaremodul trainiert werden, ähnliche, aber perspektivisch voneinander abweichende Bilder gleichermaßen zu verarbeiten, wodurch eine größere Robustheit des Verfahrens erreicht wird.In one embodiment, at least two localization streams are formed into an installed software module by simultaneously capturing at least two images of the surroundings of the vehicle by at least two external cameras, in particular exactly two images, by a stereoscopic camera. As a result, on the one hand, the scope of the training material for each installed software module can be increased. On the other hand, the software module can be trained to process similar, but perspectively divergent images, thereby achieving greater robustness of the method.
In einer weiteren Ausführungsform werden satellitengestützte Positionsdaten, insbesondere GPS-Daten und bevorzugt DGPS-Daten (Differential Global Positioning System), mittels eines in dem Messfahrzeug angeordneten Satellitenempfängers empfangen und wird der Lokalisierungswert durch zusätzliches Verknüpfen des berechneten Positionswerts mit den empfangenen satellitengestützten Positionsdaten gebildet. Durch das Verknüpfen der Lokalisierungsströme mit satellitengestützten Positionsdaten können die zunächst relativen, d. h. auf bestimmte Fahrtstrecken bezogenen Lokalisierungströme mit absoluten terrestrischen Positionsangaben versehen werden. Auf diese Weise können satellitengestützte Positionsdaten in Fahrzeugen verwendet werden, die selbst keine satellitengestützten Positionsdaten empfangen können. Zudem wird die Präzision der Positionsermittlung weiter erhöht.In a further embodiment, satellite-based position data, in particular GPS data and preferably DGPS data (Differential Global Positioning System), are received by means of a satellite receiver arranged in the measuring vehicle, and the localization value is formed by additionally combining the calculated position value with the received satellite-based position data. By linking the localization streams with satellite-based position data, the first relative, i. H. localization streams related to certain routes are given absolute terrestrial position information. In this way, satellite-based position data can be used in vehicles that can not receive satellite-based position data themselves. In addition, the precision of the position determination is further increased.
Ein weiterer Gegenstand der Erfindung ist ein Verfahren zum Bereitstellen mindestens eines Softwaremoduls zum Kodieren/Dekodieren optischer Daten auf einem Backend-Server und mindestens eines Lokalisierungsstroms für ein Verwenden in einem der beiden oben beschriebenen Verfahren. Das Verfahren umfasst die folgenden Schritte:
- - Empfangen des mindestens einen Lokalisierungsstroms von einem Messfahrzeug durch den Backend-Server;
- - Speichern des empfangenen Lokalisierungsstroms;
- - Bereitstellen des gespeicherten Lokalisierungsstroms zum Empfangen durch ein Fahrzeug;
- - Trainieren des mindestens einen Softwaremoduls mittels des gespeicherten Lokalisierungsstroms; und
- - Bereitstellen des mindestens einen trainierten Softwaremoduls zum Empfangen durch ein Fahrzeug.
- Receiving the at least one localization stream from a measurement vehicle by the backend server;
- - storing the received localization stream;
- Providing the stored localization stream for reception by a vehicle;
- - Training the at least one software module by means of the stored localization stream; and
- - Providing the at least one trained software module for receiving by a vehicle.
Der Backend-Server erfüllt im Wesentlichen die Aufgabe, die verwendeten Softwaremodule zu trainieren und diese sowie Lokalisierungsströme zum Abrufen bereitzustellen. Die auf einem Backend-Server bereitgestellten Softwaremodule und Lokalisierungsströme können deshalb auch von einer großen Anzahl von Fahrzeugen bequem genutzt werden. Die Fahrzeuge benötigen grundsätzlich nur beim Antreten einer Fahrt eine Mobilfunk-Verbindung zu dem Backend-Server, um ggf. ein in dem Fahrzeug gespeichertes Softwaremodul zu aktualisieren und einen zu der bestimmten Fahrtstrecke korrespondierenden Lokalisierungsstrom von dem Backend-Server zu laden.The main purpose of the back-end server is to train the software modules used and to provide them and localization streams for retrieval. The software modules and localization streams provided on a backend server can therefore also be used conveniently by a large number of vehicles. Basically, the vehicles only need a mobile radio connection to the backend server when starting a journey in order to possibly update a software module stored in the vehicle and to load a localization stream corresponding to the particular route from the backend server.
In einer bevorzugten Ausführungsform jedes der oben beschriebenen Verfahren wird ein Convolutional Autoencoder als ein erstes Software-Modul zum Kodieren/Dekodieren optischer Daten verwendet. Ein Convolutional Autoencoder stellt eine als tiefes neuronales Netz implementierte Sonderform eines Autoencoders (Codec, Codec/Decoder) dar und dient dazu, höherdimensionale Eingangsdaten durch einfaches oder mehrfaches Falten in Ausgangsdaten niedriger Dimension zu transformieren. Ein Convolutional Autoencoder wird dementsprechend verwendet, um umfangreiche zweidimensionale (matrixartige) Bilddaten eindimensional (vektoriell) zu kodieren und zu komprimieren. Aus den kodierten und komprimierten Ausgangsdaten lassen sich die Ausgangsdaten mittels des verwendeten Convolutional Autoencoders mit einem bestimmten Rekonstruktionsfehler zurückgewinnen. Durch Vergleichen der Ausgangsdaten mit den Eingangsdaten kann ein Convolutional Autoencoder unüberwacht mittels Backpropagation trainiert werden, den Rekonstruktionsfehler vor allem für relevante Bereiche oder Abschnitte der Eingangsdaten zu verringern. Ein Convolutional Autoencoder erlaubt es daher, die für eine bestimmte Verwendung benötigte Essenz von Eingangsdaten trotz deutlicher Kompression in den Ausgangsdaten zu bewahren, so dass mittels eines Convolutional Autoencoders ein Videostrom, d. h. eine Bildsequenz zu einem Positionsstrom bzw. Lokalisierungsstrom geringen Umfangs komprimiert wird, der gut handhabbar ist und sich auch für eine drahtlose Übertragung, wie beispielsweise über ein Mobilfunknetz eignet.In a preferred embodiment of each of the methods described above, a convolutional auto-encoder is used as a first software module for encoding / decoding optical data. A Convolutional Autoencoder represents as a deep neural network implemented special form of an auto-coder (codec, codec / decoder) and serves to transform higher-dimensional input data by simple or multiple folding into low-dimension output data. Accordingly, a convolutional auto-encoder is used to one-dimensionally (vectorically) encode and compress extensive two-dimensional (matrix-like) image data. From the coded and compressed output data, the output data can be recovered by means of the convolutional autencoder with a specific reconstruction error. By comparing the output data with the input data, a convolutional autoencoder can be trained unsupervised by means of back propagation to reduce the reconstruction error, especially for relevant areas or sections of the input data. A convolutional auto-encoder thus allows to preserve the essence of input data needed for a particular use, despite significant compression in the output data, so that by means of a convolutional auto-encoder a video stream, ie a picture sequence is compressed to a position stream or localization stream of small size, which is good is manageable and also suitable for wireless transmission, such as via a mobile network.
Zusätzlich wird vorteilhaft ein tiefes neuronales Netz als ein zweites Software-Modul zum Kodieren/Dekodieren optischer Daten verwendet, mit dem zum Berechnen eines zu dem erfassten Bild korrespondierenden kodierten Positionswerts die folgenden Schritte ausgeführt werden:
- - Identifizieren eines Objekts, das mindestens einer vorgegebenen Objektklasse, die insbesondere Schilder, Pfosten oder Gebäude umfasst, zugeordnet ist, in dem erfassten Bild mittels des tiefen neuronalen Netzes;
- - Ermitteln einer Pixelzahl innerhalb einer minimalen, das identifizierte Objekt einschließenden, insbesondere rechteckigen Kontur durch das Steuergerät; und
- - Verwenden der ermittelten Pixelzahl als kodierter Positionswert.
- Identifying an object associated with at least one predetermined class of object, including in particular signs, posts or buildings, in the captured image by means of the deep neural network;
- - Determining a number of pixels within a minimum, the identified object enclosing, in particular rectangular contour by the control unit; and
- - Using the determined number of pixels as a coded position value.
Ein derartiges tiefes neuronales Netz ermöglicht es ebenfalls, umfangreiche höherdimensionale Eingangsdaten in niedriger dimensionierte Ausgangsdaten zu transformieren und eignet sich zur Objekterkennung und semantischen Segmentierung. Es wird mittels annotierter Objekten, die also bestimmten Objektklassen zugeordnet sind, trainiert. Infolgedessen kann ein tiefes neuronales Netz in Bilddaten trainierte Objekte erkennen und ihnen die jeweilige Objektklasse zuordnen. Mit anderen Worten lässt sich mittels eines derartigen tiefen neuronalen Netzes nicht nur die Existenz, sondern auch die Art eines relevanten Objekts in den Bilddaten ermitteln. Beispielsweise können erkannte Objekte durch Konturen, wie beispielsweise einen rechteckigen Rahmen, eingeschlossen werden und die von der Position des Fahrzeugs abhängige veränderliche Zahl der von den Konturen jeweils eingeschlossenen Pixel als Lokalisierungsstrom verwendet werden.Such a deep neural network also makes it possible to transform large higher-dimensional input data into lower-dimensioned output data and is suitable for object recognition and semantic segmentation. It is trained by means of annotated objects, which are thus assigned to certain object classes. As a result, a deep neural network can recognize objects trained in image data and associate the respective object classes with them. In other words, not only the existence but also the type of a relevant object in the image data can be determined by means of such a deep neural network. For example, recognized objects may be enclosed by outlines, such as a rectangular frame, and the varying number of pixels enclosed by the contours, depending on the position of the vehicle, may be used as the localization stream.
Ein Gegenstand der Erfindung ist ferner ein System zum optischen Ermitteln einer Position eines Fahrzeugs, mit einem Fahrzeug, welches mindestens eine Außenkamera, ein Steuergerät und ein Mobilfunkmodul umfasst und zum Ausführen des ersten oben beschriebenen Verfahrens konfiguriert ist, einem Messfahrzeug, welches mindestens eine Außenkamera, ein Steuergerät und ein Mobilfunkmodul umfasst und zum Ausführen des zweiten oben beschriebenen Verfahrens konfiguriert ist, einem Backend-Server, welcher zum Ausführen des dritten oben beschriebenen Verfahrens konfiguriert ist, und insbesondere einem ein erstes Softwaremodul bildenden Convolutional Autoencoder zum Kodieren/Dekodieren optischer Daten sowie bevorzugt einem ein zweites Softwaremodul bildenden tiefen neuronalen Netz zum Kodieren/Dekodieren optischer Daten. Das erfindungsgemäße Verfahren kann also mit einem relativ einfachen System aus einem Fahrzeug, einem Messfahrzeug und einem Backend-Server ausgeführt werden und benötigt keine Fähigkeit zum Verwenden satellitengestützter Positionsdaten.A subject of the invention is furthermore a system for optically determining a position of a vehicle, comprising a vehicle which comprises at least one outdoor camera, a control unit and a mobile radio module and configured to carry out the first method described above, a measuring vehicle which has at least one external camera, a controller and a cellular module and configured to execute the second method described above, a backend server configured to perform the third method described above, and more particularly to a convolutional auto-encoder for optical data encoding / decoding forming a first software module a deep neural network for encoding / decoding optical data constituting a second software module. Thus, the method according to the invention can be carried out with a relatively simple system consisting of a vehicle, a measuring vehicle and a back-end server and does not require an ability to use satellite-supported position data.
Die Erfindung ist anhand mehrerer Ausführungsformen in den Zeichnungen schematisch dargestellt und wird unter Bezugnahme auf die Zeichnungen weiter beschrieben. Es zeigt:
-
1 in einem schematischen Ablaufdiagramm eine Ausführungsform des erfindungsgemäßen Verfahrens; -
2 in einer schematischen Darstellung ein von einer in Vorwärtsrichtung weisenden Außenkamera erfasstes Bild einer Umgebung des Fahrzeugs; -
3 in einem Funktionsgraph einen in einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens gebildeten Positionsstrom; -
4 den in3 dargestellten Funktionsgraph mit darin eingetragenen Positionen zweier Fahrzeuge.
-
1 in a schematic flow diagram, an embodiment of the method according to the invention; -
2 in a schematic representation, an image of an environment of the vehicle detected by a forward-facing outdoor camera; -
3 in a functional graph, a position current formed in a further embodiment of the method according to the invention; -
4 the in3 illustrated function graph with registered therein positions of two vehicles.
Nach dem Bestimmen einer Fahrtstrecke
Der von dem Fahrzeug empfangene und verwendete Lokalisierungsstrom
In dem Messfahrzeug können auch synchron zwei Lokalisationsströme
Zudem kann der Lokalisierungsstrom
Der Backend-Server stellt das Softwaremodul
Ein wesentlicher Vorteil des erfindungsgemäßen Verfahrens besteht darin, dass verglichen mit der Präzision von GPS eine deutlich bessere Präzision beim Ermitteln einer Position eines Fahrzeugs erreicht wird. Dies gilt in besonderem Maße für die longitudinale Position des Fahrzeugs bezogen auf die Fahrtstrecke. Ein weiterer Vorteil ist darin zu sehen, dass das erfindungsgemäße Verfahren ausschließlich auf dem Erfassen einer Umgebung des Fahrzeugs basiert, d. h. dass nur lokale Informationen zum Ermitteln der Position des Fahrzeugs verwendet werden. Ein Empfang satellitengestützter Positionsdaten kann sogar entfallen, wodurch auch in tiefen Häuserschluchten oder Tunnels die Position des Fahrzeugs zuverlässig und präzise ermittelt werden kann. Zudem sind an die Umgebung des Fahrzeugs keine Bedingungen geknüpft, d. h. es werden beispielsweise weder Markierungen von Fahrspuren oder Orientierungspunkte vorausgesetzt. Ein dritter Vorteil ergibt sich daraus, dass die Verwendung eines Convolutional Autoencoders oder eines tiefen neuronalen Netzes einen sehr geringen Rechenaufwand verursacht, wodurch die Ressourcen eines entsprechenden in dem Fahrzeug vorgesehenen Steuergeräts geschont werden.A significant advantage of the method according to the invention is that compared to the precision of GPS significantly better precision in determining a position of a vehicle is achieved. This applies in particular to the longitudinal position of the vehicle relative to the route. Another advantage is that the method according to the invention is based solely on detecting an environment of the vehicle, i. H. that only local information is used to determine the position of the vehicle. A reception of satellite-based position data can even be dispensed with, as a result of which the position of the vehicle can be reliably and precisely determined even in deep urban canyons or tunnels. In addition, no conditions are attached to the environment of the vehicle, d. H. For example, neither markings of lanes or landmarks are required. A third advantage arises from the fact that the use of a convolutional autencoder or a deep neural network causes a very low computation effort, whereby the resources of a corresponding control unit provided in the vehicle are spared.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 1010
- erfasstes Bildcaptured image
- 1111
- Convolutional AutoencoderConvolutional Autoencoder
- 1212
- Positionsstromposition power
- 1313
- Fahrtstreckeroute
- 1414
- Lokalisierungsstromlocation current
- 1515
- Abschnittsection
- 1616
- Komparatorcomparator
- 2020
- erfasstes Bildcaptured image
- 2121
- anderes Fahrzeuganother vehicle
- 2222
- Gebäudebuilding
- 2323
- StraßeStreet
- 2424
- Fahrbahnmarkierungroad marking
- 2525
- Himmelsky
- 2626
- Landschaftlandscape
- 3030
- Diagrammdiagram
- 3131
- Ausgangspunktstarting point
- 3232
- Fahrtzieldestination
- 3333
- Position eines ersten FahrzeugsPosition of a first vehicle
- 3434
- Position eines zweiten FahrzeugsPosition of a second vehicle
- 3535
- Abstanddistance
- 3636
- Pixelanzahl HimmelPixel number of sky
- 3737
- Pixelanzahl GebäudePixel number of buildings
- 3838
- Pixelanzahl LandschaftPixel number landscape
Claims (10)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102017222600.5A DE102017222600B3 (en) | 2017-12-13 | 2017-12-13 | Optical position determination of a vehicle by means of a convolutional autencoder and / or a deep neural network |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102017222600.5A DE102017222600B3 (en) | 2017-12-13 | 2017-12-13 | Optical position determination of a vehicle by means of a convolutional autencoder and / or a deep neural network |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102017222600B3 true DE102017222600B3 (en) | 2018-12-27 |
Family
ID=64567809
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102017222600.5A Active DE102017222600B3 (en) | 2017-12-13 | 2017-12-13 | Optical position determination of a vehicle by means of a convolutional autencoder and / or a deep neural network |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102017222600B3 (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102018210765A1 (en) * | 2018-06-29 | 2020-01-02 | Volkswagen Aktiengesellschaft | Localization system and method for operating the same |
| DE102020128952A1 (en) | 2020-11-03 | 2022-05-05 | Bayerische Motoren Werke Aktiengesellschaft | Method and assistance device for two-stage image-based scene recognition and motor vehicle |
| DE102021106988A1 (en) | 2021-03-22 | 2022-09-22 | Conti Temic Microelectronic Gmbh | Method and system for determining a vehicle's own motion information |
| US11620475B2 (en) | 2020-03-25 | 2023-04-04 | Ford Global Technologies, Llc | Domain translation network for performing image translation |
| CN117706360A (en) * | 2024-02-02 | 2024-03-15 | 深圳市昱森机电有限公司 | Monitoring methods, devices, equipment and storage media for motor operating status |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102009018073A1 (en) | 2008-07-16 | 2010-01-21 | Volkswagen Ag | Method for updating a geographical database for a vehicle navigation system |
| US20110267452A1 (en) | 2009-02-20 | 2011-11-03 | Panasonic Corporation | Image compressing apparatus, image compressing method and vehicle-mounted image recording apparatus |
| WO2016100814A1 (en) | 2014-12-19 | 2016-06-23 | United Technologies Corporation | Multi-modal sensor data fusion for perception systems |
| US20170015317A1 (en) | 2015-07-13 | 2017-01-19 | Cruise Automation, Inc. | Method for image-based vehicle localization |
| WO2017053407A1 (en) | 2015-09-24 | 2017-03-30 | Quovard Management Llc | Systems and methods for localization using surface imaging |
| US9623905B2 (en) | 2015-02-10 | 2017-04-18 | Mobileye Vision Technologies Ltd. | Autonomous vehicle navigation based on recognized landmarks |
| WO2017156243A1 (en) | 2016-03-11 | 2017-09-14 | Siemens Aktiengesellschaft | Deep-learning based feature mining for 2.5d sensing image search |
-
2017
- 2017-12-13 DE DE102017222600.5A patent/DE102017222600B3/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102009018073A1 (en) | 2008-07-16 | 2010-01-21 | Volkswagen Ag | Method for updating a geographical database for a vehicle navigation system |
| US20110267452A1 (en) | 2009-02-20 | 2011-11-03 | Panasonic Corporation | Image compressing apparatus, image compressing method and vehicle-mounted image recording apparatus |
| WO2016100814A1 (en) | 2014-12-19 | 2016-06-23 | United Technologies Corporation | Multi-modal sensor data fusion for perception systems |
| US9623905B2 (en) | 2015-02-10 | 2017-04-18 | Mobileye Vision Technologies Ltd. | Autonomous vehicle navigation based on recognized landmarks |
| US20170015317A1 (en) | 2015-07-13 | 2017-01-19 | Cruise Automation, Inc. | Method for image-based vehicle localization |
| WO2017053407A1 (en) | 2015-09-24 | 2017-03-30 | Quovard Management Llc | Systems and methods for localization using surface imaging |
| WO2017156243A1 (en) | 2016-03-11 | 2017-09-14 | Siemens Aktiengesellschaft | Deep-learning based feature mining for 2.5d sensing image search |
Non-Patent Citations (6)
| Title |
|---|
| C. Le Barz et al, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops 2015, pp. 9-17 |
| C. Le Barz et al.: "Absolute geo-localization thanks to Hidden Markov Model and exemplar-based metric learning", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops 2015, pp. 9-17 * |
| M. Aldibaja et al, IEEE Transactions on Industrial Informatics 13 (5), pp. 2369-2378, Oct. 2017 |
| M. Aldibaja et al.: "Robust Intensity-Based Localization Method for Autonomous Driving on Snow–Wet Road Surface", IEEE Transactions on Industrial Informatics 13 (5), pp. 2369-2378 (Oct. 2017) * |
| N. Mattern, R. Schubert, G. Wanielik, IEEE Intelligent Vehicles Symposium, San Diego, CA, USA, June 21-24, 2010, pp. 462-469 |
| N. Mattern, R. Schubert, G. Wanielik: "High-accurate vehicle localization using digital maps and coherency images", IEEE Intelligent Vehicles Symposium, San Diego, CA, USA, June 21-24, 2010, pp. 462-469 * |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102018210765A1 (en) * | 2018-06-29 | 2020-01-02 | Volkswagen Aktiengesellschaft | Localization system and method for operating the same |
| US11620475B2 (en) | 2020-03-25 | 2023-04-04 | Ford Global Technologies, Llc | Domain translation network for performing image translation |
| DE102020128952A1 (en) | 2020-11-03 | 2022-05-05 | Bayerische Motoren Werke Aktiengesellschaft | Method and assistance device for two-stage image-based scene recognition and motor vehicle |
| DE102021106988A1 (en) | 2021-03-22 | 2022-09-22 | Conti Temic Microelectronic Gmbh | Method and system for determining a vehicle's own motion information |
| CN117706360A (en) * | 2024-02-02 | 2024-03-15 | 深圳市昱森机电有限公司 | Monitoring methods, devices, equipment and storage media for motor operating status |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102017222600B3 (en) | Optical position determination of a vehicle by means of a convolutional autencoder and / or a deep neural network | |
| DE112017007327B4 (en) | VEHICLE POSITION ESTIMATING DEVICE | |
| DE102020118187B4 (en) | System and method for calibrating a steering wheel neutral position | |
| EP3491417B1 (en) | Method and system for detecting landmarks in a traffic environment of a mobile unit | |
| DE102011117809B4 (en) | Method for supplementing GPS or GPS/sensor vehicle positioning using additional on-vehicle imaging sensors | |
| EP2819901B1 (en) | Method and device for determining the speed and/or position of a vehicle | |
| DE102015203016B4 (en) | Method and device for optical self-localization of a motor vehicle in an environment | |
| DE112020002592T5 (en) | SYSTEMS AND METHODS FOR VEHICLE NAVIGATION BASED ON IMAGE ANALYSIS | |
| DE102012014397B4 (en) | Method for determining a position of a vehicle and vehicle | |
| DE112018002143T5 (en) | SYSTEMS AND METHODS FOR COMPRESSING TRAFFIC DATA | |
| DE102016205436A1 (en) | Method and system for creating a digital map | |
| DE102017120709A1 (en) | OBJECTIVITY ESTIMATION USING DATA FROM A SINGLE CAMERA | |
| DE102013208521A1 (en) | Collective learning of a highly accurate road model | |
| DE112014000532T5 (en) | Curve modeling device, curve modeling method and vehicle navigation device | |
| WO2013056884A1 (en) | Acquisition of data from image data-based map services by an assistance system | |
| DE102019207087A1 (en) | Localization of a mobile unit | |
| EP2033165B1 (en) | Method for picking up a traffic space | |
| DE102022102567B4 (en) | Method and processor circuit for locating a motor vehicle in an environment during a journey and motor vehicle equipped accordingly | |
| DE102022128968A1 (en) | IMAGE COLLECTION SYSTEMS AND METHODS FOR VEHICLE NAVIGATION | |
| DE102019208176A1 (en) | VEHICLE DRIVING ASSISTANCE SYSTEM | |
| EP3781906B1 (en) | Method and device for determining a highly precise position of a vehicle | |
| DE102017118078A1 (en) | Localization device for a motor vehicle, driver assistance device, motor vehicle and method for locating a motor vehicle | |
| DE102017122440A1 (en) | A method for locating and further developing a digital map by a motor vehicle; localization device | |
| DE102019213403A1 (en) | Method for the sensor-based localization of a host vehicle, host vehicle and a computer program | |
| DE102013001867A1 (en) | Method for determining orientation and corrected position of motor vehicle, involves registering features of loaded and recorded environmental data by calculating transformation and calculating vehicle orientation from transformation |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed | ||
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division | ||
| R020 | Patent grant now final |