[go: up one dir, main page]

DE102017222600B3 - Optical position determination of a vehicle by means of a convolutional autencoder and / or a deep neural network - Google Patents

Optical position determination of a vehicle by means of a convolutional autencoder and / or a deep neural network Download PDF

Info

Publication number
DE102017222600B3
DE102017222600B3 DE102017222600.5A DE102017222600A DE102017222600B3 DE 102017222600 B3 DE102017222600 B3 DE 102017222600B3 DE 102017222600 A DE102017222600 A DE 102017222600A DE 102017222600 B3 DE102017222600 B3 DE 102017222600B3
Authority
DE
Germany
Prior art keywords
vehicle
localization
software module
stream
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017222600.5A
Other languages
German (de)
Inventor
Felix Friedmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102017222600.5A priority Critical patent/DE102017222600B3/en
Application granted granted Critical
Publication of DE102017222600B3 publication Critical patent/DE102017222600B3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum optischen Ermitteln einer Position eines Fahrzeugs, bei dem während einer Fahrt des Fahrzeugs mit mindestens einer an dem Fahrzeug vorgesehenen Außenkamera fortlaufend Bilder einer Umgebung des Fahrzeugs optisch erfasst werden, um die Position des Fahrzeugs anhand der erfassten Bilder in Echtzeit zu ermitteln.The invention relates to a method for optically determining a position of a vehicle in which, while the vehicle is traveling with at least one exterior camera provided on the vehicle, images of surroundings of the vehicle are continuously optically detected in order to obtain the position of the vehicle in real time based on the captured images determine.

Description

Die Erfindung betrifft ein Verfahren zum optischen Ermitteln einer Position eines Fahrzeugs, bei dem während einer Fahrt des Fahrzeugs mit mindestens einer an dem Fahrzeug vorgesehenen Außenkamera fortlaufend Bilder einer Umgebung des Fahrzeugs optisch erfasst werden, um die Position des Fahrzeugs anhand der erfassten Bilder in Echtzeit zu ermitteln.The invention relates to a method for optically determining a position of a vehicle in which, while the vehicle is traveling with at least one exterior camera provided on the vehicle, images of surroundings of the vehicle are continuously optically detected in order to obtain the position of the vehicle in real time based on the captured images determine.

Aktuelle Bestrebungen gehen dahin, Fahrzeuge zu entwickeln, welche selbständig, d. h. ohne Mitwirken eines Fahrers von einem Ausgangspunkt zu einem bestimmten Fahrtziel navigieren (Autonomes Fahren). Ein selbständig fahrendes Fahrzeug muss daher zum einen während der Fahrt möglichen Hindernissen auf der Fahrtstrecke ausweichen und zum anderen fortlaufend seine Position ermitteln und seine Lenkung entsprechend einer zu dem bestimmten Fahrtziel führenden Fahrtstrecke passend betätigen.Recent efforts are going to develop vehicles that independently, d. H. Navigate from a starting point to a specific destination without the assistance of a driver (autonomous driving). A self-propelled vehicle must therefore dodge on the one hand while driving possible obstacles on the route and on the other hand continuously determine its position and operate his steering according to a leading to the particular destination travel route.

Ein erstes Problem eines selbständig fahrenden Fahrzeugs besteht demnach in einem zuverlässigen Erkennen eines möglichen Hindernisses, wie beispielsweise eines Fußgängers, eines vorausfahrenden Fahrzeugs, einer Verkehrsinsel oder einer Baustellenmarkierung, sowie einem präzisen Ermitteln des Abstands des erkannten Hindernisses von dem Fahrzeug, um dem Hindernis durch Lenken und/oder Bremsen auszuweichen. Hierfür ist im Allgemeinen eine Kombination mehrerer an dem Fahrzeug angebrachter Sensoren zum Erfassen unterschiedlicher Aspekte und/oder Bereiche einer Umgebung des Fahrzeugs notwendig. Die von diesen Sensoren jeweils erzeugten verschiedenen Daten müssen allerdings geeignet zusammengeführt werden, um sowohl eine Art eines Hindernisses als auch einen Abstand des Hindernisses von dem Fahrzeug zuverlässig zu erkennen bzw. präzise zu ermitteln.A first problem of a self-propelled vehicle is therefore reliable detection of a possible obstacle, such as a pedestrian, a preceding vehicle, a traffic island or a construction site mark, as well as a precise determination of the distance of the detected obstacle from the vehicle to the obstacle by steering and / or brakes. For this purpose, a combination of a plurality of sensors mounted on the vehicle for detecting different aspects and / or regions of an environment of the vehicle is generally necessary. However, the different data generated by each of these sensors must be properly combined to reliably detect and accurately detect both a kind of obstacle and a distance of the obstacle from the vehicle.

Die WO 2016/100814 A1 offenbart ein solches Verfahren zum Zusammenführen von Daten unterschiedlicher Sensoren. Bei dem Verfahren werden die dreidimensionalen Daten eines LiDARs (Light Detection And Ranging) und die zweidimensionalen Daten einer Außenkamera mittels eines Convolutional Autoencoders zusammengeführt. In den zusammengeführten Daten werden interessante Bereiche und in den interessanten Bereichen wiederum interessante Stellen mittels eines tiefen neuronalen Netzes oder eines Convolutional Autoencoders ausgewertet und jedes erkannte Hindernis mit einer das Hindernis einschließenden Kontur markiert, d. h. eingerahmt. Relative Ausrichtungsfehler des LiDARs und der Außenkamera können bei entsprechendem Training eines tiefen neuronalen Netzes oder eines Convolutional Autoencoders kompensiert werden. Allerdings ermöglicht dieses Verfahren kein Ermitteln einer Position des Fahrzeugs.The WO 2016/100814 A1 discloses such a method for merging data from different sensors. In the process, the three-dimensional data of a LiDAR (Light Detection And Ranging) and the two-dimensional data of an outdoor camera are combined by means of a convolutional autencoder. In the merged data interesting areas and in the interesting areas in turn interesting points are evaluated by means of a deep neural network or a convolutional autencoder and marked each obstacle detected with an obstacle enclosing contour, ie framed. Relative alignment errors of the LiDAR and the outdoor camera can be compensated by training a deep neural network or a convolutional auto-encoder. However, this method does not allow to determine a position of the vehicle.

Die folgenden Druckschriften behandeln weitere Aspekte von Sensoren oder Außenkameras eines Fahrzeugs bzw. die Verarbeitung der von den Sensoren oder Außenkameras erzeugten Bilder oder Videoströme.The following references address other aspects of sensors or exterior cameras of a vehicle or the processing of the images or video streams generated by the sensors or external cameras.

Die WO 2016/100814 A1 offenbart ein Verfahren zum automatischen Ausrichten mehrerer multimodaler Sensoren eines Fahrzeugs. Bei dem Verfahren werden Ausrichtungsfehler der Sensoren anhand von in jeweiligen Sensordaten erkannten Kanten mittels eines neuronalen Netzes erkannt und mittels den Sensoren zugeordneten Aktuatoren korrigiert.The WO 2016/100814 A1 discloses a method for automatically aligning multiple multimodal sensors of a vehicle. In the method, alignment errors of the sensors are detected on the basis of edges detected in respective sensor data by means of a neural network and corrected by means of actuators assigned to the sensors.

Die US 2011/0267452 A1 offenbart ein Verfahren zum Komprimieren eines von einer Außenkamera eines Fahrzeugs während einer Fahrt aufgenommenen Videostroms. Dabei wird jedes Einzelbild des Videostroms in mehrere Bereiche unterteilt und jeder Bereich mit einer relevanzabhängigen individuellen Kompressionsrate komprimiert.The US 2011/0267452 A1 discloses a method of compressing a video stream captured by an exterior camera of a vehicle during a ride. Each frame of the video stream is divided into several areas and each area is compressed with a relevance-dependent individual compression rate.

Die WO 2017/156243 A1 offenbart ein Verfahren zum Erkennen von Objekten in einem digitalen zweieinhalbdimensionalen Bild, welches sowohl Farb- als auch Tiefeninformationen umfasst, mittels eines neuronalen Netzes.The WO 2017/156243 A1 discloses a method of recognizing objects in a digital two and one-half dimensional image comprising both color and depth information by means of a neural network.

Die DE 10 2009 018 073 A1 offenbart ein Verfahren zum automatischen Aktualisieren einer geographischen Datenbank für ein Navigationssystem anhand eines von einer Außenkamera eines Fahrzeugs aufgenommenen Bilds.The DE 10 2009 018 073 A1 discloses a method for automatically updating a geographic database for a navigation system based on an image taken by an exterior camera of a vehicle.

Ein zweites Problem stellt die Ermittlung einer aktuellen Position des Fahrzeugs dar. Die mit satellitengestützten Lokalisierungssystemen erreichbare Präzision beim Ermitteln einer Position, beispielsweise die Präzision des in Fahrzeugen weit verbreiteten GPS-Systems (Global Positioning System), ist allerdings für selbständig fahrende Fahrzeuge völlig unzureichend. Zum einen erlaubt sie es nicht einmal, ein Fahrzeug zuverlässig auf einer sogar breiten Fahrbahn und erst recht nicht auf einer relativ schmalen Fahrspur einer mehrspurigen Fahrbahn zu halten. Zum anderen kann das Empfangen satellitengestützter Positionsdaten aufgrund von Abschattungen, wie beispielsweise in tiefen Häuserschluchten oder in Tunnels, unmöglich oder aufgrund widriger Wetterbedingungen stark behindert sein, wodurch sich die Präzision weiter verringert.A second problem is the determination of a current position of the vehicle. The achievable with satellite localization systems precision in determining a position, such as the precision of the widely used in vehicles GPS system (Global Positioning System), but is completely insufficient for self-driving vehicles. On the one hand, it does not even allow a vehicle to be reliably supported on an even wide lane, much less on a relatively narrow lane on a multi-lane carriageway. On the other hand, receiving satellite-based position data due to shadowing, such as in deep canyons or in tunnels, may be impossible or severely hampered by adverse weather conditions, further reducing precision.

Eine mögliche Lösung dieses Problems liegt in einem fortlaufenden optischen Erfassen einer Umgebung des Fahrzeugs mittels an dem Fahrzeug angebrachter Außenkameras und algorithmischem Auswerten der erfassten Umgebung. Auf diese Weise lassen sich die relativ ungenauen GPS-Positionsdaten lokal präzisieren.One possible solution to this problem is a continuous optical detection of an environment of the vehicle by means of external cameras mounted on the vehicle and algorithmic Evaluate the detected environment. In this way, the relatively inaccurate GPS position data can be specified locally.

So offenbart die US 2017/0015317 A1 ein Verfahren zum Ermitteln einer Position eines Fahrzeugs auf einer Fahrbahn, bei dem während einer Fahrt auf der Fahrbahn fortlaufend Bilder einer Oberfläche der Fahrbahn in einer Umgebung des Fahrzeugs von an dem Fahrzeug vorgesehenen Außenkameras optisch erfasst werden. Ein lernfähiger Mustererkennungsalgorithmus, welcher eine statische Verzerrung infolge einer Perspektive einer Außenkamera ebenso wie dynamische Verzerrungen infolge von Nickbewegungen und Rollbewegungen des Fahrzeugs kompensiert, erkennt auf den erfassten Bildern vorhandene Markierungen einer Fahrspur, welche zum Halten des Fahrzeugs in der Fahrspur verwendet werden. Zum Trainieren des Mustererkennungsalgorithmus können lokalisierte Referenzbilder der Oberfläche der Fahrbahn verwendet werden, welche mittels von dem Fahrzeug empfangener satellitengestützter Positionsdaten einer aktuellen Position des Fahrzeugs zugeordnet werden. Dieses Verfahren setzt allerdings Fahrspurmarkierungen auf der Fahrbahn zwingend voraus und kann infolgedessen auf Fahrbahnen ohne Fahrspurmarkierung nicht verwendet werden.So revealed the US 2017/0015317 A1 a method for determining a position of a vehicle on a roadway, wherein during driving on the roadway, images of a surface of the roadway in an environment of the vehicle are optically detected by outdoor cameras provided on the vehicle. An adaptive pattern recognition algorithm that compensates for static distortion due to an outside camera perspective as well as dynamic distortions due to pitching and rolling motion of the vehicle detects lane markers present on the captured images used to hold the vehicle in the lane. For training the pattern recognition algorithm, localized reference images of the surface of the roadway can be used, which are assigned to a current position of the vehicle by means of satellite-supported position data received by the vehicle. However, this method compulsorily requires lane markings on the road and, as a result, can not be used on lanes without lane markings.

Alternativ dazu offenbart die US 9,623,905 B2 ein Verfahren zum Ermitteln einer Position eines Fahrzeugs auf einer Fahrbahn, bei dem während einer Fahrt auf der Fahrbahn fortlaufend Bilder einer Umgebung des Fahrzeugs von an dem Fahrzeug vorgesehenen Außenkameras optisch erfasst werden. Jedes erfasste Bild wird von einem tiefen neuronalen Netz analysiert, um typische von der Fahrbahn aus sichtbare Orientierungspunkte, wie beispielsweise markante Gebäude, Brücken oder Verkehrsschilder zu erkennen. Ein erkannter Orientierungspunkt wird mit einer Liste bekannter und präzise lokalisierter Orientierungspunkte abgeglichen, um ihn zu identifizieren und die Position des Fahrzeugs relativ zu dem identifizierten Orientierungspunkt zu ermitteln. Dieses Verfahren setzt allerdings zwingend bekannte und präzise lokalisierte Orientierungspunkte entlang der Fahrbahn voraus und versagt entsprechend auf Fahrbahnabschnitten ohne sichtbare Orientierungspunkte, die sich beispielsweise durch ländliche, waldige oder wüstenartige Regionen erstrecken.Alternatively, the US 9,623,905 B2 a method for determining a position of a vehicle on a roadway, in which images of surroundings of the vehicle are continuously optically detected by exterior cameras provided on the vehicle while traveling on the roadway. Each captured image is analyzed by a deep neural network to detect typical landmarks visible from the lane, such as prominent buildings, bridges or traffic signs. A recognized landmark is aligned with a list of known and precisely located landmarks to identify it and to determine the position of the vehicle relative to the identified landmark. However, this method presupposes compellingly well-known and precisely located landmarks along the roadway and fails accordingly on lane sections with no visible landmarks extending, for example, through rural, woody or desert-like regions.

Die WO 2017/053407 A1 offenbart ein Verfahren zum Ermitteln einer Position eines Fahrzeugs. Bei dem Verfahren wird ein von einer Außenkamera erfasstes Bild einer Fahrbahnfläche mittels einer Transformation in ein Template kodiert. Die Position des Fahrzeugs wird ausgehend von Positionsdaten eines Templates einer Templatedatenbank ermittelt, welches mit dem kodierten Template übereinstimmt.The WO 2017/053407 A1 discloses a method for determining a position of a vehicle. In the method, an image captured by an outdoor camera image of a road surface is encoded by means of a transformation into a template. The position of the vehicle is determined on the basis of position data of a template of a template database which corresponds to the coded template.

In „Robust Intensity-Based Localization Method for Autonomous Driving on Snow-Wet Road Surface“ ( M. Aldibaja et al, IEEE Transactions on Industrial Informatics 13 (5), pp. 2369-2378, Oct. 2017 ) wird ein Verfahren zum Ermitteln einer seitlichen Position eines Fahrzeugs auf einer nassen oder verschneiten Fahrbahn offenbart, bei dem durch Akkumulieren mehrerer Bilder eines LiDAR-Sensors eines Fahrzeugs ein verdichtetes Bild berechnet wird. Ein Kantenprofil des verdichteten Bilds wird mit einem Kantenprofil eines in einer Bilddatenbank gespeicherten lokalisierten Bilds verglichen.In "Robust Intensity-Based Localization Method for Autonomous Driving on Snow-Wet Road Surface" M. Aldibaja et al, IEEE Transactions on Industrial Informatics 13 (5), pp. 2369-2378, Oct. 2017 ) discloses a method for determining a lateral position of a vehicle on a wet or snowy roadway in which a compacted image is calculated by accumulating a plurality of images of a LiDAR sensor of a vehicle. An edge profile of the compressed image is compared with an edge profile of a localized image stored in an image database.

In „Absolute geo-localization thanks to hidden Markov Model and exemplarbased metric learning“ ( C. Le Barz et al, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops 2015, pp. 9-17 ) wird ein Verfahren beschrieben, bei dem eine Position eines Fahrzeugs durch Vergleichen einer Folge von von einer Außenkamera des Fahrzeugs erfassten Bildern mit einer Folge von zu grob bekannten Positionen des Fahrzeugs korrespondierenden in einer Bilddatenbank gespeicherten Bildern mittels einer während einer Trainingsphase erlernten lokalen Metrik ermittelt wird.In "Absolute geo-localization thanks to hidden Markov Model and Exemplified metric learning" ( C. Le Barz et al., Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops 2015, pp. 9-17 ) describes a method in which a position of a vehicle is determined by comparing a sequence of images captured by an exterior camera of the vehicle with a sequence of images stored in an image database corresponding to roughly known positions of the vehicle by means of a local metric learned during a training phase ,

In „High-accurate vehicle localization using digital maps an coherency images“ ( N. Mattern, R. Schubert, G. Wanielik, IEEE Intelligent Vehicles Symposium, San Diego, CA, USA, June 21-24, 2010, pp. 462-469 ) wird ein Verfahren zum Ermitteln einer Position eines Fahrzeugs beschrieben. Aus in einer digitalen Karte enthaltenen Informationen wird ein Bild einer Umgebung des Fahrzeugs berechnet, welches mit einem von einer Außenkamera des Fahrzeugs erfassten Bild der Umgebung verglichen wird.In "High-accurate vehicle localization using digital maps to coherency images" ( N. Mattern, R. Schubert, G. Wanielik, IEEE Intelligent Vehicles Symposium, San Diego, Calif., USA, June 21-24, 2010, p. 462-469 ) describes a method for determining a position of a vehicle. From information contained in a digital map, an image of an environment of the vehicle is calculated, which is compared with an image of the environment captured by an exterior camera of the vehicle.

Der Erfindung liegt daher die Aufgabe zugrunde, ein verbessertes Verfahren zum optischen Ermitteln einer Position eines Fahrzeugs zu schaffen, welches die beschriebenen Nachteile beseitigt und eine große Robustheit besitzt. Darüber hinaus ist es Aufgabe der Erfindung, ein System zum Ausführen des geschaffenen Verfahrens zur Verfügung zu stellen.The invention is therefore based on the object to provide an improved method for optically detecting a position of a vehicle, which eliminates the disadvantages described and has a great robustness. Moreover, it is an object of the invention to provide a system for carrying out the method provided.

Ein Gegenstand der vorliegenden Erfindung ist ein Verfahren zum optischen Ermitteln einer Position eines Fahrzeugs. Das Verfahren umfasst die folgenden Schritte:

  • - Herstellen einer Mobilfunk-Verbindung zwischen dem Fahrzeug und einem Backend-Server mittels eines in dem Fahrzeug vorgesehenen Mobilfunkmoduls;
  • - Empfangen mindestens eines Softwaremoduls zum Kodieren/Dekodieren optischer Daten von dem Backend-Server über die hergestellte Mobilfunk-Verbindung und Installieren des mindestens einen empfangenen Softwaremoduls in einem Steuergerät des Fahrzeugs;
  • - Bestimmen einer Fahrtstrecke für eine Fahrt des Fahrzeugs;
  • - Empfangen, von dem Backend-Server über die hergestellte Mobilfunk-Verbindung, mindestens eines Lokalisierungsstroms für jedes installierte Softwaremodul, welcher der bestimmten Fahrtstrecke zugeordnet ist, und Speichern jedes Lokalisierungsstroms in dem Steuergerät;
  • - Bilden eines Positionsstroms zu jedem installierten Softwaremodul durch mehrfaches, insbesondere periodisches Ausführen der folgenden Schritte während der Fahrt des Fahrzeugs auf der bestimmten Fahrtstrecke:
    • - Erfassen eines Bildes einer Umgebung des Fahrzeugs durch eine an dem Fahrzeug vorgesehene Außenkamera;
    • - Berechnen jeweils eines zu dem erfassten Bild korrespondierenden kodierten Positionswerts mittels jedes installierten Softwaremoduls; und
    • - Speichern des berechneten kodierten Positionswerts durch das Steuergerät; und
  • - Ermitteln der Position des Fahrzeugs durch fortlaufendes, insbesondere periodisches abstraktes Vergleichen des gebildeten Positionsstroms mit einem Abschnitt des empfangenen mindestens einen Lokalisierungsstroms.
An object of the present invention is a method for optically detecting a position of a vehicle. The method comprises the following steps:
  • - Establishing a mobile connection between the vehicle and a back-end server by means provided in the vehicle mobile module;
  • Receiving at least one software module for encoding / decoding optical data from the backend server via the established mobile radio connection and installing the at least one received software module in a controller of the vehicle;
  • Determining a travel distance for a drive of the vehicle;
  • Receiving, from the backend server via the established cellular connection, at least one location stream for each installed software module associated with the particular route and storing each location stream in the controller;
  • Forming a position current to each installed software module by executing the following steps several times, in particular periodically, while the vehicle is traveling on the particular route:
    • - detecting an image of an environment of the vehicle by an outdoor camera provided on the vehicle;
    • Calculating a respective coded position value corresponding to the acquired image by means of each installed software module; and
    • - storing the calculated encoded position value by the controller; and
  • - Determining the position of the vehicle by continuously, in particular periodically abstract comparing the position current formed with a portion of the received at least one localization current.

Die Position des Fahrzeugs wird erfindungsgemäß ausschließlich durch abstraktes Vergleichen kodierter und komprimierter optischer Bilddaten ermittelt. Dazu wird ein in dem Fahrzeug fortlaufend gebildeter Positionsstrom mit einem von einem Backend-Server empfangenen und zu der bestimmten Fahrtstrecke korrespondierenden Lokalisierungsstrom fortlaufend verglichen, um diejenige Stelle des Lokalisierungsstroms zu ermitteln, welche dem aktuellen Positionsstrom des Fahrzeugs entspricht. Mit anderen Worten kommt es bei dem erfindungsgemäßen Verfahren nicht darauf an, in dem Positionsstrom oder dem Lokalisierungsstrom Objekte zu identifizieren, d. h. dem Positionsstrom oder dem Lokalisierungsstrom Bedeutungen zu verleihen. Vielmehr erfolgt der Vergleich auf einer sehr hohen kodierten Abstraktionsstufe. Auf diese Weise kann die Position des Fahrzeugs auf der Fahrtstrecke sehr präzise und zuverlässig bestimmt werden, was mit einer großen Robustheit des Verfahrens einhergeht. Es versteht sich, dass statt einer Mobilfunk-Verbindung eine beliebige andere drahtlose Verbindung verwendet werden kann, ohne den Schutzumfang der Erfindung zu verlassen.The position of the vehicle is determined according to the invention exclusively by abstract comparing coded and compressed optical image data. For this purpose, a continuously formed in the vehicle position current is continuously compared with a received from a back-end server and corresponding to the particular route localization current to determine that point of the localization current, which corresponds to the current position current of the vehicle. In other words, it is not important in the method according to the invention to identify objects in the position current or the localization current, ie. H. to give meaning to the position current or localization current. Rather, the comparison is made on a very high coded abstraction level. In this way, the position of the vehicle on the route can be determined very precisely and reliably, which is associated with a great robustness of the process. It is understood that instead of a cellular connection, any other wireless connection may be used without departing from the scope of the invention.

In einer bevorzugten Ausführungsform wird eine Korrelationsfunktion zum Vergleichen des erzeugten Positionsstroms mit dem Abschnitt des mindestens einen Lokalisierungsstroms berechnet. Korrelationsfunktionen werden beispielsweise in der Statistik verwendet und eignen sich besonders dafür, signifikante Übereinstimmungen zwischen unterschiedlichen Datenmengen festzustellen. Deshalb kann durch Berechnen einer Korrelationsfunktion die Stelle innerhalb des Lokalisierungsstroms besonders zuverlässig und einfach ermittelt werden, die der aktuellen Stelle in dem Positionsstrom entspricht.In a preferred embodiment, a correlation function is calculated for comparing the generated position current with the portion of the at least one localization current. For example, correlation functions are used in statistics and are particularly useful for finding significant matches between different sets of data. Therefore, by calculating a correlation function, the location within the localization current that corresponds to the current location in the position stream can be determined particularly reliably and easily.

In einer weiteren Ausführungsform werden satellitengestützte Positionsdaten, insbesondere GPS-Daten, mittels eines in dem Fahrzeug vorgesehenen Satellitenempfängers empfangen und der Abschnitt des mindestens einen Lokalisierungsstroms mittels der empfangenen Positionsdaten bestimmt. GPS-Daten können den Aufwand beim Vergleichen verringern, indem sie eine grobe Vorabbestimmung des relevanten Abschnitts des Lokalisierungsstroms ermöglichen. Dadurch kann ein unnötiges und aufwändiges Vergleichen mit irrelevanten Abschnitten des Lokalisierungsstroms vermieden werden.In a further embodiment, satellite-based position data, in particular GPS data, are received by means of a satellite receiver provided in the vehicle, and the section of the at least one localization current is determined by means of the received position data. GPS data can reduce the overhead of comparing by providing a rough prediction of the relevant portion of the localization stream. This avoids unnecessary and time-consuming comparisons with irrelevant portions of the localization stream.

In einer Ausführungsform wird aus der bestimmten Position des Fahrzeugs und mindestens einem Lokalisierungsstrom eine Länge eines von dem Fahrzeug auf der Fahrtstrecke zurückgelegten Streckenabschnitts und/oder ein Abstand des Fahrzeugs zu einem weiteren Fahrzeug auf der Fahrtstrecke berechnet. Dies setzt voraus, dass der Lokalisierungsstrom Angaben enthält, welche ein Berechnen einer longitudinalen Position erlauben. Beispielsweise lässt sich eine longitudinale Position innerhalb des Lokalisierungsstroms berechnen, wenn jedem kodierten und komprimierten Bild ein Zeitpunkt und eine aktuelle Geschwindigkeit zugeordnet sind. Dann erhält man die longitudinale Position durch Bilden eines zeitlichen Integrals der jeweiligen aktuellen Geschwindigkeiten seit dem Ausgangspunkt der Fahrt.In one embodiment, from the determined position of the vehicle and at least one localization current, a length of a route section traveled by the vehicle on the route and / or a distance of the vehicle to another vehicle on the route are calculated. This assumes that the localization stream contains indications that allow a calculation of a longitudinal position. For example, a longitudinal position within the localization stream can be computed if each encoded and compressed image is assigned a time and a current velocity. Then, the longitudinal position is obtained by forming a temporal integral of the respective actual speeds since the starting point of the ride.

Gegenstand der Erfindung ist auch ein Verfahren zum Erzeugen mindestens eines in dem oben beschriebenen Verfahren verwendbaren Lokalisierungsstroms während einer Fahrt eines Messfahrzeugs. Das Verfahren umfasst die folgenden Schritte:

  • - Herstellen einer Mobilfunk-Verbindung zwischen dem Messfahrzeug und einem Backend-Server mittels eines in dem Messfahrzeug vorgesehenen Mobilfunkmoduls;
  • - Empfangen mindestens eines Softwaremoduls zum Kodieren/Dekodieren optischer Daten von dem Backend-Server über die hergestellte Mobilfunk-Verbindung und Installieren des mindestens einen empfangenen Softwaremoduls in einem Steuergerät des Messfahrzeugs;
  • - Bestimmen einer Fahrtstrecke für eine Fahrt des Messfahrzeugs;
  • - Bilden mindestens eines Lokalisierungsstroms zu jedem installierten Softwaremodul durch fortlaufendes, insbesondere periodisches Ausführen der folgenden Schritte während der Fahrt des Messfahrzeugs auf der bestimmten Fahrtstrecke:
    • - Erfassen eines Bildes einer Umgebung des Messfahrzeugs durch eine an dem Messfahrzeug vorgesehene Außenkamera;
    • - Berechnen jeweils eines zu dem erfassten Bild korrespondierenden kodierten Positionswerts mittels jedes installierten Softwaremoduls;
    • - Erfassen eines Geschwindigkeitswerts des Messfahrzeugs mittels eines in dem Messfahrzeug vorgesehenen Geschwind igkeitssensors;
    • - Erfassen eines Zeitpunkts mittels eines in dem Messfahrzeug vorgesehenen Zeitmessers;
    • - Bilden eines Lokalisierungswerts durch Verknüpfen des berechneten Positionswerts mit dem erfassten Geschwindigkeitswert und dem erfassten Zeitpunkt; und
    • - Speichern des gebildeten Lokalisierungswerts durch das Steuergerät; und
  • - Senden jedes gebildeten Lokalisierungsstroms an den Backend-Server über die hergestellte Mobilfunkverbindung.
The invention also provides a method for generating at least one localization current which can be used in the above-described method during a journey of a measuring vehicle. The method comprises the following steps:
  • - Establishing a mobile connection between the measuring vehicle and a back-end server by means provided in the measuring vehicle mobile phone module;
  • Receiving at least one software module for encoding / decoding optical data from the back-end server via the established mobile radio connection and installing the at least one received software module in a control unit of the measuring vehicle;
  • Determining a route for a journey of the measuring vehicle;
  • - Forming at least one localization stream to each installed software module by continuously, in particular periodically, performing the following steps while the measurement vehicle is traveling on the particular route:
    • Detecting an image of an environment of the measuring vehicle by an external camera provided on the measuring vehicle;
    • Calculating a respective coded position value corresponding to the acquired image by means of each installed software module;
    • Detecting a speed value of the measuring vehicle by means of a speed sensor provided in the measuring vehicle;
    • Detecting a time by means of a timer provided in the measuring vehicle;
    • Forming a localization value by associating the calculated position value with the detected velocity value and the detected time; and
    • - storing the formed localization value by the controller; and
  • Sending each formed localization stream to the backend server via the established cellular connection.

Das in dem Messfahrzeug ausgeführte Verfahren unterscheidet sich von dem zuvor beschriebenen Verfahren, das von einem einen Lokalisierungsstrom verwendenden Fahrzeug ausgeführt wird, dadurch, dass während der Fahrt zusätzlich eine aktuelle Geschwindigkeit sowie eine Fahrtzeit des Messfahrzeugs erfasst und in den Lokalisierungsstrom integriert werden. Aus diesen Größen lässt sich für jede Stelle des Lokalisierungsstroms ihr longitudinaler Abstand von dem Ausgangspunkt der Fahrt berechnen.The method carried out in the measuring vehicle differs from the previously described method, which is carried out by a vehicle using a localization current, in that an actual speed and a traveling time of the measuring vehicle are additionally detected and integrated into the localization current during the journey. From these quantities, it is possible to calculate their longitudinal distance from the starting point of the journey for each location of the localization current.

In einer Ausführungsform werden mindestens zwei Lokalisierungsströme zu einem installierten Softwaremodul gebildet, indem mindestens zwei Bilder der Umgebung des Fahrzeugs durch mindestens zwei Außenkameras, insbesondere genau zwei Bilder durch eine stereoskopische Kamera gleichzeitig erfasst werden. Dadurch lässt sich zum einen der Umfang des Trainingsmaterials für jedes installierte Softwaremodul vergrößern. Zum anderen kann das Softwaremodul trainiert werden, ähnliche, aber perspektivisch voneinander abweichende Bilder gleichermaßen zu verarbeiten, wodurch eine größere Robustheit des Verfahrens erreicht wird.In one embodiment, at least two localization streams are formed into an installed software module by simultaneously capturing at least two images of the surroundings of the vehicle by at least two external cameras, in particular exactly two images, by a stereoscopic camera. As a result, on the one hand, the scope of the training material for each installed software module can be increased. On the other hand, the software module can be trained to process similar, but perspectively divergent images, thereby achieving greater robustness of the method.

In einer weiteren Ausführungsform werden satellitengestützte Positionsdaten, insbesondere GPS-Daten und bevorzugt DGPS-Daten (Differential Global Positioning System), mittels eines in dem Messfahrzeug angeordneten Satellitenempfängers empfangen und wird der Lokalisierungswert durch zusätzliches Verknüpfen des berechneten Positionswerts mit den empfangenen satellitengestützten Positionsdaten gebildet. Durch das Verknüpfen der Lokalisierungsströme mit satellitengestützten Positionsdaten können die zunächst relativen, d. h. auf bestimmte Fahrtstrecken bezogenen Lokalisierungströme mit absoluten terrestrischen Positionsangaben versehen werden. Auf diese Weise können satellitengestützte Positionsdaten in Fahrzeugen verwendet werden, die selbst keine satellitengestützten Positionsdaten empfangen können. Zudem wird die Präzision der Positionsermittlung weiter erhöht.In a further embodiment, satellite-based position data, in particular GPS data and preferably DGPS data (Differential Global Positioning System), are received by means of a satellite receiver arranged in the measuring vehicle, and the localization value is formed by additionally combining the calculated position value with the received satellite-based position data. By linking the localization streams with satellite-based position data, the first relative, i. H. localization streams related to certain routes are given absolute terrestrial position information. In this way, satellite-based position data can be used in vehicles that can not receive satellite-based position data themselves. In addition, the precision of the position determination is further increased.

Ein weiterer Gegenstand der Erfindung ist ein Verfahren zum Bereitstellen mindestens eines Softwaremoduls zum Kodieren/Dekodieren optischer Daten auf einem Backend-Server und mindestens eines Lokalisierungsstroms für ein Verwenden in einem der beiden oben beschriebenen Verfahren. Das Verfahren umfasst die folgenden Schritte:

  • - Empfangen des mindestens einen Lokalisierungsstroms von einem Messfahrzeug durch den Backend-Server;
  • - Speichern des empfangenen Lokalisierungsstroms;
  • - Bereitstellen des gespeicherten Lokalisierungsstroms zum Empfangen durch ein Fahrzeug;
  • - Trainieren des mindestens einen Softwaremoduls mittels des gespeicherten Lokalisierungsstroms; und
  • - Bereitstellen des mindestens einen trainierten Softwaremoduls zum Empfangen durch ein Fahrzeug.
Another object of the invention is a method for providing at least one software module for encoding / decoding optical data on a back-end server and at least one localization stream for use in one of the two methods described above. The method comprises the following steps:
  • Receiving the at least one localization stream from a measurement vehicle by the backend server;
  • - storing the received localization stream;
  • Providing the stored localization stream for reception by a vehicle;
  • - Training the at least one software module by means of the stored localization stream; and
  • - Providing the at least one trained software module for receiving by a vehicle.

Der Backend-Server erfüllt im Wesentlichen die Aufgabe, die verwendeten Softwaremodule zu trainieren und diese sowie Lokalisierungsströme zum Abrufen bereitzustellen. Die auf einem Backend-Server bereitgestellten Softwaremodule und Lokalisierungsströme können deshalb auch von einer großen Anzahl von Fahrzeugen bequem genutzt werden. Die Fahrzeuge benötigen grundsätzlich nur beim Antreten einer Fahrt eine Mobilfunk-Verbindung zu dem Backend-Server, um ggf. ein in dem Fahrzeug gespeichertes Softwaremodul zu aktualisieren und einen zu der bestimmten Fahrtstrecke korrespondierenden Lokalisierungsstrom von dem Backend-Server zu laden.The main purpose of the back-end server is to train the software modules used and to provide them and localization streams for retrieval. The software modules and localization streams provided on a backend server can therefore also be used conveniently by a large number of vehicles. Basically, the vehicles only need a mobile radio connection to the backend server when starting a journey in order to possibly update a software module stored in the vehicle and to load a localization stream corresponding to the particular route from the backend server.

In einer bevorzugten Ausführungsform jedes der oben beschriebenen Verfahren wird ein Convolutional Autoencoder als ein erstes Software-Modul zum Kodieren/Dekodieren optischer Daten verwendet. Ein Convolutional Autoencoder stellt eine als tiefes neuronales Netz implementierte Sonderform eines Autoencoders (Codec, Codec/Decoder) dar und dient dazu, höherdimensionale Eingangsdaten durch einfaches oder mehrfaches Falten in Ausgangsdaten niedriger Dimension zu transformieren. Ein Convolutional Autoencoder wird dementsprechend verwendet, um umfangreiche zweidimensionale (matrixartige) Bilddaten eindimensional (vektoriell) zu kodieren und zu komprimieren. Aus den kodierten und komprimierten Ausgangsdaten lassen sich die Ausgangsdaten mittels des verwendeten Convolutional Autoencoders mit einem bestimmten Rekonstruktionsfehler zurückgewinnen. Durch Vergleichen der Ausgangsdaten mit den Eingangsdaten kann ein Convolutional Autoencoder unüberwacht mittels Backpropagation trainiert werden, den Rekonstruktionsfehler vor allem für relevante Bereiche oder Abschnitte der Eingangsdaten zu verringern. Ein Convolutional Autoencoder erlaubt es daher, die für eine bestimmte Verwendung benötigte Essenz von Eingangsdaten trotz deutlicher Kompression in den Ausgangsdaten zu bewahren, so dass mittels eines Convolutional Autoencoders ein Videostrom, d. h. eine Bildsequenz zu einem Positionsstrom bzw. Lokalisierungsstrom geringen Umfangs komprimiert wird, der gut handhabbar ist und sich auch für eine drahtlose Übertragung, wie beispielsweise über ein Mobilfunknetz eignet.In a preferred embodiment of each of the methods described above, a convolutional auto-encoder is used as a first software module for encoding / decoding optical data. A Convolutional Autoencoder represents as a deep neural network implemented special form of an auto-coder (codec, codec / decoder) and serves to transform higher-dimensional input data by simple or multiple folding into low-dimension output data. Accordingly, a convolutional auto-encoder is used to one-dimensionally (vectorically) encode and compress extensive two-dimensional (matrix-like) image data. From the coded and compressed output data, the output data can be recovered by means of the convolutional autencoder with a specific reconstruction error. By comparing the output data with the input data, a convolutional autoencoder can be trained unsupervised by means of back propagation to reduce the reconstruction error, especially for relevant areas or sections of the input data. A convolutional auto-encoder thus allows to preserve the essence of input data needed for a particular use, despite significant compression in the output data, so that by means of a convolutional auto-encoder a video stream, ie a picture sequence is compressed to a position stream or localization stream of small size, which is good is manageable and also suitable for wireless transmission, such as via a mobile network.

Zusätzlich wird vorteilhaft ein tiefes neuronales Netz als ein zweites Software-Modul zum Kodieren/Dekodieren optischer Daten verwendet, mit dem zum Berechnen eines zu dem erfassten Bild korrespondierenden kodierten Positionswerts die folgenden Schritte ausgeführt werden:

  • - Identifizieren eines Objekts, das mindestens einer vorgegebenen Objektklasse, die insbesondere Schilder, Pfosten oder Gebäude umfasst, zugeordnet ist, in dem erfassten Bild mittels des tiefen neuronalen Netzes;
  • - Ermitteln einer Pixelzahl innerhalb einer minimalen, das identifizierte Objekt einschließenden, insbesondere rechteckigen Kontur durch das Steuergerät; und
  • - Verwenden der ermittelten Pixelzahl als kodierter Positionswert.
In addition, it is advantageous to use a deep neural network as a second software module for coding / decoding optical data, with which the following steps are carried out for calculating a coded position value corresponding to the captured image:
  • Identifying an object associated with at least one predetermined class of object, including in particular signs, posts or buildings, in the captured image by means of the deep neural network;
  • - Determining a number of pixels within a minimum, the identified object enclosing, in particular rectangular contour by the control unit; and
  • - Using the determined number of pixels as a coded position value.

Ein derartiges tiefes neuronales Netz ermöglicht es ebenfalls, umfangreiche höherdimensionale Eingangsdaten in niedriger dimensionierte Ausgangsdaten zu transformieren und eignet sich zur Objekterkennung und semantischen Segmentierung. Es wird mittels annotierter Objekten, die also bestimmten Objektklassen zugeordnet sind, trainiert. Infolgedessen kann ein tiefes neuronales Netz in Bilddaten trainierte Objekte erkennen und ihnen die jeweilige Objektklasse zuordnen. Mit anderen Worten lässt sich mittels eines derartigen tiefen neuronalen Netzes nicht nur die Existenz, sondern auch die Art eines relevanten Objekts in den Bilddaten ermitteln. Beispielsweise können erkannte Objekte durch Konturen, wie beispielsweise einen rechteckigen Rahmen, eingeschlossen werden und die von der Position des Fahrzeugs abhängige veränderliche Zahl der von den Konturen jeweils eingeschlossenen Pixel als Lokalisierungsstrom verwendet werden.Such a deep neural network also makes it possible to transform large higher-dimensional input data into lower-dimensioned output data and is suitable for object recognition and semantic segmentation. It is trained by means of annotated objects, which are thus assigned to certain object classes. As a result, a deep neural network can recognize objects trained in image data and associate the respective object classes with them. In other words, not only the existence but also the type of a relevant object in the image data can be determined by means of such a deep neural network. For example, recognized objects may be enclosed by outlines, such as a rectangular frame, and the varying number of pixels enclosed by the contours, depending on the position of the vehicle, may be used as the localization stream.

Ein Gegenstand der Erfindung ist ferner ein System zum optischen Ermitteln einer Position eines Fahrzeugs, mit einem Fahrzeug, welches mindestens eine Außenkamera, ein Steuergerät und ein Mobilfunkmodul umfasst und zum Ausführen des ersten oben beschriebenen Verfahrens konfiguriert ist, einem Messfahrzeug, welches mindestens eine Außenkamera, ein Steuergerät und ein Mobilfunkmodul umfasst und zum Ausführen des zweiten oben beschriebenen Verfahrens konfiguriert ist, einem Backend-Server, welcher zum Ausführen des dritten oben beschriebenen Verfahrens konfiguriert ist, und insbesondere einem ein erstes Softwaremodul bildenden Convolutional Autoencoder zum Kodieren/Dekodieren optischer Daten sowie bevorzugt einem ein zweites Softwaremodul bildenden tiefen neuronalen Netz zum Kodieren/Dekodieren optischer Daten. Das erfindungsgemäße Verfahren kann also mit einem relativ einfachen System aus einem Fahrzeug, einem Messfahrzeug und einem Backend-Server ausgeführt werden und benötigt keine Fähigkeit zum Verwenden satellitengestützter Positionsdaten.A subject of the invention is furthermore a system for optically determining a position of a vehicle, comprising a vehicle which comprises at least one outdoor camera, a control unit and a mobile radio module and configured to carry out the first method described above, a measuring vehicle which has at least one external camera, a controller and a cellular module and configured to execute the second method described above, a backend server configured to perform the third method described above, and more particularly to a convolutional auto-encoder for optical data encoding / decoding forming a first software module a deep neural network for encoding / decoding optical data constituting a second software module. Thus, the method according to the invention can be carried out with a relatively simple system consisting of a vehicle, a measuring vehicle and a back-end server and does not require an ability to use satellite-supported position data.

Die Erfindung ist anhand mehrerer Ausführungsformen in den Zeichnungen schematisch dargestellt und wird unter Bezugnahme auf die Zeichnungen weiter beschrieben. Es zeigt:

  • 1 in einem schematischen Ablaufdiagramm eine Ausführungsform des erfindungsgemäßen Verfahrens;
  • 2 in einer schematischen Darstellung ein von einer in Vorwärtsrichtung weisenden Außenkamera erfasstes Bild einer Umgebung des Fahrzeugs;
  • 3 in einem Funktionsgraph einen in einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens gebildeten Positionsstrom;
  • 4 den in 3 dargestellten Funktionsgraph mit darin eingetragenen Positionen zweier Fahrzeuge.
The invention is illustrated schematically with reference to several embodiments in the drawings and will be further described with reference to the drawings. It shows:
  • 1 in a schematic flow diagram, an embodiment of the method according to the invention;
  • 2 in a schematic representation, an image of an environment of the vehicle detected by a forward-facing outdoor camera;
  • 3 in a functional graph, a position current formed in a further embodiment of the method according to the invention;
  • 4 the in 3 illustrated function graph with registered therein positions of two vehicles.

1 zeigt in einem schematischen Ablaufdiagramm eine Ausführungsform des erfindungsgemäßen Verfahrens. Bei dem Verfahren zum optischen Ermitteln einer Position eines Fahrzeugs wird zunächst zwischen dem Fahrzeug und einem Backend-Server mittels eines in dem Fahrzeug vorgesehenen Mobilfunkmoduls eine Mobilfunkverbindung hergestellt. Das Fahrzeug empfängt von dem Backend-Server ein Softwaremodul 11 zum Kodieren/Dekodieren optischer Daten in Form eines Convolutional Autoencoders und installiert dieses in einem Steuergerät. 1 shows in a schematic flow diagram an embodiment of the method according to the invention. In the method for optically determining a position of a vehicle, a mobile radio connection is first established between the vehicle and a back-end server by means of a mobile radio module provided in the vehicle. The vehicle receives a software module from the backend server 11 for encoding / decoding optical data in the form of a convolutional autoencoder and installs it in a control unit.

Nach dem Bestimmen einer Fahrtstrecke 13 für eine Fahrt des Fahrzeugs empfängt das Fahrzeug über die hergestellte Mobilfunk-Verbindung von dem Backend-Server einen zu dem installierten Softwaremodul 11 passenden Lokalisierungsstrom 14, welcher der bestimmten Fahrtstrecke 13 zugeordnet ist, und speichert den empfangenen Lokalisierungsstrom 14 in dem Steuergerät. Zum Bilden eines zu dem installierten Softwaremodul 11 korrespondierenden Positionsstroms 12 werden während der Fahrt des Fahrzeugs auf der bestimmten Fahrtstrecke 13 periodisch die folgenden Schritte ausgeführt: Durch eine an dem Fahrzeug vorgesehene Außenkamera wird ein Bild 10, 20 einer Umgebung des Fahrzeugs erfasst. Mittels des installierten Softwaremoduls 11 wird ein zu dem erfassten Bild korrespondierender kodierter Positionswert berechnet und der berechnete kodierte Positionswert durch das Steuergerät gespeichert. Auf diese Weise entsteht der Positionsstrom 12 während der Fahrt des Fahrzeugs inkrementell aus den gespeicherten kodierten Positionswerten. Der Positionsstrom 12 wird periodisch mit einem Abschnitt 15 des empfangenen Lokalisierungsstroms 14 mittels eines Komparators 16 abstrakt verglichen, um die Position des Fahrzeugs zu ermitteln. Der Komparator 16 berechnet zum abstrakten Vergleichen des Positionsstroms 12 mit einem Abschnitt 15 des empfangenen Lokalisierungsstrom 14 eine Korrelationsfunktion. Dabei wird der für den Vergleich verwendete Abschnitt 15 des Lokalisierungsstroms 14 mittels satellitengestützter GPS-Daten bestimmt, welche mittels eines in dem Fahrzeug vorgesehenen Satellitenempfänger empfangen werden. After determining a route 13 for a ride of the vehicle, the vehicle receives over the established mobile connection from the back-end server to the installed software module 11 matching localization current 14 which of the particular route 13 is assigned and stores the received localization stream 14 in the control unit. To form one to the installed software module 11 corresponding position current 12 be while driving the vehicle on the specific route 13 Periodically, the following steps are performed: An external camera provided on the vehicle becomes an image 10 . 20 an environment of the vehicle detected. By means of the installed software module 11 a coded position value corresponding to the detected image is calculated and the calculated coded position value is stored by the control device. This creates the position current 12 during the drive of the vehicle incrementally from the stored coded position values. The position current 12 is periodic with a portion 15 of the received localization stream 14 by means of a comparator 16 abstract compared to determine the position of the vehicle. The comparator 16 calculated for abstract comparing the position current 12 with a portion 15 of the received localization stream 14 a correlation function. At this time, the localization current section 15 used for the comparison becomes 14 determined by satellite-based GPS data received by means of a satellite receiver provided in the vehicle.

Der von dem Fahrzeug empfangene und verwendete Lokalisierungsstrom 14 wird während einer Fahrt eines Messfahrzeugs auf derselben Fahrtstrecke 13 erzeugt. Dabei wird im Wesentlichen das bereits vorstehend beschriebene Verfahren ausgeführt. Im Unterschied zu diesem wird aber kein Positionsstrom 12, sondern ein Lokalisierungsstrom 14 gebildet. Der Lokalisierungsstrom 14 umfasst neben den mit dem installierten Softwaremodul 11, wie oben beschrieben, berechneten Positionswerten zusätzlich Geschwindigkeitswerte und Zeitpunkte. Die Geschwindigkeitswerte und Zeitpunkte werden jeweils von einem in dem Messfahrzeug vorgesehenen Geschwindigkeitssensor bzw. Zeitmesser erfasst und mit den Positionswerten zu Lokalisierungswerten verknüpft und anschließend durch das Steuergerät gespeichert. Der auf diese Weise gebildete Lokalisierungsstrom 14 wird über die hergestellte Mobilfunk-Verbindung an den Backend-Server gesendet.The location stream received and used by the vehicle 14 is during a journey of a measuring vehicle on the same route 13 generated. In this case, essentially the method already described above is carried out. In contrast to this but no position current 12 but a localization stream 14 educated. The localization current 14 includes besides those with the installed software module 11 as described above, additionally calculated speed values and times. The speed values and times are respectively detected by a speed sensor or timer provided in the measuring vehicle and linked with the position values to localization values and then stored by the control unit. The localization current formed in this way 14 is sent to the backend server via the established mobile connection.

In dem Messfahrzeug können auch synchron zwei Lokalisationsströme 14 zu dem installierten Softwaremodul 11 gebildet werden. Dazu werden zwei Bilder 10, 20 der Umgebung des Fahrzeugs durch zwei Außenkameras, die als jeweilige stereoskopische Kameras ausgebildet sein können, gleichzeitig erfasst.Two localization streams can also be synchronized in the measuring vehicle 14 to the installed software module 11 be formed. This will be two pictures 10 . 20 the surroundings of the vehicle by two external cameras, which may be formed as respective stereoscopic cameras detected simultaneously.

Zudem kann der Lokalisierungsstrom 14 DGPS-Daten umfassen. Ein solcher Lokalisierungsstrom 14 wird gebildet, indem berechnete kodierte Positionswerte zusätzlich mit DGPS-Daten verknüpft werden, die mittels eines in dem Messfahrzeug angeordneten Satellitenempfängers empfangen werden.In addition, the localization current 14 DGPS data include. Such a localization stream 14 is formed by additionally combining calculated coded position values with DGPS data received by means of a satellite receiver arranged in the measuring vehicle.

Der Backend-Server stellt das Softwaremodul 11 und den von dem Messfahrzeug gebildeten Lokalisierungsstrom 14 für die Verwendung durch das Fahrzeug bereit. Dazu empfängt der Backend-Server den Lokalisierungsstrom 14 von dem Messfahrzeug und speichert diesen, um ihn zum Empfangen durch das Fahrzeug bereitzustellen. Weiterhin verwendet der Backend-Server den empfangenen Lokalisierungsstrom 14, um das Softwaremodul 11 zu trainieren. Das trainierte Softwaremodul 14 wird ebenfalls zum Empfangen durch das Fahrzeug bereitgestellt.The backend server provides the software module 11 and the localization current formed by the measuring vehicle 14 ready for use by the vehicle. To do this, the backend server receives the localization stream 14 from the measuring vehicle and stores it to provide for receiving by the vehicle. Furthermore, the backend server uses the received localization stream 14 to the software module 11 to train. The trained software module 14 is also provided for receiving by the vehicle.

2 zeigt in einer schematischen Darstellung ein von einer in Vorwärtsrichtung weisenden Außenkamera erfasstes zweidimensionales Bild 20 einer Umgebung des Fahrzeugs. In dem Bild 20 sind ein anderes Fahrzeug 21, Gebäude 22, eine Straße 23 mit Fahrbahnmarkierungen 24, der Himmel 25 und Teile einer Landschaft 26 erkennbar. 2 shows a schematic representation of a captured from a forward facing outdoor camera two-dimensional image 20 an environment of the vehicle. In the picture 20 are another vehicle 21 , Building 22 , A street 23 with road markings 24 , the sky 25 and parts of a landscape 26 recognizable.

3 zeigt in einem Funktionsgraph einen Positionsstrom 30, der in einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens gebildet wurde. Zum Bilden des Positionsstroms 30 wird zu jedem erfassten Bild 20 ein korrespondierender kodierter Positionswert folgendermaßen berechnet. Zunächst werden in dem erfassten Bild 20 durch das Steuergerät mittels eines tiefen neuronalen Netzes Objekte, wie ein Himmel 25, Gebäude 22 oder Teile einer Landschaft 26, die vorgegebenen Objektklassen zugeordnet sind, identifiziert. Weitere Objektklassen können Schilder oder Pfosten umfassen, die dauerhaft an festen Positionen entlang der Fahrbahn angeordnet sind. Dann wird jedes erkannte Objekt 22, 25, 26 von einer minimalen rechteckigen Kontur eingeschlossen, d. h. eingerahmt und die Pixelanzahl 36, 37, 38 innerhalb der Kontur ermittelt. Die ermittelte Pixelanzahl 36, 37, 38 wird schließlich als kodierter Positionswert zum Bilden des Positionsstroms 30 verwendet. Der Positionsstrom 30 enthält entsprechend Pixelanzahlen 36, 37, 38 von Objekten 22, 25, 26, die in während einer Fahrt erfassten Bildern 20 identifiziert wurden. In dem Funktionsgraph sind die Pixelanzahlen 36 des Himmels 25, die Pixelanzahlen 37 von Gebäuden 22, die Pixelanzahlen 38 von Teilen einer Landschaft 26 und die Pixelanzahlen weiterer erkannter Objekte entsprechend über einer Fahrtstrecke 13 aufgetragen. Es ist aus dem Funktionsgraph ersichtlich, dass die jeweils berechneten Pixelanzahlen 36, 37, 38 unabhängig voneinander und abhängig von der Stelle auf der Fahrtstrecke 13 variieren. Damit umfasst der Positionsstrom 30 höchst individuelle Abschnitte, die einem abstrakten Vergleich ohne weiteres zugänglich sind. 3 shows a position current in a function graph 30 which was formed in a further embodiment of the method according to the invention. To form the position current 30 becomes every captured image 20 a corresponding coded position value calculated as follows. First, in the captured image 20 through the controller by means of a deep neural network objects, like a sky 25 , Building 22 or parts of a landscape 26 , which are assigned to predetermined object classes identified. Other object classes may include signs or posts that are permanently located at fixed positions along the roadway. Then every recognized object 22 . 25 . 26 enclosed by a minimal rectangular contour, ie framed and the number of pixels 36 . 37 . 38 determined within the contour. The determined number of pixels 36 . 37 . 38 finally becomes a coded position value for forming the position current 30 used. The position current 30 contains pixel numbers 36 . 37 . 38 of objects 22 . 25 . 26 taking pictures captured during a ride 20 were identified. In the function graph are the pixel counts 36 Of the sky 25 , the pixel counts 37 of buildings 22 , the pixel counts 38 of parts of a landscape 26 and the pixel counts of other detected objects corresponding to over a route 13 applied. It can be seen from the function graph that the pixel numbers calculated in each case 36 . 37 . 38 independent of each other and depending on the location on the route 13 vary. Thus, the position current includes 30 highly individual sections that are readily accessible to an abstract comparison.

4 zeigt ebenfalls den in 3 dargestellten Funktionsgraph, in den zusätzlich die Position 33 des Fahrzeugs und die Position 34 eines anderen Fahrzeugs eingetragen sind. Der auf die von einem Ausgangspunkt 31 zu einem Fahrtziel 32 führende Fahrtstrecke 13 bezogene longitudinale Abstand 35 zwischen dem Fahrzeug und dem anderen Fahrzeug lässt sich durch eine einfache Differenzbildung berechnen. Zudem lässt sich für das Fahrzeug und das andere Fahrzeug jeweils die ab dem Ausgangspunkt 31 zurückgelegte Strecke sowie die bis zu dem Fahrtziel 32 verbleibende Strecke berechnen. 4 also shows the in 3 shown function graph, in addition to the position 33 of the vehicle and the position 34 registered in another vehicle. The on the from a starting point 31 to a destination 32 leading route 13 related longitudinal distance 35 between the vehicle and the other vehicle can be calculated by a simple difference. In addition, for each of the vehicle and the other vehicle from the starting point 31 the distance covered and as far as the destination 32 calculate remaining distance.

Ein wesentlicher Vorteil des erfindungsgemäßen Verfahrens besteht darin, dass verglichen mit der Präzision von GPS eine deutlich bessere Präzision beim Ermitteln einer Position eines Fahrzeugs erreicht wird. Dies gilt in besonderem Maße für die longitudinale Position des Fahrzeugs bezogen auf die Fahrtstrecke. Ein weiterer Vorteil ist darin zu sehen, dass das erfindungsgemäße Verfahren ausschließlich auf dem Erfassen einer Umgebung des Fahrzeugs basiert, d. h. dass nur lokale Informationen zum Ermitteln der Position des Fahrzeugs verwendet werden. Ein Empfang satellitengestützter Positionsdaten kann sogar entfallen, wodurch auch in tiefen Häuserschluchten oder Tunnels die Position des Fahrzeugs zuverlässig und präzise ermittelt werden kann. Zudem sind an die Umgebung des Fahrzeugs keine Bedingungen geknüpft, d. h. es werden beispielsweise weder Markierungen von Fahrspuren oder Orientierungspunkte vorausgesetzt. Ein dritter Vorteil ergibt sich daraus, dass die Verwendung eines Convolutional Autoencoders oder eines tiefen neuronalen Netzes einen sehr geringen Rechenaufwand verursacht, wodurch die Ressourcen eines entsprechenden in dem Fahrzeug vorgesehenen Steuergeräts geschont werden.A significant advantage of the method according to the invention is that compared to the precision of GPS significantly better precision in determining a position of a vehicle is achieved. This applies in particular to the longitudinal position of the vehicle relative to the route. Another advantage is that the method according to the invention is based solely on detecting an environment of the vehicle, i. H. that only local information is used to determine the position of the vehicle. A reception of satellite-based position data can even be dispensed with, as a result of which the position of the vehicle can be reliably and precisely determined even in deep urban canyons or tunnels. In addition, no conditions are attached to the environment of the vehicle, d. H. For example, neither markings of lanes or landmarks are required. A third advantage arises from the fact that the use of a convolutional autencoder or a deep neural network causes a very low computation effort, whereby the resources of a corresponding control unit provided in the vehicle are spared.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

1010
erfasstes Bildcaptured image
1111
Convolutional AutoencoderConvolutional Autoencoder
1212
Positionsstromposition power
1313
Fahrtstreckeroute
1414
Lokalisierungsstromlocation current
1515
Abschnittsection
1616
Komparatorcomparator
2020
erfasstes Bildcaptured image
2121
anderes Fahrzeuganother vehicle
2222
Gebäudebuilding
2323
StraßeStreet
2424
Fahrbahnmarkierungroad marking
2525
Himmelsky
2626
Landschaftlandscape
3030
Diagrammdiagram
3131
Ausgangspunktstarting point
3232
Fahrtzieldestination
3333
Position eines ersten FahrzeugsPosition of a first vehicle
3434
Position eines zweiten FahrzeugsPosition of a second vehicle
3535
Abstanddistance
3636
Pixelanzahl HimmelPixel number of sky
3737
Pixelanzahl GebäudePixel number of buildings
3838
Pixelanzahl LandschaftPixel number landscape

Claims (10)

Verfahren zum optischen Ermitteln einer Position eines Fahrzeugs, welches die folgenden Schritte umfasst: - Herstellen einer Mobilfunk-Verbindung zwischen dem Fahrzeug und einem Backend-Server mittels eines in dem Fahrzeug vorgesehenen Mobilfunkmoduls; - Empfangen mindestens eines Softwaremoduls (11) zum Kodieren/Dekodieren optischer Daten von dem Backend-Server über die hergestellte Mobilfunk-Verbindung und Installieren des mindestens einen empfangenen Softwaremoduls (11) in einem Steuergerät des Fahrzeugs; - Bestimmen einer Fahrtstrecke (13) für eine Fahrt des Fahrzeugs; - Empfangen, von dem Backend-Server über die hergestellte Mobilfunk-Verbindung, mindestens eines Lokalisierungsstroms (14) für jedes installierte Softwaremodul (11), welcher der bestimmten Fahrtstrecke (13) zugeordnet ist, und Speichern jedes Lokalisierungsstroms (14) in dem Steuergerät; - Bilden eines Positionsstroms (12) zu jedem installierten Softwaremodul (11) durch mehrfaches, insbesondere periodisches Ausführen der folgenden Schritte während der Fahrt des Fahrzeugs auf der bestimmten Fahrtstrecke (13): - Erfassen eines Bildes (10, 20) einer Umgebung des Fahrzeugs durch eine an dem Fahrzeug vorgesehene Außenkamera; - Berechnen jeweils eines zu dem erfassten Bild (10, 20) korrespondierenden kodierten Positionswerts mittels jedes installierten Softwaremoduls (11); und - Speichern des berechneten kodierten Positionswerts durch das Steuergerät; und - Ermitteln der Position des Fahrzeugs durch fortlaufendes, insbesondere periodisches abstraktes Vergleichen des gebildeten Positionsstroms (12) mit einem Abschnitt (15) des empfangenen mindestens einen Lokalisierungsstroms (14). A method for optically determining a position of a vehicle, comprising the following steps: - establishing a mobile radio connection between the vehicle and a back-end server by means of a mobile radio module provided in the vehicle; Receiving at least one software module (11) for encoding / decoding optical data from the backend server via the established mobile radio connection and installing the at least one received software module (11) in a control unit of the vehicle; - determining a route (13) for driving the vehicle; Receiving, from the backend server via the established cellular connection, at least one localization stream (14) for each installed software module (11) associated with the particular route (13) and storing each localization stream (14) in the controller; - Forming a position current (12) to each installed software module (11) by multiple, in particular periodically performing the following steps while driving the vehicle on the particular route (13): - Capturing an image (10, 20) of an environment of the vehicle an outdoor camera provided on the vehicle; - Calculating each one of the captured image (10, 20) corresponding coded position value by means of each installed software module (11); and - storing the calculated encoded position value by the controller; and - determining the position of the vehicle by continuous, in particular periodic abstract Comparing the formed position current (12) with a portion (15) of the received at least one localization current (14). Verfahren nach Anspruch 1, bei dem eine Korrelationsfunktion zum Vergleichen des erzeugten Positionsstroms (12) mit dem Abschnitt (15) des mindestens einen Lokalisierungsstroms (14) berechnet wird.Method according to Claim 1 in which a correlation function for comparing the generated position current (12) with the section (15) of the at least one localization current (14) is calculated. Verfahren nach Anspruch 2, bei dem satellitengestützte Positionsdaten, insbesondere GPS-Daten, mittels eines in dem Fahrzeug vorgesehenen Satellitenempfängers empfangen werden und der Abschnitt (15) des mindestens einen Lokalisierungsstroms (14) mittels der empfangenen Positionsdaten bestimmt wird.Method according to Claim 2 in which satellite-based position data, in particular GPS data, are received by means of a satellite receiver provided in the vehicle, and the section (15) of the at least one localization current (14) is determined by means of the received position data. Verfahren nach einem der Ansprüche 1 bis 3, bei dem aus der bestimmten Position des Fahrzeugs und mindestens einem Lokalisierungsstrom (14) eine Länge eines von dem Fahrzeug auf der Fahrtstrecke (13) zurückgelegten Streckenabschnitts und/oder ein Abstand des Fahrzeugs zu einem weiteren Fahrzeug (21) auf der Fahrtstrecke (13) berechnet wird.Method according to one of Claims 1 to 3 in which from the determined position of the vehicle and at least one localization current (14) a length of a section of road traveled by the vehicle on the route (13) and / or a distance of the vehicle to another vehicle (21) on the route (13) is calculated. Verfahren zum Erzeugen mindestens eines Lokalisierungsstroms (14) zum Verwenden in einem Verfahren nach einem der Ansprüche 1 bis 4 während einer Fahrt eines Messfahrzeugs, welches die folgenden Schritte umfasst: - Herstellen einer Mobilfunk-Verbindung zwischen dem Messfahrzeug und einem Backend-Server mittels eines in dem Messfahrzeug vorgesehenen Mobilfunkmoduls; - Empfangen mindestens eines Softwaremoduls (11) zum Kodieren/Dekodieren optischer Daten von dem Backend-Server über die hergestellte Mobilfunk-Verbindung und Installieren des mindestens einen empfangenen Softwaremoduls (11) in einem Steuergerät des Messfahrzeugs; - Bestimmen einer Fahrtstrecke (13) für eine Fahrt des Messfahrzeugs; - Bilden mindestens eines Lokalisierungsstroms (14) zu jedem installierten Softwaremodul (11) durch fortlaufendes, insbesondere periodisches Ausführen der folgenden Schritte während der Fahrt des Messfahrzeugs auf der bestimmten Fahrtstrecke (13): - Erfassen eines Bildes (10, 20) einer Umgebung des Messfahrzeugs durch eine an dem Messfahrzeug vorgesehene Außenkamera; - Berechnen jeweils eines zu dem erfassten Bild (10, 20) korrespondierenden kodierten Positionswerts mittels jedes installierten Softwaremoduls (11); - Erfassen eines Geschwindigkeitswerts des Messfahrzeugs mittels eines in dem Messfahrzeug vorgesehenen Geschwindigkeitssensors; - Erfassen eines Zeitpunkts mittels eines in dem Messfahrzeug vorgesehenen Zeitmessers; - Bilden eines Lokalisierungswerts durch Verknüpfen des berechneten Positionswerts mit dem erfassten Geschwindigkeitswert und dem erfassten Zeitpunkt; und - Speichern des gebildeten Lokalisierungswerts durch das Steuergerät; und - Senden jedes gebildeten Lokalisierungsstroms (14) an den Backend-Server über die hergestellte Mobilfunkverbindung.A method of generating at least one localization stream (14) for use in a method according to any one of Claims 1 to 4 during a journey of a measuring vehicle, which comprises the following steps: - establishing a mobile radio connection between the measuring vehicle and a back-end server by means of a mobile radio module provided in the measuring vehicle; Receiving at least one software module (11) for encoding / decoding optical data from the backend server via the established mobile radio connection and installing the at least one received software module (11) in a control unit of the measuring vehicle; - Determining a route (13) for a journey of the measuring vehicle; - Forming at least one localization stream (14) to each installed software module (11) by continuously, in particular periodically performing the following steps while driving the measuring vehicle on the particular route (13): - Capturing an image (10, 20) of an environment of the measuring vehicle by an outdoor camera provided on the measuring vehicle; - Calculating each one of the captured image (10, 20) corresponding coded position value by means of each installed software module (11); Detecting a speed value of the measuring vehicle by means of a speed sensor provided in the measuring vehicle; Detecting a time by means of a timer provided in the measuring vehicle; Forming a localization value by associating the calculated position value with the detected velocity value and the detected time; and - storing the formed localization value by the controller; and - sending each formed localization stream (14) to the backend server via the established cellular connection. Verfahren nach Anspruch 5, bei dem mindestens zwei Lokalisierungsströme zu einem installierten Softwaremodul (11) gebildet werden, indem mindestens zwei Bilder (10, 20) der Umgebung des Fahrzeugs durch mindestens zwei Außenkameras, insbesondere genau zwei Bilder (10, 20) durch eine stereoskopische Kamera gleichzeitig erfasst werden.Method according to Claim 5 in which at least two localization streams to an installed software module (11) are formed by simultaneously capturing at least two images (10, 20) of the surroundings of the vehicle by at least two external cameras, in particular exactly two images (10, 20) by a stereoscopic camera , Verfahren nach einem der Ansprüche 5 oder 6, bei dem satellitengestützte Positionsdaten, insbesondere GPS-Daten und bevorzugt DGPS-Daten, mittels eines in dem Messfahrzeug angeordneten Satellitenempfängers empfangen werden und der Lokalisierungswert durch zusätzliches Verknüpfen des berechneten Positionswerts mit den empfangenen satellitengestützten Positionsdaten gebildet wird.Method according to one of Claims 5 or 6 in which satellite-based position data, in particular GPS data and preferably DGPS data, are received by means of a satellite receiver arranged in the measuring vehicle, and the localization value is formed by additionally linking the calculated position value with the received satellite-based position data. Verfahren zum Bereitstellen mindestens eines Softwaremoduls (11) zum Kodieren/Dekodieren optischer Daten auf einem Backend-Server und mindestens eines Lokalisierungsstroms (14) für ein Verwenden in einem Verfahren nach einem der Ansprüche 1 bis 7, welches die folgenden Schritte umfasst: - Empfangen des mindestens einen Lokalisierungsstroms (14) von einem Messfahrzeug durch den Backend-Server; - Speichern des empfangenen Lokalisierungsstroms (14); - Bereitstellen des gespeicherten Lokalisierungsstroms (14) zum Empfangen durch ein Fahrzeug; - Trainieren des mindestens einen Softwaremoduls (11) mittels des gespeicherten Lokalisierungsstroms (14); und - Bereitstellen des mindestens einen trainierten Softwaremoduls (11) zum Empfangen durch ein Fahrzeug.A method for providing at least one software module (11) for encoding / decoding optical data on a backend server and at least one localization stream (14) for use in a method according to any one of Claims 1 to 7 comprising the steps of: receiving the at least one localization stream (14) from a measurement vehicle by the backend server; - storing the received localization stream (14); - providing the stored localization current (14) for receiving by a vehicle; - Training the at least one software module (11) by means of the stored localization stream (14); and - providing the at least one trained software module (11) for receiving by a vehicle. Verfahren nach einem der Ansprüche 1 bis 8, bei dem ein Convolutional Autoencoder als ein erstes Software-Modul zum Kodieren/Dekodieren optischer Daten verwendet wird und bevorzugt ein tiefes neuronales Netz als ein zweites Software-Modul zum Kodieren/Dekodieren optischer Daten verwendet wird, mit dem zum Berechnen eines zu dem erfassten Bild (10, 20) korrespondierenden kodierten Positionswerts die folgenden Schritte ausgeführt werden: - Identifizieren eines Objekts, das mindestens einer vorgegebenen Objektklasse, die insbesondere Schilder, Pfosten oder Gebäude umfasst, zugeordnet ist, in dem erfassten Bild (10, 20) mittels des tiefen neuronalen Netzes; - Ermitteln einer Pixelanzahl (36, 37, 38) innerhalb einer minimalen, das identifizierte Objekt einschließenden, insbesondere rechteckigen, Kontur durch das Steuergerät; und - Verwenden der ermittelten Pixelanzahl (36, 37, 38) als kodierter Positionswert.Method according to one of Claims 1 to 8th in which a convolutional auto-encoder is used as a first software module for encoding / decoding optical data and preferably a deep neural network is used as a second software module for encoding / decoding optical data, with which to compute one to the acquired image (10, 20) corresponding to the encoded position value, the following steps are carried out: identifying an object which is associated with at least one predetermined object class, which in particular includes signs, posts or buildings, in the captured image (10, 20) by means of the deep neural network; - Determining, by the controller, a number of pixels (36, 37, 38) within a minimum, in particular rectangular, contour enclosing the identified object; and - using the determined number of pixels (36, 37, 38) as coded position value. System zum optischen Ermitteln einer Position eines Fahrzeugs, mit einem Fahrzeug, welches mindestens eine Außenkamera, ein Steuergerät und ein Mobilfunkmodul umfasst und zum Ausführen eines Verfahrens nach einem der Ansprüche 1 bis 4 konfiguriert ist, einem Messfahrzeug, welches mindestens eine Außenkamera, ein Steuergerät und ein Mobilfunkmodul umfasst und zum Ausführen eines Verfahrens nach einem der Ansprüche 5 bis 7 konfiguriert ist, einem Backend-Server, welcher zum Ausführen eines Verfahrens nach Anspruch 8 konfiguriert ist, und insbesondere einem ein erstes Softwaremodul (11) bildenden Convolutional Autoencoder zum Kodieren/Dekodieren optischer Daten sowie bevorzugt einem ein zweites Softwaremodul (11) bildenden tiefen neuronalen Netz zum Kodieren/Dekodieren optischer Daten.A system for optically determining a position of a vehicle, comprising a vehicle, which comprises at least one outdoor camera, a control device and a mobile radio module and for carrying out a method according to one of the Claims 1 to 4 is configured, a measuring vehicle, which comprises at least one outdoor camera, a control unit and a mobile radio module and for carrying out a method according to one of Claims 5 to 7 is configured to a backend server, which is used to perform a method Claim 8 and, in particular, a convolutional auto-encoder forming a first software module (11) for encoding / decoding optical data, and preferably a deep neural network for encoding / decoding optical data forming a second software module (11).
DE102017222600.5A 2017-12-13 2017-12-13 Optical position determination of a vehicle by means of a convolutional autencoder and / or a deep neural network Active DE102017222600B3 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017222600.5A DE102017222600B3 (en) 2017-12-13 2017-12-13 Optical position determination of a vehicle by means of a convolutional autencoder and / or a deep neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017222600.5A DE102017222600B3 (en) 2017-12-13 2017-12-13 Optical position determination of a vehicle by means of a convolutional autencoder and / or a deep neural network

Publications (1)

Publication Number Publication Date
DE102017222600B3 true DE102017222600B3 (en) 2018-12-27

Family

ID=64567809

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017222600.5A Active DE102017222600B3 (en) 2017-12-13 2017-12-13 Optical position determination of a vehicle by means of a convolutional autencoder and / or a deep neural network

Country Status (1)

Country Link
DE (1) DE102017222600B3 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018210765A1 (en) * 2018-06-29 2020-01-02 Volkswagen Aktiengesellschaft Localization system and method for operating the same
DE102020128952A1 (en) 2020-11-03 2022-05-05 Bayerische Motoren Werke Aktiengesellschaft Method and assistance device for two-stage image-based scene recognition and motor vehicle
DE102021106988A1 (en) 2021-03-22 2022-09-22 Conti Temic Microelectronic Gmbh Method and system for determining a vehicle's own motion information
US11620475B2 (en) 2020-03-25 2023-04-04 Ford Global Technologies, Llc Domain translation network for performing image translation
CN117706360A (en) * 2024-02-02 2024-03-15 深圳市昱森机电有限公司 Monitoring methods, devices, equipment and storage media for motor operating status

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009018073A1 (en) 2008-07-16 2010-01-21 Volkswagen Ag Method for updating a geographical database for a vehicle navigation system
US20110267452A1 (en) 2009-02-20 2011-11-03 Panasonic Corporation Image compressing apparatus, image compressing method and vehicle-mounted image recording apparatus
WO2016100814A1 (en) 2014-12-19 2016-06-23 United Technologies Corporation Multi-modal sensor data fusion for perception systems
US20170015317A1 (en) 2015-07-13 2017-01-19 Cruise Automation, Inc. Method for image-based vehicle localization
WO2017053407A1 (en) 2015-09-24 2017-03-30 Quovard Management Llc Systems and methods for localization using surface imaging
US9623905B2 (en) 2015-02-10 2017-04-18 Mobileye Vision Technologies Ltd. Autonomous vehicle navigation based on recognized landmarks
WO2017156243A1 (en) 2016-03-11 2017-09-14 Siemens Aktiengesellschaft Deep-learning based feature mining for 2.5d sensing image search

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009018073A1 (en) 2008-07-16 2010-01-21 Volkswagen Ag Method for updating a geographical database for a vehicle navigation system
US20110267452A1 (en) 2009-02-20 2011-11-03 Panasonic Corporation Image compressing apparatus, image compressing method and vehicle-mounted image recording apparatus
WO2016100814A1 (en) 2014-12-19 2016-06-23 United Technologies Corporation Multi-modal sensor data fusion for perception systems
US9623905B2 (en) 2015-02-10 2017-04-18 Mobileye Vision Technologies Ltd. Autonomous vehicle navigation based on recognized landmarks
US20170015317A1 (en) 2015-07-13 2017-01-19 Cruise Automation, Inc. Method for image-based vehicle localization
WO2017053407A1 (en) 2015-09-24 2017-03-30 Quovard Management Llc Systems and methods for localization using surface imaging
WO2017156243A1 (en) 2016-03-11 2017-09-14 Siemens Aktiengesellschaft Deep-learning based feature mining for 2.5d sensing image search

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
C. Le Barz et al, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops 2015, pp. 9-17
C. Le Barz et al.: "Absolute geo-localization thanks to Hidden Markov Model and exemplar-based metric learning", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops 2015, pp. 9-17 *
M. Aldibaja et al, IEEE Transactions on Industrial Informatics 13 (5), pp. 2369-2378, Oct. 2017
M. Aldibaja et al.: "Robust Intensity-Based Localization Method for Autonomous Driving on Snow–Wet Road Surface", IEEE Transactions on Industrial Informatics 13 (5), pp. 2369-2378 (Oct. 2017) *
N. Mattern, R. Schubert, G. Wanielik, IEEE Intelligent Vehicles Symposium, San Diego, CA, USA, June 21-24, 2010, pp. 462-469
N. Mattern, R. Schubert, G. Wanielik: "High-accurate vehicle localization using digital maps and coherency images", IEEE Intelligent Vehicles Symposium, San Diego, CA, USA, June 21-24, 2010, pp. 462-469 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018210765A1 (en) * 2018-06-29 2020-01-02 Volkswagen Aktiengesellschaft Localization system and method for operating the same
US11620475B2 (en) 2020-03-25 2023-04-04 Ford Global Technologies, Llc Domain translation network for performing image translation
DE102020128952A1 (en) 2020-11-03 2022-05-05 Bayerische Motoren Werke Aktiengesellschaft Method and assistance device for two-stage image-based scene recognition and motor vehicle
DE102021106988A1 (en) 2021-03-22 2022-09-22 Conti Temic Microelectronic Gmbh Method and system for determining a vehicle's own motion information
CN117706360A (en) * 2024-02-02 2024-03-15 深圳市昱森机电有限公司 Monitoring methods, devices, equipment and storage media for motor operating status

Similar Documents

Publication Publication Date Title
DE102017222600B3 (en) Optical position determination of a vehicle by means of a convolutional autencoder and / or a deep neural network
DE112017007327B4 (en) VEHICLE POSITION ESTIMATING DEVICE
DE102020118187B4 (en) System and method for calibrating a steering wheel neutral position
EP3491417B1 (en) Method and system for detecting landmarks in a traffic environment of a mobile unit
DE102011117809B4 (en) Method for supplementing GPS or GPS/sensor vehicle positioning using additional on-vehicle imaging sensors
EP2819901B1 (en) Method and device for determining the speed and/or position of a vehicle
DE102015203016B4 (en) Method and device for optical self-localization of a motor vehicle in an environment
DE112020002592T5 (en) SYSTEMS AND METHODS FOR VEHICLE NAVIGATION BASED ON IMAGE ANALYSIS
DE102012014397B4 (en) Method for determining a position of a vehicle and vehicle
DE112018002143T5 (en) SYSTEMS AND METHODS FOR COMPRESSING TRAFFIC DATA
DE102016205436A1 (en) Method and system for creating a digital map
DE102017120709A1 (en) OBJECTIVITY ESTIMATION USING DATA FROM A SINGLE CAMERA
DE102013208521A1 (en) Collective learning of a highly accurate road model
DE112014000532T5 (en) Curve modeling device, curve modeling method and vehicle navigation device
WO2013056884A1 (en) Acquisition of data from image data-based map services by an assistance system
DE102019207087A1 (en) Localization of a mobile unit
EP2033165B1 (en) Method for picking up a traffic space
DE102022102567B4 (en) Method and processor circuit for locating a motor vehicle in an environment during a journey and motor vehicle equipped accordingly
DE102022128968A1 (en) IMAGE COLLECTION SYSTEMS AND METHODS FOR VEHICLE NAVIGATION
DE102019208176A1 (en) VEHICLE DRIVING ASSISTANCE SYSTEM
EP3781906B1 (en) Method and device for determining a highly precise position of a vehicle
DE102017118078A1 (en) Localization device for a motor vehicle, driver assistance device, motor vehicle and method for locating a motor vehicle
DE102017122440A1 (en) A method for locating and further developing a digital map by a motor vehicle; localization device
DE102019213403A1 (en) Method for the sensor-based localization of a host vehicle, host vehicle and a computer program
DE102013001867A1 (en) Method for determining orientation and corrected position of motor vehicle, involves registering features of loaded and recorded environmental data by calculating transformation and calculating vehicle orientation from transformation

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final