[go: up one dir, main page]

DE102015013943B4 - Testing a navigation system of a motor vehicle - Google Patents

Testing a navigation system of a motor vehicle Download PDF

Info

Publication number
DE102015013943B4
DE102015013943B4 DE102015013943.6A DE102015013943A DE102015013943B4 DE 102015013943 B4 DE102015013943 B4 DE 102015013943B4 DE 102015013943 A DE102015013943 A DE 102015013943A DE 102015013943 B4 DE102015013943 B4 DE 102015013943B4
Authority
DE
Germany
Prior art keywords
test
signal
navigation system
feature
key
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102015013943.6A
Other languages
German (de)
Other versions
DE102015013943A1 (en
Inventor
Dieter Niederkorn
Dominic Springer
Lena Förstel
Franz Simmet
André Kaup
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102015013943.6A priority Critical patent/DE102015013943B4/en
Publication of DE102015013943A1 publication Critical patent/DE102015013943A1/en
Application granted granted Critical
Publication of DE102015013943B4 publication Critical patent/DE102015013943B4/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren zum Testen eines Navigationssystems (1), wobei durch eine Testvorrichtung (2):- in einem Testdurchlauf (9) Sensordaten (5), die eine Fahrt eines Kraftfahrzeugs beschreiben, in das Navigationssystem (1) eingespeist oder innerhalb des Navigationssystems (1) simuliert werden, und- Einzelbilder (6) einer Bildsequenz (4), die das Navigationssystem (1) in Abhängigkeit von einem vorgegebenen Navigationsziel und den Sensordaten (5) erzeugt, erfasst werden, wobei jedes Einzelbild (6) eine Kombination (29) aus graphischen Schlüsselobjekten (11) darstellt, und- zumindest eines der graphischen Schlüsselobjekte (11) anhand von Konfigurationsdaten ausgewählt wird und- in den Einzelbildern (6) jedes ausgewählte Schlüsselobjekt (11) extrahiert wird und- von jedem extrahierten Schlüsselobjekt (11) zu zumindest einem vorbestimmten Objektmerkmal (30) ein jeweiliger Merkmalswert (12) ermittelt wird, und- zu jedem Objektmerkmal (30) die ermittelten Merkmalswerte (12) aller erfassten Einzelbilder (6) zu einem Zeitsignal (14) kombiniert werden, und- detektiert wird, ob zumindest ein Zeitsignal (14) ein vorbestimmtes Fehlerkriterium (7) erfüllt, und- falls das Fehlerkriterium (7) erfüllt wird, ein Hinweissignal (8) erzeugt wird, dadurch gekennzeichnet, dass der Testdurchlauf (9) mehrmals wiederholt wird, und jedes Zeitsignal (14) eines der Testdurchläufe (9) jeweils als Referenzsignal (15) und jedes Zeitsignal (14) eines anderen der Testdurchläufe (9) jeweils als Testsignal (16) verwendet wird und das Fehlerkriterium (7) umfasst, dass ein Unterschied (35) zwischen zumindest einem Testsignal (16) und dem korrespondierenden Referenzsignal (15) außerhalb eines vorbestimmten Toleranzbereichs (36, 38) ist.Method for testing a navigation system (1), wherein a test device (2): - in a test run (9), sensor data (5) describing a journey of a motor vehicle, fed into the navigation system (1) or within the navigation system (1) are simulated, and individual images (6) of an image sequence (4), which the navigation system (1) generates as a function of a specified navigation destination and the sensor data (5), are recorded, each individual image (6) being a combination (29) graphic key objects (11), and- at least one of the graphic key objects (11) is selected on the basis of configuration data and- each selected key object (11) is extracted in the individual images (6) and- from each extracted key object (11) to at least one predetermined object feature (30) a respective feature value (12) is determined, and - for each object feature (30) the determined feature values (12) of all captured individual images (6) are combined into a time signal (14), and it is detected whether at least one time signal (14) fulfills a predetermined error criterion (7), and if the error criterion (7) is fulfilled, a warning signal (8) is generated , characterized in that the test run (9) is repeated several times, and each time signal (14) of one of the test runs (9) as a reference signal (15) and each time signal (14) of another of the test runs (9) as a test signal (16) ) is used and the error criterion (7) includes that a difference (35) between at least one test signal (16) and the corresponding reference signal (15) is outside a predetermined tolerance range (36, 38).

Description

Die Erfindung betrifft ein Verfahren zum Testen eines Navigationssystems. Das Verfahren wird durch eine Testvorrichtung durchgeführt, die ebenfalls Bestandteil der Erfindung ist.The invention relates to a method for testing a navigation system. The method is carried out by a test device which is also part of the invention.

Die Komplexität von Navigationssystemen in Kraftfahrzeugen nimmt kontinuierlich zu. Dies ist nicht nur auf die Anzahl an verfügbaren Funktionen und die geforderte grafische Aufbereitung der Navigation zurückzuführen, sondern auch auf die Variantenvielfalt der verbauten Navigationssysteme und deren Interaktion mit anderen Geräten und Infotainment-Softwarekomponenten (Infotainmentsystem - Informations-Unterhaltungssystem). Mit steigender Komplexität steigt auch die Wahrscheinlichkeit, dass die Navigationssoftware Fehler enthält. Diese Fehler gilt es zu finden, bevor die Software als Serienstand den Kunden erreicht. Die Erfahrung der letzten Jahre zeigt, dass seltene, komplexe Fehler nur mit vielen hundert oder sogar tausend Stunden an automatisierten Tests zu fassen sind. Um die so nötige Testabdeckung und Testzeit für jede der relevanten Navigationsvarianten wirtschaftlich sinnvoll zu erreichen, ist eine automatisierte Erprobung mit geringem Auswerteaufwand für den Tester (Menschen) unverzichtbar.The complexity of navigation systems in motor vehicles is increasing continuously. This is not only due to the number of available functions and the required graphic preparation of the navigation, but also to the variety of variants of the built-in navigation systems and their interaction with other devices and infotainment software components (infotainment system - information entertainment system). With increasing complexity, the probability that the navigation software contains errors also increases. It is important to find these errors before the software reaches the customer as a series version. Experience over the last few years shows that rare, complex errors can only be captured with hundreds or even thousands of hours of automated tests. In order to achieve the necessary test coverage and test time for each of the relevant navigation variants in an economically sensible manner, automated testing with little evaluation effort for the tester (human) is indispensable.

Aus der DE 10 2012 009 876 A1 ist ein Testverfahren für Navigationssysteme bekannt, bei welchem eine Bildsequenz, die ein Navigationssystem zum Ausgeben von Navigationshinweisen erzeugt, daraufhin untersucht wird, welche Bereiche in der Bildsequenz animiert worden sind und welche als statische oder stationäre Bereiche unverändert geblieben sind. Anschließend wird ein Bewegungsmodell, welches die Animation nachbildet, ausschließlich auf Grundlage der bewegten Bildbereiche konfiguriert, wodurch sich eine genauere Bewegungsbeschreibung im Vergleich zur Nutzung der gesamten Bildsequenz ergibt.From the DE 10 2012 009 876 A1 A test method for navigation systems is known in which an image sequence generated by a navigation system for outputting navigation instructions is examined to determine which areas in the image sequence have been animated and which have remained unchanged as static or stationary areas. A movement model that simulates the animation is then configured exclusively on the basis of the moving image areas, which results in a more precise description of the movement compared to the use of the entire image sequence.

In der DE 10 2008 012 697 A1 ist ein Verfahren zum Betrieb eines Navigationssystems beschrieben, um zu überprüfen, ob aktuelle Karteninformationen und aktuelle Fahrinformationen übereinstimmen. Hieraus kann ein Grad der Qualität der Karteninformationen ermittelt werden.In the DE 10 2008 012 697 A1 describes a method for operating a navigation system in order to check whether current map information and current driving information match. A degree of the quality of the map information can be determined from this.

In der DE 10 2013 015 145 A1 ist ein Verfahren zum computergestützten Testen und Bewerten der Qualität von Daten einer digitalen Straßenkarte beschrieben. Die Qualität wird anhand von Qualitätskriterien bewertet, die mehrere Subkriterien umfassen können und die in Abhängigkeit von den Anforderungen der Anwendungen gewählt werden können, welche die Stra-ßenkarte nutzen sollen.In the DE 10 2013 015 145 A1 describes a method for computer-aided testing and evaluation of the quality of data on a digital road map. The quality is assessed on the basis of quality criteria, which can include several sub-criteria and which can be selected depending on the requirements of the applications that are to use the road map.

Aus der US 5,099,322 A ist ein System zum Analysieren einer Videosequenz bekannt, um in der Videosequenz Szenenwechsel automatisiert zu detektieren. Hierzu werden Zonen innerhalb von Einzelbildern beobachtet, und bei einer Veränderung einer Zone in zwei aufeinanderfolgenden Einzelbildern wird überprüft, ob diese Veränderung größer als ein Schwellenwert ist. Der Vergleich kann auf Basis der Farbe, Textur oder Helligkeit erfolgen. Auch ein zeitlicher Verlauf einer Eigenschaft einer Zone kann analysiert werden.From the U.S. 5,099,322 A a system for analyzing a video sequence is known in order to automatically detect scene changes in the video sequence. For this purpose, zones are observed within individual images, and if a zone changes in two successive individual images, a check is carried out to determine whether this change is greater than a threshold value. The comparison can be based on color, texture or brightness. A characteristic of a zone over time can also be analyzed.

In einem wissenschaftlichen Fachbeitrag von Pimentel et al. (Pimentel, Marco A. F. et al., „A review of novelty detection“, Elsevier - Signal Processing, Vol. 99, 2014, S. 215-249, ISSN 0165-1684) ist eine Zusammenfassung zur sogenannten „Novelty Detection“, einem Bereich des maschinellen Lernens, verfügbar.In a scientific Technical article by Pimentel et al. (Pimentel, Marco AF et al., "A review of novelty detection", Elsevier - Signal Processing, Vol. 99, 2014, pp. 215-249, ISSN 0165-1684) A summary of the so-called "Novelty Detection", an area of machine learning, is available.

Der Erfindung liegt die Aufgabe zugrunde, ein Navigationssystem automatisiert zu testen.The invention is based on the task of automatically testing a navigation system.

Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die Merkmale der abhängigen Patentansprüche gegeben.The object is achieved by the subjects of the independent claims. Advantageous developments of the invention are given by the features of the dependent claims.

Durch die Erfindung ist ein Verfahren zum Testen eines Navigationssystems bereitgestellt. Das Verfahren wird durch eine Testvorrichtung durchgeführt. In einem Testdurchlauf des Navigationssystems werden in das Navigationssystem Sensordaten eingespeist, die eine Fahrt eines Kraftfahrzeugs beschreiben. Das Navigationssystem wird also genau so betrieben, als sei es in ein Kraftfahrzeug eingebaut und würde Sensordaten von dem Kraftfahrzeug empfangen. Sensordaten können beispielsweise GPS-Daten (GPS - Global Positioning System) und/oder Gierratendaten eines Gierratensensors und/oder ein Geschwindigkeitssignal sein. Die Sensordaten können mittels einer Simulation oder bei einer Testfahrt des Navigationssystems erzeugt werden. Alternativ zu einer Einspeisung der Sensordaten können diese innerhalb des Navigationssystems simuliert werden. Hierzu kann ein sogenannter Demo-Modus mit Testszenarien genutzt werden. „Demo-Modus“ bedeutet, dass die Navigationssoftware des Navigationssystems die Sensordaten selbst generiert und zwar allein auf Basis eines von außen gesetzten Startpunktes und Zielpunktes. Dies erspart eine Zuführung der Sensordaten von außen. Das Fahrzeug fährt „virtuell“ mit konstanter Geschwindigkeit.The invention provides a method for testing a navigation system. The method is carried out by a test device. In a test run of the navigation system, sensor data describing a journey of a motor vehicle are fed into the navigation system. The navigation system is therefore operated exactly as if it were installed in a motor vehicle and sensor data were received from the motor vehicle. Sensor data can be, for example, GPS data (GPS - Global Positioning System) and / or yaw rate data from a yaw rate sensor and / or a speed signal. The sensor data can be generated by means of a simulation or during a test drive of the navigation system. As an alternative to feeding in the sensor data, they can be simulated within the navigation system. A so-called demo mode with test scenarios can be used for this. "Demo mode" means that the navigation software of the navigation system generates the sensor data itself, based solely on an externally set starting point and destination. This saves having to supply the sensor data from outside. The vehicle drives “virtually” at a constant speed.

Das Navigationssystem erzeugt in Abhängigkeit von den Sensordaten und einem vorgegebenen Navigationsziel dann in bekannter Weise eine Videosequenz oder Animation oder Bildsequenz, die auf einem Bildschirm des Navigationssystems angezeigt werden kann. Die Bildsequenz kann beispielsweise ein Symbol für das Eigenfahrzeug sowie den vorausliegenden Straßenverlauf darstellen. Bei dem Verfahren ist nun vorgesehen, dass durch die Testvorrichtung Einzelbilder (Frames) dieser Bildsequenz erfasst werden. Die Einzelbilder können beispielsweise durch Auslesen eines Videosignals oder ein so genanntes Framegrabbing oder durch Abfilmen des Bildschirms erfasst werden. Wichtig hierbei ist, dass jedes Einzelbild eine Kombination aus grafischen Schlüsselobjekten darstellt. Ein solches Schlüsselobjekt kann beispielsweise das beschriebene Symbol für das Eigenfahrzeug sein oder eine Straße oder ein Warnhinweis für eine Baustelle. Zumindest eines dieser grafischen Schlüsselobjekte wird anhand von Konfigurationsdaten ausgewählt. Mit anderen Worten wird in der Testvorrichtung anhand der Konfigurationsdaten beispielsweise durch einen Benutzer eingestellt, welches Schlüsselobjekt oder welche Schlüsselobjekte durch die Testvorrichtung beobachtet werden sollen.The navigation system then generates, in a known manner, a video sequence or animation or image sequence that can be displayed on a screen of the navigation system as a function of the sensor data and a predetermined navigation destination. The image sequence can for example, a symbol for the own vehicle and the road ahead. In the method it is now provided that individual images (frames) of this image sequence are recorded by the test device. The individual images can be captured, for example, by reading out a video signal or so-called frame grabbing or by filming the screen. It is important here that each individual image represents a combination of graphic key objects. Such a key object can, for example, be the symbol described for one's own vehicle or a road or a warning notice for a construction site. At least one of these graphic key objects is selected on the basis of configuration data. In other words, on the basis of the configuration data, a user sets in the test device which key object or which key objects are to be observed by the test device.

In den Einzelbildern wird jedes ausgewählte Schlüsselobjekt extrahiert. Mit anderen Worten wird in jedem Einzelbild eine Segmentierung des ausgewählten Schlüsselobjekts vorgenommen. Es wird also ermittelt, welche Pixel (Bildelemente) des Einzelbildes zu dem Schlüsselobjekt gehören. Von jedem extrahierten Schlüsselobjekt wird zu zumindest einem vorbestimmten Objektmerkmal ein jeweiliger Merkmalswert ermittelt. Ein Objektmerkmal oder eine Objekteigenschaft wird also in jedem Einzelbild quantifiziert. Beispielsweise kann ein Objektmerkmal die Fläche oder Größe des Schlüsselobjekts sein oder eine geometrische Ausrichtung. Dies wird zu jedem Einzelbild als jeweiliger Merkmalswert ausgedrückt oder beschrieben. Zu jedem Objektmerkmal werden dann die ermittelten Merkmalswerte aller erfassten Einzelbilder zu einem Zeitsignal oder Merkmalsverlauf kombiniert. Es wird also beispielsweise ein Zeitsignal erzeugt, welches die Fläche oder Größe des Schlüsselobjekts über der Zeit beschreibt. Es wird dann detektiert, ob das Zeitsignal oder zumindest eines mehrerer Zeitsignale ein vorbestimmtes Fehlerkriterium erfüllt. Falls das Fehlerkriterium erfüllt wird, wird ein Hinweissignal erzeugt.Each selected key object is extracted in the individual images. In other words, the selected key object is segmented in each individual image. It is thus determined which pixels (picture elements) of the individual image belong to the key object. A respective feature value is determined for at least one predetermined object feature from each extracted key object. An object feature or an object property is thus quantified in each individual image. For example, an object feature can be the area or size of the key object or a geometric orientation. This is expressed or described for each individual image as a respective feature value. For each object feature, the determined feature values of all captured individual images are then combined to form a time signal or feature profile. For example, a time signal is generated that describes the area or size of the key object over time. It is then detected whether the time signal or at least one of several time signals fulfills a predetermined error criterion. If the error criterion is met, a notification signal is generated.

Durch die Erfindung ergibt sich der Vorteil, dass die Reaktion des Navigationssystems auf die Sensordaten und das vorgegebene Navigationsziel automatisiert durch die Testvorrichtung geprüft wird und ein Benutzer der Testvorrichtung, d. h. ein Mensch, nur dann die Bildsequenz überprüfen muss, wenn das Hinweissignal erzeugt wird, wenn also ein ungewöhnliches Ereignis in der Bildsequenz durch die Testvorrichtung erkannt wurde. Welche Ereignisse in der Bildsequenz als ungewöhnlich klassifiziert werden, kann durch das Fehlerkriterium eingestellt werden. Durch die Testvorrichtung ist es somit möglich, ein Navigationssystem viele Stunden lang oder sogar tagelang zu betreiben, ohne dass die von dem Navigationssystem erzeugte Bildsequenz tatsächlich durch einen menschlichen Betrachter beobachtet werden muss. Anhand des erzeugten Hinweissignals kann dann gezielt derjenige Abschnitt der Bildsequenz tatsächlich durch den Benutzer geprüft werden, zu dem das Fehlerkriterium erfüllt wurde. Es kann auch ein weiteres In-Ordnung-Signal erzeugt werden, falls das Fehlerkriterium nicht erfüllt ist.The invention has the advantage that the reaction of the navigation system to the sensor data and the specified navigation destination is automatically checked by the test device and a user of the test device, i.e. H. a person only has to check the image sequence when the notification signal is generated, that is, when an unusual event in the image sequence has been recognized by the test device. Which events in the image sequence are classified as unusual can be set using the error criterion. The test device thus makes it possible to operate a navigation system for many hours or even for days without the image sequence generated by the navigation system actually having to be observed by a human observer. Using the generated information signal, that section of the image sequence can then actually be checked by the user for which the error criterion was met. A further OK signal can also be generated if the error criterion is not met.

Das Fehlerkriterium kann beispielsweise besagen, dass der Verlauf des Zeitsignals innerhalb eines vorbestimmten Werteintervalls oder Toleranzbereichs liegen muss. Liegt das Zeitsignal einmal außerhalb des Intervalls, so ist das Fehlerkriterium erfüllt. Die Erfindung sieht hierzu vor, dass kein absolutes Werteintervall verwendet wird, sondern ein Vergleich des Zeitsignals mit einem Referenzsignal durchgeführt wird. Bei der Erfindung wird der Testdurchlauf mehrmals wiederholt. Zu einem der Testdurchläufe, nämlich einer Referenzsequenz, wird dann ein Zeitsignal oder werden mehrere Zeitsignale erzeugt, je nachdem wie viel Schlüsselobjekte und wie viel Objektmerkmale pro Schlüsselobjekt beobachtet werden. Jedes Zeitsignal dieses Testdurchlaufs stellt jeweils ein Referenzsignal dar. Für einen anderen Testdurchlauf, nämlich einer Testsequenz, wird jeweils ein korrespondierendes Zeitsignal erzeugt, das dann jeweils als Testsignal verwendet wird. Das Fehlerkriterium umfasst dann, dass ein Unterschied zwischen zumindest einem Testsignal und dem korrespondieren Referenzsignal außerhalb eines vorbestimmten Toleranzbereichs liegt.The error criterion can for example state that the course of the time signal must lie within a predetermined value interval or tolerance range. If the time signal is outside the interval, the error criterion is met. For this purpose, the invention provides that no absolute value interval is used, but a comparison of the time signal with a reference signal is carried out. In the invention, the test run is repeated several times. A time signal or several time signals are then generated for one of the test runs, namely a reference sequence, depending on how many key objects and how many object features are observed per key object. Each time signal of this test run represents a reference signal. For another test run, namely a test sequence, a corresponding time signal is generated, which is then used as a test signal. The error criterion then includes that a difference between at least one test signal and the corresponding reference signal lies outside a predetermined tolerance range.

Die Testdurchläufe können mit denselben oder mit unterschiedlichen Sensordaten durchgeführt werden. Selbst bei Verwendung derselben Sensordaten pro Testdurchlauf kommt es zu unterschiedlichen Reaktionen des Navigationssystems, je nachdem, welche Auslastung anderer Fahrzeugsysteme gegeben ist, die mit derselben Hardware realisiert werden. Beispielsweise kann bei einem Multithreading-Prozessorsystem die Verarbeitung der Sensordaten in unterschiedlichen Testdurchläufen im Navigationssystem unterschiedlich erfolgen. Entsprechend ergeben sich auch unterschiedliche Bildsequenzen. Beispielsweise kann es zu einer Unterbrechung der Darstellung der Bildsequenz bei einer ungünstigen Auslastung des Prozessorsystems kommen.The test runs can be carried out with the same or with different sensor data. Even when using the same sensor data per test run, the navigation system reacts differently, depending on the utilization of other vehicle systems that are implemented with the same hardware. For example, in a multithreading processor system, the processing of the sensor data can take place differently in different test runs in the navigation system. Accordingly, different image sequences also result. For example, the display of the image sequence can be interrupted in the event of an unfavorable load on the processor system.

Zu der Erfindung gehören auch optionale Weiterbildungen, durch deren Merkmale sich zusätzliche Vorteile ergeben.The invention also includes optional developments, the features of which result in additional advantages.

Ein Aspekt betrifft die Frage, welche Objektmerkmale geeignet sind, um zuverlässig einen Fehler in der Bildsequenz zu erkennen. Eine Weiterbildung hierzu sieht vor, dass ein Objektmerkmal ein skalarer Wert ist, also ein „Eine-Zahl-Merkmal“. Beispielsweise kann eine Pixelanzahl des grafischen Schlüsselobjekts ermittelt werden. Dies entspricht der Anzeigefläche des grafischen Schlüsselobjekts. Ein skalarer Wert weist den Vorteil auf, dass das besagte Zeitsignal als Zeitreihe von Einzelwerten ermittelt wird. Es kann dann besonders effizient durch die Testvorrichtung verarbeitet werden. Ein Objektmerkmal kann gemäß einer Weiterbildung eine dynamische oder zeitliche Eigenschaft des Schlüsselobjekts beschreiben, beispielsweise eine Bewegungsgeschwindigkeit oder einen Bewegungsvektor. Hierdurch ergibt sich der Vorteil, dass ein Zusammenhang zwischen aufeinanderfolgenden Einzelbildern berücksichtigt wird. Ein Objektmerkmal kann gemäß einer Weiterbildung ein Merkmalstupel aus mehreren Einzelmerkmalen sein. Hierdurch drückt das Zeitsignal eine mehrdimensionale Trajektorie aus, sodass durch ein einzelnes Zeitsignal die zeitliche Entwicklung mehrerer Einzelmerkmale beschrieben ist.One aspect relates to the question of which object features are suitable for reliably detecting an error in the image sequence. A further development for this provides that an object feature is a scalar value, that is to say a “one-number feature”. For example, a number of pixels of the graphic Key object can be determined. This corresponds to the display area of the graphic key object. A scalar value has the advantage that the said time signal is determined as a time series of individual values. It can then be processed particularly efficiently by the test device. According to one development, an object feature can describe a dynamic or temporal property of the key object, for example a movement speed or a movement vector. This has the advantage that a relationship between successive individual images is taken into account. According to one development, an object feature can be a feature tuple made up of several individual features. As a result, the time signal expresses a multi-dimensional trajectory, so that the development of several individual features over time is described by a single time signal.

Bei einer Weiterbildung wird ein Objektmerkmal gewählt, das von einem Navigationskontext abhängig ist. Hierdurch kann dann für unterschiedliche Sensordaten und/oder Navigationsziele ein jeweils geeignetes Objektmerkmal im Voraus festgelegt werden, sodass gezielt für unterschiedliche Navigationssituationen ein geeignetes Objektmerkmal gewählt wird. Zusätzlich oder alternativ dazu kann als Objektmerkmal auch eine Korrelation zweier vorbestimmter Einzelmerkmale beschreiben. Mit anderen Worten wird also nicht direkt aus dem Einzelbild jeweils ein Einzelmerkmal beobachtet, sondern ein Zusammenhang zweier solcher Einzelmerkmale. Diese Einzelmerkmale können von dem Schlüsselobjekt stammen oder auch einen Bezug eines Einzelmerkmals des Schlüsselobjekts zu einem Einzelmerkmal eines anderen Objekts beschreiben. Beispielsweise kann hierdurch ein Größenverhältnis zweier Schlüsselobjekte als Objektmerkmal beschrieben werden.In a further development, an object feature is selected that is dependent on a navigation context. In this way, a respectively suitable object feature can be defined in advance for different sensor data and / or navigation destinations, so that a suitable object characteristic is specifically selected for different navigation situations. In addition or as an alternative to this, a correlation of two predetermined individual features can also describe as an object feature. In other words, an individual feature is not observed directly from the individual image, but a connection between two such individual features. These individual features can originate from the key object or also describe a relationship between an individual feature of the key object and an individual feature of another object. For example, a size ratio of two key objects can be described as an object feature.

Eine Weiterbildung sieht vor, dass die Extrahierung des Schlüsselobjekts anhand einer Farbe und/oder eines grafischen Musters erfolgt. Die Extrahierung anhand der Farbe ist besonders effizient mit geringen rechentechnischen Ressourcen zu realisieren. Ein grafisches Muster lässt sich mit einer aufwandsarmen Mustererkennung detektieren.A further development provides that the key object is extracted using a color and / or a graphic pattern. The extraction based on the color can be implemented particularly efficiently with low computational resources. A graphic pattern can be detected with a low-effort pattern recognition.

Um das Testsignal mit dem Referenzsignal vergleichen zu können, sieht eine Weiterbildung vor, dass das Referenzsignal und/oder das Testsignal auf eine für die Abtastung der Bildsequenz vorgegebene Abtastrate interpoliert wird. Hierdurch ergibt sich eine Synchronisierung des Testsignals mit dem Referenzsignal. Die Synchronisierung ist somit nicht von Anfang an nötig. Es können also für die unterschiedlichen Testläufe Einzelbilder innerhalb der jeweiligen Bildsequenz zu unterschiedlichen Zeitpunkten erfasst werden. So kann ein Hardware-in-the-loop-Test ermöglicht werden, bei welchem das Navigationssystem unabhängig oder asynchron zur Testvorrichtung läuft. Falls als Objektmerkmal der beschriebene skalare Wert verwendet wird, ist die Interpolation besonders robust. Es ist keine mehrdimensionale, beispielsweise grafische Interpolation eines Bildes nötig.In order to be able to compare the test signal with the reference signal, a further development provides that the reference signal and / or the test signal is interpolated to a sampling rate specified for the sampling of the image sequence. This results in a synchronization of the test signal with the reference signal. Synchronization is therefore not necessary from the start. It is therefore possible to acquire individual images within the respective image sequence at different times for the different test runs. A hardware-in-the-loop test can thus be made possible in which the navigation system runs independently or asynchronously to the test device. If the described scalar value is used as the object feature, the interpolation is particularly robust. There is no need for a multidimensional, for example graphical, interpolation of an image.

Um den Vergleich zwischen Referenzsignalen und Testsignalen noch aussagekräftiger zu machen, sieht eine Weiterbildung vor, dass das Testsignal mit dem Referenzsignal durch einen fensterbasierten Vergleich registriert wird. Mit Registrierung ist hierbei gemeint, dass ein Zeitversatz oder Zeitoffset zwischen Testsignal und Referenzsignal auf Grundlage des fensterbasierten Vergleichs eingestellt wird. Der fensterbasierte Vergleich kann beispielsweise eine Korrelation oder eine Summe absoluter Differenzwerte (SAD) sein. Der minimale Korrelationswert oder SAD-Wert gibt dann an, dass das Testsignal und das Referenzsignal die größte Ähnlichkeit aufweisen, also der Zeitversatz dahingehend optimal ist, dass ein erkannter oder detektierter Unterschied zwischen Referenzsignal und Testsignal ausschließlich aufgrund eines Unterschieds in den Bildsequenzen verursacht wird und nicht aufgrund eines fehlerhaften Zeitversatzes.In order to make the comparison between reference signals and test signals even more meaningful, a further development provides that the test signal is registered with the reference signal by means of a window-based comparison. Here, registration means that a time offset or time offset is set between the test signal and the reference signal on the basis of the window-based comparison. The window-based comparison can be, for example, a correlation or a sum of absolute difference values (SAD). The minimum correlation value or SAD value then indicates that the test signal and the reference signal have the greatest similarity, i.e. the time offset is optimal in that a recognized or detected difference between reference signal and test signal is caused solely by a difference in the image sequences and not due to an incorrect time offset.

Eine Weiterbildung ermöglicht es sogar, das Fehlerkriterium für den Vergleich von Testsignal und Referenzsignal automatisch zu erzeugen. Ein zur Weiterbildung wird ein weiteres Referenzsignal erzeugt, beispielsweise aus einem anderen Abschnitt der Referenzsequenz oder durch nochmaliges Durchlaufen des Testdurchlaufs. Aus dem weiteren Referenzsignal (oder den mehreren weiteren Referenzsignalen bei mehreren Objektmerkmalen), wird mittels einer Methode des maschinellen Lernens (ML) der Toleranzbereich für den Unterschied des Testsignals zum korrespondierenden Referenzsignal ermittelt. Als eine Methode des maschinellen Lernens kann beispielsweise die so genannte Novelty-Detetection-Methode (Neuheitserkennung) verwendet werden. Durch das maschinelle Lernen wird anhand des weiteren Referenzsignals erkannt, welche Verläufe oder Werte für das Referenzsignal typisch sind, d. h. das zu erwartende Verhalten. Hiermit können also danach statistische Ausreißer, die auf einen Fehler hindeuten, erkannt werden.A further development even makes it possible to automatically generate the error criterion for the comparison of test signal and reference signal. As a further development, a further reference signal is generated, for example from another section of the reference sequence or by running through the test run again. The tolerance range for the difference between the test signal and the corresponding reference signal is determined from the further reference signal (or the several further reference signals in the case of several object features) by means of a machine learning (ML) method. The so-called novelty detection method, for example, can be used as a method of machine learning. The machine learning uses the additional reference signal to identify which courses or values are typical for the reference signal, i. H. the expected behavior. This means that statistical outliers that indicate an error can then be recognized.

Als besonders zuverlässige automatische Toleranzfestsetzung hat sich die folgende Weiterbildung erwiesen. Sie weist den zusätzlichen Vorteil auf, dass durch einen Benutzer mittels einer grafischen Anzeige überprüft werden kann, ob der Toleranzbereich geeignet gesetzt wurde. Bei der Weiterbildung werden die Merkmalswerte zumindest zweiter Referenzsignale als Koordinaten eines Datenpunkts verwendet oder interpretiert. Mit anderen Worten werden die Merkmalswerte der Referenzsignale zu einem gegebenen Einzelbild (oder bei Interpolation zu einem gegebenen Zeitpunkt) als Koordinaten interpretiert. Nimmt man beispielsweise zwei Referenzsignale, so ergibt sich pro Zeitpunkt ein Datenpunkt in einem zweidimensionalen Koordinatensystem. Wird dies für alle Zeitpunkte oder Abtastzeitpunkte der Referenzsignale durchgeführt, so ergibt sich eine Punktwolke. Aus dieser Punktwolke, d.h. aus den Datenpunkten der Referenzsignale wird z.B. mittels radialer Basisfunktionen (RBF - Radial Basis Function) der Toleranzbereich als eine so genannte Entscheidungsgrenze (Decision Boundary) ermittelt. Die Entscheidungsgrenze ist diejenige Linie, welche die Datenpunkte oder zumindest die meisten Datenpunkte einschließt. Der Verlauf oder die Form der Entscheidungsgrenze kann dabei mittels der beschriebenen radialen Basisfunktionen besonders flexibel angepasst werden, wodurch Fehlalarme bei der Fehlerdetektion verringert werden können.The following development has proven to be a particularly reliable automatic tolerance setting. It has the additional advantage that a user can use a graphic display to check whether the tolerance range has been set appropriately. In the development, the feature values of at least second reference signals are used or interpreted as coordinates of a data point. In other words, the feature values of the reference signals are used as coordinates for a given frame (or, in the case of interpolation, at a given point in time) interpreted. If, for example, two reference signals are used, one data point in a two-dimensional coordinate system results per point in time. If this is carried out for all times or sampling times of the reference signals, a point cloud results. From this point cloud, ie from the data points of the reference signals, the tolerance range is determined as a so-called decision boundary, for example by means of radial base functions (RBF - Radial Base Function). The decision boundary is the line that encloses the data points or at least most of the data points. The course or the shape of the decision limit can be adapted particularly flexibly by means of the radial basic functions described, as a result of which false alarms during error detection can be reduced.

Zu der Erfindung gehört auch die beschriebene Testvorrichtung für ein Navigationssystem eines Kraftfahrzeugs. Die Testvorrichtung ist dazu eingerichtet, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Hierzu kann die Testvorrichtung eine Prozessoreinrichtung aufweisen, die beispielsweise auf der Grundlage eines oder mehrerer Mikroprozessoren realisiert sein kann. Die beschriebenen Komponenten der Testvorrichtung können somit jeweils als Programmmodule realisiert sein.The test device described for a navigation system of a motor vehicle also belongs to the invention. The test device is set up to carry out an embodiment of the method according to the invention. For this purpose, the test device can have a processor device that can be implemented, for example, on the basis of one or more microprocessors. The described components of the test device can thus each be implemented as program modules.

Im Folgenden ist ein Ausführungsbeispiel der Erfindung beschrieben. Hierzu zeigt:

  • 1 eine Skizze zu einem Testdurchlauf für ein Navigationssystem,
  • 2 ein Flussschaudiagramm, welches verschiedene Ausführungsformen des erfindungsgemäßen Verfahrens veranschaulicht,
  • 3 eine Skizze zur Veranschaulichung einer Extraktion mehrerer Schlüsselobjekte aus einem Einzelbild,
  • 4 eine schematische Darstellung eines Zeitsignals eines Objektmerkmals eines der Schlüsselobjekte,
  • 5 eine schematische Darstellung zur Veranschaulichung einer Registrierung des Zeitsignals mit einem Referenzsignal,
  • 6 eine schematische Darstellung zur Veranschaulichung einer Überprüfung eines Fehlerkriteriums und
  • 7 eine schematische Darstellung zur Veranschaulichung einer automatischen Festlegung des Fehlerkriteriums mittels einer Methode des maschinellen Lernens.
An exemplary embodiment of the invention is described below. This shows:
  • 1 a sketch for a test run for a navigation system,
  • 2 a flow chart illustrating various embodiments of the method according to the invention,
  • 3 a sketch to illustrate an extraction of several key objects from a single image,
  • 4th a schematic representation of a time signal of an object feature of one of the key objects,
  • 5 a schematic representation to illustrate a registration of the time signal with a reference signal,
  • 6 a schematic representation to illustrate a check of an error criterion and
  • 7th a schematic representation to illustrate an automatic determination of the error criterion by means of a method of machine learning.

Bei dem im Folgenden erläuterten Ausführungsbeispiel handelt es sich um eine bevorzugte Ausführungsform der Erfindung. Bei dem Ausführungsbeispiel stellen die beschriebenen Komponenten der Ausführungsform jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren ist die beschriebene Ausführungsform auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiment explained below is a preferred embodiment of the invention. In the exemplary embodiment, the described components of the embodiment each represent individual features of the invention that are to be considered independently of one another, which also develop the invention independently of one another and are therefore to be regarded as part of the invention individually or in a combination other than the one shown. Furthermore, the described embodiment can also be supplemented by further features of the invention already described.

In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.In the figures, functionally identical elements are each provided with the same reference symbols.

In 1 sind ein Navigationssystem 1 und eine Testvorrichtung 2 gezeigt. Das Navigationssystem 1 kann Bestandteil eines Infotainmentsystems sein. Das Navigationssystem 1 kann in einem Kraftfahrzeug (nicht dargestellt) eingebaut sein oder sich in beispielsweise in einem Versuchslabor außerhalb eines Kraftfahrzeugs befinden. Die Testvorrichtung 2 kann beispielsweise auf der Grundlage einer Prozessoreinrichtung, beispielsweise eines Personalcomputers, realisiert sein. Mittels der Testvorrichtung 2 wird das Navigationssystem 1 daraufhin überprüft, ob auf einer Anzeigeeinrichtung 3 des Navigationssystems 1 eine Bildsequenz 4 mit Navigationshinweisen fehlerfrei erzeugt wird. Hierzu wird eine Fahrt mit dem Kraftfahrzeug nachgestellt. Von der Fahrt bekommt das Navigationssystem 1 nur das mit, was Sensorsignale von Sensoren des Kraftfahrzeugs an das Navigationssystem 1 aussenden oder übermitteln. Entsprechend werden durch die Testvorrichtung 2 Sensordaten 5 in das Navigationssystem 1 eingespeist. Dies wird als sogenanntes Sensordatenreplay (Wiedereinspielen von Sensordaten) bezeichnet. Alternativ dazu kann der beschriebene Demo-Modus genutzt werden.In 1 are a navigation system 1 and a test device 2 shown. The navigation system 1 can be part of an infotainment system. The navigation system 1 can be installed in a motor vehicle (not shown) or, for example, in a test laboratory outside a motor vehicle. The test device 2 can for example be implemented on the basis of a processor device, for example a personal computer. Using the test device 2 becomes the navigation system 1 then checked whether on a display device 3 of the navigation system 1 an image sequence 4th is generated error-free with navigation instructions. For this purpose, a trip with the motor vehicle is simulated. The navigation system receives from the journey 1 only with what sensor signals from the sensors of the motor vehicle to the navigation system 1 send or transmit. According to the test device 2 Sensor data 5 into the navigation system 1 fed in. This is referred to as what is known as sensor data replay (re-importing sensor data). Alternatively, the demo mode described can be used.

Die Testvorrichtung 2 erfasst währenddessen aus dem Navigationssystem 1 Einzelbilder 6 der Bildsequenz 4 und überprüft anhand der Einzelbilder 6, ob die Bildsequenz 4 ein Fehlerkriterium 7 erfüllt. Falls das Filterkriterium 7 erfüllt ist, wird ein Hinweissignal 8 erzeugt, welches einen Benutzer (nicht dargestellt) der Testvorrichtung 2 signalisiert, dass die Bildsequenz 4 einen Fehler enthält. Der Benutzer kann dann gezielt diese Bildsequenz 4 noch einmal anschauen, um den Fehler zu begutachten. Falls die Bildsequenz hier keinen Fehler enthält, kann ein anderes Hinweissignal („Bildsequenz in Ordnung“) signalisieren, dass der Benutzer die Bildsequenz 4 nicht überprüfen muss. Hierdurch wird dem Benutzer also erspart, jede Bildsequenz durchzuschauen. Er kann sich auf diejenigen Bildsequenzen konzentrieren, die gemäß dem Fehlerkriterium 7 einen Fehler enthalten.The test device 2 recorded meanwhile from the navigation system 1 Single images 6 the image sequence 4th and checked on the basis of the individual images 6 whether the image sequence 4th an error criterion 7th Fulfills. If the filter criterion 7th is fulfilled, is a notification signal 8th generated, which a user (not shown) of the test device 2 signals that the image sequence 4th contains an error. The user can then selectively use this image sequence 4th look again to see the error. If the image sequence does not contain an error here, another warning signal (“Image sequence OK”) can signal that the user has completed the image sequence 4th don't have to check. This saves the user having to look through every image sequence. He can concentrate on those image sequences that, according to the error criterion 7th contain an error.

Insgesamt ergibt sich hieraus ein Testdurchlauf 9 für das Navigationssystem 10. Dieser Testvorlauf 9 kann mit denselben Sensordaten 5 oder mit anderen Sensordaten wiederholt werden. Selbst bei Verwendung derselben Sensordaten 5 können sich andere Einzelbilder 6 ergeben, was damit zusammenhängt, dass sich jedes Mal eine andere Auslastung, d. h. andere Betriebszustände im Navigationssystem 1 aufgrund anderer Vorgänge im Navigationssystem 1 oder in dem Infotainmentsystem ergeben können. Diese Effekte sind aus dem Stand der Technik bekannt.Overall, this results in a test run 9 for the navigation system 10 . This Test run 9 can with the same sensor data 5 or repeated with other sensor data. Even when using the same sensor data 5 other individual images can be 6 result, which is related to the fact that each time there is a different load, ie different operating states in the navigation system 1 due to other processes in the navigation system 1 or in the infotainment system. These effects are known from the prior art.

2 veranschaulicht, wie mittels der Testvorrichtung 2 unterschiedliche Möglichkeiten der Überprüfung des Navigationssystems 1 realisiert werden können. 2 zeigt, wie mehrere Testdurchläufe 9 durchgeführt werden können, wobei ein Testdurchlauf eine Referenzsequenz REF darstellt und die übrigen Testdurchläufe 9 jeweils eine Testsequenz TEST. Zu jedem Testdurchlauf 9 werden jeweils die beschriebenen Einzelbilder 6 der Bildsequenz 4 ermittelt. 2 illustrates how by means of the test device 2 different ways of checking the navigation system 1 can be realized. 2 shows how several test runs 9 can be carried out, with one test run representing a reference sequence REF and the remaining test runs 9 one test sequence TEST each. For every test run 9 are the individual images described 6 the image sequence 4th determined.

In den Einzelbildern 6 wird dann jeweils eine Extraktion 10 von grafischen Schlüsselobjekten 11 durchgeführt, was im Folgenden genauer anhand von 3 beschrieben ist. Zu den grafischen Schlüsselobjekten 11 werden dann jeweils für jedes Einzelbild 6 Merkmalswerte 12 für unterschiedliche Objektmerkmale ermittelt (siehe im Weiteren die Beschreibung im Zusammenhang mit 3). Aus den Merkmalswerten 12 werden dann durch eine Objektanalyse 13 Zeitsignale 14 erzeugt, wobei sich für die Referenzsequenz REF ein Referenzsignal 15 und für eine jeweilige Testsequenz TEST ein korrespondierendes Testsignal 16 jedes Schlüsselobjekt 11 und für jedes Objektmerkmal ergibt (siehe im Weiteren 4).In the individual images 6 then one extraction at a time 10 of graphic key objects 11 carried out, which is explained in more detail below using 3 is described. To the graphic key objects 11 are then each for each individual image 6 Characteristic values 12 determined for different property features (see below the description in connection with 3 ). From the characteristic values 12 are then through an object analysis 13 Time signals 14th generated, a reference signal for the reference sequence REF 15th and a corresponding test signal for a respective test sequence TEST 16 every key object 11 and results for each property feature (see below 4th ).

Verzichtet man auf die Referenzsequenz REF, so kann jedes Testsignal 16 in einem Speicher 17 gespeichert werden und anhand eines ersten Tests T1 mittels einer schwellwertbasierten Fehlererkennung ohne Referenz getestet werden, was im Zusammenhang mit 4 näher erläutert ist.If the reference sequence REF is not used, any test signal 16 in a store 17th and based on an initial test T1 can be tested by means of a threshold-based error detection without reference, what is in connection with 4th is explained in more detail.

Speichert man das Referenzsignal 15 und das Testsignal 16 in einem jeweiligen Speicher 18 kann in einem Test T2 eine schwellwertbasierte Fehlererkennung mit Referenz durchgeführt werden. Für einen zeitlichen Angleich der Signale 15, 16 kann ein Interpolation und Registrierung 19 vorgesehen sein, was im Folgenden im Zusammenhang mit 5 und 6 näher erläutert ist.The reference signal is saved 15th and the test signal 16 in a respective memory 18th can in a test T2 a threshold-based error detection with reference can be carried out. For a temporal alignment of the signals 15th , 16 can be an interpolation and registration 19th be provided what follows in connection with 5 and 6 is explained in more detail.

Der beschriebene schwellwertbasierte Vergleich im Test T2 kann noch weiter automatisiert werden, indem für jedes Referenzsignal 15 eine Merkmalsverteilung 20 ermittelt wird und auf Grundlage der Merkmalsverteilung 20 Entscheidungsgrenzen 21 als Toleranzbereich ermittelt werden. Entscheidungsgrenzen können mittels einer Methode des maschinellen Lernens ML ermittelt werden. Speichert man diese Entscheidungsgrenzen 21 in einem Speicher 22 ab und die Testsignale 16 in einem Speicher 23, so kann in einem Test T3 eine maschinengelernte Fehlererkennung mit Referenz durchgeführt werden. Dies ist im Weiteren im Zusammenhang mit 7 beschrieben.The described threshold-based comparison in the test T2 can be automated even further by adding for each reference signal 15th a feature distribution 20th is determined and based on the characteristics distribution 20th Decision limits 21st can be determined as a tolerance range. Decision limits can be determined by means of a method of machine learning ML. If you save these decision limits 21st in a store 22nd off and the test signals 16 in a store 23 so can in a test T3 a machine-learned error detection with reference can be carried out. This is further in connection with 7th described.

3 zeigt von der Bildsequenz 4 erfasste Einzelbilder 6. Jedes Einzelbild 6 stellt mehrere Schlüsselobjekte 11 dar, beispielsweise ein Fahrzeugsymbol 24 für das Eigenfahrzeug, eine geplante Fahrroute 25, eine Verkehrsflussanzeige 26, ein Straßenverlaufs 27. In der Regel sind diese Schlüsselobjekte 11 mit unterschiedlichen Farben dargestellt. Durch die Extraktion 10 können die Schlüsselobjekte 11 segmentiert oder separiert oder einzeln und unabhängig voneinander erkannt werden. Beispielsweise kann hierzu die Darstellungsfarbe als Extraktionskriterium oder Erkennungskriterium verwendet werden. 3 zeigt, wie durch die Extraktion 10 die Fahrroute 25, die Verkehrsflussanzeige 26 und der Straßenverlauf 27 separiert werden können. In einer Zusammenschau 28 ist noch einmal veranschaulicht, wie die Kombination 29 der Schlüsselobjekte 11 im Wesentlichen wieder das Einzelbild 6 ergibt. Zu jedem Schlüsselobjekt 11 kann nun für jedes Einzelbild 6 jeweils ein Merkmalswert 12 ermittelt werden. In dem veranschaulichten Beispiel kann beispielsweise die Anzahl N der Pixel, mit welchen das jeweilige Schlüsselobjekt 11 dargestellt wird, gezählt werden. 3 shows from the picture sequence 4th captured single images 6 . Every single picture 6 represents several key objects 11 represent, for example a vehicle symbol 24 for the own vehicle, a planned route 25th , a traffic flow indicator 26th , a course of the road 27 . Usually these are key objects 11 shown with different colors. By extraction 10 can the key objects 11 segmented or separated or individually and independently recognized. For example, the display color can be used as an extraction criterion or recognition criterion for this purpose. 3 shows how by extraction 10 the route 25th , the traffic flow indicator 26th and the course of the road 27 can be separated. In a synopsis 28 is once again illustrated how the combination 29 of the key objects 11 essentially the single image again 6 results. To every key object 11 can now for every single image 6 one characteristic value each 12 be determined. In the illustrated example, for example, the number N of pixels with which the respective key object 11 is shown, are counted.

4 veranschaulicht, wie dieses Objektmerkmal 30 (beispielsweise Anzahl N der Pixel) durch Kombinieren aller Merkmalswerte 12 des Objektmerkmals 30 zu einem Zeitsignal 14 kombiniert werden, das über der Zeit t die Veränderung oder Entwicklung des Objektmerkmals 30 beschreibt. 4 veranschaulicht den Zeitverlauf 14 für das Testsignal 16. 4th illustrates how this reference feature 30th (for example number N of pixels) by combining all feature values 12 of the property 30th to a time signal 14th are combined that over time t the change or development of the property 30th describes. 4th illustrates the passage of time 14th for the test signal 16 .

Das Fehlerkriterium 7 kann nur für den Test T1 beispielsweise ein Schwellwertintervall 31 vorgeben, in welchem das Testsignal 16 liegen muss. Wird das Fehlerkriterium 7 verletzt, so liegt in diesem Fall das Zeitsignal 16 außerhalb des Schwellwertintervalls 31, sodass für diesen Bildfehler 32' das Hinweissignal 8 erzeugt wird. Das Hinweissignal 8 kann auch angeben, an welchem Zeitpunkt in der Bildsequenz 4 der Bildfehler 32' detektiert wurde.The failure criterion 7th can only for the test T1 for example a threshold value interval 31 specify in which the test signal 16 must lie. Becomes the failure criterion 7th violated, the time signal is in this case 16 outside the threshold interval 31 so for this image defect 32 ' the warning signal 8th is produced. The warning signal 8th can also indicate at what point in time in the image sequence 4th the image defect 32 ' was detected.

5 veranschaulicht, wie zwei Zeitsignale 14, nämlich ein Referenzsignal 15 und ein Testsignal 16, miteinander registriert werden können. Dazu wird zunächst mittels eines Re-Samplings oder einer Interpolation 19 (2) jedes Zeitsignal 14 auf eine vorgegebene Abtastrate angepasst, damit Merkmalswerte 12, die zu unterschiedlichen Zeitpunkten aufgenommen wurden, mit einem jeweils korrespondierenden Merkmalswert 12' zum gleichen Zeitpunkt verglichen werden können. 5 illustrates how two time signals 14th , namely a reference signal 15th and a test signal 16 can be registered with each other. This is done first by means of re-sampling or interpolation 19th ( 2 ) every time signal 14th adapted to a predefined sampling rate so that feature values 12 recorded at different times, with one each corresponding characteristic value 12 ' can be compared at the same time.

5 veranschaulicht des Weiteren, wie mittels eines fensterbasierten Vergleichs 32 durch Verschieben 33 des Testsignals 16 gegenüber dem Referenzsignal 15 ein Offsetwert 34 ermittelt werden kann, um welchen das Testsignal 16 gegenüber dem Referenzsignal 15 über der Zeit t verschoben werden muss, damit sich abgesehen von Bildfehlern eine optimale Überdeckung der beiden Zeitsignale 14 ergibt. Als Vergleichsmaß kann für jeden zeitlichen Verschiebungswert beispielsweise die beschriebene Summe der absoluten Differenzen SAD berechnet werden. 5 also illustrates how using a window-based comparison 32 by moving 33 of the test signal 16 compared to the reference signal 15th an offset value 34 can be determined by which the test signal 16 compared to the reference signal 15th must be shifted over the time t, so that, apart from image errors, there is an optimal overlap of the two time signals 14th results. For example, the described sum of the absolute differences SAD can be calculated as a comparison measure for each time shift value.

6 veranschaulicht dann, wie durch Subtrahieren des Referenzsignals 15 und des Testsignals 16 ein Differenzsignal 35 erzeugt werden kann, welches also den Unterschiedwert dN der Pixelanzahl in dem veranschaulichten Beispiel darstellt. In dem Test T2 kann nun als Fehlerkriterium 7 wieder ein Werteintervall 36 definiert sein, welches angibt, dass Differenzsignal 35 innerhalb des Werteintervalls 36 liegen muss, damit kein Fehler vorliegt. Neben dem Bildfehler 32', der auch bei der absoluten Werteanalyse im Test T1 erkannt wurde, kann nun durch Vergleich mit dem Referenzsignal 15 ein zweiter Bildfehler 37 in dem veranschaulichten Beispiel detektiert werden. 6 then illustrates how by subtracting the reference signal 15th and the test signal 16 a difference signal 35 can be generated, which thus represents the difference value dN of the number of pixels in the illustrated example. In the test T2 can now be used as an error criterion 7th again a value interval 36 be defined, which indicates that difference signal 35 within the range of values 36 must lie so that there is no error. In addition to the image defect 32 ' , which is also used for the absolute value analysis in the test T1 was recognized, can now be compared with the reference signal 15th a second image defect 37 can be detected in the illustrated example.

7 veranschaulicht, wie für den Test T3 mittels des maschinellen Lernens zunächst ein Fehlerkriterium 7 in Form einer Entscheidungsgrenze 38 ermittelt werden kann. Hierzu werden zwei Referenzsignale 15, 15' für zwei Schlüsselobjekte 11 ermittelt. Beispielsweise sei im Folgenden angenommen, dass es sich bei den beiden Schlüsselobjekten 11 um den Verkehrsfluss 26 („speed & flow“) und den Straßenverlauf 27 handelt. Aus diesem Grund wird auf dieses Beispiel im Weiteren als „Speed-and-Flow-Beispiel“ verwiesen. Als Objektmerkmal 30 wird dabei jeweils in dem Beispiel wieder die Anzahl N der angezeigten Pixel ausgewertet. Hierbei wird jedes Referenzsignal 15, 15' einzeln für jeden Zeitpunkt betrachtet, sodass also die einzelnen Signalwerte der beiden Referenzsignale 15, 15' aufgetragen werden. Durch Kombinieren eines jeweiligen Signalwerts des Referenzsignals 15 und des Referenzsignals 15' zu einem gegebenen Zeitpunkt ergibt sich jeweils ein Datenpunkt 39, von denen in 7 der Übersichtlichkeit halber nur einige mit einem Bezugszeichen versehen sind. Mittels des maschinellen Lernens ML kann nun beispielsweise durch Anwenden von radialen Basisfunktionen die Entscheidungsgrenze 38 ermittelt werden, welche die meisten oder alle Datenpunkte 39 einschließt. Durch Einstellen eines an sich bekannten Parameters des maschinellen Lernens ML können alternative Grenzverläufe 40 für die Entscheidungsgrenze 38 festgelegt werden, wodurch mittels des Parameters also die Fehlerrate eingestellt werden kann. 7th illustrates how for the test T3 first an error criterion using machine learning 7th in the form of a decision limit 38 can be determined. Two reference signals are used for this 15th , 15 ' for two key objects 11 determined. For example, it is assumed below that the two key objects 11 to the flow of traffic 26th ("Speed &flow") and the course of the road 27 acts. For this reason, this example is referred to below as the “speed and flow example”. As a property feature 30th the number N of displayed pixels is evaluated again in the example. Here every reference signal 15th , 15 ' considered individually for each point in time, so that the individual signal values of the two reference signals 15th , 15 ' be applied. By combining a respective signal value of the reference signal 15th and the reference signal 15 ' at a given point in time there is one data point 39 , of which in 7th for the sake of clarity, only some are provided with a reference number. By means of the machine learning ML, the decision limit can now be established, for example by applying radial basis functions 38 determine which most or all of the data points 39 includes. By setting a machine learning parameter ML known per se, alternative limit profiles can be created 40 for the decision limit 38 can be specified, which means that the error rate can be set using the parameter.

In dem Test T3 können nun entsprechende Datenpunkte 41 einer Testsequenz TEST ermittelt werden. Liegen diese Datenpunkte 41 außerhalb der Entscheidungsgrenze 38, so wird hierdurch ebenfalls ein Bildfehler 42 in der Testsequenz TEST erkannt.In the test T3 can now use corresponding data points 41 a test sequence TEST can be determined. Are these data points 41 outside the decision limit 38 , this also creates an image defect 42 recognized in the test sequence TEST.

Die anhand des Ausführungsspeispiels konkret beschriebenen Ausführungsformen des erfindungsgemäßen Verfahrens können abgewandelt werden, um den Test des Navigationssystems 1 an unterschiedliche Testbedingungen anzupassen. Hierzu sind im Folgenden weitere Hinweise für die Abwandlung gegeben.The embodiments of the method according to the invention that are specifically described using the exemplary embodiment can be modified in order to test the navigation system 1 adapt to different test conditions. Further information on the modification is given below.

Das vorgestellte Konzept basiert auf der wiederholten Aufnahme des Navigation-Bildschirminhalts bei gleichbleibender Strecke. Neben dem bekannten Demo-Modus der Navigation ist dies insbesondere durch die seit kurzem verfügbare Technologie des Sensordatenreplays möglich: die Sensordaten einer mehrstündigen, realen Fahrt werden im Labor erneut in die Navigation eingespielt. Der Aufnahme des ersten Laufs wird im Folgenden als Referenz-Sequenz bezeichnet, die Aufnahmen aller nachfolgenden Aufnahmen als Test-Sequenzen.The concept presented is based on the repeated recording of the navigation screen content with the same route. In addition to the well-known demo mode of the navigation, this is particularly possible thanks to the recently available technology of the sensor data replay: the sensor data from a real trip lasting several hours are re-imported into the navigation in the laboratory. The recording of the first run is referred to below as the reference sequence, the recordings of all subsequent recordings as test sequences.

Das Verfahren umfasst grundsätzlich drei Komponenten:

  1. 1. Berechnung von Schlüsselobjekt-Merkmalsverläufen
  2. 2. Synchronisierung der Sequenzen, sowie
  3. 3. Fehlererkennung mit/ohne maschinellem Lernen
The process basically comprises three components:
  1. 1. Calculation of key object characteristic courses
  2. 2. Synchronizing the sequences as well
  3. 3. Error detection with / without machine learning

In Kombination miteinander erlauben diese drei Komponenten eine referenzbasierte, automatisierte Erprobung der Navigation, welche die vier beschriebenen Nachteile behebt bzw. deutlich reduziert. Zudem können seltene, noch unbekannte Navigationsfehler ohne explizite Modellierung des Fehlers automatisiert erkannt werden. 2 zeigt die prinzipielle Prozesskette des vorgestellten Konzepts. Je nach Entscheidung, ob eine Fehlererkennung mit/ohne Referenzsequenz sowie mit/ohne maschinellem Lernen erfolgen soll, gelten unterschiedliche Vorgehensweisen, die mit den entsprechenden Pfeilen angedeutet sind.In combination with each other, these three components allow a reference-based, automated testing of the navigation, which eliminates or significantly reduces the four disadvantages described. In addition, rare, as yet unknown navigation errors can be identified automatically without explicitly modeling the error. 2 shows the basic process chain of the presented concept. Depending on the decision as to whether error detection should take place with / without a reference sequence and with / without machine learning, different procedures apply, which are indicated with the corresponding arrows.

Die Grundlage bildet die Definition von elementaren Objekten der Navigation, hier Schlüsselobjekte genannt. Diese Schlüsselobjekte erlauben eine einfache Charakterisierung des Verhaltens wichtiger Navigationselemente sowie einen Verzicht auf traditionelle Mustererkennung (=„Pattern Matching“, Vergleich von Texturinhalten). 3 verdeutlicht dies mit einem Beispiel. Hier sind die Objekte Route, Speed & Flow sowie Straßen exemplarisch als Schlüsselobjekte gewählt worden. Jedes der gewählten Schlüsselobjekte wird anhand der zugehörigen Farbe im Frame erkannt und extrahiert. Anschließend wird für jedes Schlüsselobjekt ein charakterisierendes Schlüsselobjekt-Merkmal berechnet (=Zahl), beispielsweise die Anzahl N der Pixel dieses Objekts. Über die Sequenz ergibt sich so für jedes Schlüsselobjekt ein Schlüsselobjekt-Merkmalsverlauf (=Kurve oder Zeitsignal), der das Verhalten des Schlüsselobjekts zuverlässig abbildet und mit einer fehlerfreien Referenzsequenz vergleichbar macht.The basis is the definition of elementary navigation objects, called key objects here. These key objects allow a simple characterization of the behavior of important navigation elements as well as a waiver of traditional pattern recognition (= "pattern matching", comparison of texture contents). 3 illustrates this with an example. Here are the objects Route, Speed & Flow as well as roads were selected as key objects. Each of the selected key objects is recognized and extracted based on the associated color in the frame. Then a characterizing key object feature is calculated for each key object (= number), for example the number N of pixels of this object. The sequence thus results in a key object characteristic curve (= curve or time signal) for each key object, which reliably maps the behavior of the key object and makes it comparable with an error-free reference sequence.

Es sei angemerkt, dass dieses Konzept beliebig anpassbar/erweiterbar ist. Beispiele einer möglichen Anpassung/Erweiterung wären:

  1. 1. Definition zeitlicher Schlüsselobjekt-Merkmale, beispielsweise von affinen Bewegungsparametersätzen zwischen Einzelbildern oder Frames,
  2. 2. Extrahierung der Schlüsselobjekte nicht aufgrund der Farbe, sondern aufgrund (einfacher) Mustererkennungsalgorithmen,
  3. 3. Berechnung eines Schlüsselobjekt-Merkmalstupels, also eines mehrdimensionalen Merkmals (siehe Bewegungsparametersatz),
  4. 4. Einbeziehung von Kontexten und Korrelationen bei der Berechnung und Verarbeitung von Schlüsselobjekt-Merkmalen und Schlüsselobjekt-Merkmalsverläufen (z.B. Einbeziehung von Bewegungsparametersätzen bei der Threshold- oder ML-basierten Fehlererkennung, Threshold - Schwellwert).
It should be noted that this concept can be adapted / expanded as required. Examples of a possible adaptation / expansion would be:
  1. 1. Definition of temporal key object features, for example of affine movement parameter sets between individual images or frames,
  2. 2. Extraction of the key objects not based on color, but based on (simple) pattern recognition algorithms,
  3. 3. Calculation of a key object feature tuple, i.e. a multi-dimensional feature (see movement parameter set),
  4. 4. Inclusion of contexts and correlations in the calculation and processing of key object features and key object feature progressions (eg inclusion of movement parameter sets in the threshold or ML-based error detection, threshold value).

Die Verfügbarkeit einer Referenzsequenz (2, links) ermöglicht zudem den Einsatz von Methoden des maschinellen Lernens (Machine Learning, ML). Ein Beispiel hierfür ist die Novelty Detection, ein Ein-Klassen-Klassifizierungsverfahren, das eng mit der statistischen Ausreißererkennung verwandt ist. Im Rahmen von Tests wurde die Novelty Detection experimentell mit der Schlüsselobjekt-Merkmalsberechnung kombiniert und so angepasst, dass ein Erlernen des zu erwartenden Verhaltens bestimmter Schlüsselobjekt-Merkmale anhand der Referenz-Sequenz möglich wird.The availability of a reference sequence ( 2 , left) also enables the use of machine learning (ML) methods. One example of this is novelty detection, a one-class classification method that is closely related to statistical outlier detection. As part of tests, the novelty detection was experimentally combined with the key object feature calculation and adapted in such a way that it is possible to learn the expected behavior of certain key object features using the reference sequence.

Dies ermöglicht, eine beliebige Anzahl an Test-Wiederholungen (=Test-Sequenzen) automatisiert in den so erlernten Klassifizierer zu geben und seltene Fehler anhand möglichem „unerwartetem“ Verhalten zu identifizieren. Im Vergleich mit schwellwertbasierten oder threshold-basierten Fehlererkennungsmechanismen vereinfacht sich die Auswertung durch den Menschen zusätzlich, da der Rechner das zu erwartende Verhalten der Schlüsselobjekte erlernt hat, dieses Wissen mittels Klassifizierer abbildet und damit aus hunderten Stunden Test-Wiederholungen lediglich ungewöhnliche Ereignisse an den Tester (Mensch) weitergibt. Dies entspricht im Grunde einer referenzbasierten Aufbereitung und Filterung vorhandener Schlüsselobjekt-Information.This enables any number of test repetitions (= test sequences) to be automatically entered into the classifier learned in this way and rare errors to be identified on the basis of possible "unexpected" behavior. In comparison with threshold-based or threshold-based error detection mechanisms, the evaluation by humans is additionally simplified, because the computer has learned the expected behavior of the key objects, maps this knowledge using classifiers and thus only unusual events to the tester from hundreds of hours of test repetitions ( Human). This basically corresponds to a reference-based preparation and filtering of existing key object information.

In Kombination miteinander erlauben die drei KomponentenIn combination with each other, the three components allow

  1. 1. Berechnung von Schlüsselobjekt-Merkmalsverläufen1. Calculation of key object characteristic courses
  2. 2. Synchronisierung der Sequenzen, sowie2. Synchronizing the sequences as well
  3. 3. Fehlererkennung mit/ohne maschinellem Lernen eine Erprobung der Navigation in automatisierter Form. Zusammengefasst weist die vorgestellte Idee folgende Vorteile auf:3. Error detection with / without machine learning a test of the navigation in an automated form. In summary, the idea presented has the following advantages:

Geringer ModellierungsaufwandLittle modeling effort

Die Notwendigkeit zur Modellierung von Fehlerverhalten (explizit oder implizit) entfällt größtenteils, da eine Referenzsequenz für einen rechnergestützten Vergleich zur Verfügung steht und der Vergleich mittels der vorgestellten Synchronisierung zuverlässig durchgeführt werden kann.The need to model error behavior (explicitly or implicitly) is largely eliminated, since a reference sequence is available for a computer-aided comparison and the comparison can be carried out reliably using the synchronization presented.

Reduzierte RechenkomplexitätReduced computational complexity

Der Rechenaufwand für komplexe Mustererkennung entfällt, die Berechnung kann in annähernd Echtzeit durchgeführt werden. Der Großteil des nötigen Aufwands setzt sich aus logische Indizierung, Kurveninterpolation sowie, falls gewünscht, dem Erlernen der Decision Boundary zusammen (einmalig).The computing effort for complex pattern recognition is eliminated, the calculation can be carried out in almost real time. The majority of the necessary effort consists of logical indexing, curve interpolation and, if desired, learning the decision boundary (once).

Reduzierter AuswerteaufwandReduced evaluation effort

Die Abbildung elementarer Schlüsselobjekte der Navigation als einfache Kurvenverläufe sowie deren Differenzwertbildung nach erfolgter Synchronisation erlauben erstmals eine zeitliche Aufbereitung des Bildinhalts ganzer Testläufe in Plot-Form. Gängige Auswerte-Softwarewerkzeuge wie EXAM unterstützen dies nicht: die Sequenz muss stets in einem Videoplayer oder Einzelbild-Browser („Picture Browser“) in ganzer Länge mit dem Auge geprüft werden. Durch die Repräsentation des Navigations-Bildinhalts in Kurvenform wird eine schnelle, unkomplizierte Bewertung des jeweiligen Testlaufs durch den Tester (Mensch) möglich.The mapping of elementary key objects of the navigation as simple curve progressions as well as their difference value formation after synchronization allow for the first time a temporal processing of the image content of entire test runs in plot form. Common evaluation software tools such as EXAM do not support this: the sequence must always be checked with the eye in its entire length in a video player or single-image browser ("Picture Browser"). The representation of the navigation image content in the form of a curve enables the tester (human) to evaluate the respective test run quickly and easily.

Nutzung von Referenz-InformationUse of reference information

Durch das beschriebene Konzept der Merkmale und Merkmalsverläufe von Schlüsselobjekten, kombiniert mit der vorgestellten Synchronisierung, besteht nun erstmals die Möglichkeit, mit geringem Aufwand einen rechnergestützten Vergleich gegen eine fehlerfreie Referenzsequenz durchzuführen. Der Tester hat damit die Möglichkeit, den ersten Lauf (=Referenzsequenz REF) mit dem Auge auf Fehlerfreiheit zu prüfen, und den Test anschließend bei minimalem Auswerteaufwand beliebig oft zu wiederholen (automatisierte Prüfung der Testsequenzen TEST).The described concept of the features and feature profiles of key objects, combined with the synchronization presented, now makes it possible for the first time to carry out a computer-aided comparison against an error-free reference sequence with little effort. Of the This gives the tester the opportunity to visually check the first run (= reference sequence REF) for defects and then to repeat the test as often as required with minimal evaluation effort (automated test of the test sequences TEST).

Erkennung seltener und unbekannter FehlerDetection of rare and unknown errors

Die Nutzbarkeit einer Referenz-Sequenz kann als implizite Modellierung unbekannter Fehler (bzw. als explizite Modellierung des zu erwartenden Verhaltens) interpretiert werden. Dies wiederum ermöglicht, unbekannte Fehler anhand ihres unerwarteten Schlüsselobjekt-Verhaltens zu identifizieren, ohne mit massivem Aufwand implizite Modelle zu erstellen und zu pflegen. Die Identifikation seltener, unbekannter Fehler ist eine große Herausforderung im Bereich der automatisierten Navigationserprobung.The usability of a reference sequence can be interpreted as implicit modeling of unknown errors (or as explicit modeling of the expected behavior). This in turn makes it possible to identify unknown errors based on their unexpected key object behavior without creating and maintaining implicit models with massive effort. The identification of rare, unknown errors is a major challenge in the area of automated navigation testing.

Machine Learning MLMachine learning ML

Durch das beschriebene Konzept der Merkmale bzw. Merkmalsverläufe von Schlüsselobjekten können erwartete Eigenschaften bzw. erwartetes Verhalten als Merkmals-Tupel interpretiert werden. Im Machine Learning bilden diese Merkmals-Tupel (auch genannt „Features“) die Grundlage für die Berechnung eines beschreibenden Modells (= Training eines Modells). Das Modell (oft ein Parametersatz eines „Kernels“, wie beispielsweise des RBF-Kernels) kann anschließend zur Klassifizierung von Features unbekannter Klassen genutzt werden. Das vorgestellte Konzept erschließt somit das Feld des Machine Learnings für zukünftige Ansätze.The described concept of the features or feature profiles of key objects enables expected properties or expected behavior to be interpreted as feature tuples. In machine learning, these feature tuples (also called "features") form the basis for calculating a descriptive model (= training a model). The model (often a set of parameters of a “kernel” such as the RBF kernel) can then be used to classify features of unknown classes. The concept presented thus opens up the field of machine learning for future approaches.

Zeitliche Merkmale, Berechnung eines KontextesTemporal characteristics, calculation of a context

Das vorgestellte Konzept der Merkmale bzw. Merkmalsverläufe von Schlüsselobjekten nutzt momentan „örtliche Merkmale“ (-> Pixelanzahl von extrahierten Schlüsselobjekten). „Zeitliche Merkmale“ wie beispielsweise die Bewegung zwischen Frames können in Zukunft ebenfalls Betrachtung finden. Ebenso ist die Einführung eines „Kontextes“ möglich, also einer Fehlererkennung auf Basis der näheren Vergangenheit des betrachteten Merkmalsverlaufs sowie in Korrelation mit anderen Merkmalsverläufen. Es ist wahrscheinlich, dass ein automatisches „Erlernen“ dieser Netzwerke (Bayes-Netzwerke) anhand der Referenzsequenz eine einfache Lösung für eine unkomplizierte, wartungsarme Erprobung der Navigation darstellt.The presented concept of the features or feature profiles of key objects currently uses "local features" (-> number of pixels from extracted key objects). “Temporal characteristics” such as movement between frames can also be considered in the future. It is also possible to introduce a “context”, that is, error detection on the basis of the recent past of the characteristic curve under consideration and in correlation with other characteristic curves. It is likely that an automatic “learning” of these networks (Bayesian networks) using the reference sequence represents a simple solution for an uncomplicated, low-maintenance testing of the navigation.

Nachfolgend wird die technische Umsetzung der vorgestellten Idee im Prinzip beschrieben.The technical implementation of the presented idea is described in principle below.

Berechnung von Schlüsselobjekt-MerkmalsverläufenCalculation of key object characteristic courses

Statt der Suche nach Texturähnlichkeiten (Pattern Matching, Mustererkennung) erfolgt die Identifikation von elementaren Navigationselementen mittels einer farbbasierten Extraktion. Diese elementaren Objekte werden nachfolgend als Schlüsselobjekte bezeichnet. Weitere wichtige Begriffe sind im Folgenden zudem Schlüsselobjekt-Merkmal sowie Schlüsselobjekt-Merkmalsverlauf.Instead of searching for texture similarities (pattern matching, pattern recognition), elementary navigation elements are identified using color-based extraction. These elementary objects are referred to below as key objects. In the following, further important terms are also key object characteristics and key object characteristics history.

Je nach Zielsetzung der automatisierten Tests können die Schlüsselobjekte unterschiedlich gewählt werden. Beispiele für Schlüsselobjekte sind Straßen, Route, Speed & Flow, Fahrzeugsymbol oder andere (siehe beispielhaft 3). Es wird dabei Nutzen aus der Tatsache gezogen, dass diese Schlüsselobjekte typischerweise einfarbig sind (dient dem Zwecke der übersichtlichen grafischen Aufbereitung der Navigation). Mit Hilfe des Merkmals Farbe kann das Schlüsselobjekt als Ansammlung von Pixeln eindeutig extrahiert werden. Die Pixelanzahl ergibt das Schlüsselobjekt-Merkmal. Auch andere Schlüsselobjekt-Merkmale als die reine Pixelanzahl sind denkbar. Wichtig für eine nachfolgende Synchronisierung und Fehlererkennung ist aber, dass das Schlüsselobjekt-Merkmal pro Frame einer einzelnen Zahl entspricht. Dies gewährleistet, dass das Verhalten eines Schlüsselobjekts anhand eines einfachen, aber repräsentativen Kurvenverlaufs für die gesamte betrachtete Sequenz einfach charakterisiert werden kann. Ein Schlüsselobjekt-Merkmalsverlauf ist in 4 exemplarisch dargestellt. Zudem unterstützt diese Konvention eine grafische Aufbereitung und damit die Auswertung durch den Tester (Mensch). Es hat sich gezeigt, dass eine Vereinfachung auf ein Ein-Zahlen-Merkmal einen optimaler Tradeoff darstellt zwischen eindeutiger Charakterisierung und Handhabbarkeit der Merkmalsverläufe.The key objects can be selected differently depending on the objective of the automated tests. Examples of key objects are streets, routes, speed & flow, vehicle symbols or others (see example 3 ). Use is made of the fact that these key objects are typically monochrome (for the purpose of clear, graphic preparation of the navigation). With the help of the color characteristic, the key object can be extracted uniquely as a collection of pixels. The number of pixels gives the key object feature. Other key object features than the pure number of pixels are also conceivable. However, it is important for subsequent synchronization and error detection that the key object characteristic corresponds to a single number per frame. This ensures that the behavior of a key object can be easily characterized using a simple but representative curve shape for the entire sequence under consideration. A key object trait history is in 4th shown as an example. In addition, this convention supports graphic processing and thus evaluation by the tester (human). It has been shown that a simplification to a one-number feature represents an optimal trade-off between unambiguous characterization and manageability of the feature profiles.

Aus diesen Verläufen kann gezielt auf die korrekte Funktion der einzelnen Schlüsselobjekte der Navigation geschlossen werden (mehr dazu unter Fehlererkennung mit/ohne maschinellem Lernen). Sie sind zudem essentiell für die Behebung der Nachteile Modellierungsaufwand und Rechenkomplexität: In ihnen ist implizit das erwartete Verhalten modelliert, die Komplexität beschränkt sich auf eine logische Indizierung und eine Merkmalsberechnung (hier: Summe der Schlüsselobjektpixel). Die Schlüsselobjekt-Merkmalsverläufe schaffen zudem die Grundvoraussetzung für die Nutzbarkeit einer Referenzsequenz, was die Suche nach seltenen Fehlern erheblich vereinfacht.The correct functioning of the individual key objects of the navigation can be specifically deduced from these courses (more on this under Error detection with / without machine learning). They are also essential for eliminating the disadvantages of modeling effort and computational complexity: they implicitly model the expected behavior, the complexity is limited to a logical indexing and a feature calculation (here: sum of the key object pixels). The key object characteristic curves also create the basic requirements for the usability of a reference sequence, which considerably simplifies the search for rare errors.

Synchronisierung der SequenzenSynchronization of the sequences

Der Komponente Synchronisierung ist essentiell, um die Schlüsselobjekt-Merkmalsverläufe einer Test-Sequenz mit einer bereits geprüften, fehlerfreien Referenz-Sequenz automatisiert vergleichen zu können. Dieser Referenzvergleich ist hochgradig interessant, da er ein wirkungsvolles Werkzeug zur Erkennung bisher unbekannter Fehler darstellt (explizite Modellierung des Fehlers nicht möglich, implizite Modellierung mit hohem Aufwand verbunden). Dieser Referenzvergleich kann nur durchgeführt werden, falls für den zu vergleichenden Zeitabschnitt annähernde Synchronität der beiden Zeitachsen sichergestellt ist. Angesichts der variierenden Frameraten, der asynchronen, internen Clocks der Framegrabber sowie der Auslastung der Prüfstands-PCs ist dies nicht trivial. Die Synchronisierung setzt sich aus zwei einfachen Schritten zusammen:

  1. 1. Interpolationsschritt: Die Schlüsselobjekt-Merkmale aller Frames einer Sequenz stellen eine Serie an Einzelwerten dar (-> Merkmalsverlauf). Diese Einzelwerte sind als Abtastwerte zu gewissen Zeitpunkten anzusehen. Die Abtastung besitzt eine variierende Abtastrate. Es ist daher nötig, diese unregelmäßige Abtastung so zu interpolieren, dass zu jedem regulären Zeitschritt (z.B. jede Sekunde) ein Abtastwert (=Schlüsselobjekt-Merkmal) existiert.
  2. 2. Registrierungsschritt: Der Registrierungsschritt beinhaltet einen fensterbasierten Vergleich der interpolierten Merkmalsverläufe von Referenz-Sequenz und Test-Sequenz. Dabei wird für jede Position der SAD (Summe der Absoluten Differenzen) der Schlüsselobjekt-Merkmale berechnet und jene Position für die Registrierung verwendet, die den minimalen SAD aufweist.
The synchronization component is essential to the key object characteristic curves of a To be able to automatically compare test sequence with an already tested, error-free reference sequence. This reference comparison is extremely interesting because it represents an effective tool for the detection of previously unknown errors (explicit modeling of the error not possible, implicit modeling associated with a lot of effort). This reference comparison can only be carried out if approximate synchronicity of the two time axes is ensured for the time segment to be compared. In view of the varying frame rates, the asynchronous, internal clocks of the frame grabbers and the load on the test bench PCs, this is not trivial. Synchronization consists of two simple steps:
  1. 1st interpolation step: The key object features of all frames in a sequence represent a series of individual values (-> feature profile). These individual values are to be viewed as samples at certain times. The sampling has a varying sampling rate. It is therefore necessary to interpolate this irregular sampling in such a way that a sampling value (= key object feature) exists for every regular time step (eg every second).
  2. 2. Registration step: The registration step contains a window-based comparison of the interpolated characteristic curves of the reference sequence and the test sequence. The key object characteristics are calculated for each position of the SAD (sum of the absolute differences) and that position is used for the registration that has the minimum SAD.

Mittels dieser Synchronisierung kann ein Abschnitt in der Test-Sequenz eindeutig dem entsprechenden Abschnitt in der Referenz-Sequenz zugeordnet werden. Die Synchronisierung macht einen zuverlässigen, aussagekräftigen Vergleich zweier Sequenzen möglich, selbst bei langen Aufnahmezeiten.By means of this synchronization, a section in the test sequence can be clearly assigned to the corresponding section in the reference sequence. The synchronization makes a reliable, meaningful comparison of two sequences possible, even with long recording times.

Fehlererkennung mit/ohne maschinellem LernenError detection with / without machine learning

Die Fehlererkennung dient dem Zweck, ein oder mehrere fehlerhafte Frames (in Serie oder verteilt über die Sequenz) als fehlerhaft zu erkennen und dem Tester (Mensch) zur finalen Begutachtung weiterzureichen. Dabei ist eine hohe Zahl an falsch gemeldeten Fehlern (False Positives, Fehler existiert nicht in Realität) zu vermeiden, das sonst die finale Auswertung durch den Tester erheblich erschwert wird. Grundsätzlich sind drei unterschiedliche Vorgehensweisen zur automatisierten Fehlererkennung mittels des in dieser Erfindungsmeldung beschriebenen Verfahrens möglich (vergleiche 2):

  1. 1. Threshold-basierte Fehlererkennung, ohne Referenz (Test T1)
  2. 2. Threshold-basierte Fehlererkennung, mit Referenz (Test T2)
  3. 3. Machine-Learning-basierte Fehlererkennung, mit Referenz (Test T3)
The purpose of error detection is to identify one or more defective frames (in series or distributed over the sequence) as defective and to pass them on to the tester (human) for the final assessment. A high number of incorrectly reported errors (false positives, error does not exist in reality) must be avoided, as this would otherwise make the final evaluation by the tester considerably more difficult. In principle, three different approaches for automated error detection using the method described in this invention disclosure are possible (cf. 2 ):
  1. 1. Threshold-based error detection, without reference (test T1 )
  2. 2. Threshold-based error detection, with reference (test T2 )
  3. 3. Machine learning-based error detection, with reference (test T3 )

T1: Threshold-basierte Fehlererkennung, ohne ReferenzT1: Threshold-based error detection, without reference

Dies ist der einfachste Ansatz, allerdings mit einer signifikanten Zahl an False-Positives, und nur geeignet für einige Schlüsselobjekte. Ein Algorithmus prüft die Maximal-/Minimalwerte eines Merkmalsverlaufs und entscheidet, ob sie einen definierten Threshold über-/unterschreiten. Auch das Sprungverhalten des Merkmalsverlaufs kann geprüft werden (via Differenzen, z.B. interessant bei blauer Route oder Straßennetz). 4 zeigt ein Beispiel. Es hat sich zudem gezeigt, dass eine Gewichtung des Sprungverhaltens mit dem jeweiligen Abtast-Intervall die Zahl der False-Positives deutlich reduzieren kann.This is the simplest approach, but with a significant number of false positives, and only suitable for a few key objects. An algorithm checks the maximum / minimum values of a characteristic curve and decides whether they exceed / fall below a defined threshold. The jump behavior of the feature profile can also be checked (via differences, e.g. interesting with a blue route or road network). 4th shows an example. It has also been shown that weighting the jump behavior with the respective sampling interval can significantly reduce the number of false positives.

T2: Threshold-basierte Fehlererkennung, mit ReferenzT2: Threshold-based error detection, with reference

Durch Synchronisierung und Referenzsequenz-Vergleich existiert erheblich mehr Information über den erwarteten Schlüsselobjekt-Merkmalsverlauf als bei einem referenzlosen Vergleich. Für jedes Schlüsselobjekt ist somit eine präzise Differenzwertberechnung zwischen Referenz- und Test-Merkmalsverlauf möglich. Für manche Schlüsselobjekte ist eine Glättung des Differenzverlaufs (z.B. Faltung mit Gauß-Kurve) vor einer nachfolgenden Threshold-Berechnung sinnvoll.By means of synchronization and reference sequence comparison, there is considerably more information about the expected key object characteristic curve than with a referenceless comparison. For each key object, a precise calculation of the difference between the reference and test features is possible. For some key objects, it makes sense to smooth the difference curve (e.g. convolution with a Gaussian curve) before a subsequent threshold calculation.

T3: Machine-Learning-basierte Fehlererkennung, mit ReferenzT3: Machine learning based error detection, with reference

Es hat sich gezeigt, dass sich bestimmte Schlüsselobjekt-Merkmale für eine Auswertung durch statistische Klassifizierungsmethoden eignen. Es ist damit möglich, Ansätze des maschinellen Lernens (Machine Learning, ML) auf die berechneten Schlüsselobjekt-Merkmale und Schlüsselobjekt-Merkmalsverläufe anzuwenden. Zum Zwecke der Untersuchung dieser Möglichkeit wurde das sog. Novelty-Detection-Verfahren auf die Merkmale Speed & Flow sowie Street Network angewendet.It has been shown that certain key object features are suitable for an evaluation using statistical classification methods. It is thus possible to apply machine learning (ML) approaches to the calculated key object features and key object feature courses. To investigate this possibility, the so-called novelty detection method was applied to the features of Speed & Flow and Street Network.

Es sei angemerkt, dass auch mehr als zwei Schlüsselobjekt-Merkmale in ihrer Korrelation erlernt werden können. Der höherdimensionale Merkmalsraum macht allerdings eine einfache Visualisierung der Ergebnisse schwierig.It should be noted that more than two key object features can also be learned in terms of their correlation. The higher-dimensional feature space, however, makes simple visualization of the results difficult.

Das prinzipielle Vorgehen lässt sich anhand des obigen Speed-and-Flow-Beispiels (7) in drei Schritten beschreiben:The basic procedure can be based on the above speed and flow example ( 7th ) in three steps:

Training mittels Referenz-SequenzTraining using a reference sequence

Anhand der Referenz-Sequenz wird z.B. die Korrelation „gewöhnlicher“ Speed & Flow-Merkmale zu Street-Network-Merkmalen (SF-vs-SN) erlernt. Jeder verarbeitete Frame ergibt einen Datenpunkt 39 (7). Anhand dieser Datenpunkte 39 wird mittels eines RBF-Kernels eine Entscheidungsgrenze oder Decision Boundary 38 berechnet. Es existiert damit eine mathematische Beschreibung des zu erwartenden Verhaltens. Außerhalb der Decision Boundary 38 werden Datenpunkte (= Frames) als fehlerhaft klassifiziert.Using the reference sequence, for example, the correlation of “normal” speed & flow characteristics to street network characteristics (SF-vs-SN) is learned. Each processed frame results in one data point 39 ( 7th ). Using these data points 39 a decision boundary is created using an RBF kernel 38 calculated. There is thus a mathematical description of the behavior to be expected. Outside the Decision Boundary 38 data points (= frames) are classified as faulty.

Verarbeitung einer Test-SequenzProcessing of a test sequence

Dies sei an zwei Beispielen verdeutlicht. Beispiel 1: Verarbeitung einer fehlerfreien Test-Sequenz. Die SF-vs-SN Datenpunkte betten sich erwartungsgemäß im Bereich fehlerfreier SF-vs-SN Datenpunkte ein, d.h. innerhalb der Decision Boundary 38. Beispiel 2: Verarbeitung einer fehlerhaften Test-Sequenz (gestörtes Speed & Flow Verhalten). Die SF-vs-SN Datenpunkte 42 der gestörten Frames liegen abseits der erwarteten Verteilung, d.h. außerhalb der Decision Boundary 38.This is illustrated by two examples. Example 1: Processing an error-free test sequence. As expected, the SF-vs-SN data points are embedded in the area of error-free SF-vs-SN data points, ie within the decision boundary 38 . Example 2: Processing of a faulty test sequence (disturbed Speed & Flow behavior). The SF-vs-SN data points 42 of the disturbed frames are outside the expected distribution, ie outside the decision boundary 38 .

Fehlererkennung mittels Decision Boundary 38Error detection using Decision Boundary 38

Die Fehlererkennung 42 kann somit mittels der erlernten Decision Boundary 38 erfolgen. Da das Verhalten der ausgewählten Schlüsselobjekte anhand der Referenz-Sequenz erlernt wurde und mittels der Decision Boundary abgebildet wird, ist somit eine automatisierte Fehlererkennung für jedes eingehende Navigations-Frame möglich.The error detection 42 can thus by means of the learned Decision Boundary 38 respectively. Since the behavior of the selected key objects was learned on the basis of the reference sequence and is mapped using the decision boundary, automated error detection is thus possible for each incoming navigation frame.

Bei der in Schritt 1 erlernten Decision Boundary 38 ist wichtig, die zur Berechnung notwendigen Parameter der Novelty Detection so zu wählen, dass ein möglichst umfassender Einschluss aller Datenpunkte der fehlerfreien Referenzsequenz gewährleistet ist. Dies kann über den bekannten Parameter „v“ („Nu“) erfolgen. Dieser Parameter im Bereich 0 bis 1 entspricht dem Verhältnis der Trainingsfehler zur Gesamtanzahl der Trainings-Datenpunkte und wirkt als obere Grenze für die maximal erlaubten Trainingsfehler. Ein v <= 0.01 hat sich als völlig ausreichend für die getesteten Navigationssequenzen erwiesen (7).At the in step 1 learned Decision Boundary 38 It is important to choose the Novelty Detection parameters necessary for the calculation so that the most comprehensive possible inclusion of all data points of the error-free reference sequence is guaranteed. This can be done using the known parameter “v” (“Nu”). This parameter in the area 0 to 1 corresponds to the ratio of the training errors to the total number of training data points and acts as the upper limit for the maximum permitted training errors. A v <= 0.01 has proven to be completely sufficient for the tested navigation sequences ( 7th ).

Insgesamt zeigt das Beispiel, wie durch die Erfindung Navigationsfehler mittels Schlüsselobjekt-Analyse und Referenzsequenz-Vergleich erkannt werden können.Overall, the example shows how navigation errors can be recognized by means of key object analysis and reference sequence comparison using the invention.

Claims (9)

Verfahren zum Testen eines Navigationssystems (1), wobei durch eine Testvorrichtung (2): - in einem Testdurchlauf (9) Sensordaten (5), die eine Fahrt eines Kraftfahrzeugs beschreiben, in das Navigationssystem (1) eingespeist oder innerhalb des Navigationssystems (1) simuliert werden, und - Einzelbilder (6) einer Bildsequenz (4), die das Navigationssystem (1) in Abhängigkeit von einem vorgegebenen Navigationsziel und den Sensordaten (5) erzeugt, erfasst werden, wobei jedes Einzelbild (6) eine Kombination (29) aus graphischen Schlüsselobjekten (11) darstellt, und - zumindest eines der graphischen Schlüsselobjekte (11) anhand von Konfigurationsdaten ausgewählt wird und - in den Einzelbildern (6) jedes ausgewählte Schlüsselobjekt (11) extrahiert wird und - von jedem extrahierten Schlüsselobjekt (11) zu zumindest einem vorbestimmten Objektmerkmal (30) ein jeweiliger Merkmalswert (12) ermittelt wird, und - zu jedem Objektmerkmal (30) die ermittelten Merkmalswerte (12) aller erfassten Einzelbilder (6) zu einem Zeitsignal (14) kombiniert werden, und - detektiert wird, ob zumindest ein Zeitsignal (14) ein vorbestimmtes Fehlerkriterium (7) erfüllt, und - falls das Fehlerkriterium (7) erfüllt wird, ein Hinweissignal (8) erzeugt wird, dadurch gekennzeichnet, dass der Testdurchlauf (9) mehrmals wiederholt wird, und jedes Zeitsignal (14) eines der Testdurchläufe (9) jeweils als Referenzsignal (15) und jedes Zeitsignal (14) eines anderen der Testdurchläufe (9) jeweils als Testsignal (16) verwendet wird und das Fehlerkriterium (7) umfasst, dass ein Unterschied (35) zwischen zumindest einem Testsignal (16) und dem korrespondierenden Referenzsignal (15) außerhalb eines vorbestimmten Toleranzbereichs (36, 38) ist.Method for testing a navigation system (1), wherein a test device (2): - in a test run (9), sensor data (5) describing a journey of a motor vehicle, fed into the navigation system (1) or within the navigation system (1) are simulated, and - individual images (6) of an image sequence (4), which the navigation system (1) generates as a function of a specified navigation destination and the sensor data (5), are recorded, each individual image (6) being a combination (29) graphic key objects (11), and - at least one of the graphic key objects (11) is selected on the basis of configuration data and - each selected key object (11) is extracted in the individual images (6) and - from each extracted key object (11) to at least one predetermined object feature (30) a respective feature value (12) is determined, and - for each object feature (30) the determined feature values (12) of all recorded individual b ilder (6) are combined into a time signal (14), and - it is detected whether at least one time signal (14) fulfills a predetermined error criterion (7), and - if the error criterion (7) is fulfilled, a warning signal (8) is generated is, characterized in that the test run (9) is repeated several times, and each time signal (14) of one of the test runs (9) as a reference signal (15) and each time signal (14) of another of the test runs (9) as a test signal ( 16) is used and the error criterion (7) includes that a difference (35) between at least one test signal (16) and the corresponding reference signal (15) is outside a predetermined tolerance range (36, 38). Verfahren nach Anspruch 1, wobei das zumindest eine Objektmerkmal (30) umfasst: - einen skalaren Wert, insbesondere eine Pixelanzahl (N), und/oder - eine dynamische Eigenschaft und/oder - ein Merkmalstupel aus mehreren Einzelmerkmalen.Procedure according to Claim 1 , wherein the at least one object feature (30) comprises: - a scalar value, in particular a number of pixels (N), and / or - a dynamic property and / or - a feature tuple from several individual features. Verfahren nach einem der vorhergehenden Ansprüche, wobei das zumindest eine Objektmerkmal (11) von einem Navigationskontext abhängig ist und/oder eine Korrelation zweiter vorbestimmter Einzelmerkmale beschreibt.Method according to one of the preceding claims, wherein the at least one object feature (11) is dependent on a navigation context and / or describes a correlation of second predetermined individual features. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Extrahierung (10) des zumindest einen Schlüsselobjekts (11) anhand einer Farbe und/oder eines graphischen Musters erfolgt.Method according to one of the preceding claims, wherein the extraction (10) of the at least one key object (11) takes place on the basis of a color and / or a graphic pattern. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Referenzsignal (15) und/oder das Testsignal (16) auf eine für die Abtastung der Bildsequenz (4) vorgegebene Abtastrate interpoliert wird.Method according to one of the preceding claims, wherein the reference signal (15) and / or the Test signal (16) is interpolated to a sampling rate specified for sampling the image sequence (4). Verfahren nach einem der vorhergehenden Ansprüche, wobei das Testsignal (16) mit dem Referenzsignal (15) durch einen fensterbasierten Vergleich (32) registriert wird.Method according to one of the preceding claims, wherein the test signal (16) is registered with the reference signal (15) by means of a window-based comparison (32). Verfahren nach einem der vorhergehenden Ansprüche, wobei ein weiteres Referenzsignal (15') erzeugt wird und aus dem weiteren Referenzsignal (15') mittels einer Methode des maschinellen Lernens (ML) der Toleranzbereich (38) ermittelt wird.Method according to one of the preceding claims, wherein a further reference signal (15 ') is generated and the tolerance range (38) is determined from the further reference signal (15') by means of a method of machine learning (ML). Verfahren nach Anspruch 7, wobei die jeweiligen Merkmalswerte zumindest zweier Referenzsignale (15, 15') als Koordinaten eines Datenpunkts (39) verwendet werden und aus den Datenpunkten (39) der Referenzsignale (15, 15') mittels radialer Basisfunktionen der Toleranzbereich (38) als Entscheidungsgrenze (38), welche die meisten oder alle Datenpunkte (39) einschließt, ermittelt wird.Procedure according to Claim 7 , the respective feature values of at least two reference signals (15, 15 ') being used as coordinates of a data point (39) and, from the data points (39) of the reference signals (15, 15') using radial basis functions, the tolerance range (38) as a decision limit (38 ) which includes most or all of the data points (39) is determined. Testvorrichtung (2) für ein Navigationssystem (1) eines Kraftfahrzeugs, wobei die Testvorrichtung (2) dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.Test device (2) for a navigation system (1) of a motor vehicle, the test device (2) being set up to carry out a method according to one of the preceding claims.
DE102015013943.6A 2015-10-28 2015-10-28 Testing a navigation system of a motor vehicle Expired - Fee Related DE102015013943B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015013943.6A DE102015013943B4 (en) 2015-10-28 2015-10-28 Testing a navigation system of a motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015013943.6A DE102015013943B4 (en) 2015-10-28 2015-10-28 Testing a navigation system of a motor vehicle

Publications (2)

Publication Number Publication Date
DE102015013943A1 DE102015013943A1 (en) 2017-05-04
DE102015013943B4 true DE102015013943B4 (en) 2020-10-22

Family

ID=58545742

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015013943.6A Expired - Fee Related DE102015013943B4 (en) 2015-10-28 2015-10-28 Testing a navigation system of a motor vehicle

Country Status (1)

Country Link
DE (1) DE102015013943B4 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111123740B (en) * 2019-12-19 2024-04-16 北京经纬恒润科技股份有限公司 Hardware-in-loop test method and device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5099322A (en) * 1990-02-27 1992-03-24 Texas Instruments Incorporated Scene change detection system and method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008012697A1 (en) 2007-12-12 2009-06-18 Daimler Ag Method for operating a navigation system and navigation system
DE102012009876A1 (en) 2011-11-10 2013-05-16 Audi Ag Method for processing an image sequence and test device for a motor vehicle
DE102013015145B4 (en) 2013-09-13 2015-06-11 Iav Gmbh Ingenieurgesellschaft Auto Und Verkehr Method for testing and evaluating the quality of digital cards

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5099322A (en) * 1990-02-27 1992-03-24 Texas Instruments Incorporated Scene change detection system and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PIMENTEL, Marco A. F. [et al.]: A review of novelty detection. In: Signal Processing, Vol. 99, 2014, S. 215-249. – ISSN 0165-1684 *

Also Published As

Publication number Publication date
DE102015013943A1 (en) 2017-05-04

Similar Documents

Publication Publication Date Title
DE112013006312B4 (en) Methods and systems for improved automated visual inspection of a physical asset
DE112012001984B4 (en) Integrate video metadata into 3D models
DE112018004797T5 (en) VIEWPOINT INVARIANT OBJECT DETECTION THROUGH SYNTHETIZING AND DOMAIN ADAPTATION
DE112020007035T5 (en) Learning device, learning method, inference device, program and storage medium
EP3438901A1 (en) Test drive scenario database system for realistic virtual test drive scenarios
DE102018128158A1 (en) DEVICE FOR INSPECTION OF THE APPEARANCE PICTURE
EP3729213B1 (en) Behaviour model of an environment sensor
EP2034461A2 (en) Method for detecting and/or tracking moved objects in a monitoring zone with stoppers, device and computer program
DE112016001829T5 (en) Automatically associate images using visual property references to related applications
EP3757792A2 (en) Method and device for testing a system, for selecting real tests and for testing systems with machine learning components
DE102019208735A1 (en) Method for operating a driver assistance system for a vehicle and a driver assistance system for a vehicle
DE102019208733A1 (en) Method and generator for generating disturbed input data for a neural network
WO2018077745A1 (en) Method for analysing object labels in images on the basis of models
DE102018205561A1 (en) Device for classifying signals
DE102015013943B4 (en) Testing a navigation system of a motor vehicle
EP4250246A1 (en) Computer-implemented method for detecting an object in an interior of a public transportation vehicle
DE102018114231A1 (en) Method and system for capturing objects using at least one image of an area of interest (ROI)
DE102017217063A1 (en) A recognition system, method of operation and training method for generating a 3D model with reference data
DE102015213463A1 (en) Method for verifying network devices and network
EP3754544A1 (en) Detection system, work method and training method
DE102018128640A1 (en) Device for estimating a noise generation cause
DE102023102196A1 (en) COMPUTER-IMPLEMENTED METHOD AND DEVICE FOR CHECKING CORRECTNESS OF AN ASSEMBLY
DE102014004553B4 (en) Procedure for testing a control unit
DE102009001870A1 (en) Image processing device for monitoring system for processing of monitoring images of monitoring scene, has foreground image or actual moved foreground objects, and flow module, which is formed on basis of monitoring picture
EP4296970A1 (en) Computer-implemented method and system for creating a virtual vehicle environment

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: AUDI AG, DE

Free format text: FORMER OWNERS: AUDI AG, 85045 INGOLSTADT, DE; FRIEDRICH-ALEXANDER-UNIVERSITAET ERLANGEN-NUERNBERG, 91054 ERLANGEN, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee