DE112019000582B4 - Method, control arrangement and machine learning-based system for autonomous vehicles to act proactively with respect to situations involving an increased risk of a traffic accident - Google Patents
Method, control arrangement and machine learning-based system for autonomous vehicles to act proactively with respect to situations involving an increased risk of a traffic accident Download PDFInfo
- Publication number
- DE112019000582B4 DE112019000582B4 DE112019000582.0T DE112019000582T DE112019000582B4 DE 112019000582 B4 DE112019000582 B4 DE 112019000582B4 DE 112019000582 T DE112019000582 T DE 112019000582T DE 112019000582 B4 DE112019000582 B4 DE 112019000582B4
- Authority
- DE
- Germany
- Prior art keywords
- driver
- vehicle
- increased risk
- traffic accident
- environment data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2101/00—Details of software or hardware architectures used for the control of position
- G05D2101/10—Details of software or hardware architectures used for the control of position using artificial intelligence [AI] techniques
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2109/00—Types of controlled vehicles
- G05D2109/10—Land vehicles
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
Verfahren (600) zum Erzeugen einer künstlichen Intuitionsfunktionalität, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen; wobei das Verfahren (600) umfasst:
Erheben (601) von Fahrzeugumgebungsdaten mittels zumindest eines Sensors (110a, 110b, 110c) in einem Fahrzeug (100a, 100b), das von einem Fahrer gefahren wird;
Erkennen (602) einer vorbeugenden Fahrerhandlung oder Reaktion, die ein erhöhtes Risiko für einen Verkehrsunfall anzeigt;
Markieren (604) der erhobenen (601) Fahrzeugumgebungsdaten zu dem Zeitpunkt, zu dem die vorsorgliche Fahrerhandlung oder Reaktion erkannt wird;
Extrahieren (605) erhobener (601) Fahrzeugumgebungsdaten, die zum Lernen verwendet werden sollen, auf der Grundlage der markierten (604) Fahrzeugumgebungsdaten;
Erzeugen (606) einer künstlichen Intuitionsfunktionalität, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, indem ein auf Maschinenlernen beruhendes System (200) trainiert wird, auf der Grundlage der extrahierten (605) erhobenen (601) Fahrzeugumgebungsdaten; und
Implementieren (607) der erzeugten (606) künstlichen Intuitionsfunktionalität in einer Steueranordnung (510) eines autonomen Fahrzeugs (500).
A method (600) for generating an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident; the method (600) comprising:
Collecting (601) vehicle environment data by means of at least one sensor (110a, 110b, 110c) in a vehicle (100a, 100b) driven by a driver;
Detecting (602) a preventive driver action or reaction that indicates an increased risk of a traffic accident;
Marking (604) the collected (601) vehicle environment data at the time the precautionary driver action or reaction is detected;
Extracting (605) collected (601) vehicle environment data to be used for learning based on the marked (604) vehicle environment data;
generating (606) an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident by training a machine learning-based system (200) based on the extracted (605) collected (601) vehicle environment data; and
Implementing (607) the generated (606) artificial intuition functionality in a control arrangement (510) of an autonomous vehicle (500).
Description
Technisches Gebiettechnical field
Dieses Dokument offenbart ein Verfahren, eine Steueranordnung und ein auf Maschinenlernen beruhendes System. Genauer gesagt werden ein Verfahren, eine Steueranordnung und ein auf Maschinenlernen beruhendes System zum Erzeugen einer künstlichen Intuitionsfunktionalität offenbart, die in der Lage sind, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen.This document discloses a method, a control arrangement and a machine learning based system. More specifically, a method, a control arrangement and a machine learning based system for generating an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident are disclosed.
Hintergrundbackground
Die technische Entwicklung für teilweise oder vollständig autonome Fahrzeuge schreitet rasch fort, und vollständig autonome Fahrzeuge werden in unserem Alltag bald einen Platz haben. Ein Schlüssel zur Bereitstellung eines intelligenten und vorausschauenden autonomen Fahrzeugs ist es, Algorithmen zu verwenden, die gut darin sind, die Umgebung in den Fahrsituationen auszuwerten und proaktiv in einer Weise zu fahren, die schwierige und unnötig komplexe Situationen vermeidet.The technical development for partially or fully autonomous vehicles is progressing rapidly, and fully autonomous vehicles will soon have a place in our everyday lives. A key to delivering an intelligent and predictive autonomous vehicle is to use algorithms that are good at evaluating the environment in driving situations and proactively driving in a way that avoids difficult and unnecessarily complex situations.
Der Trend, auf Maschinenlernen beruhende Systeme wie beispielsweise neuronale Netzwerke in autonomen Fahrzeugen zu verwenden, hat sich in den letzten zehn Jahren dramatisch verstärkt. Neuronale Netzwerke können darauf trainiert werden, bestimmte Muster oder Signaturen in Daten zu erkennen und zu klassifizieren, und können in verschiedenen Arten von Anwendungen verwendet werden. Einige Beispiele von Anwendungsfeldern für neuronale Netzwerke in autonomen Fahrzeugen sind die Erkennung von befahrbaren Oberflächen, Fußgängern und Verkehrsschildern.The trend of using machine learning-based systems such as neural networks in autonomous vehicles has increased dramatically over the past decade. Neural networks can be trained to recognize and classify certain patterns or signatures in data and can be used in various types of applications. Some examples of application areas for neural networks in autonomous vehicles include the detection of drivable surfaces, pedestrians, and traffic signs.
Ein Erfolgsfaktor für das Erzeugen guter neuronaler Netzwerke ist es, das Netzwerk mit großen und gut markierten Datensätzen zu trainieren. Die Trainingsdaten müssen in genauer und präziser Weise markiert sein, damit das Netzwerk lernen kann und in der Lage ist, die einmaligen Erkennungsmerkmale oder Muster in den Daten zu unterscheiden, damit es in der Lage ist, das hoch gesteckte Ziel zu erreichen, das beispielsweise darin bestehen kann, Objekte, Oberflächen oder anderer interessante Dinge zu erkennen.A key to success in creating good neural networks is to train the network on large and well-labeled data sets. The training data must be labeled in a precise and accurate way so that the network can learn and be able to distinguish the unique features or patterns in the data so that it is able to achieve the ambitious goal, which may be, for example, recognizing objects, surfaces or other things of interest.
Ein wichtiger Faktor zum Erzeugen guter neuronaler Netzwerke, die in der Lage sind, das gewünschte Ergebnis zu erkennen und zu klassifizieren, ist es, die Netzwerke auf großen und gut markierten Datensätzen zu trainieren, die für autonome Fahrzeuge aus vielen Stunden gesammelter Verkehrsdaten bestehen können. Das Markieren der Trainingsdaten kann eine große und mühsame Aufgabe sein, die in Abhängigkeit von der Größe des Datensatzes viele Stunden, Tage oder sogar Jahre in Anspruch nehmen kann.An important factor in generating good neural networks that are able to recognize and classify the desired outcome is to train the networks on large and well-labeled datasets, which for autonomous vehicles can consist of many hours of collected traffic data. Labeling the training data can be a large and tedious task that can take many hours, days, or even years depending on the size of the dataset.
Falls ein Netzwerk trainiert werden soll, um gefährliche Fahrsituationen zu erkennen, kann das Netzwerk die vorgeschriebene Geschwindigkeit, die Krümmung der Straße, die Breite der Straße und die Daten von Umgebungssensoren wie beispielsweise Radar, Lidar und Kameras verwenden. Der Datensatz kann aus Fahrten bestehen, die von vielen unterschiedlichen Personen in unterschiedlichen Arten von Situationen unternommen wurden, oder aus Daten, die von einem oder mehreren Testfahrern erhoben wurden.If a network is to be trained to detect dangerous driving situations, the network can use the speed limit, the curvature of the road, the width of the road, and data from environmental sensors such as radar, lidar, and cameras. The dataset can consist of trips taken by many different people in different types of situations, or data collected from one or more test drivers.
Bestehende Lösungen beruhen typischerweise auf dem Konzept des Erkennens der gegenwärtigen Umgebungsverkehrssituation durch Sensoren an Bord des Fahrzeugs, wie beispielsweise einem Erkennen eines Fußgängers, der vor dem Fahrzeug auf der Fahrspur läuft, die dann eine geeignete Maßnahme auslösen, wie beispielsweise ein Abbremsen des Fahrzeugs, ein Betätigen der Hupe und/oder ein Lenken des Fahrzeugs weg von dem Fußgänger.Existing solutions are typically based on the concept of detecting the current surrounding traffic situation through sensors on board the vehicle, such as detecting a pedestrian walking in front of the vehicle in the lane, which then triggers an appropriate action, such as braking the vehicle, sounding the horn and/or steering the vehicle away from the pedestrian.
Ein menschlicher Fahrer passt jedoch normalerweise seine Fahrweise nicht nur an die tatsächlich vorliegende Verkehrssituation an, sondern auch an intuitiv erfasste Information, wie beispielsweise ein zusätzliches Abstandhalten von einem anderen Fahrzeug, dass sich seltsam verhält (oder von einem Fußgänger auf dem Gehsteig, der sich seltsam verhält), obwohl das Fahrzeug (oder der Fußgänger) momentan keinerlei Gefahr darstellt. Der Grund für das „seltsame“ Verhalten des anderen Verkehrsteilnehmers kann Benommenheit, gleichzeitige Bedienung eines Mobiltelefons, die Zuwendung zu Alkohol oder Drogen, etc. sein, die möglicherweise später einen Unfall verursachen können, der das andere Fahrzeug/den Fußgänger umfasst.However, a human driver will usually adapt his driving style not only to the actual traffic situation, but also to intuitively perceived information, such as keeping an additional distance from another vehicle that is behaving strangely (or from a pedestrian on the sidewalk who is behaving strangely), even though the vehicle (or pedestrian) does not currently pose any danger. The reason for the "strange" behavior of the other road user may be dizziness, simultaneous use of a mobile phone, consumption of alcohol or drugs, etc., which may later cause an accident involving the other vehicle/pedestrian.
Ein weiteres Beispiel für ein angemessenes Fahrverhalten kann es sein, ein Fahren in Wasserpfützen nahe eines Fußgängers auf dem Gehsteig zu vermeiden. Weder die Pfütze noch der Fußgänger stellen eine gefährliche Situation dar, und doch ist es ein von dem Fahrzeugfahrer gewünschtes Verhalten. Ein hinzukommendes autonomes Fahrzeug kann von dem seitlichen Manöver des anderen Fahrzeugs überrascht werden.Another example of appropriate driving behavior may be avoiding driving in puddles of water near a pedestrian on the sidewalk. Neither the puddle nor the pedestrian pose a dangerous situation, and yet it is a desired behavior by the vehicle driver. An approaching autonomous vehicle may be surprised by the other vehicle's lateral maneuver.
Es wäre wünschenswert, eine zweckmäßige Weise zu suchen, wie ein Sinn für Intuition für das autonome Fahrzeug eingerichtet werden kann.It would be desirable to find a convenient way to establish a sense of intuition for the autonomous vehicle.
Dokument
Das Dokument beschreibt ein „deep driving“, d. h. ein neuronales Netzwerk, das ein Fahrerverhalten auf der Grundlage der Beobachtungsdaten imitiert, die von der vorwärts gerichteten Kamera erhoben wurden; d. h. wenn ein Hindernis in der Fahrspur auftaucht, wird eine Maßnahme zum Verhindern eines Aufpralls aktiviert, wie beispielsweise ein Abbremsen des Fahrzeugs und ein Aktivieren der Hupe. Wie oben erläutert wurde, wäre es wünschenswert, zu versuchen, menschliche Intuition in das neuronale Netzwerk zu übertragen und das neuronale Netzwerk dadurch in die Lage zu versetzen, in einigen Situationen vorbeugend zu sein, die an sich keine Gefahr darstellen, aber die sich zu einer potentiell gefährlichen Situation entwickeln können.The document describes a "deep driving", i.e. a neural network that imitates a driver's behaviour based on the observation data collected by the forward-facing camera; i.e. when an obstacle appears in the lane, a measure to avoid an impact is activated, such as braking the vehicle and activating the horn. As explained above, it would be desirable to try to transfer human intuition to the neural network and thereby enable the neural network to be preventive in some situations that do not constitute a danger in themselves, but that can develop into a potentially dangerous situation.
Dokument
Das Dokument offenbart ein Fahrerassistenzsystem, nicht ein autonomes Fahrzeug. Zudem wird die Lösung dazu verwendet, ein Notfallbremsmittel zum Abbremsen des Fahrzeugs zu bewirken, wenn der Fahrer auf eine gefährliche Situation nicht reagiert. Eine Vorhersage einer potentiell gefährlichen Situation wird nicht getroffen.The document discloses a driver assistance system, not an autonomous vehicle. Furthermore, the solution is used to provide an emergency braking means to slow down the vehicle if the driver does not react to a dangerous situation. A prediction of a potentially dangerous situation is not made.
Dokument
Auch dieses Dokument scheint eine Erkennung von Risikoobjekten in der Fahrspur sowie die angemessene Maßnahme zu handhaben, die von dem Fahrer getroffen wird.This document also seems to handle detection of risk objects in the lane and the appropriate action to be taken by the driver.
Dokument
Dieses Dokument betrifft weder autonome Fahrzeuge noch Implementierungen intuitiver Fahrhandlungen.This document does not address autonomous vehicles or implementations of intuitive driving actions.
Dokument
Das Dokument betrifft nicht eine Erkennung gefährlicher Situationen.The document does not concern the detection of dangerous situations.
Das Dokument
Das Dokument
The document
Es ergibt sich, dass eine Weiterentwicklung zum Implementieren von autonomen Fahrzeugen erforderlich ist, die eine Intuition aufweisen und die in der Lage sind, vorsorglich zu handeln, bevor eine tatsächlich gefährliche Situation aufgetreten ist.It turns out that further development is needed to implement autonomous vehicles that have intuition and are able to act preemptively before an actually dangerous situation occurs.
ZusammenfassungSummary
Es ist daher eine Aufgabe dieser Erfindung, zumindest einige der obigen Probleme zu lösen und ein verbessertes autonomes Fahrzeug bereitzustellen.It is therefore an object of this invention to solve at least some of the above problems and to provide an improved autonomous vehicle.
Gemäß einem ersten Aspekt der Erfindung wird diese Aufgabe gelöst durch ein Verfahren zum Erzeugen einer künstlichen Intuitionsfunktionalität, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen. Das Verfahren umfasst ein Erheben von Fahrzeugumgebungsdaten mittels zumindest eines Sensors in einem Fahrzeug, das von einem Fahrer gefahren wird. Ferner umfasst das Verfahren ein Erkennen einer vorbeugenden Fahrerhandlung oder Reaktion, die ein erhöhtes Risiko für einen Verkehrsunfall anzeigt. Zusätzlich umfasst das Verfahren ein Markieren der erhobenen Fahrzeugumgebungsdaten zu dem Zeitpunkt, wenn die vorsorgliche Fahrerhandlung oder Reaktion erkannt wird. Das Verfahren umfasst ferner ein Extrahieren erhobener Fahrzeugumgebungsdaten, die zum Lernen verwendet werden sollen, auf der Grundlage der markierten Fahrzeugumgebungsdaten. Zudem umfasst das Verfahren ein erzeugen einer künstlichen Intuitionsfunktionalität, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, indem ein auf Maschinenlernen beruhendes System trainiert wird, auf der Grundlage der extrahierten erhobenen Fahrzeugumgebungsdaten. Das Verfahren umfasst außerdem ein Implementieren der erzeugten künstlichen Intuitionsfunktionalität in einer Steueranordnung eines autonomen Fahrzeugs.According to a first aspect of the invention, this object is achieved by a method for generating an artificial intuition functionality that is able to act proactively with respect to situations that pose an increased risk for a traffic accident. The method comprises collecting vehicle environment data by means of at least one sensor in a vehicle driven by a driver. The method further comprises detecting a preventive driver action or reaction that indicates an increased risk of a traffic accident. In addition, the method comprises marking the collected vehicle environment data at the time when the precautionary driver action or reaction is detected. The method further comprises extracting collected vehicle environment data to be used for learning based on the marked vehicle environment data. In addition, the method comprises generating an artificial intuition functionality that is able to act proactively with respect to situations that involve an increased risk of a traffic accident by training a machine learning-based system based on the extracted collected vehicle environment data. The method also comprises implementing the generated artificial intuition functionality in a control arrangement of an autonomous vehicle.
Gemäß einem zweiten Aspekt der Erfindung wird diese Aufgabe gelöst durch ein auf Maschinenlernen beruhendes System, das dazu eingerichtet ist, eine künstliche Intuitionsfunktionalität zu erzeugen, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, in dem das auf Maschinenlernen beruhende System auf der Grundlage des Verfahrens gemäß dem ersten Aspekt trainiert wird.According to a second aspect of the invention, this object is achieved by a machine learning-based system configured to generate an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident, in which the machine learning-based system is trained on the basis of the method according to the first aspect.
Gemäß einem dritten Aspekt der Erfindung wird diese Aufgabe gelöst durch eine Steueranordnung in einem autonomen Fahrzeug, die dazu eingerichtet ist, eine künstliche Intuitionsfunktionalität zu implementieren, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, auf der Grundlage des Verfahrens gemäß dem Verfahren gemäß dem ersten Aspekt.According to a third aspect of the invention, this object is achieved by a control arrangement in an autonomous vehicle which is adapted to implement an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident, on the basis of the method according to the method according to the first aspect.
Gemäß einem vierten Aspekt der Erfindung wird diese Aufgabe gelöst durch ein Computerprogramm, das Programmcode zum Durchführen eines Verfahrens gemäß dem ersten Aspekt umfasst, wenn das Computerprogramm in einem Computer ausgeführt wird.According to a fourth aspect of the invention, this object is achieved by a computer program comprising program code for carrying out a method according to the first aspect when the computer program is executed in a computer.
Dank der beschriebenen Aspekte können durch Erheben von Fahrzeugumgebungsdaten mit Sensoren in bemannten Fahrzeugen, ein Erkennen von vorsorglichen Fahrerhandlungen/Reaktionen und Verknüpfen derselben mit Fahrzeugumgebungsdaten eine Markierung der Fahrzeugumgebungsdaten zu Zeitpunkten durchgeführt werden, zu denen eine vorbeugende Fahrerhandlung/Reaktion erkannt wird. Dadurch können die relevantesten Fahrzeugumgebungsdaten mit minimaler menschlicher Interaktion ausgewählt werden.Thanks to the aspects described, by collecting vehicle environment data with sensors in manned vehicles, detecting preventive driver actions/reactions and linking them with vehicle environment data, it is possible to mark the vehicle environment data at times when a preventive driver action/reaction is detected. This allows the most relevant vehicle environment data to be selected with minimal human interaction.
Das auf Maschinenlernen beruhende System kann hierdurch mit relevanten Trainingsdaten zum Entwickeln der künstlichen Intuitionsfunktionalität versorgt werden. Die erforderliche Zeit, die benötigt wird, um die Trainingsdaten zu markieren, wird drastisch verringert. Wenn das auf Maschinenlernen beruhendes System die künstliche Intuitionsfunktionalität entwickelt hat, kann diese Funktionalität in einer Steueranordnung eines autonomen Fahrzeugs implementiert werden.The machine learning-based system can hereby be provided with relevant training data for developing the artificial intuition functionality. The time required to label the training data is drastically reduced. Once the machine learning-based system has developed the artificial intuition functionality, this functionality can be implemented in a control arrangement of an autonomous vehicle.
Hierdurch wird eine erhöhte Verkehrssicherheit des autonomen Fahrzeugs erzielt, wobei ein intuitives vorbeugendes Verhalten eines menschlichen Fahrers imitiert wird.This will increase the road safety of the autonomous vehicle by imitating the intuitive preventive behavior of a human driver.
Weitere Vorteile und zusätzliche neue Merkmale werden sich aus der nachfolgenden ausführlichen Beschreibung ergeben.Further advantages and additional new features will become apparent from the detailed description below.
Figurenfigures
Ausführungsformen der Erfindung werden nun mit Bezug auf die beigefügten Zeichnungen genauer beschrieben, von denen:
-
1 ein Fahrzeug mit Sensoren gemäß einer Ausführungsform darstellt; -
2 ein Szenario mit zwei Fahrzeugen und einem auf Maschinenlernen beruhenden System gemäß einer Ausführungsform darstellt; -
3 ein Szenario mit einem erhöhten Risiko für eine gefährliche Situation schematisch darstellt, wobei der Fahrer des Fahrzeugs eine Positionierung auf einer Fahrspur zu zwei unterschiedlichen Zeitpunkten anpasst; -
4 einen Fahrzeuginnenraum eines autonomen Fahrzeugs, das einen menschlichen Fahrer hat, und ein auf Maschinenlernen beruhendes System gemäß einer Ausführungsform schematisch darstellt; -
5 einen Fahrzeuginnenraum eines autonomen Fahrzeugs und ein auf Maschinenlernen beruhendes System gemäß einer Ausführungsform schematisch darstellt; -
6 ein Ablaufdiagramm ist, dass eine Ausführungsform des Verfahrens darstellt.
-
1 illustrates a vehicle with sensors according to an embodiment; -
2 illustrates a scenario with two vehicles and a machine learning based system according to an embodiment; -
3 schematically represents a scenario with an increased risk of a dangerous situation, where the driver of the vehicle adjusts a positioning in a lane at two different times; -
4 schematically illustrates a vehicle interior of an autonomous vehicle having a human driver and a machine learning-based system according to an embodiment; -
5 schematically illustrates a vehicle interior of an autonomous vehicle and a machine learning-based system according to an embodiment; -
6 is a flow chart illustrating one embodiment of the method.
Ausführliche BeschreibungDetailed description
Ausführungsformen der Erfindung, die hierin beschrieben ist, sind als ein Verfahren, eine Steueranordnung und ein auf Maschinenlernen beruhendes System definiert, die in den unten beschriebenen Ausführungsformen praktisch umgesetzt sein können. Diese Ausführungsformen können jedoch auf viele unterschiedliche Arten veranschaulicht und realisiert werden und sind nicht auf die hierin dargelegten Beispiele beschränkt; vielmehr werden diese veranschaulichenden Beispiele von Ausführungsformen bereitgestellt, damit diese Offenbarung gründlich und vollständig ist.Embodiments of the invention described herein are embodied as a method, a control arrangement and a machine learning based System that may be practiced in the embodiments described below. However, these embodiments may be illustrated and implemented in many different ways and are not limited to the examples set forth herein; rather, these illustrative examples of embodiments are provided so that this disclosure will be thorough and complete.
Noch weitere Aufgaben und Merkmale werden sich möglicherweise anhand der folgenden ausführlichen Beschreibung ergeben, wenn diese in Verbindung mit den beigefügten Zeichnungen berücksichtigt wird. Es ist jedoch zu verstehen, dass die Zeichnungen lediglich zu Zwecken einer Veranschaulichung erstellt wurden und nicht als Definition der Grenzen der hierin beschriebenen Ausführungsformen, bezüglich derer auf die beigefügten Ansprüche Bezug genommen werden muss. Ferner sind die Zeichnungen nicht notwendigerweise maßstabsgetreu gezeichnet, außer dies ist anderweitig angegeben; sie sind lediglich dazu gedacht, die Strukturen und Vorgänge dem Konzept nach zu veranschaulichen, die hierin beschrieben sind.Still other objects and features will become apparent from the following detailed description when considered in conjunction with the accompanying drawings. It is to be understood, however, that the drawings are for purposes of illustration only and not as a definition of the limits of the embodiments described herein, for which reference must be made to the appended claims. Furthermore, the drawings are not necessarily drawn to scale unless otherwise indicated; they are intended merely to conceptually illustrate the structures and operations described herein.
Die Sensoren 110a, 110b, 110c können in verschiedenen Ausführungsformen beispielsweise eine Kamera, eine Stereo-Kamera, eine Infrarot-Kamera, eine Videokamera, ein Radar, ein Lidar, eine Ultraschallvorrichtung, einen passiven Infrarotsensor (PIR), eine Time-of-Flight-Kamera oder eine ähnliche Vorrichtung umfassen. Das Fahrzeug 100a kann mehrere Sensoren 110a, 110b, 110c umfassen, die in bestimmte Richtungen um das Fahrzeug 100a herum gerichtet sind. Die Mehrzahl der Sensoren 110a, 110b, 110c können jedoch in die Fahrtrichtung gerichtet sein. Die Sensoren 110a, 110b, 110c können vom selben Typ sein oder von unterschiedlichen Typen. Ein Vorteil bei der Verwendung unterschiedlicher Typen von Sensoren ist es, dass unterschiedliche Sensortypen unterschiedliche Fähigkeiten aufweisen; d. h. eine Kamera kann bei Tageslicht gut funktionieren, während ein Lasersensor im Dunkeln vorteilhaft sein kann, etc.The
Das Fahrzeug 100a kann beliebige Mittel zum Transportieren im weiteren Sinne umfassen, wie beispielsweise einen Lastwagen, ein Auto, ein Motorrad, einen Anhänger, einen Bus, ein Flugzeug, ein Wasserfahrzeug, ein Raumfahrzeug oder andere ähnliche bemannte Beförderungsmittel, die sich beispielsweise auf Rädern, Schienen, in der Luft, auf dem Wasser oder in ähnlichen Medien bewegen. Die hierin zur Verfügung gestellten Beispiele von Fahrzeugen 100a sind jedoch vorrangig durch Straßenfahrzeuge veranschaulicht, die Räder aufweisen.The
Um in der Lage zu sein, ein auf Maschinenlernen beruhendes System wie beispielsweise ein neuronales Netzwerk dazu zu trainieren, eine künstliche Intuitionsfunktionalität zu entwickeln, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, können das Verhalten, die Handlungen und die Reaktionen des Fahrers des bemannten Fahrzeugs 100a beobachtet werden, und diese Information kann dazu verwendet werden, aufgezeichnete Sensordaten zu markieren, die von den Sensoren 110a, 110b, 110c des Fahrzeugs 100a gewonnen wurden.In order to be able to train a machine learning based system, such as a neural network, to develop an artificial intuition functionality capable of acting proactively regarding situations involving an increased risk of a traffic accident, the behavior, actions and reactions of the driver of the manned
Eine praktische Weise, große Datensätze erhobener Sensordaten ohne großen manuellen Aufwand zu markieren, ist es, erhobene Informationen wie beispielsweise ein Geschwindigkeitsprofil, eine Fahrspurpositionierung des Fahrzeugs 100a, einen Puls des Fahrers, eine Gehirnaktivität des Fahrers, einen Stresspegel des Fahrers, eine Augenstellung des Fahrers, etc. zu verwenden, um zu verstehen, wenn Fahrsituationen schwierig oder komplex zu verstehen sind, und die Intuition durchschnittlicher Fahrer in einem autonomen Fahrzeug zu reproduzieren, das hierdurch in die Lage versetzt wird, in komplexen Bereichen auf sichere Weise proaktiv zu agieren.A practical way to label large sets of collected sensor data without much manual effort is to use collected information such as a speed profile, a lane positioning of the
Typische Muster in Daten oder in den menschlichen Messwerten zur Erkennung des erhöhten Bewusstseins schwieriger und komplexer Situationen und des erhöhten Grads einer defensiven Fahrweise können beliebige, einige oder alle der Folgenden umfassen: eine erkannte verringerte Geschwindigkeit des bemannten Fahrzeugs 100a, obwohl die erlaubte Geschwindigkeit und der komfortable Schwellenwert, der von einer Längsbeschleunigung verursacht ist, nicht überschritten werden; eine Fahrspurpositionierung des Fahrers wie beispielsweise eine Positionierung in der Mitte der Straße, um schwierigen Situationen entgegenzuwirken (d. h. Fahrerhandlungen); ein erhöhter Puls des menschlichen Fahrers, der einen erhöhten Bewusstseinsgrad oder einen erhöhten Stresspegel anzeigt; eine erhöhte Gehirnaktivität; spezielle Muster in Augenbewegungen des Fahrers, etc. (d. h. Fahrerreaktionen).Typical patterns in data or in the human measurements for detecting the increased awareness of difficult and complex situations and the increased level of defensive driving may include any, some, or all of the following: a detected reduced speed of the manned
Der Zweck der Erhebung von Daten und der Überwachung des Fahrers ist es nicht, die Fahrerhandlungen zu imitieren, sondern lediglich, bestimmte Verkehrsszenarien zu markieren, die besonders interessant sind, um zum Trainieren des auf Maschinenlernen beruhenden Systems/neuronalen Netzwerks verwendet zu werden.The purpose of collecting data and monitoring the driver is not to imitate the driver's actions, but simply to mark certain traffic scenarios that are particularly interesting in order to train the machine learning based system/neural network.
Das/die trainierte/trainierten auf Maschinenlernen beruhendes System/Netzwerke verwenden Information wie beispielsweise Erkennungen niedrigen Grads von den Sensoren 110a, 110b, 110c des Fahrzeugs 100a, befahrbare Oberflächen durch die Sensorfusion, Kamerabilder, Objekte, die von der Sensorfusion gemeldet werden, etc.The trained machine learning-based system(s) use information such as low-level detections from the
Nachdem sämtliche erhobenen Sensordaten begutachtet wurden, die mit einer Fahrerhandlung/Reaktion zusammenhängen, können die erhobenen Sensordaten dazu verwendet werden, einen Algorithmus zu trainieren, um ähnliche Situationen in Echtzeit zu erkennen.After reviewing all collected sensor data related to a driver action/reaction, the collected sensor data can be used to train an algorithm to detect similar situations in real time.
Die Ausgabe des/der trainierten auf Maschinenlernen beruhenden Systems/Netzwerke können beispielsweise sein: ein vorgeschlagener Wahrnehmungsgrad für ein autonomes Fahrzeug, der dazu verwendet werden kann, das Verhalten des gesamten Fahrzeugs festzulegen; eine empfohlene Fahrspurpositionierung und/oder eine empfohlene Geschwindigkeit für das autonome Fahrzeug.The output of the trained machine learning system/networks may be, for example: a suggested level of awareness for an autonomous vehicle, which can be used to determine the behavior of the entire vehicle; a recommended lane positioning and/or a recommended speed for the autonomous vehicle.
Ein Vorteil mit den hierin offenbarten Ausführungsformen ist es, dass der erforderliche Aufwand zum Zusammentragen der Trainingsdaten dramatisch verringert wird. Hierdurch können das Wissen und die Intuition eines menschlichen Fahrers auf ein autonomes Fahrzeug übertragen werden. Das Verfahren kann auch für ein Online-Training und ein Training im Fahrzeug eines neuronalen Netzwerks verwendet werden.An advantage with the embodiments disclosed herein is that the effort required to gather training data is dramatically reduced. This allows the knowledge and intuition of a human driver to be transferred to an autonomous vehicle. The method can also be used for online and in-vehicle training of a neural network.
Die optionale drahtlose Kommunikation kann über eine drahtlose Kommunikationsschnittstelle hergestellt sein, wie beispielsweise eine Fahrzeug-zu-FahrzeugKommunikation (Vehicle-to-Vehicle, V2V) oder über eine Fahrzeug-zu-Infrastruktur-Kommunikation (Vehicle-to-Infrastructure, V2I). Manchmal wird der gemeinsame Begriff Fahrzeug-zu-Allem (Vehicle-to-Everything, V2X) verwendet.The optional wireless communication may be established via a wireless communication interface, such as vehicle-to-vehicle (V2V) communication or vehicle-to-infrastructure (V2I) communication. Sometimes the collective term vehicle-to-everything (V2X) is used.
In einigen Ausführungsformen kann die Kommunikation zwischen Fahrzeugen 100a, 100b und dem auf Maschinenlernen beruhenden System 200 über eine V2X- Kommunikation durchgeführt werden, zum Beispiel auf der Grundlage einer Vorrichtung für dedizierte Kurzreichweiten-Kommunikation (Dedicated Short-Range Communication, DSRC). DSRC arbeitet in einigen Ausführungsformen im 5,9 GHz-Band mit einer Bandbreite von 75 MHz und einer ungefähren Reichweite von 1000 m.In some embodiments, communication between
Die drahtlose Kommunikation kann gemäß einem beliebigen IEEE-Standard für drahtlose Fahrzeugkommunikation erfolgen, wie beispielsweise gemäß einem speziellen Betriebsmodus von IEEE 802.11 für Fahrzeugnetzwerke, der drahtlose Zugang in Fahrzeugumgebungen (Wireless Access in Vehicular Environments, WAVE) genannt wird. IEEE 802.11p ist eine Erweiterung der Spezifikationen 802.11 Wireless LAN medium access layer (MAC) und physical layer (PHY).The wireless communication can be performed according to any IEEE standard for wireless vehicular communication, such as a special operating mode of IEEE 802.11 for vehicular networks called Wireless Access in Vehicular Environments (WAVE). IEEE 802.11p is an extension of the 802.11 Wireless LAN medium access layer (MAC) and physical layer (PHY) specifications.
Eine derartige drahtlose Kommunikationsschnittstelle kann umfassen oder zumindest angelehnt sein an drahtlose Kommunikationstechnologie wie beispielsweise Wi-Fi, Wireless Local Area Network (WLAN), Ultra Mobile Broadband (UMB), Bluetooth (BT), Near Field Communication (NFC), Radio-Frequency Identification (RFID), um nur einige mögliche Beispiele drahtloser Kommunikationen in einigen Ausführungsformen zu nennen.Such a wireless communication interface may include or at least be based on wireless communication technology such as Wi-Fi, Wireless Local Area Network (WLAN), Ultra Mobile Broadband (UMB), Bluetooth (BT), Near Field Communication (NFC), Radio-Frequency Identification (RFID), to name just a few possible examples of wireless communications in some embodiments.
Die Kommunikation kann alternativ über eine drahtlose Schnittstelle erfolgen, die umfasst oder zumindest angelehnt ist an Funkzugangstechnologien wie beispielsweise 3GPP LTE, LTE-Advanced, E-UTRAN, UMTS, GSM oder dergleichen über ein drahtloses Kommunikationsnetzwerk, um nur einige wenige Möglichkeiten zu nennen.Alternatively, communication may take place via a wireless interface that includes or is at least based on radio access technologies such as 3GPP LTE, LTE-Advanced, E-UTRAN, UMTS, GSM or the like via a wireless communication network, to name just a few possibilities.
Die in den Fahrzeugen 100a, 100b erhobenen Daten können allerdings beispielsweise in den entsprechenden Fahrzeugen 100a, 100b in entsprechenden Datenspeichervorrichtungen lokal gespeichert werden. Zu einem späteren Zeitpunkt können die erhobenen Daten an das auf Maschinenlernen beruhende System 200 über eine drahtlose Kommunikationsschnittstelle und/oder manuell übertragen werden, zum Beispiel durch Speichern der erhobenen Daten auf einer beschreibbaren Disc oder einer Speichervorrichtung in den Fahrzeugen 100a, 100b, die zu dem auf Maschinenlernen beruhenden System 200 gebracht und manuell angefügt werden.However, the data collected in the
Das auf Maschinenlernen beruhende System 200 kann mit einer Datenbank 210 verbunden sein oder eine solche umfassen, in der Information gespeichert werden können, die von den Fahrzeugen 100a, 100b gewonnen wurde.The machine learning-based
Das auf Maschinenlernen beruhende System 200 kann ein künstliches neuronales Netzwerk und/oder ein konnektionistisches System umfassen oder darauf beruhen. Daher kann das auf Maschinenlernen beruhende System 200 zumindest zu einem gewissen Grad an biologische neuronale Netzwerke angelehnt sein, die tierische/menschliche Gehirne ausbilden. Derartige Systeme 200 können Aufgaben durch Berücksichtigung von Beispielen im Allgemeinen ohne aufgabenspezifische Programmierung erlernen (dabei eine zunehmend verbesserte Leistung zeigen). Zum Beispiel kann bei einer Bilderkennung das System 200 lernen, Bilder zu erkennen, die eine Verkehrssituation mit einem erhöhten Risiko für einen Verkehrsunfall umfassen, in dem es beispielhafte Bilder analysiert, die von Sensoren 110a, 110b, 110c in/an den entsprechenden Fahrzeugen 100a, 100b erfasst wurden, die manuell als „potentiell gefährlich“ oder „nicht gefährlich“ markiert wurden, und indem es die Ergebnisse dazu verwendet, potentiell gefährliche Situationen in anderen Verkehrsumgebungen zu erkennen. Sie tun dies ohne vorheriges Wissen bezüglich gefährlicher Verkehrssituationen, zum Beispiel dass nahe der Straße spielende Kinder eine potentielle Gefahr darstellen, da sie sich in dem Spiel verlieren und die Gefahr vergessen können, die der Verkehr darstellt. Stattdessen entwickeln sie ihren eigenen Satz sicherheitsrelevanter Merkmale anhand des Lernmaterials, das sie verarbeiten.The machine learning-based
Das künstliche neuronale Netzwerk kann auf einer Sammlung verbundener Einheiten oder Knoten beruhen, die künstlichen Neuronen genannt werden (analog zu biologischen Neuronen in einem tierischen Gehirn). Jede Verbindung (analog zu einer Synapse) zwischen künstlichen Neuronen kann ein Signal von einem zum anderen übermitteln. Das künstliche Neuron, das das Signal empfängt, kann es verarbeiten und dann Signale an künstliche Neuronen übertragen, die mit ihm verbunden sind.The artificial neural network can be based on a collection of connected units or nodes called artificial neurons (analogous to biological neurons in an animal brain). Each connection (analogous to a synapse) between artificial neurons can transmit a signal from one to another. The artificial neuron that receives the signal can process it and then transmit signals to artificial neurons connected to it.
In einigen Ausführungsformen des Systems 200 kann das Signal bei einer Verbindung zwischen künstlichen Neuronen eine reelle Zahl sein, und die Ausgabe jedes künstliche Neurons kann durch eine nichtlineare Funktion der Summe ihrer Eingänge berechnet werden. Künstliche Neuronen und Verbindungen können eine Gewichtung aufweisen, die sich anpasst, wenn das Lernen voranschreitet. Die Gewichtung kann die Stärke des Signals an einer Verbindung erhöhen oder verringern. Künstliche Neuronen können einen Schwellenwert aufweisen, sodass nur dann, wenn die kumulierten Signale den Schwellenwert überschreiten, das Signal gesendet wird. Künstliche Neuronen können in Lagen organisiert sein. Verschiedene Lagen können verschiedene Arten von Transformationen an ihren Eingängen vornehmen. Signale bewegen sich von der ersten (Eingang) zu der letzten (Ausgang) Lage, möglicherweise, nachdem sie die Lagen mehrere Male durchlaufen haben. Dadurch kann das System 200 Probleme in sehr ähnlicher Weise, wie ein menschliches Gehirn dies tun würde, lösen, d. h. durch das Studium von Beispielen und das Ziehen von Schlüssen.In some embodiments of
Im Zusammenhang mit den hierin beschriebenen Lösungen kann die potentiell gefährliche Situation, die ein erhöhtes Risiko für einen Verkehrsunfall umfasst, eine Situation umfassen, in der keine Sensorerkennungen einer unmittelbaren Gefahr möglich ist, beispielsweise einen Menschen oder ein Tier, der/das plötzlich auf die Fahrspur vor das Fahrzeug 100a springt (was von den Fahrzeugsensoren erkannt und gemäß anderer Algorithmen zur Unfallvermeidung des Fahrzeugs gehandhabt wird). Stattdessen sind die potentiell gefährlichen Situationen, die ein Risiko für einen Verkehrsunfall umfassen, Bereiche, in denen zusätzliche Vorsicht angemessen sein kann, auch wenn keine unmittelbare Gefahr erkannt wird. Einige Beispiele können ein Bereich innerorts mit Hecken sein, eine Straße in der Nähe eines Spielplatzes, einer Schule, eines Sportplatzes etc. Einige weitere Beispiele können eine Straßenkreuzung mit schlechter Einsehbarkeit sein; eine Bushaltestelle, an der ein Bus angehalten hat (Passagiere verlassen den Bus manchmal und überqueren die Straße vor dem Bus und können dabei für ein Fahrzeug 100a, 100b nicht erkennbar sein, das sich von hinter dem Bus nähert, bis sie bereits auf der Straße stehen); und ähnliche Verkehrssituation.In the context of the solutions described herein, the potentially dangerous situation involving an increased risk of a traffic accident may include a situation where no sensor detections of an immediate danger are possible, for example a human or animal suddenly jumping into the lane in front of the
In einer derartigen Situation, wie sie in
In diesem Fall kann der Fahrer zwischen einem ersten Zeitpunkt t1 und einem zweiten Zeitpunkt t2 die Position des Fahrzeugs 100a möglicherweise seitlich mehr zur Mitte der Straße hin anpassen, um mehr Reaktionszeit zur Verfügung zu haben, falls ein Kind/Fußgänger/Tier von hinter den Hindernissen 320a, 320b, 320c vor auf die Straße läuft.In this case, between a first time t 1 and a second time t 2 , the driver may adjust the position of the
Auslöser oder Muster, die in den Trainingsdaten in einer solchen Situation ausgewertet sein können, können eine verringerte Geschwindigkeit, die Fahrspurpositionierung (d. h. ein Positionieren des autonomen Fahrzeugs näher an der Mitte der Straße, um eine vergrößerte Reaktionszeit zur Verfügung zu haben) oder ein höherer Grad von Warnstufe sein.Triggers or patterns that may be evaluated in the training data in such a situation may be a reduced speed, lane positioning (i.e. positioning the autonomous vehicle closer to the center of the road to have increased reaction time available) or a higher level of alert level.
Wie bereits erwähnt, können die erhobenen Daten, die die Fahrerreaktionen betreffen, in dem Fahrzeug 100a erhoben und später an das auf Maschinenlernen beruhende System 200 zur Analyse gegeben werden.As previously mentioned, the collected data regarding driver responses may be collected in the
Umgebungsbezogene Wahrnehmungsdaten der Sensoren 110a, 110b, 110c in/an dem Fahrzeug 100a können aufgezeichnet werden, entweder in einer Datenspeichervorrichtung an Bord des Fahrzeugs 100a und später an das auf Maschinenlernen beruhende System 200 bereitgestellt werden; oder sie können an das auf Maschinenlernen beruhende System 200 durch drahtlose Signalübertragung übergeben und in einer zum Fahrzeug externen Datenbank 210 gespeichert sein.Environmental sensing data from the
Das Fahrzeug 100a kann einen Sensor zur Fahrerbeobachtung 410 und einen drahtlosen Transmitter 420 aufweisen, der dazu eingerichtet ist, Information an das auf Maschinenlernen beruhende System über einen Empfänger 250 zu übertragen.The
Der Sensor zur Fahrerbeobachtung 410 kann kontinuierlich oder zu regelmäßigen Zeitintervallen einen physischen Parameter des Fahrers des Fahrzeugs 100a erkennen, der beanspruchende Momente des Fahrers anzeigt, wie beispielsweise einen erhöhten Puls, eine verstärkte Atmung, eine erhöhte Körpertemperatur, ein verstärktes Schwitzen, bestimmte Gehirnaktivitätsmuster, bestimmte Augenbewegungen, angespannte Gesichtsausdrücke und/oder Muskelanspannung.The
Andere Sensoren zur Fahrerbeobachtung können Zeitpunkte bestimmen und erkennen, zu denen die Fahrzeuggeschwindigkeit niedriger ist als die erlaubte Höchstgeschwindigkeit (möglicherweise innerhalb einer Spanne) und/oder zu denen eine Fahrzeugposition seitlich zur Mitte der Straße hin angepasst wird. Letzteres kann durch einen Lenkrad-Winkelsensor erkannt werden, durch ein Global Positioning System (GPS) oder durch ein ähnliches raumbasiertes Funknavigationssystem, in Kombination mit Kartendaten und/oder Sensordaten, wobei die seitlichen Straßenbegrenzungen erkannt werden.Other driver monitoring sensors may determine and detect times when the vehicle speed is lower than the speed limit (possibly within a range) and/or when a vehicle position is adjusted laterally toward the center of the road. The latter may be detected by a steering wheel angle sensor, by a Global Positioning System (GPS) or by a similar spatially based radio navigation system, in combination with map data and/or sensor data, detecting the lateral road boundaries.
Hierdurch kann eine Fahrerhandlung/Reaktion erkannt werden, die anzeigen kann, dass die Verkehrssituation in der Umgebung eine potentielle Gefahr darstellt, auch wenn keine unmittelbare Gefahr oder Hindernisse von den Fahrzeugsensoren 110a, 110b, 110c erkannt werden können. Diese Fahrerhandlungen/Reaktionen können mit den erhobenen Fahrzeugumgebungsdaten verknüpft werden, wie sie von den Sensoren 110a, 110b, 110c erfasst wurden, und sie können an das auf Maschinenlernen beruhende System 200 weitergeleitet werden.This allows a driver action/reaction to be detected that may indicate that the traffic situation in the surrounding area represents a potential danger, even if no immediate danger or obstacles can be detected by the
Das auf Maschinenlernen beruhende System 200 kann dann die erkannten Fahrerhandlungen/Reaktionen verwenden, um besonders interessante Verkehrssituationen herauszufiltern, um diese zu untersuchen, um die künstliche Intuitionsfunktionalität zu entwickeln.The machine learning-based
In einigen Ausführungsformen kann ein Erkennen und Erheben sowohl von Fahrerhandlungen (wie beispielsweise einer Verringerung der Fahrzeuggeschwindigkeit um mehr als beispielsweise 10 km (oder einen andere einstellbaren Schwellenwert) unter die zulässige Höchstgeschwindigkeit) als auch von Fahrerreaktionen (wie beispielsweise einer Erkennung eines erhöhten Pulsschlag des Fahrers, etc.) durchgeführt werden. Das Vorliegen sowohl einer Handlung als auch einer Reaktion kann als verlässlicheres Anzeichen betrachtet werden, dass das Fahrzeug 100a gleichzeitig in eine Verkehrssituation mit einem erhöhten Risiko für einen Verkehrsunfall verwickelt ist. Die Kombination der Fahrerhandlung und der Fahrerreaktion kann die erhobenen Fahrzeugumgebungsdaten markieren, wie sie von den Sensoren 110a, 110b, 110c zu dem Zeitpunkt erhoben wurden, zu dem die vorbeugende Fahrerhandlung und Reaktion erkannt wurden.In some embodiments, detection and collection of both driver actions (such as a reduction in vehicle speed by more than, for example, 10 km (or another adjustable threshold) below the maximum permitted speed) and driver reactions (such as detection of an increased heart rate of the driver, etc.) may be performed. The presence of both an action and a reaction may be considered a more reliable indication that the
Der Fahrer kann ein ausgewählter, besonders erfahrener Fahrer sein. Dadurch können Handlungen und/oder Reaktionen von unerfahrenen, nachlässigen und/oder kühnen Fahrern vermieden werden.The driver can be a selected, particularly experienced driver. This can avoid actions and/or reactions of inexperienced, careless and/or bold drivers.
In einigen Ausführungsformen kann Information von mehreren Fahrzeugen 100a, 100b gesammelt werden, die von mehreren Fahrern gefahren werden. Dadurch kann der Lernvorgang verkürzt werden, da mehr Daten von einem größeren Bereich von Szenarios erhoben und für die Lernvorgänge verwendet werden können.In some embodiments, information may be collected from
Die erhobenen Sensordaten, die mit den erkannten Fahrerhandlungen/Reaktionen markiert wurden, werden dann gefiltert, sodass Verkehrsszenarios, die mit den erkannten Fahrerhandlungen/Reaktionen verknüpft sind, für den Lernvorgang des auf Maschinenlernen beruhenden Systems 200 verwendet werden.The collected sensor data, which have been marked with the detected driver actions/reactions, are then filtered so that traffic scenarios that are associated with the detected driver actions/ reactions are used for the learning process of the machine learning-based
Das autonome Fahrzeug 500 kann Sensoren derselben oder ähnlicher Typen umfassen, wie die zuvor beschriebenen Sensoren des bemannten Fahrzeugs 100a, 100b; d. h. eine Kamera, Videokamera, Time-of-Flight-Kamera, einen Laser, ein Lidar, einen IR-Sensor, etc.The
Das autonome Fahrzeug 500 kann eine Steueranordnung 510 umfassen, die dazu eingerichtet ist, eine künstliche Intuitionsfunktionalität zu implementieren, wie sie durch das auf Maschinenlernen beruhende System 200 entwickelt wurde. Zudem kann das autonome Fahrzeug 500 eine Datenbank 520 umfassen, die mit der Steueranordnung 510 verbunden ist, wobei verschiedene Regeln der künstlichen Intuitionsfunktionalität, wie sie von dem auf Maschinenlernen beruhenden System 200 gewonnen wurde, gespeichert sein können.The
Die künstliche Intuitionsfunktionalität kann von dem System 200 in beliebiger Weise bereitgestellt werden (kabelgebunden, drahtlos).The artificial intuition functionality may be provided by the
Ferner kann das autonome Fahrzeug 500 einen drahtlosen Empfänger oder Transceiver 530 umfassen. Der drahtlose Empfänger 530 kann dazu eingerichtet sein, Information von dem auf Maschinenlernen beruhenden System 200 über die drahtlose Kommunikationsschnittstelle zu empfangen, wie beispielsweise die künstliche Intuitionsfunktionalität, wie sie von dem auf Maschinenlernen beruhenden System 200 erzeugt wurde, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen.Further, the
Die Steueranordnung 510 kann hierdurch eine künstliche Intuitionsfunktionalität implementieren, wie sie von dem auf Maschinenlernen beruhenden System 200 erzeugt und gewonnen wurde. Wenn also eine Verkehrssituation von Umgebungssensoren in dem autonomen Fahrzeug 500 erkannt wird, die identisch ist mit einer Verkehrssituation, die zuvor von dem auf Maschinenlernen beruhenden System 200 auf der Grundlage der Information, die von den bemannten Fahrzeugen 100a, 100b eingegeben wurde, oder die dieser ähnelt.The
In einigen alternativen Ausführungsformen können die gegenwärtige Tageszeit and/oder Jahreszeit bestimmt werden, und diese Information kann zum Filtern von Situationen verwendet werden, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen. Zum Beispiel kann der Bereich innerorts, der in
Ferner oder alternativ kann eine Umgebungstemperatur bestimmt werden. Auch diese Information kann zum Filtern von Situationen verwendet werden, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen. Zum Beispiel kann der Bereich innerorts, der in
Schritt 601 umfasst ein Erheben von Fahrzeugumgebungsdaten mittels zumindest eines Sensors 110a, 110b, 110c in einem Fahrzeug 100a, 100b, das von einem Fahrer gefahren wird.Step 601 includes collecting vehicle environment data using at least one
Die Fahrzeugumgebungsdaten können von mehreren Fahrzeugen 100a, 100b erhoben werden, die von unterschiedlichen Fahrern gefahren werden.The vehicle environment data can be collected from
In noch anderen Ausführungsformen können die Fahrzeugumgebungsdaten von einem fest zugeordneten Fahrer in einem Fahrzeug 100a, 100b erhoben werden.In still other embodiments, the vehicle environment data may be collected by a dedicated driver in a
Schritt 602 umfasst ein Erkennen einer vorbeugenden Fahrerhandlung oder Reaktion, die ein erhöhtes Risiko für einen Verkehrsunfall anzeigt.Step 602 includes detecting a preventative driver action or response that indicates an increased risk of a traffic crash.
Die vorbeugenden Fahrerhandlungen oder Reaktionen können in einigen Ausführungsformen von mehreren Fahrzeugen 100a, 100b erkannt werden, die von unterschiedlichen Fahrern gefahren werden.The preventive driver actions or reactions may be detected by
In einigen Ausführungsformen können die vorbeugenden Fahrerhandlungen oder Reaktionen von einem fest zugeordneten Fahrer in einem Fahrzeug 100a, 100b erkannt werden, wobei eine Mensch-Maschine-Schnittstelle (Human Machine Interface, HMI) verwendet wird, um interessante Daten auszulösen, zum Beispiel ein Druckknopf.In some embodiments, the preventative driver actions or reactions may be detected by a dedicated driver in a
Die vorbeugende Fahrerhandlung oder Reaktion, die ein erhöhtes Risiko für einen Verkehrsunfall anzeigt, kann von einem Fahrerbeobachtungssensor 410 erkannt werden, wie beispielsweise von einer Kamera, die einen Fahrer überwacht, einer Videokamera, einem Herzfrequenzüberwachungsgerät, einem Blutdrucküberwachungsgerät, einem Atmungsmessgerät etc. oder einem Fahrzeuggeschwindigkeitsmessgerät und/oder einem Fahrzeugverlagerungsdetektor.The preventive driver action or reaction indicating an increased risk of a traffic accident may be detected by a
Schritt 603, der lediglich in einigen Ausführungsformen durchgeführt werden kann, umfasst ein Bestimmen eines Zeitpunkts, zu dem die vorbeugende Fahrerhandlung oder Reaktion erkannt 602 wird.
In einigen Ausführungsformen kann die künstliche Intuitionsfunktionalität unter Berücksichtigung des bestimmten Zeitpunkts erzeugt werden.In some embodiments, the artificial intuition functionality may be generated taking into account the particular point in time.
Schritt 604 umfasst ein Markieren der erhobenen 601 Fahrzeugumgebungsdaten zu dem Zeitpunkt, zu dem die vorbeugende Fahrerhandlung oder Reaktion erkannt 602 wird.Step 604 includes marking the collected 601 vehicle environment data at the time the preventative driver action or response is detected 602.
Dank der Markierung können die relevantesten Abfolgen der erhobenen Daten erkannt und für das Lernen verwendet werden, was die Analyse der erhobenen Daten dramatisch beschleunigt.Thanks to the labeling, the most relevant sequences of the collected data can be identified and used for learning, which dramatically speeds up the analysis of the collected data.
Schritt 605 umfasst ein Extrahieren der erhobenen 601 Fahrzeugumgebungsdaten, die zum Lernen verwendet werden sollen, auf der Grundlage der markierten 604 Fahrzeugumgebungsdaten.Step 605 includes extracting the collected 601 vehicle environment data to be used for learning based on the marked 604 vehicle environment data.
Ein Fahrer, der mehrere erkannte 602 vorbeugende Fahrerhandlungen oder Reaktionen erzeugt, die um mehr als einen Schwellenwertgrad von einem durchschnittlichen Grad einer vorbeugenden Fahrerhandlung oder Reaktion abweichen, kann in einigen Ausführungsformen außer Acht gelassen werden, wenn die erhobenen 601 Fahrzeugumgebungsdaten extrahiert werden, die für ein Lernen verwendet werden sollen.A driver who generates multiple detected 602 preventive driver actions or reactions that deviate by more than a threshold level from an average preventive driver action or reaction level may, in some embodiments, be disregarded when extracting collected 601 vehicle environment data to be used for learning.
Schritt 606 umfasst ein Erzeugen einer künstlichen Intuitionsfunktionalität, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, indem ein auf Maschinenlernen beruhendes System 200 auf der Grundlage der extrahierten 605 erhobenen 601 Fahrzeugumgebungsdaten trainiert wird.Step 606 includes generating an artificial intuition functionality capable of acting proactively regarding situations involving an increased risk of a traffic accident by training a machine learning-based
Das auf Maschinenlernen beruhende System 200 kann auf einem neuronalen Netzwerk beruhen. Das auf Maschinenlernen beruhende System 200 ist dazu eingerichtet, eine künstliche Intuitionsfunktionalität zu erzeugen, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, indem das auf Maschinenlernen beruhende System 200 auf der Grundlage zumindest einiger der Verfahrensschritte 601-606 trainiert wird.The machine learning-based
Schritt 607 umfasst ein Implementieren der erzeugten 606 künstlichen Intuitionsfunktionalität in einer Steueranordnung 510 eines autonomen Fahrzeugs 500.Step 607 includes implementing the generated 606 artificial intuition functionality in a
Die Implementierung der erzeugten 606 künstlichen Intuitionsfunktionalität kann ein Festlegen eines Wahrnehmungsgrads des autonomen Fahrzeugs 500 umfassen.Implementing the generated 606 artificial intuition functionality may include setting a level of perception of the
Die Implementierung der erzeugten 606 künstlichen Intuitionsfunktionalität kann ein Empfehlen einer Fahrspurpositionierung oder Geschwindigkeit des autonomen Fahrzeugs 500 umfassen.Implementation of the generated 606 artificial intuition functionality may include recommending a lane positioning or speed of the
Die Steueranordnung 510 in dem autonomen Fahrzeug 500 ist dazu eingerichtet, eine künstliche Intuitionsfunktionalität zu implementieren, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, auf der Grundlage zumindest einiger der Verfahrensschritte 601-607.The
Die beschriebenen Verfahrensschritte 601-607 können in verschiedenen Ausführungsformen von einem Computeralgorithmus, einem maschinenausführbaren Code, einem nichtflüchtigen computerlesbaren Medium oder von Softwareanweisungen, die in eine geeignete programmierbare Logik wie beispielsweise einen Prozessor in der Steueranordnung 510 programmiert sind, durchgeführt werden.The described method steps 601-607 may, in various embodiments, be performed by a computer algorithm, a machine-executable code, a non-transitory computer-readable medium, or by software instructions programmed into suitable programmable logic such as a processor in the
Das obengenannte Computerprogrammprodukt kann zum Beispiel in Gestalt eines Datenträgers bereitgestellt sein, der Computerprogrammcode zum Durchführen zumindest einiger der Schritte 601-607 gemäß einigen Ausführungsformen trägt, wenn er in den einen oder die mehreren Prozessoren der Steueranordnung 110 geladen wird. Der Datenträger kann zum Beispiel eine Festplatte, eine CD-ROM-Disc, ein Speicherstick, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung oder ein beliebiges anderes geeignetes Medium wie beispielsweise eine Disc oder ein Band sein, das maschinenlesbare Daten in nichtflüchtiger Weise tragen kann. Das Computerprogrammprodukt kann ferner als Computerprogrammcode auf einem Server bereitgestellt und in die Steueranordnung 510 ferngesteuert herunterladbar sein, zum Beispiel über eine Internetverbindung oder eine Intranetverbindung.The above-mentioned computer program product may, for example, be provided in the form of a data carrier carrying computer program code for performing at least some of the steps 601-607 according to some embodiments when loaded into the one or more processors of the control arrangement 110. The data carrier may, for example, be a hard disk, a CD-ROM disc, a memory stick, an optical storage device, a magnetic storage device or any other suitable medium such as a disc or tape capable of carrying machine-readable data in a non-transitory manner. The computer program product may further be provided as computer program code on a server and remotely downloadable into the
Die Begrifflichkeiten, die in der Beschreibung der Ausführungsformen, die in den beigefügten Zeichnungen dargestellt sind, verwendet wird, ist nicht dazu gedacht, das beschriebene Verfahren 600, die beschriebene Steueranordnung 510, das beschriebene Computerprogramm und/oder das beschriebene auf Maschinenlernen beruhende System 200 zu beschränken. Verschiedene Änderungen, Ersetzungen und/oder Abwandlungen können vorgenommen werden, ohne von erfindungsgemäßen Ausführungsformen abzuweichen, wie sie in den beigefügten Ansprüchen definiert sind.The terminology used in the description of the embodiments illustrated in the accompanying drawings is not intended to limit the described
Der hierin verwendete Begriff „und/oder“ umfasst beliebige und sämtliche Kombinationen eines oder mehrerer der zugehörigen aufgelisteten Objekte. Der hierin verwendete Begriff „oder“ ist als ein mathematisches ODER (OR) zu verstehen, d. h. als eine einschließende Disjunktion; nicht als ein mathematisches ausschließliches ODER (XOR), außer dies ist ausdrücklich anderweitig angegeben. Es wird ferner verstanden werden, dass die Begriffe „beinhaltet“, „umfasst“, „beinhaltend“ und/oder „umfassend“ das Vorhandensein der genannten Merkmale, Handlungen, Ganzzahlen, Schritte, Vorgänge, Elemente und/oder Komponenten angibt, aber nicht das Vorhandensein oder Hinzufügen eines/eine oder mehrerer weiterer Merkmale, Handlungen, Ganzzahlen, Schritte, Vorgänge, Elemente, Komponenten und/oder Gruppen davon ausschließt. Eine einzelne Einheit wie beispielsweise ein Prozessor kann die Funktionen mehrerer Objekte erfüllen, die in den Ansprüchen genannt sind. Die bloße Tatsache, dass bestimmte Maßnahmen in gegenseitig unterschiedlichen abhängigen Ansprüchen genannt sind, zeigt nicht an, dass eine Kombination dieser Maßnahmen nicht vorteilhaft verwendet werden kann. Ein Computerprogramm kann auf einem geeigneten Medium gespeichert/verteilt werden, wie beispielsweise auf einem optischen Speichermedium oder einem Solid-State-Speichermedium, zusammen mit oder als Teil anderer Hardware, aber sie kann auch in anderer Gestalt verteilt werden, wie beispielsweise über das Internet oder einen kabelgebundenes oder drahtloses Kommunikationssystem.The term "and/or" as used herein includes any and all combinations of one or more of the associated listed objects. The term "or" as used herein is to be understood as a mathematical OR (OR), i.e., an inclusive disjunction; not a mathematical exclusive OR (XOR), unless expressly stated otherwise. It will further be understood that the terms "includes," "comprises," "including," and/or "comprising" indicate the presence of the recited features, acts, integers, steps, operations, elements, and/or components, but do not exclude the presence or addition of one or more other features, acts, integers, steps, operations, elements, components, and/or groups thereof. A single unit, such as a processor, may perform the functions of multiple objects recited in the claims. The mere fact that certain measures are recited in mutually different dependent claims does not indicate that a combination of these measures cannot be used to advantage. A computer program may be stored/distributed on a suitable medium, such as an optical storage medium or a solid-state storage medium, together with or as part of other hardware, but it may also be distributed in other forms, such as over the Internet or a wired or wireless communications system.
Claims (11)
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| SE1850271-6 | 2018-03-12 | ||
| SE1850271A SE541635C2 (en) | 2018-03-12 | 2018-03-12 | Method, control arrangement and machine learning based system for proactively acting on situations involving an increased traffic accident risk |
| PCT/SE2019/050185 WO2019177511A1 (en) | 2018-03-12 | 2019-03-04 | Method, control arrangement and machine learning based system for autonomous vehicles for proactively acting on situations involving an increased traffic accident risk |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE112019000582T5 DE112019000582T5 (en) | 2020-11-26 |
| DE112019000582B4 true DE112019000582B4 (en) | 2024-11-28 |
Family
ID=67908347
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE112019000582.0T Active DE112019000582B4 (en) | 2018-03-12 | 2019-03-04 | Method, control arrangement and machine learning-based system for autonomous vehicles to act proactively with respect to situations involving an increased risk of a traffic accident |
Country Status (3)
| Country | Link |
|---|---|
| DE (1) | DE112019000582B4 (en) |
| SE (1) | SE541635C2 (en) |
| WO (1) | WO2019177511A1 (en) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102020200828A1 (en) | 2020-01-23 | 2021-07-29 | Zf Friedrichshafen Ag | Method for providing an artificial intuition |
| CN113673826B (en) * | 2021-07-20 | 2023-06-02 | 中国科学技术大学先进技术研究院 | Driving risk assessment method and system based on individual factors of driver |
| US11922378B2 (en) | 2021-12-10 | 2024-03-05 | Tekion Corp | Machine learning based vehicle service recommendation system |
| CN115071740A (en) * | 2022-06-06 | 2022-09-20 | 宁波均胜智能汽车技术研究院有限公司 | Extreme scene data acquisition method and device, intelligent vehicle and readable storage medium |
| DE102023201074B4 (en) * | 2023-02-09 | 2024-10-02 | Volkswagen Aktiengesellschaft | Method for assisting a driver in driving a motor vehicle and motor vehicle |
| DE102023202865A1 (en) * | 2023-03-29 | 2024-10-02 | Zf Friedrichshafen Ag | Method for generating danger zone class annotations for a training data set, computer-implemented method for training a machine learning model to perceive danger zones, computer-implemented method for perceiving danger zones, computer program, storage medium, data carrier signal and automated driving system |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008238831A (en) | 2007-03-23 | 2008-10-09 | Fuji Heavy Ind Ltd | Online risk learning system |
| US8780195B1 (en) | 2011-08-31 | 2014-07-15 | The United States Of America As Represented By The Secretary Of The Navy | Fusion of multi-sensor information with operator-learned behavior for automatic and efficient recognition of objects and control of remote vehicles |
| US20150161505A1 (en) | 2013-12-11 | 2015-06-11 | Volvo Car Corporation | Method of Programming a Neural Network Computer |
| US20170004401A1 (en) | 2015-06-30 | 2017-01-05 | Alexandr Igorevich Kolotygin | Artificial intuition |
| CN106347359A (en) | 2016-09-14 | 2017-01-25 | 北京百度网讯科技有限公司 | Method and apparatus for operating an autonomous vehicle |
| WO2017051120A1 (en) | 2015-09-24 | 2017-03-30 | Renault S.A.S | Driving assistance device for estimating the danger of a situation |
| US20170096164A1 (en) | 2015-10-05 | 2017-04-06 | Delphi Technologies, Inc. | Humanized Steering Model For Automated Vehicles |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101876051B1 (en) * | 2016-08-31 | 2018-08-02 | 현대자동차주식회사 | Machine learning system and method for learning user controlling pattern thereof |
-
2018
- 2018-03-12 SE SE1850271A patent/SE541635C2/en unknown
-
2019
- 2019-03-04 WO PCT/SE2019/050185 patent/WO2019177511A1/en not_active Ceased
- 2019-03-04 DE DE112019000582.0T patent/DE112019000582B4/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008238831A (en) | 2007-03-23 | 2008-10-09 | Fuji Heavy Ind Ltd | Online risk learning system |
| US8780195B1 (en) | 2011-08-31 | 2014-07-15 | The United States Of America As Represented By The Secretary Of The Navy | Fusion of multi-sensor information with operator-learned behavior for automatic and efficient recognition of objects and control of remote vehicles |
| US20150161505A1 (en) | 2013-12-11 | 2015-06-11 | Volvo Car Corporation | Method of Programming a Neural Network Computer |
| US20170004401A1 (en) | 2015-06-30 | 2017-01-05 | Alexandr Igorevich Kolotygin | Artificial intuition |
| WO2017051120A1 (en) | 2015-09-24 | 2017-03-30 | Renault S.A.S | Driving assistance device for estimating the danger of a situation |
| US20170096164A1 (en) | 2015-10-05 | 2017-04-06 | Delphi Technologies, Inc. | Humanized Steering Model For Automated Vehicles |
| CN106347359A (en) | 2016-09-14 | 2017-01-25 | 北京百度网讯科技有限公司 | Method and apparatus for operating an autonomous vehicle |
Also Published As
| Publication number | Publication date |
|---|---|
| SE541635C2 (en) | 2019-11-19 |
| SE1850271A1 (en) | 2019-09-13 |
| WO2019177511A1 (en) | 2019-09-19 |
| DE112019000582T5 (en) | 2020-11-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE112019000582B4 (en) | Method, control arrangement and machine learning-based system for autonomous vehicles to act proactively with respect to situations involving an increased risk of a traffic accident | |
| DE102018129066B4 (en) | SYSTEMS AND PROCEDURES FOR UNPROTECTED LEFT TURNS IN HEAVY TRAFFIC SITUATIONS IN AUTONOMOUS VEHICLES | |
| DE102013210050B4 (en) | Neurocognitive processing of a driver state | |
| DE112020001642T5 (en) | Autonomous Vehicle System | |
| DE112019004597T5 (en) | INFORMATION PROCESSING DEVICE, MOVEMENT DEVICE, METHOD AND PROGRAM | |
| DE102019205223A1 (en) | Threading systems and methods for threading vehicles | |
| DE102019205228A1 (en) | Threading systems and methods for vehicles on a main track | |
| DE102017114049A1 (en) | SYSTEMS FOR SELECTING AND PERFORMING ROUTES FOR AUTONOMOUS VEHICLES | |
| DE102018218895A1 (en) | A system and method for providing an infrastructure-based security alert associated with at least one lane | |
| DE102018104801A1 (en) | SUPPORT FOR DRIVERS ON TRIP CHANGES | |
| DE112017006567T5 (en) | AUTONOMOUS VEHICLE WITH DRIVER TRAINING | |
| DE102017114876A1 (en) | Driver assistance system for collision avoidance by means of warning and intervention cascade | |
| DE102015202837A1 (en) | Error handling in an autonomous vehicle | |
| DE102008049824A1 (en) | Method for collision avoidance | |
| DE102017126760A1 (en) | RECOGNIZE BLATTWERK USING RANGE DATA | |
| DE102019122536A1 (en) | EXZENTRIZITÄTSKARTEN | |
| DE102019202106A1 (en) | Method for validating automated functions of a vehicle | |
| DE112022002869T5 (en) | Method and system for predicting the behavior of actors in an autonomous vehicle environment | |
| DE102021126603A1 (en) | Measurement of driving safety quotient for drivers | |
| DE102020107149A1 (en) | VEHICLE CAPSULE NETWORKS | |
| DE102016210760A1 (en) | Method for interaction between a vehicle and road users | |
| DE102021116309A1 (en) | ASSISTANCE FOR DISABLED DRIVERS | |
| DE112022001861T5 (en) | MOTION CONSISTENCY MEASUREMENT FOR THE OPERATION OF AN AUTONOMOUS VEHICLE | |
| DE112022001065T5 (en) | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM | |
| DE102015103361A1 (en) | TRAFFIC DENSITY SENSITIVITY VOTERS |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R012 | Request for examination validly filed | ||
| R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G05D0001020000 Ipc: B60W0030080000 |
|
| R082 | Change of representative |
Representative=s name: THUM, MOETSCH, WEICKERT PATENTANWAELTE PARTG M, DE Representative=s name: THUM & PARTNER THUM MOETSCH WEICKERT PATENTANW, DE |
|
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division | ||
| R020 | Patent grant now final |