[go: up one dir, main page]

DE112019000582B4 - Method, control arrangement and machine learning-based system for autonomous vehicles to act proactively with respect to situations involving an increased risk of a traffic accident - Google Patents

Method, control arrangement and machine learning-based system for autonomous vehicles to act proactively with respect to situations involving an increased risk of a traffic accident Download PDF

Info

Publication number
DE112019000582B4
DE112019000582B4 DE112019000582.0T DE112019000582T DE112019000582B4 DE 112019000582 B4 DE112019000582 B4 DE 112019000582B4 DE 112019000582 T DE112019000582 T DE 112019000582T DE 112019000582 B4 DE112019000582 B4 DE 112019000582B4
Authority
DE
Germany
Prior art keywords
driver
vehicle
increased risk
traffic accident
environment data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112019000582.0T
Other languages
German (de)
Other versions
DE112019000582T5 (en
Inventor
Christoffer Norén
Mikael Johansson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Scania CV AB
Original Assignee
Scania CV AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Scania CV AB filed Critical Scania CV AB
Publication of DE112019000582T5 publication Critical patent/DE112019000582T5/en
Application granted granted Critical
Publication of DE112019000582B4 publication Critical patent/DE112019000582B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2101/00Details of software or hardware architectures used for the control of position
    • G05D2101/10Details of software or hardware architectures used for the control of position using artificial intelligence [AI] techniques
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/10Land vehicles
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren (600) zum Erzeugen einer künstlichen Intuitionsfunktionalität, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen; wobei das Verfahren (600) umfasst:
Erheben (601) von Fahrzeugumgebungsdaten mittels zumindest eines Sensors (110a, 110b, 110c) in einem Fahrzeug (100a, 100b), das von einem Fahrer gefahren wird;
Erkennen (602) einer vorbeugenden Fahrerhandlung oder Reaktion, die ein erhöhtes Risiko für einen Verkehrsunfall anzeigt;
Markieren (604) der erhobenen (601) Fahrzeugumgebungsdaten zu dem Zeitpunkt, zu dem die vorsorgliche Fahrerhandlung oder Reaktion erkannt wird;
Extrahieren (605) erhobener (601) Fahrzeugumgebungsdaten, die zum Lernen verwendet werden sollen, auf der Grundlage der markierten (604) Fahrzeugumgebungsdaten;
Erzeugen (606) einer künstlichen Intuitionsfunktionalität, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, indem ein auf Maschinenlernen beruhendes System (200) trainiert wird, auf der Grundlage der extrahierten (605) erhobenen (601) Fahrzeugumgebungsdaten; und
Implementieren (607) der erzeugten (606) künstlichen Intuitionsfunktionalität in einer Steueranordnung (510) eines autonomen Fahrzeugs (500).

Figure DE112019000582B4_0000
A method (600) for generating an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident; the method (600) comprising:
Collecting (601) vehicle environment data by means of at least one sensor (110a, 110b, 110c) in a vehicle (100a, 100b) driven by a driver;
Detecting (602) a preventive driver action or reaction that indicates an increased risk of a traffic accident;
Marking (604) the collected (601) vehicle environment data at the time the precautionary driver action or reaction is detected;
Extracting (605) collected (601) vehicle environment data to be used for learning based on the marked (604) vehicle environment data;
generating (606) an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident by training a machine learning-based system (200) based on the extracted (605) collected (601) vehicle environment data; and
Implementing (607) the generated (606) artificial intuition functionality in a control arrangement (510) of an autonomous vehicle (500).
Figure DE112019000582B4_0000

Description

Technisches Gebiettechnical field

Dieses Dokument offenbart ein Verfahren, eine Steueranordnung und ein auf Maschinenlernen beruhendes System. Genauer gesagt werden ein Verfahren, eine Steueranordnung und ein auf Maschinenlernen beruhendes System zum Erzeugen einer künstlichen Intuitionsfunktionalität offenbart, die in der Lage sind, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen.This document discloses a method, a control arrangement and a machine learning based system. More specifically, a method, a control arrangement and a machine learning based system for generating an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident are disclosed.

Hintergrundbackground

Die technische Entwicklung für teilweise oder vollständig autonome Fahrzeuge schreitet rasch fort, und vollständig autonome Fahrzeuge werden in unserem Alltag bald einen Platz haben. Ein Schlüssel zur Bereitstellung eines intelligenten und vorausschauenden autonomen Fahrzeugs ist es, Algorithmen zu verwenden, die gut darin sind, die Umgebung in den Fahrsituationen auszuwerten und proaktiv in einer Weise zu fahren, die schwierige und unnötig komplexe Situationen vermeidet.The technical development for partially or fully autonomous vehicles is progressing rapidly, and fully autonomous vehicles will soon have a place in our everyday lives. A key to delivering an intelligent and predictive autonomous vehicle is to use algorithms that are good at evaluating the environment in driving situations and proactively driving in a way that avoids difficult and unnecessarily complex situations.

Der Trend, auf Maschinenlernen beruhende Systeme wie beispielsweise neuronale Netzwerke in autonomen Fahrzeugen zu verwenden, hat sich in den letzten zehn Jahren dramatisch verstärkt. Neuronale Netzwerke können darauf trainiert werden, bestimmte Muster oder Signaturen in Daten zu erkennen und zu klassifizieren, und können in verschiedenen Arten von Anwendungen verwendet werden. Einige Beispiele von Anwendungsfeldern für neuronale Netzwerke in autonomen Fahrzeugen sind die Erkennung von befahrbaren Oberflächen, Fußgängern und Verkehrsschildern.The trend of using machine learning-based systems such as neural networks in autonomous vehicles has increased dramatically over the past decade. Neural networks can be trained to recognize and classify certain patterns or signatures in data and can be used in various types of applications. Some examples of application areas for neural networks in autonomous vehicles include the detection of drivable surfaces, pedestrians, and traffic signs.

Ein Erfolgsfaktor für das Erzeugen guter neuronaler Netzwerke ist es, das Netzwerk mit großen und gut markierten Datensätzen zu trainieren. Die Trainingsdaten müssen in genauer und präziser Weise markiert sein, damit das Netzwerk lernen kann und in der Lage ist, die einmaligen Erkennungsmerkmale oder Muster in den Daten zu unterscheiden, damit es in der Lage ist, das hoch gesteckte Ziel zu erreichen, das beispielsweise darin bestehen kann, Objekte, Oberflächen oder anderer interessante Dinge zu erkennen.A key to success in creating good neural networks is to train the network on large and well-labeled data sets. The training data must be labeled in a precise and accurate way so that the network can learn and be able to distinguish the unique features or patterns in the data so that it is able to achieve the ambitious goal, which may be, for example, recognizing objects, surfaces or other things of interest.

Ein wichtiger Faktor zum Erzeugen guter neuronaler Netzwerke, die in der Lage sind, das gewünschte Ergebnis zu erkennen und zu klassifizieren, ist es, die Netzwerke auf großen und gut markierten Datensätzen zu trainieren, die für autonome Fahrzeuge aus vielen Stunden gesammelter Verkehrsdaten bestehen können. Das Markieren der Trainingsdaten kann eine große und mühsame Aufgabe sein, die in Abhängigkeit von der Größe des Datensatzes viele Stunden, Tage oder sogar Jahre in Anspruch nehmen kann.An important factor in generating good neural networks that are able to recognize and classify the desired outcome is to train the networks on large and well-labeled datasets, which for autonomous vehicles can consist of many hours of collected traffic data. Labeling the training data can be a large and tedious task that can take many hours, days, or even years depending on the size of the dataset.

Falls ein Netzwerk trainiert werden soll, um gefährliche Fahrsituationen zu erkennen, kann das Netzwerk die vorgeschriebene Geschwindigkeit, die Krümmung der Straße, die Breite der Straße und die Daten von Umgebungssensoren wie beispielsweise Radar, Lidar und Kameras verwenden. Der Datensatz kann aus Fahrten bestehen, die von vielen unterschiedlichen Personen in unterschiedlichen Arten von Situationen unternommen wurden, oder aus Daten, die von einem oder mehreren Testfahrern erhoben wurden.If a network is to be trained to detect dangerous driving situations, the network can use the speed limit, the curvature of the road, the width of the road, and data from environmental sensors such as radar, lidar, and cameras. The dataset can consist of trips taken by many different people in different types of situations, or data collected from one or more test drivers.

Bestehende Lösungen beruhen typischerweise auf dem Konzept des Erkennens der gegenwärtigen Umgebungsverkehrssituation durch Sensoren an Bord des Fahrzeugs, wie beispielsweise einem Erkennen eines Fußgängers, der vor dem Fahrzeug auf der Fahrspur läuft, die dann eine geeignete Maßnahme auslösen, wie beispielsweise ein Abbremsen des Fahrzeugs, ein Betätigen der Hupe und/oder ein Lenken des Fahrzeugs weg von dem Fußgänger.Existing solutions are typically based on the concept of detecting the current surrounding traffic situation through sensors on board the vehicle, such as detecting a pedestrian walking in front of the vehicle in the lane, which then triggers an appropriate action, such as braking the vehicle, sounding the horn and/or steering the vehicle away from the pedestrian.

Ein menschlicher Fahrer passt jedoch normalerweise seine Fahrweise nicht nur an die tatsächlich vorliegende Verkehrssituation an, sondern auch an intuitiv erfasste Information, wie beispielsweise ein zusätzliches Abstandhalten von einem anderen Fahrzeug, dass sich seltsam verhält (oder von einem Fußgänger auf dem Gehsteig, der sich seltsam verhält), obwohl das Fahrzeug (oder der Fußgänger) momentan keinerlei Gefahr darstellt. Der Grund für das „seltsame“ Verhalten des anderen Verkehrsteilnehmers kann Benommenheit, gleichzeitige Bedienung eines Mobiltelefons, die Zuwendung zu Alkohol oder Drogen, etc. sein, die möglicherweise später einen Unfall verursachen können, der das andere Fahrzeug/den Fußgänger umfasst.However, a human driver will usually adapt his driving style not only to the actual traffic situation, but also to intuitively perceived information, such as keeping an additional distance from another vehicle that is behaving strangely (or from a pedestrian on the sidewalk who is behaving strangely), even though the vehicle (or pedestrian) does not currently pose any danger. The reason for the "strange" behavior of the other road user may be dizziness, simultaneous use of a mobile phone, consumption of alcohol or drugs, etc., which may later cause an accident involving the other vehicle/pedestrian.

Ein weiteres Beispiel für ein angemessenes Fahrverhalten kann es sein, ein Fahren in Wasserpfützen nahe eines Fußgängers auf dem Gehsteig zu vermeiden. Weder die Pfütze noch der Fußgänger stellen eine gefährliche Situation dar, und doch ist es ein von dem Fahrzeugfahrer gewünschtes Verhalten. Ein hinzukommendes autonomes Fahrzeug kann von dem seitlichen Manöver des anderen Fahrzeugs überrascht werden.Another example of appropriate driving behavior may be avoiding driving in puddles of water near a pedestrian on the sidewalk. Neither the puddle nor the pedestrian pose a dangerous situation, and yet it is a desired behavior by the vehicle driver. An approaching autonomous vehicle may be surprised by the other vehicle's lateral maneuver.

Es wäre wünschenswert, eine zweckmäßige Weise zu suchen, wie ein Sinn für Intuition für das autonome Fahrzeug eingerichtet werden kann.It would be desirable to find a convenient way to establish a sense of intuition for the autonomous vehicle.

Dokument US 2015 / 0 161 505 A1 offenbart ein Verfahren zum Programmieren eines Neuronales-Netzwerk-Computers. Mehrere Fahrzeuge sind mit beobachtenden neuronalen Netzwerken ausgestattet, die ein Fahrerverhalten mit Beobachtungen einer vorwärts gerichteten Kamera korrelieren. Die erhobenen Daten werden dann von dem Neuronales-Netzwerk-Computer kombiniert.document US 2015 / 0 161 505 A1 discloses a method for programming a neural network computer. Several vehicles are equipped with observational neural networks that correlate driver behavior with observations from a forward-facing camera. The collected data is then combined by the neural network computer.

Das Dokument beschreibt ein „deep driving“, d. h. ein neuronales Netzwerk, das ein Fahrerverhalten auf der Grundlage der Beobachtungsdaten imitiert, die von der vorwärts gerichteten Kamera erhoben wurden; d. h. wenn ein Hindernis in der Fahrspur auftaucht, wird eine Maßnahme zum Verhindern eines Aufpralls aktiviert, wie beispielsweise ein Abbremsen des Fahrzeugs und ein Aktivieren der Hupe. Wie oben erläutert wurde, wäre es wünschenswert, zu versuchen, menschliche Intuition in das neuronale Netzwerk zu übertragen und das neuronale Netzwerk dadurch in die Lage zu versetzen, in einigen Situationen vorbeugend zu sein, die an sich keine Gefahr darstellen, aber die sich zu einer potentiell gefährlichen Situation entwickeln können.The document describes a "deep driving", i.e. a neural network that imitates a driver's behaviour based on the observation data collected by the forward-facing camera; i.e. when an obstacle appears in the lane, a measure to avoid an impact is activated, such as braking the vehicle and activating the horn. As explained above, it would be desirable to try to transfer human intuition to the neural network and thereby enable the neural network to be preventive in some situations that do not constitute a danger in themselves, but that can develop into a potentially dangerous situation.

Dokument WO 2017 / 051 120 A1 stellt ein Fahrerassistenzsystem vor, das auf einer Analyse von Sensorerkennungen beruht. Das System wird durch Erkennen und Verwendung der Reaktionen des Fahrers in einer Verkehrssituation trainiert, wie beispielsweise einer Geschwindigkeitsänderung oder eine Augenbewegung, zusammen mit Sensordaten, die die Verkehrssituation beschreiben.document WO 2017 / 051 120 A1 presents a driver assistance system based on an analysis of sensor detections. The system is trained by recognizing and using the driver's reactions in a traffic situation, such as a change in speed or an eye movement, together with sensor data describing the traffic situation.

Das Dokument offenbart ein Fahrerassistenzsystem, nicht ein autonomes Fahrzeug. Zudem wird die Lösung dazu verwendet, ein Notfallbremsmittel zum Abbremsen des Fahrzeugs zu bewirken, wenn der Fahrer auf eine gefährliche Situation nicht reagiert. Eine Vorhersage einer potentiell gefährlichen Situation wird nicht getroffen.The document discloses a driver assistance system, not an autonomous vehicle. Furthermore, the solution is used to provide an emergency braking means to slow down the vehicle if the driver does not react to a dangerous situation. A prediction of a potentially dangerous situation is not made.

Dokument CN 1 06 347 359 A1 offenbart eine Lösung, die ein Erheben von Fahrschemata, die von einem Fahrer übernommen werden, wenn der Fahrer ein Eingreifen in Fahrsituationen eines teilautonomen Fahrzeugs in Ausnahmefällen vornimmt, sowie von Fahrsituationsinformation des teilautonomen Fahrzeugs in Fahrsituationen umfasst; ein Bestimmen der Risikograde von Fahrtrisiken des teilautonomen Fahrzeugs in den Fahrsituationen gemäß den vom Fahrer übernommenen Fahrschemata; ein Aufgliedern von Objektinformation aller Situationsobjekte in den Fahrsituationen aus den Fahrsituationsinformationen; ein Erlernen der Objektinformation und der entsprechenden Risikograde, ein Erkennen von Risikoobjekten, die für die Risikograde in den Situationsobjekten relevant sind, und ein Bestimmen der Zusammenhangsbeziehung zwischen der Objektinformation der Risikoobjekte und den Risikograden, so dass sie als Risikobewertungsstrategie des autonomen Fahrzeugs dienen; ein Erkennen des Risikograds des Fahrtrisikos des autonomen Fahrzeugs durch die Risikobewertungsstrategie.document CN 1 06 347 359 A1 discloses a solution that includes collecting driving patterns adopted by a driver when the driver intervenes in driving situations of a partially autonomous vehicle in exceptional cases, as well as driving situation information of the partially autonomous vehicle in driving situations; determining the risk levels of driving risks of the partially autonomous vehicle in the driving situations according to the driving patterns adopted by the driver; breaking down object information of all situation objects in the driving situations from the driving situation information; learning the object information and the corresponding risk levels, recognizing risk objects that are relevant to the risk levels in the situation objects, and determining the correlation relationship between the object information of the risk objects and the risk levels so that they serve as a risk assessment strategy of the autonomous vehicle; recognizing the risk level of the driving risk of the autonomous vehicle through the risk assessment strategy.

Auch dieses Dokument scheint eine Erkennung von Risikoobjekten in der Fahrspur sowie die angemessene Maßnahme zu handhaben, die von dem Fahrer getroffen wird.This document also seems to handle detection of risk objects in the lane and the appropriate action to be taken by the driver.

Dokument JP 2008 - 238 831 A beschreibt ein Fahrerassistenzsystem, wobei eine zum Fahrzeug externe Umgebung von verschiedenen Sensoren analysiert wird. Der menschliche Fahrer wird als Lehrer betrachtet, und die Bedienvorgänge des Fahrers als Reaktion auf unterschiedliche Auslöser der erkannten zum Fahrzeug externen Umgebung werden aufgezeichnet. Später, wenn ein ähnliches Ereignis erkannt wird, kann eine Warnung an den Fahrer ausgegeben werden, die ihn über die erkannte Situation informiert.document JP 2008 - 238 831 A describes a driver assistance system where an environment external to the vehicle is analyzed by various sensors. The human driver is considered as a teacher, and the driver's operations in response to different triggers of the detected environment external to the vehicle are recorded. Later, when a similar event is detected, a warning can be issued to the driver informing him of the detected situation.

Dieses Dokument betrifft weder autonome Fahrzeuge noch Implementierungen intuitiver Fahrhandlungen.This document does not address autonomous vehicles or implementations of intuitive driving actions.

Dokument US 2017 / 0 096 164 A1 betrifft ein Modell zum Steuern eines Fahrzeugs, das ein neuronales Netzwerk umfassen kann. Ein Verhalten eines Fahrers während eines normalen Fahrens wird als Trainingsdaten verwendet.document US 2017 / 0 096 164 A1 relates to a model for controlling a vehicle, which may include a neural network. A driver's behavior during normal driving is used as training data.

Das Dokument betrifft nicht eine Erkennung gefährlicher Situationen.The document does not concern the detection of dangerous situations.

Das Dokument US 8 780 195 B1 beschreibt ein System für ferngesteuerte Fahrzeuge, das Daten sensorisch erfasst und menschliche Instinkte nachahmt.
Das Dokument US 2017 / 0 004 401 A1 betrifft Computermodelle mit künstlicher Intuition und eine automatische Erstellung von Objektmodellen basierend auf einer Reaktion auf externen Aktionen.
The document US 8 780 195 B1 describes a system for remote-controlled vehicles that collects data using sensors and mimics human instincts.
The document US 2017 / 0 004 401 A1 concerns computer models with artificial intuition and automatic creation of object models based on a response to external actions.

Es ergibt sich, dass eine Weiterentwicklung zum Implementieren von autonomen Fahrzeugen erforderlich ist, die eine Intuition aufweisen und die in der Lage sind, vorsorglich zu handeln, bevor eine tatsächlich gefährliche Situation aufgetreten ist.It turns out that further development is needed to implement autonomous vehicles that have intuition and are able to act preemptively before an actually dangerous situation occurs.

ZusammenfassungSummary

Es ist daher eine Aufgabe dieser Erfindung, zumindest einige der obigen Probleme zu lösen und ein verbessertes autonomes Fahrzeug bereitzustellen.It is therefore an object of this invention to solve at least some of the above problems and to provide an improved autonomous vehicle.

Gemäß einem ersten Aspekt der Erfindung wird diese Aufgabe gelöst durch ein Verfahren zum Erzeugen einer künstlichen Intuitionsfunktionalität, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen. Das Verfahren umfasst ein Erheben von Fahrzeugumgebungsdaten mittels zumindest eines Sensors in einem Fahrzeug, das von einem Fahrer gefahren wird. Ferner umfasst das Verfahren ein Erkennen einer vorbeugenden Fahrerhandlung oder Reaktion, die ein erhöhtes Risiko für einen Verkehrsunfall anzeigt. Zusätzlich umfasst das Verfahren ein Markieren der erhobenen Fahrzeugumgebungsdaten zu dem Zeitpunkt, wenn die vorsorgliche Fahrerhandlung oder Reaktion erkannt wird. Das Verfahren umfasst ferner ein Extrahieren erhobener Fahrzeugumgebungsdaten, die zum Lernen verwendet werden sollen, auf der Grundlage der markierten Fahrzeugumgebungsdaten. Zudem umfasst das Verfahren ein erzeugen einer künstlichen Intuitionsfunktionalität, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, indem ein auf Maschinenlernen beruhendes System trainiert wird, auf der Grundlage der extrahierten erhobenen Fahrzeugumgebungsdaten. Das Verfahren umfasst außerdem ein Implementieren der erzeugten künstlichen Intuitionsfunktionalität in einer Steueranordnung eines autonomen Fahrzeugs.According to a first aspect of the invention, this object is achieved by a method for generating an artificial intuition functionality that is able to act proactively with respect to situations that pose an increased risk for a traffic accident. The method comprises collecting vehicle environment data by means of at least one sensor in a vehicle driven by a driver. The method further comprises detecting a preventive driver action or reaction that indicates an increased risk of a traffic accident. In addition, the method comprises marking the collected vehicle environment data at the time when the precautionary driver action or reaction is detected. The method further comprises extracting collected vehicle environment data to be used for learning based on the marked vehicle environment data. In addition, the method comprises generating an artificial intuition functionality that is able to act proactively with respect to situations that involve an increased risk of a traffic accident by training a machine learning-based system based on the extracted collected vehicle environment data. The method also comprises implementing the generated artificial intuition functionality in a control arrangement of an autonomous vehicle.

Gemäß einem zweiten Aspekt der Erfindung wird diese Aufgabe gelöst durch ein auf Maschinenlernen beruhendes System, das dazu eingerichtet ist, eine künstliche Intuitionsfunktionalität zu erzeugen, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, in dem das auf Maschinenlernen beruhende System auf der Grundlage des Verfahrens gemäß dem ersten Aspekt trainiert wird.According to a second aspect of the invention, this object is achieved by a machine learning-based system configured to generate an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident, in which the machine learning-based system is trained on the basis of the method according to the first aspect.

Gemäß einem dritten Aspekt der Erfindung wird diese Aufgabe gelöst durch eine Steueranordnung in einem autonomen Fahrzeug, die dazu eingerichtet ist, eine künstliche Intuitionsfunktionalität zu implementieren, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, auf der Grundlage des Verfahrens gemäß dem Verfahren gemäß dem ersten Aspekt.According to a third aspect of the invention, this object is achieved by a control arrangement in an autonomous vehicle which is adapted to implement an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident, on the basis of the method according to the method according to the first aspect.

Gemäß einem vierten Aspekt der Erfindung wird diese Aufgabe gelöst durch ein Computerprogramm, das Programmcode zum Durchführen eines Verfahrens gemäß dem ersten Aspekt umfasst, wenn das Computerprogramm in einem Computer ausgeführt wird.According to a fourth aspect of the invention, this object is achieved by a computer program comprising program code for carrying out a method according to the first aspect when the computer program is executed in a computer.

Dank der beschriebenen Aspekte können durch Erheben von Fahrzeugumgebungsdaten mit Sensoren in bemannten Fahrzeugen, ein Erkennen von vorsorglichen Fahrerhandlungen/Reaktionen und Verknüpfen derselben mit Fahrzeugumgebungsdaten eine Markierung der Fahrzeugumgebungsdaten zu Zeitpunkten durchgeführt werden, zu denen eine vorbeugende Fahrerhandlung/Reaktion erkannt wird. Dadurch können die relevantesten Fahrzeugumgebungsdaten mit minimaler menschlicher Interaktion ausgewählt werden.Thanks to the aspects described, by collecting vehicle environment data with sensors in manned vehicles, detecting preventive driver actions/reactions and linking them with vehicle environment data, it is possible to mark the vehicle environment data at times when a preventive driver action/reaction is detected. This allows the most relevant vehicle environment data to be selected with minimal human interaction.

Das auf Maschinenlernen beruhende System kann hierdurch mit relevanten Trainingsdaten zum Entwickeln der künstlichen Intuitionsfunktionalität versorgt werden. Die erforderliche Zeit, die benötigt wird, um die Trainingsdaten zu markieren, wird drastisch verringert. Wenn das auf Maschinenlernen beruhendes System die künstliche Intuitionsfunktionalität entwickelt hat, kann diese Funktionalität in einer Steueranordnung eines autonomen Fahrzeugs implementiert werden.The machine learning-based system can hereby be provided with relevant training data for developing the artificial intuition functionality. The time required to label the training data is drastically reduced. Once the machine learning-based system has developed the artificial intuition functionality, this functionality can be implemented in a control arrangement of an autonomous vehicle.

Hierdurch wird eine erhöhte Verkehrssicherheit des autonomen Fahrzeugs erzielt, wobei ein intuitives vorbeugendes Verhalten eines menschlichen Fahrers imitiert wird.This will increase the road safety of the autonomous vehicle by imitating the intuitive preventive behavior of a human driver.

Weitere Vorteile und zusätzliche neue Merkmale werden sich aus der nachfolgenden ausführlichen Beschreibung ergeben.Further advantages and additional new features will become apparent from the detailed description below.

Figurenfigures

Ausführungsformen der Erfindung werden nun mit Bezug auf die beigefügten Zeichnungen genauer beschrieben, von denen:

  • 1 ein Fahrzeug mit Sensoren gemäß einer Ausführungsform darstellt;
  • 2 ein Szenario mit zwei Fahrzeugen und einem auf Maschinenlernen beruhenden System gemäß einer Ausführungsform darstellt;
  • 3 ein Szenario mit einem erhöhten Risiko für eine gefährliche Situation schematisch darstellt, wobei der Fahrer des Fahrzeugs eine Positionierung auf einer Fahrspur zu zwei unterschiedlichen Zeitpunkten anpasst;
  • 4 einen Fahrzeuginnenraum eines autonomen Fahrzeugs, das einen menschlichen Fahrer hat, und ein auf Maschinenlernen beruhendes System gemäß einer Ausführungsform schematisch darstellt;
  • 5 einen Fahrzeuginnenraum eines autonomen Fahrzeugs und ein auf Maschinenlernen beruhendes System gemäß einer Ausführungsform schematisch darstellt;
  • 6 ein Ablaufdiagramm ist, dass eine Ausführungsform des Verfahrens darstellt.
Embodiments of the invention will now be described in more detail with reference to the accompanying drawings, of which:
  • 1 illustrates a vehicle with sensors according to an embodiment;
  • 2 illustrates a scenario with two vehicles and a machine learning based system according to an embodiment;
  • 3 schematically represents a scenario with an increased risk of a dangerous situation, where the driver of the vehicle adjusts a positioning in a lane at two different times;
  • 4 schematically illustrates a vehicle interior of an autonomous vehicle having a human driver and a machine learning-based system according to an embodiment;
  • 5 schematically illustrates a vehicle interior of an autonomous vehicle and a machine learning-based system according to an embodiment;
  • 6 is a flow chart illustrating one embodiment of the method.

Ausführliche BeschreibungDetailed description

Ausführungsformen der Erfindung, die hierin beschrieben ist, sind als ein Verfahren, eine Steueranordnung und ein auf Maschinenlernen beruhendes System definiert, die in den unten beschriebenen Ausführungsformen praktisch umgesetzt sein können. Diese Ausführungsformen können jedoch auf viele unterschiedliche Arten veranschaulicht und realisiert werden und sind nicht auf die hierin dargelegten Beispiele beschränkt; vielmehr werden diese veranschaulichenden Beispiele von Ausführungsformen bereitgestellt, damit diese Offenbarung gründlich und vollständig ist.Embodiments of the invention described herein are embodied as a method, a control arrangement and a machine learning based System that may be practiced in the embodiments described below. However, these embodiments may be illustrated and implemented in many different ways and are not limited to the examples set forth herein; rather, these illustrative examples of embodiments are provided so that this disclosure will be thorough and complete.

Noch weitere Aufgaben und Merkmale werden sich möglicherweise anhand der folgenden ausführlichen Beschreibung ergeben, wenn diese in Verbindung mit den beigefügten Zeichnungen berücksichtigt wird. Es ist jedoch zu verstehen, dass die Zeichnungen lediglich zu Zwecken einer Veranschaulichung erstellt wurden und nicht als Definition der Grenzen der hierin beschriebenen Ausführungsformen, bezüglich derer auf die beigefügten Ansprüche Bezug genommen werden muss. Ferner sind die Zeichnungen nicht notwendigerweise maßstabsgetreu gezeichnet, außer dies ist anderweitig angegeben; sie sind lediglich dazu gedacht, die Strukturen und Vorgänge dem Konzept nach zu veranschaulichen, die hierin beschrieben sind.Still other objects and features will become apparent from the following detailed description when considered in conjunction with the accompanying drawings. It is to be understood, however, that the drawings are for purposes of illustration only and not as a definition of the limits of the embodiments described herein, for which reference must be made to the appended claims. Furthermore, the drawings are not necessarily drawn to scale unless otherwise indicated; they are intended merely to conceptually illustrate the structures and operations described herein.

1 stellt ein Fahrzeug 100a dar, das einen menschlichen Fahrer hat und das auf einer Straße fährt. Das Fahrzeug 100a umfasst eine Anzahl von Umgebungssensoren 110a, 110b, 110c zum Unterstützen des Fahrers, wenn dieser das Fahrzeug 100a fortbewegt. 1 depicts a vehicle 100a having a human driver traveling on a road. The vehicle 100a includes a number of environmental sensors 110a, 110b, 110c for assisting the driver as he or she moves the vehicle 100a.

Die Sensoren 110a, 110b, 110c können in verschiedenen Ausführungsformen beispielsweise eine Kamera, eine Stereo-Kamera, eine Infrarot-Kamera, eine Videokamera, ein Radar, ein Lidar, eine Ultraschallvorrichtung, einen passiven Infrarotsensor (PIR), eine Time-of-Flight-Kamera oder eine ähnliche Vorrichtung umfassen. Das Fahrzeug 100a kann mehrere Sensoren 110a, 110b, 110c umfassen, die in bestimmte Richtungen um das Fahrzeug 100a herum gerichtet sind. Die Mehrzahl der Sensoren 110a, 110b, 110c können jedoch in die Fahrtrichtung gerichtet sein. Die Sensoren 110a, 110b, 110c können vom selben Typ sein oder von unterschiedlichen Typen. Ein Vorteil bei der Verwendung unterschiedlicher Typen von Sensoren ist es, dass unterschiedliche Sensortypen unterschiedliche Fähigkeiten aufweisen; d. h. eine Kamera kann bei Tageslicht gut funktionieren, während ein Lasersensor im Dunkeln vorteilhaft sein kann, etc.The sensors 110a, 110b, 110c may, in various embodiments, include, for example, a camera, a stereo camera, an infrared camera, a video camera, a radar, a lidar, an ultrasonic device, a passive infrared sensor (PIR), a time-of-flight camera, or a similar device. The vehicle 100a may include multiple sensors 110a, 110b, 110c directed in certain directions around the vehicle 100a. However, the majority of the sensors 110a, 110b, 110c may be directed in the direction of travel. The sensors 110a, 110b, 110c may be of the same type or of different types. An advantage of using different types of sensors is that different types of sensors have different capabilities; i.e., a camera may work well in daylight, while a laser sensor may be advantageous in the dark, etc.

Das Fahrzeug 100a kann beliebige Mittel zum Transportieren im weiteren Sinne umfassen, wie beispielsweise einen Lastwagen, ein Auto, ein Motorrad, einen Anhänger, einen Bus, ein Flugzeug, ein Wasserfahrzeug, ein Raumfahrzeug oder andere ähnliche bemannte Beförderungsmittel, die sich beispielsweise auf Rädern, Schienen, in der Luft, auf dem Wasser oder in ähnlichen Medien bewegen. Die hierin zur Verfügung gestellten Beispiele von Fahrzeugen 100a sind jedoch vorrangig durch Straßenfahrzeuge veranschaulicht, die Räder aufweisen.The vehicle 100a may include any means of transportation in the broad sense, such as a truck, car, motorcycle, trailer, bus, aircraft, watercraft, spacecraft, or other similar manned conveyances moving, for example, on wheels, rails, in the air, on water, or in similar media. However, the examples of vehicles 100a provided herein are primarily illustrated by road vehicles having wheels.

Um in der Lage zu sein, ein auf Maschinenlernen beruhendes System wie beispielsweise ein neuronales Netzwerk dazu zu trainieren, eine künstliche Intuitionsfunktionalität zu entwickeln, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, können das Verhalten, die Handlungen und die Reaktionen des Fahrers des bemannten Fahrzeugs 100a beobachtet werden, und diese Information kann dazu verwendet werden, aufgezeichnete Sensordaten zu markieren, die von den Sensoren 110a, 110b, 110c des Fahrzeugs 100a gewonnen wurden.In order to be able to train a machine learning based system, such as a neural network, to develop an artificial intuition functionality capable of acting proactively regarding situations involving an increased risk of a traffic accident, the behavior, actions and reactions of the driver of the manned vehicle 100a may be observed and this information may be used to tag recorded sensor data obtained from the sensors 110a, 110b, 110c of the vehicle 100a.

Eine praktische Weise, große Datensätze erhobener Sensordaten ohne großen manuellen Aufwand zu markieren, ist es, erhobene Informationen wie beispielsweise ein Geschwindigkeitsprofil, eine Fahrspurpositionierung des Fahrzeugs 100a, einen Puls des Fahrers, eine Gehirnaktivität des Fahrers, einen Stresspegel des Fahrers, eine Augenstellung des Fahrers, etc. zu verwenden, um zu verstehen, wenn Fahrsituationen schwierig oder komplex zu verstehen sind, und die Intuition durchschnittlicher Fahrer in einem autonomen Fahrzeug zu reproduzieren, das hierdurch in die Lage versetzt wird, in komplexen Bereichen auf sichere Weise proaktiv zu agieren.A practical way to label large sets of collected sensor data without much manual effort is to use collected information such as a speed profile, a lane positioning of the vehicle 100a, a driver's pulse, a driver's brain activity, a driver's stress level, a driver's eye position, etc. to understand when driving situations are difficult or complex to understand and to reproduce the intuition of average drivers in an autonomous vehicle, which is thereby enabled to act proactively in complex areas in a safe manner.

Typische Muster in Daten oder in den menschlichen Messwerten zur Erkennung des erhöhten Bewusstseins schwieriger und komplexer Situationen und des erhöhten Grads einer defensiven Fahrweise können beliebige, einige oder alle der Folgenden umfassen: eine erkannte verringerte Geschwindigkeit des bemannten Fahrzeugs 100a, obwohl die erlaubte Geschwindigkeit und der komfortable Schwellenwert, der von einer Längsbeschleunigung verursacht ist, nicht überschritten werden; eine Fahrspurpositionierung des Fahrers wie beispielsweise eine Positionierung in der Mitte der Straße, um schwierigen Situationen entgegenzuwirken (d. h. Fahrerhandlungen); ein erhöhter Puls des menschlichen Fahrers, der einen erhöhten Bewusstseinsgrad oder einen erhöhten Stresspegel anzeigt; eine erhöhte Gehirnaktivität; spezielle Muster in Augenbewegungen des Fahrers, etc. (d. h. Fahrerreaktionen).Typical patterns in data or in the human measurements for detecting the increased awareness of difficult and complex situations and the increased level of defensive driving may include any, some, or all of the following: a detected reduced speed of the manned vehicle 100a, although the allowed speed and the comfortable threshold caused by longitudinal acceleration are not exceeded; a lane positioning of the driver, such as positioning in the middle of the road to counteract difficult situations (i.e., driver actions); an increased heart rate of the human driver indicating an increased level of awareness or an increased stress level; increased brain activity; special patterns in eye movements of the driver, etc. (i.e., driver reactions).

Der Zweck der Erhebung von Daten und der Überwachung des Fahrers ist es nicht, die Fahrerhandlungen zu imitieren, sondern lediglich, bestimmte Verkehrsszenarien zu markieren, die besonders interessant sind, um zum Trainieren des auf Maschinenlernen beruhenden Systems/neuronalen Netzwerks verwendet zu werden.The purpose of collecting data and monitoring the driver is not to imitate the driver's actions, but simply to mark certain traffic scenarios that are particularly interesting in order to train the machine learning based system/neural network.

Das/die trainierte/trainierten auf Maschinenlernen beruhendes System/Netzwerke verwenden Information wie beispielsweise Erkennungen niedrigen Grads von den Sensoren 110a, 110b, 110c des Fahrzeugs 100a, befahrbare Oberflächen durch die Sensorfusion, Kamerabilder, Objekte, die von der Sensorfusion gemeldet werden, etc.The trained machine learning-based system(s) use information such as low-level detections from the sensors 110a, 110b, 110c of the vehicle 100a, drivable surfaces by the sensor fusion, camera images, objects reported by the sensor fusion, etc.

Nachdem sämtliche erhobenen Sensordaten begutachtet wurden, die mit einer Fahrerhandlung/Reaktion zusammenhängen, können die erhobenen Sensordaten dazu verwendet werden, einen Algorithmus zu trainieren, um ähnliche Situationen in Echtzeit zu erkennen.After reviewing all collected sensor data related to a driver action/reaction, the collected sensor data can be used to train an algorithm to detect similar situations in real time.

Die Ausgabe des/der trainierten auf Maschinenlernen beruhenden Systems/Netzwerke können beispielsweise sein: ein vorgeschlagener Wahrnehmungsgrad für ein autonomes Fahrzeug, der dazu verwendet werden kann, das Verhalten des gesamten Fahrzeugs festzulegen; eine empfohlene Fahrspurpositionierung und/oder eine empfohlene Geschwindigkeit für das autonome Fahrzeug.The output of the trained machine learning system/networks may be, for example: a suggested level of awareness for an autonomous vehicle, which can be used to determine the behavior of the entire vehicle; a recommended lane positioning and/or a recommended speed for the autonomous vehicle.

Ein Vorteil mit den hierin offenbarten Ausführungsformen ist es, dass der erforderliche Aufwand zum Zusammentragen der Trainingsdaten dramatisch verringert wird. Hierdurch können das Wissen und die Intuition eines menschlichen Fahrers auf ein autonomes Fahrzeug übertragen werden. Das Verfahren kann auch für ein Online-Training und ein Training im Fahrzeug eines neuronalen Netzwerks verwendet werden.An advantage with the embodiments disclosed herein is that the effort required to gather training data is dramatically reduced. This allows the knowledge and intuition of a human driver to be transferred to an autonomous vehicle. The method can also be used for online and in-vehicle training of a neural network.

2 stellt ein Szenario dar, bei dem mehrere Fahrzeuge 100a, 100b mit einem entsprechenden Fahrer innerhalb eines Bereichs fahren. Sensorsignale werden von Sensoren 110a, 110b, 110c in/an den entsprechenden Fahrzeugen 100a, 100b erhoben. Diese Signale können an ein auf Maschinenlernen beruhendes System 200 geliefert werden, zum Beispiel über eine drahtlose Kommunikationsschnittstelle über einen Empfänger 205. 2 depicts a scenario in which multiple vehicles 100a, 100b with a respective driver are traveling within an area. Sensor signals are collected from sensors 110a, 110b, 110c in/on the respective vehicles 100a, 100b. These signals may be provided to a machine learning-based system 200, for example via a wireless communication interface via a receiver 205.

Die optionale drahtlose Kommunikation kann über eine drahtlose Kommunikationsschnittstelle hergestellt sein, wie beispielsweise eine Fahrzeug-zu-FahrzeugKommunikation (Vehicle-to-Vehicle, V2V) oder über eine Fahrzeug-zu-Infrastruktur-Kommunikation (Vehicle-to-Infrastructure, V2I). Manchmal wird der gemeinsame Begriff Fahrzeug-zu-Allem (Vehicle-to-Everything, V2X) verwendet.The optional wireless communication may be established via a wireless communication interface, such as vehicle-to-vehicle (V2V) communication or vehicle-to-infrastructure (V2I) communication. Sometimes the collective term vehicle-to-everything (V2X) is used.

In einigen Ausführungsformen kann die Kommunikation zwischen Fahrzeugen 100a, 100b und dem auf Maschinenlernen beruhenden System 200 über eine V2X- Kommunikation durchgeführt werden, zum Beispiel auf der Grundlage einer Vorrichtung für dedizierte Kurzreichweiten-Kommunikation (Dedicated Short-Range Communication, DSRC). DSRC arbeitet in einigen Ausführungsformen im 5,9 GHz-Band mit einer Bandbreite von 75 MHz und einer ungefähren Reichweite von 1000 m.In some embodiments, communication between vehicles 100a, 100b and machine learning-based system 200 may be performed via V2X communication, for example based on a dedicated short-range communication (DSRC) device. DSRC operates in some embodiments in the 5.9 GHz band with a bandwidth of 75 MHz and an approximate range of 1000 m.

Die drahtlose Kommunikation kann gemäß einem beliebigen IEEE-Standard für drahtlose Fahrzeugkommunikation erfolgen, wie beispielsweise gemäß einem speziellen Betriebsmodus von IEEE 802.11 für Fahrzeugnetzwerke, der drahtlose Zugang in Fahrzeugumgebungen (Wireless Access in Vehicular Environments, WAVE) genannt wird. IEEE 802.11p ist eine Erweiterung der Spezifikationen 802.11 Wireless LAN medium access layer (MAC) und physical layer (PHY).The wireless communication can be performed according to any IEEE standard for wireless vehicular communication, such as a special operating mode of IEEE 802.11 for vehicular networks called Wireless Access in Vehicular Environments (WAVE). IEEE 802.11p is an extension of the 802.11 Wireless LAN medium access layer (MAC) and physical layer (PHY) specifications.

Eine derartige drahtlose Kommunikationsschnittstelle kann umfassen oder zumindest angelehnt sein an drahtlose Kommunikationstechnologie wie beispielsweise Wi-Fi, Wireless Local Area Network (WLAN), Ultra Mobile Broadband (UMB), Bluetooth (BT), Near Field Communication (NFC), Radio-Frequency Identification (RFID), um nur einige mögliche Beispiele drahtloser Kommunikationen in einigen Ausführungsformen zu nennen.Such a wireless communication interface may include or at least be based on wireless communication technology such as Wi-Fi, Wireless Local Area Network (WLAN), Ultra Mobile Broadband (UMB), Bluetooth (BT), Near Field Communication (NFC), Radio-Frequency Identification (RFID), to name just a few possible examples of wireless communications in some embodiments.

Die Kommunikation kann alternativ über eine drahtlose Schnittstelle erfolgen, die umfasst oder zumindest angelehnt ist an Funkzugangstechnologien wie beispielsweise 3GPP LTE, LTE-Advanced, E-UTRAN, UMTS, GSM oder dergleichen über ein drahtloses Kommunikationsnetzwerk, um nur einige wenige Möglichkeiten zu nennen.Alternatively, communication may take place via a wireless interface that includes or is at least based on radio access technologies such as 3GPP LTE, LTE-Advanced, E-UTRAN, UMTS, GSM or the like via a wireless communication network, to name just a few possibilities.

Die in den Fahrzeugen 100a, 100b erhobenen Daten können allerdings beispielsweise in den entsprechenden Fahrzeugen 100a, 100b in entsprechenden Datenspeichervorrichtungen lokal gespeichert werden. Zu einem späteren Zeitpunkt können die erhobenen Daten an das auf Maschinenlernen beruhende System 200 über eine drahtlose Kommunikationsschnittstelle und/oder manuell übertragen werden, zum Beispiel durch Speichern der erhobenen Daten auf einer beschreibbaren Disc oder einer Speichervorrichtung in den Fahrzeugen 100a, 100b, die zu dem auf Maschinenlernen beruhenden System 200 gebracht und manuell angefügt werden.However, the data collected in the vehicles 100a, 100b may, for example, be stored locally in the respective vehicles 100a, 100b in respective data storage devices. At a later time, the collected data may be transmitted to the machine learning-based system 200 via a wireless communication interface and/or manually, for example by storing the collected data on a recordable disc or storage device in the vehicles 100a, 100b, which is brought to the machine learning-based system 200 and manually appended.

Das auf Maschinenlernen beruhende System 200 kann mit einer Datenbank 210 verbunden sein oder eine solche umfassen, in der Information gespeichert werden können, die von den Fahrzeugen 100a, 100b gewonnen wurde.The machine learning-based system 200 may be connected to or include a database 210 in which information obtained from the vehicles 100a, 100b may be stored.

Das auf Maschinenlernen beruhende System 200 kann ein künstliches neuronales Netzwerk und/oder ein konnektionistisches System umfassen oder darauf beruhen. Daher kann das auf Maschinenlernen beruhende System 200 zumindest zu einem gewissen Grad an biologische neuronale Netzwerke angelehnt sein, die tierische/menschliche Gehirne ausbilden. Derartige Systeme 200 können Aufgaben durch Berücksichtigung von Beispielen im Allgemeinen ohne aufgabenspezifische Programmierung erlernen (dabei eine zunehmend verbesserte Leistung zeigen). Zum Beispiel kann bei einer Bilderkennung das System 200 lernen, Bilder zu erkennen, die eine Verkehrssituation mit einem erhöhten Risiko für einen Verkehrsunfall umfassen, in dem es beispielhafte Bilder analysiert, die von Sensoren 110a, 110b, 110c in/an den entsprechenden Fahrzeugen 100a, 100b erfasst wurden, die manuell als „potentiell gefährlich“ oder „nicht gefährlich“ markiert wurden, und indem es die Ergebnisse dazu verwendet, potentiell gefährliche Situationen in anderen Verkehrsumgebungen zu erkennen. Sie tun dies ohne vorheriges Wissen bezüglich gefährlicher Verkehrssituationen, zum Beispiel dass nahe der Straße spielende Kinder eine potentielle Gefahr darstellen, da sie sich in dem Spiel verlieren und die Gefahr vergessen können, die der Verkehr darstellt. Stattdessen entwickeln sie ihren eigenen Satz sicherheitsrelevanter Merkmale anhand des Lernmaterials, das sie verarbeiten.The machine learning-based system 200 may include an artificial neural network and/or a connectionist system or based thereon. Therefore, the machine learning-based system 200 may be at least somewhat similar to biological neural networks that train animal/human brains. Such systems 200 may learn tasks by considering examples in general without task-specific programming (and thereby show progressively improved performance). For example, in image recognition, the system 200 may learn to recognize images that include a traffic situation with an increased risk of a traffic accident by analyzing example images captured by sensors 110a, 110b, 110c in/on the respective vehicles 100a, 100b that have been manually marked as "potentially dangerous" or "not dangerous" and using the results to recognize potentially dangerous situations in other traffic environments. They do this without prior knowledge of dangerous traffic situations, for example that children playing near the road pose a potential danger, since they may get lost in the game and forget the danger posed by the traffic. Instead, they develop their own set of safety-related characteristics based on the learning material they process.

Das künstliche neuronale Netzwerk kann auf einer Sammlung verbundener Einheiten oder Knoten beruhen, die künstlichen Neuronen genannt werden (analog zu biologischen Neuronen in einem tierischen Gehirn). Jede Verbindung (analog zu einer Synapse) zwischen künstlichen Neuronen kann ein Signal von einem zum anderen übermitteln. Das künstliche Neuron, das das Signal empfängt, kann es verarbeiten und dann Signale an künstliche Neuronen übertragen, die mit ihm verbunden sind.The artificial neural network can be based on a collection of connected units or nodes called artificial neurons (analogous to biological neurons in an animal brain). Each connection (analogous to a synapse) between artificial neurons can transmit a signal from one to another. The artificial neuron that receives the signal can process it and then transmit signals to artificial neurons connected to it.

In einigen Ausführungsformen des Systems 200 kann das Signal bei einer Verbindung zwischen künstlichen Neuronen eine reelle Zahl sein, und die Ausgabe jedes künstliche Neurons kann durch eine nichtlineare Funktion der Summe ihrer Eingänge berechnet werden. Künstliche Neuronen und Verbindungen können eine Gewichtung aufweisen, die sich anpasst, wenn das Lernen voranschreitet. Die Gewichtung kann die Stärke des Signals an einer Verbindung erhöhen oder verringern. Künstliche Neuronen können einen Schwellenwert aufweisen, sodass nur dann, wenn die kumulierten Signale den Schwellenwert überschreiten, das Signal gesendet wird. Künstliche Neuronen können in Lagen organisiert sein. Verschiedene Lagen können verschiedene Arten von Transformationen an ihren Eingängen vornehmen. Signale bewegen sich von der ersten (Eingang) zu der letzten (Ausgang) Lage, möglicherweise, nachdem sie die Lagen mehrere Male durchlaufen haben. Dadurch kann das System 200 Probleme in sehr ähnlicher Weise, wie ein menschliches Gehirn dies tun würde, lösen, d. h. durch das Studium von Beispielen und das Ziehen von Schlüssen.In some embodiments of system 200, the signal at a connection between artificial neurons may be a real number, and the output of each artificial neuron may be calculated by a nonlinear function of the sum of their inputs. Artificial neurons and connections may have a weight that adjusts as learning progresses. The weight may increase or decrease the strength of the signal at a connection. Artificial neurons may have a threshold so that only when the cumulative signals exceed the threshold is the signal sent. Artificial neurons may be organized into layers. Different layers may perform different types of transformations on their inputs. Signals move from the first (input) to the last (output) layer, possibly after passing through the layers several times. This allows system 200 to solve problems in a very similar way to how a human brain would, i.e., by studying examples and drawing conclusions.

3 zeigt ein Beispiel eines Szenarios, wie es oben beschrieben wurde, wobei ein Fahrzeug 100a in eine Fahrtrichtung 101 auf einer Straße innerorts fährt, wobei Hindernisse wie beispielsweise Bäume 320a, 320b, 320c ein Kind 300 verdecken, das mit einem Ball 310 spielt; dies kann eine potentiell gefährliche Situation darstellen, die eine erhöhte Gefahr für einen Verkehrsunfall umfasst. 3 shows an example of a scenario as described above, wherein a vehicle 100a is travelling in a direction of travel 101 on an urban road, wherein obstacles such as trees 320a, 320b, 320c obscure a child 300 playing with a ball 310; this may represent a potentially dangerous situation involving an increased risk of a traffic accident.

Im Zusammenhang mit den hierin beschriebenen Lösungen kann die potentiell gefährliche Situation, die ein erhöhtes Risiko für einen Verkehrsunfall umfasst, eine Situation umfassen, in der keine Sensorerkennungen einer unmittelbaren Gefahr möglich ist, beispielsweise einen Menschen oder ein Tier, der/das plötzlich auf die Fahrspur vor das Fahrzeug 100a springt (was von den Fahrzeugsensoren erkannt und gemäß anderer Algorithmen zur Unfallvermeidung des Fahrzeugs gehandhabt wird). Stattdessen sind die potentiell gefährlichen Situationen, die ein Risiko für einen Verkehrsunfall umfassen, Bereiche, in denen zusätzliche Vorsicht angemessen sein kann, auch wenn keine unmittelbare Gefahr erkannt wird. Einige Beispiele können ein Bereich innerorts mit Hecken sein, eine Straße in der Nähe eines Spielplatzes, einer Schule, eines Sportplatzes etc. Einige weitere Beispiele können eine Straßenkreuzung mit schlechter Einsehbarkeit sein; eine Bushaltestelle, an der ein Bus angehalten hat (Passagiere verlassen den Bus manchmal und überqueren die Straße vor dem Bus und können dabei für ein Fahrzeug 100a, 100b nicht erkennbar sein, das sich von hinter dem Bus nähert, bis sie bereits auf der Straße stehen); und ähnliche Verkehrssituation.In the context of the solutions described herein, the potentially dangerous situation involving an increased risk of a traffic accident may include a situation where no sensor detections of an immediate danger are possible, for example a human or animal suddenly jumping into the lane in front of the vehicle 100a (which is detected by the vehicle sensors and handled according to other vehicle accident avoidance algorithms). Instead, the potentially dangerous situations involving a risk of a traffic accident are areas where additional caution may be appropriate even if no immediate danger is detected. Some examples may be an urban area with hedges, a road near a playground, school, sports field, etc. Some other examples may be a road junction with poor visibility; a bus stop where a bus has stopped (passengers sometimes leave the bus and cross the road in front of the bus and may not be visible to a vehicle 100a, 100b approaching from behind the bus until they are already on the road); and similar traffic situations.

In einer derartigen Situation, wie sie in 3 dargestellt ist, können die Sensoren 110a, 110b, 110c möglicherweise weder das Kind 300 noch den Ball 310 erkennen, und die erlaubte Höchstgeschwindigkeit kann 50 km/h sein, aber da ein Risiko besteht, dass Kinder von hinter der Hecke hervorrennen, würde ein menschlicher Fahrer des Fahrzeugs 100a möglicherweise die Geschwindigkeit verringern und/oder die Fahrzeugposition anpassen, da die Wahrscheinlichkeit für ein solches Ereignis hoch ist.In a situation such as that in 3 As shown, the sensors 110a, 110b, 110c may not detect either the child 300 or the ball 310, and the maximum allowed speed may be 50 km/h, but since there is a risk of children running out from behind the hedge, a human driver of the vehicle 100a would possibly reduce the speed and/or adjust the vehicle position since the probability of such an event is high.

In diesem Fall kann der Fahrer zwischen einem ersten Zeitpunkt t1 und einem zweiten Zeitpunkt t2 die Position des Fahrzeugs 100a möglicherweise seitlich mehr zur Mitte der Straße hin anpassen, um mehr Reaktionszeit zur Verfügung zu haben, falls ein Kind/Fußgänger/Tier von hinter den Hindernissen 320a, 320b, 320c vor auf die Straße läuft.In this case, between a first time t 1 and a second time t 2 , the driver may adjust the position of the vehicle 100a laterally more toward the center of the road in order to have more reaction time available in case a child/pedestrian/animal runs onto the road from behind the obstacles 320a, 320b, 320c.

Auslöser oder Muster, die in den Trainingsdaten in einer solchen Situation ausgewertet sein können, können eine verringerte Geschwindigkeit, die Fahrspurpositionierung (d. h. ein Positionieren des autonomen Fahrzeugs näher an der Mitte der Straße, um eine vergrößerte Reaktionszeit zur Verfügung zu haben) oder ein höherer Grad von Warnstufe sein.Triggers or patterns that may be evaluated in the training data in such a situation may be a reduced speed, lane positioning (i.e. positioning the autonomous vehicle closer to the center of the road to have increased reaction time available) or a higher level of alert level.

Wie bereits erwähnt, können die erhobenen Daten, die die Fahrerreaktionen betreffen, in dem Fahrzeug 100a erhoben und später an das auf Maschinenlernen beruhende System 200 zur Analyse gegeben werden.As previously mentioned, the collected data regarding driver responses may be collected in the vehicle 100a and later provided to the machine learning based system 200 for analysis.

4 stellt ein Beispiel eines Szenarios dar, wie es in einer beliebigen der 1, 2 und/oder 3 dargestellt ist, wie es von dem Fahrer des Fahrzeugs 100a wahrgenommen werden kann. 4 represents an example of a scenario that might occur in any of the 1 , 2 and/or 3 is shown as it can be perceived by the driver of the vehicle 100a.

Umgebungsbezogene Wahrnehmungsdaten der Sensoren 110a, 110b, 110c in/an dem Fahrzeug 100a können aufgezeichnet werden, entweder in einer Datenspeichervorrichtung an Bord des Fahrzeugs 100a und später an das auf Maschinenlernen beruhende System 200 bereitgestellt werden; oder sie können an das auf Maschinenlernen beruhende System 200 durch drahtlose Signalübertragung übergeben und in einer zum Fahrzeug externen Datenbank 210 gespeichert sein.Environmental sensing data from the sensors 110a, 110b, 110c in/on the vehicle 100a may be recorded either in a data storage device on board the vehicle 100a and later provided to the machine learning based system 200; or it may be passed to the machine learning based system 200 by wireless signal transmission and stored in a database 210 external to the vehicle.

Das Fahrzeug 100a kann einen Sensor zur Fahrerbeobachtung 410 und einen drahtlosen Transmitter 420 aufweisen, der dazu eingerichtet ist, Information an das auf Maschinenlernen beruhende System über einen Empfänger 250 zu übertragen.The vehicle 100a may include a driver monitoring sensor 410 and a wireless transmitter 420 configured to transmit information to the machine learning based system via a receiver 250.

Der Sensor zur Fahrerbeobachtung 410 kann kontinuierlich oder zu regelmäßigen Zeitintervallen einen physischen Parameter des Fahrers des Fahrzeugs 100a erkennen, der beanspruchende Momente des Fahrers anzeigt, wie beispielsweise einen erhöhten Puls, eine verstärkte Atmung, eine erhöhte Körpertemperatur, ein verstärktes Schwitzen, bestimmte Gehirnaktivitätsmuster, bestimmte Augenbewegungen, angespannte Gesichtsausdrücke und/oder Muskelanspannung.The driver monitoring sensor 410 may continuously or at regular time intervals detect a physical parameter of the driver of the vehicle 100a that indicates stressful moments of the driver, such as increased heart rate, increased breathing, increased body temperature, increased sweating, certain brain activity patterns, certain eye movements, tense facial expressions, and/or muscle tension.

Andere Sensoren zur Fahrerbeobachtung können Zeitpunkte bestimmen und erkennen, zu denen die Fahrzeuggeschwindigkeit niedriger ist als die erlaubte Höchstgeschwindigkeit (möglicherweise innerhalb einer Spanne) und/oder zu denen eine Fahrzeugposition seitlich zur Mitte der Straße hin angepasst wird. Letzteres kann durch einen Lenkrad-Winkelsensor erkannt werden, durch ein Global Positioning System (GPS) oder durch ein ähnliches raumbasiertes Funknavigationssystem, in Kombination mit Kartendaten und/oder Sensordaten, wobei die seitlichen Straßenbegrenzungen erkannt werden.Other driver monitoring sensors may determine and detect times when the vehicle speed is lower than the speed limit (possibly within a range) and/or when a vehicle position is adjusted laterally toward the center of the road. The latter may be detected by a steering wheel angle sensor, by a Global Positioning System (GPS) or by a similar spatially based radio navigation system, in combination with map data and/or sensor data, detecting the lateral road boundaries.

Hierdurch kann eine Fahrerhandlung/Reaktion erkannt werden, die anzeigen kann, dass die Verkehrssituation in der Umgebung eine potentielle Gefahr darstellt, auch wenn keine unmittelbare Gefahr oder Hindernisse von den Fahrzeugsensoren 110a, 110b, 110c erkannt werden können. Diese Fahrerhandlungen/Reaktionen können mit den erhobenen Fahrzeugumgebungsdaten verknüpft werden, wie sie von den Sensoren 110a, 110b, 110c erfasst wurden, und sie können an das auf Maschinenlernen beruhende System 200 weitergeleitet werden.This allows a driver action/reaction to be detected that may indicate that the traffic situation in the surrounding area represents a potential danger, even if no immediate danger or obstacles can be detected by the vehicle sensors 110a, 110b, 110c. These driver actions/reactions may be linked to the collected vehicle environment data as detected by the sensors 110a, 110b, 110c and may be forwarded to the machine learning-based system 200.

Das auf Maschinenlernen beruhende System 200 kann dann die erkannten Fahrerhandlungen/Reaktionen verwenden, um besonders interessante Verkehrssituationen herauszufiltern, um diese zu untersuchen, um die künstliche Intuitionsfunktionalität zu entwickeln.The machine learning-based system 200 can then use the detected driver actions/reactions to filter out particularly interesting traffic situations to investigate in order to develop the artificial intuition functionality.

In einigen Ausführungsformen kann ein Erkennen und Erheben sowohl von Fahrerhandlungen (wie beispielsweise einer Verringerung der Fahrzeuggeschwindigkeit um mehr als beispielsweise 10 km (oder einen andere einstellbaren Schwellenwert) unter die zulässige Höchstgeschwindigkeit) als auch von Fahrerreaktionen (wie beispielsweise einer Erkennung eines erhöhten Pulsschlag des Fahrers, etc.) durchgeführt werden. Das Vorliegen sowohl einer Handlung als auch einer Reaktion kann als verlässlicheres Anzeichen betrachtet werden, dass das Fahrzeug 100a gleichzeitig in eine Verkehrssituation mit einem erhöhten Risiko für einen Verkehrsunfall verwickelt ist. Die Kombination der Fahrerhandlung und der Fahrerreaktion kann die erhobenen Fahrzeugumgebungsdaten markieren, wie sie von den Sensoren 110a, 110b, 110c zu dem Zeitpunkt erhoben wurden, zu dem die vorbeugende Fahrerhandlung und Reaktion erkannt wurden.In some embodiments, detection and collection of both driver actions (such as a reduction in vehicle speed by more than, for example, 10 km (or another adjustable threshold) below the maximum permitted speed) and driver reactions (such as detection of an increased heart rate of the driver, etc.) may be performed. The presence of both an action and a reaction may be considered a more reliable indication that the vehicle 100a is simultaneously involved in a traffic situation with an increased risk of a traffic accident. The combination of the driver action and the driver reaction may mark the collected vehicle environment data as collected by the sensors 110a, 110b, 110c at the time the preventive driver action and reaction were detected.

Der Fahrer kann ein ausgewählter, besonders erfahrener Fahrer sein. Dadurch können Handlungen und/oder Reaktionen von unerfahrenen, nachlässigen und/oder kühnen Fahrern vermieden werden.The driver can be a selected, particularly experienced driver. This can avoid actions and/or reactions of inexperienced, careless and/or bold drivers.

In einigen Ausführungsformen kann Information von mehreren Fahrzeugen 100a, 100b gesammelt werden, die von mehreren Fahrern gefahren werden. Dadurch kann der Lernvorgang verkürzt werden, da mehr Daten von einem größeren Bereich von Szenarios erhoben und für die Lernvorgänge verwendet werden können.In some embodiments, information may be collected from multiple vehicles 100a, 100b driven by multiple drivers. This may shorten the learning process because more data from a wider range of scenarios may be collected and used for the learning processes.

Die erhobenen Sensordaten, die mit den erkannten Fahrerhandlungen/Reaktionen markiert wurden, werden dann gefiltert, sodass Verkehrsszenarios, die mit den erkannten Fahrerhandlungen/Reaktionen verknüpft sind, für den Lernvorgang des auf Maschinenlernen beruhenden Systems 200 verwendet werden.The collected sensor data, which have been marked with the detected driver actions/reactions, are then filtered so that traffic scenarios that are associated with the detected driver actions/ reactions are used for the learning process of the machine learning-based system 200.

5 stellt eine Innenansicht eines autonomen Fahrzeugs 500 dar. Das autonome Fahrzeug 500 kann ähnlich wie die obengenannten bemannten Fahrzeuge 100a, 100b beliebige Transportmittel im weiten Sinne umfassen, wie beispielsweise einen Lastwagen, ein Auto, ein Motorrad, einen Anhänger, einen Bus, ein Flugzeug, ein Wasserfahrzeug, ein Raumfahrzeug oder andere bemannte Beförderungsmittel, die sich beispielsweise auf Rädern, Schienen, in der Luft oder im Wasser oder in ähnlichen Medien ohne (aktiven) Fahrer bewegen. Das autonome Fahrzeug 500 muss allerdings nicht notwendigerweise ein Fahrzeug derselben Art sein, wie das bemannte Fahrzeug 100a, 100b. 5 shows an interior view of an autonomous vehicle 500. The autonomous vehicle 500, similar to the manned vehicles 100a, 100b mentioned above, can comprise any means of transport in the broad sense, such as a truck, a car, a motorcycle, a trailer, a bus, an airplane, a watercraft, a spacecraft or other manned means of transport that move, for example, on wheels, rails, in the air or in water or in similar media without an (active) driver. However, the autonomous vehicle 500 does not necessarily have to be a vehicle of the same type as the manned vehicle 100a, 100b.

Das autonome Fahrzeug 500 kann Sensoren derselben oder ähnlicher Typen umfassen, wie die zuvor beschriebenen Sensoren des bemannten Fahrzeugs 100a, 100b; d. h. eine Kamera, Videokamera, Time-of-Flight-Kamera, einen Laser, ein Lidar, einen IR-Sensor, etc.The autonomous vehicle 500 may include sensors of the same or similar types as the previously described sensors of the manned vehicle 100a, 100b; i.e., a camera, video camera, time-of-flight camera, a laser, a lidar, an IR sensor, etc.

Das autonome Fahrzeug 500 kann eine Steueranordnung 510 umfassen, die dazu eingerichtet ist, eine künstliche Intuitionsfunktionalität zu implementieren, wie sie durch das auf Maschinenlernen beruhende System 200 entwickelt wurde. Zudem kann das autonome Fahrzeug 500 eine Datenbank 520 umfassen, die mit der Steueranordnung 510 verbunden ist, wobei verschiedene Regeln der künstlichen Intuitionsfunktionalität, wie sie von dem auf Maschinenlernen beruhenden System 200 gewonnen wurde, gespeichert sein können.The autonomous vehicle 500 may include a control arrangement 510 configured to implement an artificial intuition functionality as developed by the machine learning-based system 200. In addition, the autonomous vehicle 500 may include a database 520 connected to the control arrangement 510, wherein various rules of the artificial intuition functionality as obtained by the machine learning-based system 200 may be stored.

Die künstliche Intuitionsfunktionalität kann von dem System 200 in beliebiger Weise bereitgestellt werden (kabelgebunden, drahtlos).The artificial intuition functionality may be provided by the system 200 in any manner (wired, wireless).

Ferner kann das autonome Fahrzeug 500 einen drahtlosen Empfänger oder Transceiver 530 umfassen. Der drahtlose Empfänger 530 kann dazu eingerichtet sein, Information von dem auf Maschinenlernen beruhenden System 200 über die drahtlose Kommunikationsschnittstelle zu empfangen, wie beispielsweise die künstliche Intuitionsfunktionalität, wie sie von dem auf Maschinenlernen beruhenden System 200 erzeugt wurde, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen.Further, the autonomous vehicle 500 may include a wireless receiver or transceiver 530. The wireless receiver 530 may be configured to receive information from the machine learning-based system 200 via the wireless communication interface, such as the artificial intuition functionality generated by the machine learning-based system 200 that is capable of acting proactively regarding situations involving an increased risk of a traffic accident.

Die Steueranordnung 510 kann hierdurch eine künstliche Intuitionsfunktionalität implementieren, wie sie von dem auf Maschinenlernen beruhenden System 200 erzeugt und gewonnen wurde. Wenn also eine Verkehrssituation von Umgebungssensoren in dem autonomen Fahrzeug 500 erkannt wird, die identisch ist mit einer Verkehrssituation, die zuvor von dem auf Maschinenlernen beruhenden System 200 auf der Grundlage der Information, die von den bemannten Fahrzeugen 100a, 100b eingegeben wurde, oder die dieser ähnelt.The control arrangement 510 can hereby implement an artificial intuition functionality as generated and obtained by the machine learning-based system 200. Thus, when a traffic situation is detected by environmental sensors in the autonomous vehicle 500 that is identical to or similar to a traffic situation previously determined by the machine learning-based system 200 on the basis of the information input from the manned vehicles 100a, 100b.

In einigen alternativen Ausführungsformen können die gegenwärtige Tageszeit and/oder Jahreszeit bestimmt werden, und diese Information kann zum Filtern von Situationen verwendet werden, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen. Zum Beispiel kann der Bereich innerorts, der in 3 dargestellt ist, im Sommer und zur Tageszeit ein erhöhtes Risiko für einen Verkehrsunfall darstellen, aber vielleicht nicht im Winter oder nachts.In some alternative embodiments, the current time of day and/or time of year may be determined, and this information may be used to filter situations involving an increased risk of a traffic accident. For example, the urban area that is 3 shown, pose an increased risk of a traffic accident in summer and during the day, but perhaps not in winter or at night.

Ferner oder alternativ kann eine Umgebungstemperatur bestimmt werden. Auch diese Information kann zum Filtern von Situationen verwendet werden, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen. Zum Beispiel kann der Bereich innerorts, der in 3 dargestellt ist, in einigen Ausführungsformen ein erhöhtes Risiko für einen Verkehrsunfall darstellen, wenn die Temperatur beispielsweise über 10 oder 15 Grad liegt. Die Situation kann umgekehrt sein an einem Straßenabschnitt in der Nähe eines Hügels, wo Kinder regelmäßig im Winter mit Schlitten spielen, zum Beispiel, wenn die Temperatur niedriger ist als 0 Grad.Furthermore or alternatively, an ambient temperature can be determined. This information can also be used to filter situations that involve an increased risk of a traffic accident. For example, the area in town that is 3 may, in some embodiments, present an increased risk of a traffic accident when the temperature is, for example, above 10 or 15 degrees. The situation may be reversed on a stretch of road near a hill where children regularly play with sledges in winter, for example when the temperature is lower than 0 degrees.

6 stellt ein Beispiel eines Verfahrens 600 gemäß einer Ausführungsform dar. Das Ablaufdiagramm in 6 zeigt das Verfahren 600 zum Erzeugen einer künstlichen Intuitionsfunktionalität, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen. 6 illustrates an example of a method 600 according to an embodiment. The flowchart in 6 shows the method 600 for generating an artificial intuition functionality capable of acting proactively regarding situations involving an increased risk of a traffic accident.

Schritt 601 umfasst ein Erheben von Fahrzeugumgebungsdaten mittels zumindest eines Sensors 110a, 110b, 110c in einem Fahrzeug 100a, 100b, das von einem Fahrer gefahren wird.Step 601 includes collecting vehicle environment data using at least one sensor 110a, 110b, 110c in a vehicle 100a, 100b driven by a driver.

Die Fahrzeugumgebungsdaten können von mehreren Fahrzeugen 100a, 100b erhoben werden, die von unterschiedlichen Fahrern gefahren werden.The vehicle environment data can be collected from multiple vehicles 100a, 100b driven by different drivers.

In noch anderen Ausführungsformen können die Fahrzeugumgebungsdaten von einem fest zugeordneten Fahrer in einem Fahrzeug 100a, 100b erhoben werden.In still other embodiments, the vehicle environment data may be collected by a dedicated driver in a vehicle 100a, 100b.

Schritt 602 umfasst ein Erkennen einer vorbeugenden Fahrerhandlung oder Reaktion, die ein erhöhtes Risiko für einen Verkehrsunfall anzeigt.Step 602 includes detecting a preventative driver action or response that indicates an increased risk of a traffic crash.

Die vorbeugenden Fahrerhandlungen oder Reaktionen können in einigen Ausführungsformen von mehreren Fahrzeugen 100a, 100b erkannt werden, die von unterschiedlichen Fahrern gefahren werden.The preventive driver actions or reactions may be detected by multiple vehicles 100a, 100b in some embodiments. those driven by different drivers.

In einigen Ausführungsformen können die vorbeugenden Fahrerhandlungen oder Reaktionen von einem fest zugeordneten Fahrer in einem Fahrzeug 100a, 100b erkannt werden, wobei eine Mensch-Maschine-Schnittstelle (Human Machine Interface, HMI) verwendet wird, um interessante Daten auszulösen, zum Beispiel ein Druckknopf.In some embodiments, the preventative driver actions or reactions may be detected by a dedicated driver in a vehicle 100a, 100b using a human machine interface (HMI) to trigger data of interest, for example, a push button.

Die vorbeugende Fahrerhandlung oder Reaktion, die ein erhöhtes Risiko für einen Verkehrsunfall anzeigt, kann von einem Fahrerbeobachtungssensor 410 erkannt werden, wie beispielsweise von einer Kamera, die einen Fahrer überwacht, einer Videokamera, einem Herzfrequenzüberwachungsgerät, einem Blutdrucküberwachungsgerät, einem Atmungsmessgerät etc. oder einem Fahrzeuggeschwindigkeitsmessgerät und/oder einem Fahrzeugverlagerungsdetektor.The preventive driver action or reaction indicating an increased risk of a traffic accident may be detected by a driver observation sensor 410, such as a camera monitoring a driver, a video camera, a heart rate monitor, a blood pressure monitor, a respiration monitor, etc., or a vehicle speed monitor and/or a vehicle displacement detector.

Schritt 603, der lediglich in einigen Ausführungsformen durchgeführt werden kann, umfasst ein Bestimmen eines Zeitpunkts, zu dem die vorbeugende Fahrerhandlung oder Reaktion erkannt 602 wird.Step 603, which may only be performed in some embodiments, includes determining a time at which the preventative driver action or response is detected 602.

In einigen Ausführungsformen kann die künstliche Intuitionsfunktionalität unter Berücksichtigung des bestimmten Zeitpunkts erzeugt werden.In some embodiments, the artificial intuition functionality may be generated taking into account the particular point in time.

Schritt 604 umfasst ein Markieren der erhobenen 601 Fahrzeugumgebungsdaten zu dem Zeitpunkt, zu dem die vorbeugende Fahrerhandlung oder Reaktion erkannt 602 wird.Step 604 includes marking the collected 601 vehicle environment data at the time the preventative driver action or response is detected 602.

Dank der Markierung können die relevantesten Abfolgen der erhobenen Daten erkannt und für das Lernen verwendet werden, was die Analyse der erhobenen Daten dramatisch beschleunigt.Thanks to the labeling, the most relevant sequences of the collected data can be identified and used for learning, which dramatically speeds up the analysis of the collected data.

Schritt 605 umfasst ein Extrahieren der erhobenen 601 Fahrzeugumgebungsdaten, die zum Lernen verwendet werden sollen, auf der Grundlage der markierten 604 Fahrzeugumgebungsdaten.Step 605 includes extracting the collected 601 vehicle environment data to be used for learning based on the marked 604 vehicle environment data.

Ein Fahrer, der mehrere erkannte 602 vorbeugende Fahrerhandlungen oder Reaktionen erzeugt, die um mehr als einen Schwellenwertgrad von einem durchschnittlichen Grad einer vorbeugenden Fahrerhandlung oder Reaktion abweichen, kann in einigen Ausführungsformen außer Acht gelassen werden, wenn die erhobenen 601 Fahrzeugumgebungsdaten extrahiert werden, die für ein Lernen verwendet werden sollen.A driver who generates multiple detected 602 preventive driver actions or reactions that deviate by more than a threshold level from an average preventive driver action or reaction level may, in some embodiments, be disregarded when extracting collected 601 vehicle environment data to be used for learning.

Schritt 606 umfasst ein Erzeugen einer künstlichen Intuitionsfunktionalität, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, indem ein auf Maschinenlernen beruhendes System 200 auf der Grundlage der extrahierten 605 erhobenen 601 Fahrzeugumgebungsdaten trainiert wird.Step 606 includes generating an artificial intuition functionality capable of acting proactively regarding situations involving an increased risk of a traffic accident by training a machine learning-based system 200 based on the extracted 605 collected 601 vehicle environment data.

Das auf Maschinenlernen beruhende System 200 kann auf einem neuronalen Netzwerk beruhen. Das auf Maschinenlernen beruhende System 200 ist dazu eingerichtet, eine künstliche Intuitionsfunktionalität zu erzeugen, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, indem das auf Maschinenlernen beruhende System 200 auf der Grundlage zumindest einiger der Verfahrensschritte 601-606 trainiert wird.The machine learning-based system 200 may be based on a neural network. The machine learning-based system 200 is configured to generate an artificial intuition functionality capable of acting proactively regarding situations involving an increased risk of a traffic accident by training the machine learning-based system 200 based on at least some of the method steps 601-606.

Schritt 607 umfasst ein Implementieren der erzeugten 606 künstlichen Intuitionsfunktionalität in einer Steueranordnung 510 eines autonomen Fahrzeugs 500.Step 607 includes implementing the generated 606 artificial intuition functionality in a control arrangement 510 of an autonomous vehicle 500.

Die Implementierung der erzeugten 606 künstlichen Intuitionsfunktionalität kann ein Festlegen eines Wahrnehmungsgrads des autonomen Fahrzeugs 500 umfassen.Implementing the generated 606 artificial intuition functionality may include setting a level of perception of the autonomous vehicle 500.

Die Implementierung der erzeugten 606 künstlichen Intuitionsfunktionalität kann ein Empfehlen einer Fahrspurpositionierung oder Geschwindigkeit des autonomen Fahrzeugs 500 umfassen.Implementation of the generated 606 artificial intuition functionality may include recommending a lane positioning or speed of the autonomous vehicle 500.

Die Steueranordnung 510 in dem autonomen Fahrzeug 500 ist dazu eingerichtet, eine künstliche Intuitionsfunktionalität zu implementieren, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, auf der Grundlage zumindest einiger der Verfahrensschritte 601-607.The control arrangement 510 in the autonomous vehicle 500 is configured to implement an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident based on at least some of the method steps 601-607.

Die beschriebenen Verfahrensschritte 601-607 können in verschiedenen Ausführungsformen von einem Computeralgorithmus, einem maschinenausführbaren Code, einem nichtflüchtigen computerlesbaren Medium oder von Softwareanweisungen, die in eine geeignete programmierbare Logik wie beispielsweise einen Prozessor in der Steueranordnung 510 programmiert sind, durchgeführt werden.The described method steps 601-607 may, in various embodiments, be performed by a computer algorithm, a machine-executable code, a non-transitory computer-readable medium, or by software instructions programmed into suitable programmable logic such as a processor in the control arrangement 510.

Das obengenannte Computerprogrammprodukt kann zum Beispiel in Gestalt eines Datenträgers bereitgestellt sein, der Computerprogrammcode zum Durchführen zumindest einiger der Schritte 601-607 gemäß einigen Ausführungsformen trägt, wenn er in den einen oder die mehreren Prozessoren der Steueranordnung 110 geladen wird. Der Datenträger kann zum Beispiel eine Festplatte, eine CD-ROM-Disc, ein Speicherstick, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung oder ein beliebiges anderes geeignetes Medium wie beispielsweise eine Disc oder ein Band sein, das maschinenlesbare Daten in nichtflüchtiger Weise tragen kann. Das Computerprogrammprodukt kann ferner als Computerprogrammcode auf einem Server bereitgestellt und in die Steueranordnung 510 ferngesteuert herunterladbar sein, zum Beispiel über eine Internetverbindung oder eine Intranetverbindung.The above-mentioned computer program product may, for example, be provided in the form of a data carrier carrying computer program code for performing at least some of the steps 601-607 according to some embodiments when loaded into the one or more processors of the control arrangement 110. The data carrier may, for example, be a hard disk, a CD-ROM disc, a memory stick, an optical storage device, a magnetic storage device or any other suitable medium such as a disc or tape capable of carrying machine-readable data in a non-transitory manner. The computer program product may further be provided as computer program code on a server and remotely downloadable into the control arrangement 510, for example via an Internet connection or an intranet connection.

Die Begrifflichkeiten, die in der Beschreibung der Ausführungsformen, die in den beigefügten Zeichnungen dargestellt sind, verwendet wird, ist nicht dazu gedacht, das beschriebene Verfahren 600, die beschriebene Steueranordnung 510, das beschriebene Computerprogramm und/oder das beschriebene auf Maschinenlernen beruhende System 200 zu beschränken. Verschiedene Änderungen, Ersetzungen und/oder Abwandlungen können vorgenommen werden, ohne von erfindungsgemäßen Ausführungsformen abzuweichen, wie sie in den beigefügten Ansprüchen definiert sind.The terminology used in the description of the embodiments illustrated in the accompanying drawings is not intended to limit the described method 600, the described control arrangement 510, the described computer program and/or the described machine learning-based system 200. Various changes, substitutions and/or modifications may be made without departing from embodiments of the invention as defined in the appended claims.

Der hierin verwendete Begriff „und/oder“ umfasst beliebige und sämtliche Kombinationen eines oder mehrerer der zugehörigen aufgelisteten Objekte. Der hierin verwendete Begriff „oder“ ist als ein mathematisches ODER (OR) zu verstehen, d. h. als eine einschließende Disjunktion; nicht als ein mathematisches ausschließliches ODER (XOR), außer dies ist ausdrücklich anderweitig angegeben. Es wird ferner verstanden werden, dass die Begriffe „beinhaltet“, „umfasst“, „beinhaltend“ und/oder „umfassend“ das Vorhandensein der genannten Merkmale, Handlungen, Ganzzahlen, Schritte, Vorgänge, Elemente und/oder Komponenten angibt, aber nicht das Vorhandensein oder Hinzufügen eines/eine oder mehrerer weiterer Merkmale, Handlungen, Ganzzahlen, Schritte, Vorgänge, Elemente, Komponenten und/oder Gruppen davon ausschließt. Eine einzelne Einheit wie beispielsweise ein Prozessor kann die Funktionen mehrerer Objekte erfüllen, die in den Ansprüchen genannt sind. Die bloße Tatsache, dass bestimmte Maßnahmen in gegenseitig unterschiedlichen abhängigen Ansprüchen genannt sind, zeigt nicht an, dass eine Kombination dieser Maßnahmen nicht vorteilhaft verwendet werden kann. Ein Computerprogramm kann auf einem geeigneten Medium gespeichert/verteilt werden, wie beispielsweise auf einem optischen Speichermedium oder einem Solid-State-Speichermedium, zusammen mit oder als Teil anderer Hardware, aber sie kann auch in anderer Gestalt verteilt werden, wie beispielsweise über das Internet oder einen kabelgebundenes oder drahtloses Kommunikationssystem.The term "and/or" as used herein includes any and all combinations of one or more of the associated listed objects. The term "or" as used herein is to be understood as a mathematical OR (OR), i.e., an inclusive disjunction; not a mathematical exclusive OR (XOR), unless expressly stated otherwise. It will further be understood that the terms "includes," "comprises," "including," and/or "comprising" indicate the presence of the recited features, acts, integers, steps, operations, elements, and/or components, but do not exclude the presence or addition of one or more other features, acts, integers, steps, operations, elements, components, and/or groups thereof. A single unit, such as a processor, may perform the functions of multiple objects recited in the claims. The mere fact that certain measures are recited in mutually different dependent claims does not indicate that a combination of these measures cannot be used to advantage. A computer program may be stored/distributed on a suitable medium, such as an optical storage medium or a solid-state storage medium, together with or as part of other hardware, but it may also be distributed in other forms, such as over the Internet or a wired or wireless communications system.

Claims (11)

Verfahren (600) zum Erzeugen einer künstlichen Intuitionsfunktionalität, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen; wobei das Verfahren (600) umfasst: Erheben (601) von Fahrzeugumgebungsdaten mittels zumindest eines Sensors (110a, 110b, 110c) in einem Fahrzeug (100a, 100b), das von einem Fahrer gefahren wird; Erkennen (602) einer vorbeugenden Fahrerhandlung oder Reaktion, die ein erhöhtes Risiko für einen Verkehrsunfall anzeigt; Markieren (604) der erhobenen (601) Fahrzeugumgebungsdaten zu dem Zeitpunkt, zu dem die vorsorgliche Fahrerhandlung oder Reaktion erkannt wird; Extrahieren (605) erhobener (601) Fahrzeugumgebungsdaten, die zum Lernen verwendet werden sollen, auf der Grundlage der markierten (604) Fahrzeugumgebungsdaten; Erzeugen (606) einer künstlichen Intuitionsfunktionalität, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, indem ein auf Maschinenlernen beruhendes System (200) trainiert wird, auf der Grundlage der extrahierten (605) erhobenen (601) Fahrzeugumgebungsdaten; und Implementieren (607) der erzeugten (606) künstlichen Intuitionsfunktionalität in einer Steueranordnung (510) eines autonomen Fahrzeugs (500).Method (600) for generating an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident; the method (600) comprising: Collecting (601) vehicle environment data by means of at least one sensor (110a, 110b, 110c) in a vehicle (100a, 100b) driven by a driver; Detecting (602) a preventive driver action or reaction indicating an increased risk of a traffic accident; Marking (604) the collected (601) vehicle environment data at the time the preventive driver action or reaction is detected; Extracting (605) collected (601) vehicle environment data to be used for learning based on the marked (604) vehicle environment data; Generating (606) an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident by training a machine learning-based system (200) based on the extracted (605) collected (601) vehicle environment data; and implementing (607) the generated (606) artificial intuition functionality in a control arrangement (510) of an autonomous vehicle (500). Verfahren (600) nach Anspruch 1, ferner umfassend: Bestimmen (603) eines Zeitpunkts, zu dem die vorbeugende Fahrerhandlung oder Reaktion erkannt wird (602); und wobei die künstliche Intuitionsfunktionalität unter Berücksichtigung des bestimmten (603) Zeitpunkts erzeugt wird.Procedure (600) according to claim 1 , further comprising: determining (603) a point in time at which the preventive driver action or reaction is recognized (602); and wherein the artificial intuition functionality is generated taking into account the determined (603) point in time. Verfahren (600) nach Anspruch 1 oder 2, wobei das Implementieren (607) der erzeugten (606) künstlichen Intuitionsfunktionalität ein Festlegen eines Wahrnehmungsgrads des autonomen Fahrzeugs (500) umfasst.Procedure (600) according to claim 1 or 2 wherein implementing (607) the generated (606) artificial intuition functionality comprises determining a level of perception of the autonomous vehicle (500). Verfahren (600) nach einem der Ansprüche 1 bis 3, wobei das Implementieren (607) der erzeugten (606) künstlichen Intuitionsfunktionalität ein Empfehlen einer Fahrspurpositionierung oder einer Geschwindigkeit des autonomen Fahrzeugs (500) umfasst.Method (600) according to one of the Claims 1 until 3 wherein implementing (607) the generated (606) artificial intuition functionality comprises recommending a lane positioning or a speed of the autonomous vehicle (500). Verfahren (600) nach einem der Ansprüche 1 bis 4, wobei, die Fahrzeugumgebungsdaten erhoben (601) und die vorbeugenden Fahrerhandlungen oder Reaktionen von mehreren Fahrzeugen (100a, 100b), die von unterschiedlichen Fahrern gefahren werden erkannt (602) werden.Method (600) according to one of the Claims 1 until 4 , wherein the vehicle environment data are collected (601) and the preventive driver actions or reactions of several vehicles (100a, 100b) driven by different drivers are recognized (602). Verfahren (600) nach einem der Ansprüche 1 bis 5, wobei die Fahrzeugumgebungsdaten erhoben (601) und die vorbeugenden Fahrerhandlungen oder Reaktionen von einem zugehörigen Fahrer in einem einzelnen Fahrzeug (100a, 100b)erkannt (602) werden.Method (600) according to one of the Claims 1 until 5 , whereby the vehicle environment data are collected (601) and the preventive driver actions or reactions from an associated driver in an individual vehicle (100a, 100b) are detected (602). Verfahren (600) nach einem der Ansprüche 1 bis 6, wobei ein Fahrer, der mehrere erkannte (602) vorbeugende Fahrerhandlungen oder Reaktionen erzeugt, die um mehr als einen Schwellenwertgrad von einem durchschnittlichen Grad einer vorbeugenden Fahrerhandlung oder Reaktion abweichen, außer Acht gelassen wird, wenn erhobene (601) Fahrzeugumgebungsdaten extrahiert (605) werden, die für ein Lernen verwendet werden sollen.Method (600) according to one of the Claims 1 until 6 , wherein a driver who produces multiple detected (602) preventive driver actions or reactions that deviate by more than a threshold degree from an average degree of preventive driver action or reaction is disregarded when extracting (605) collected (601) vehicle environment data to be used for learning. Verfahren (600) nach einem der Ansprüche 1 bis 7, wobei die vorbeugende Fahrerhandlung oder Reaktion, die das erhöhte Risiko für einen Verkehrsunfall anzeigt, von einem Fahrerbeobachtungssensor (410) erkannt wird.Method (600) according to one of the Claims 1 until 7 , wherein the preventive driver action or reaction indicating the increased risk of a traffic accident is detected by a driver observation sensor (410). Auf Maschinenlernen beruhendes System (200), das dazu eingerichtet ist, eine künstliche Intuitionsfunktionalität zu erzeugen, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, in dem das auf Maschinenlernen beruhendes System (200) auf der Grundlage eines Verfahrens (600) nach einem der Ansprüche 1 bis 8 trainiert wird.A machine learning based system (200) configured to generate an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident, in which the machine learning based system (200) is configured to generate an artificial intuition functionality capable of acting proactively with respect to situations involving an increased risk of a traffic accident, in which the machine learning based system (200) is configured to generate an artificial intuition functionality based on a method (600) according to one of the Claims 1 until 8 is trained. Steueranordnung (510) in einem autonomen Fahrzeug (500), die dazu eingerichtet ist, eine künstliche Intuitionsfunktionalität zu implementieren, die in der Lage ist, proaktiv bezüglich Situationen zu agieren, die ein erhöhtes Risiko für einen Verkehrsunfall umfassen, auf der Grundlage eines Verfahrens (600) nach einem der Ansprüche 1 bis 8.Control arrangement (510) in an autonomous vehicle (500) which is designed to implement an artificial intuition functionality which is able to act proactively with regard to situations which involve an increased risk of a traffic accident, on the basis of a method (600) according to one of the Claims 1 until 8 . Computerprogramm, umfassend Programmcode zum Durchführen eines Verfahrens (600) gemäß einem der Ansprüche 1 bis 8, wenn das Computerprogramm in einem Computer ausgeführt wird.Computer program comprising program code for carrying out a method (600) according to one of the Claims 1 until 8 when the computer program is executed in a computer.
DE112019000582.0T 2018-03-12 2019-03-04 Method, control arrangement and machine learning-based system for autonomous vehicles to act proactively with respect to situations involving an increased risk of a traffic accident Active DE112019000582B4 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SE1850271-6 2018-03-12
SE1850271A SE541635C2 (en) 2018-03-12 2018-03-12 Method, control arrangement and machine learning based system for proactively acting on situations involving an increased traffic accident risk
PCT/SE2019/050185 WO2019177511A1 (en) 2018-03-12 2019-03-04 Method, control arrangement and machine learning based system for autonomous vehicles for proactively acting on situations involving an increased traffic accident risk

Publications (2)

Publication Number Publication Date
DE112019000582T5 DE112019000582T5 (en) 2020-11-26
DE112019000582B4 true DE112019000582B4 (en) 2024-11-28

Family

ID=67908347

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019000582.0T Active DE112019000582B4 (en) 2018-03-12 2019-03-04 Method, control arrangement and machine learning-based system for autonomous vehicles to act proactively with respect to situations involving an increased risk of a traffic accident

Country Status (3)

Country Link
DE (1) DE112019000582B4 (en)
SE (1) SE541635C2 (en)
WO (1) WO2019177511A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020200828A1 (en) 2020-01-23 2021-07-29 Zf Friedrichshafen Ag Method for providing an artificial intuition
CN113673826B (en) * 2021-07-20 2023-06-02 中国科学技术大学先进技术研究院 Driving risk assessment method and system based on individual factors of driver
US11922378B2 (en) 2021-12-10 2024-03-05 Tekion Corp Machine learning based vehicle service recommendation system
CN115071740A (en) * 2022-06-06 2022-09-20 宁波均胜智能汽车技术研究院有限公司 Extreme scene data acquisition method and device, intelligent vehicle and readable storage medium
DE102023201074B4 (en) * 2023-02-09 2024-10-02 Volkswagen Aktiengesellschaft Method for assisting a driver in driving a motor vehicle and motor vehicle
DE102023202865A1 (en) * 2023-03-29 2024-10-02 Zf Friedrichshafen Ag Method for generating danger zone class annotations for a training data set, computer-implemented method for training a machine learning model to perceive danger zones, computer-implemented method for perceiving danger zones, computer program, storage medium, data carrier signal and automated driving system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008238831A (en) 2007-03-23 2008-10-09 Fuji Heavy Ind Ltd Online risk learning system
US8780195B1 (en) 2011-08-31 2014-07-15 The United States Of America As Represented By The Secretary Of The Navy Fusion of multi-sensor information with operator-learned behavior for automatic and efficient recognition of objects and control of remote vehicles
US20150161505A1 (en) 2013-12-11 2015-06-11 Volvo Car Corporation Method of Programming a Neural Network Computer
US20170004401A1 (en) 2015-06-30 2017-01-05 Alexandr Igorevich Kolotygin Artificial intuition
CN106347359A (en) 2016-09-14 2017-01-25 北京百度网讯科技有限公司 Method and apparatus for operating an autonomous vehicle
WO2017051120A1 (en) 2015-09-24 2017-03-30 Renault S.A.S Driving assistance device for estimating the danger of a situation
US20170096164A1 (en) 2015-10-05 2017-04-06 Delphi Technologies, Inc. Humanized Steering Model For Automated Vehicles

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101876051B1 (en) * 2016-08-31 2018-08-02 현대자동차주식회사 Machine learning system and method for learning user controlling pattern thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008238831A (en) 2007-03-23 2008-10-09 Fuji Heavy Ind Ltd Online risk learning system
US8780195B1 (en) 2011-08-31 2014-07-15 The United States Of America As Represented By The Secretary Of The Navy Fusion of multi-sensor information with operator-learned behavior for automatic and efficient recognition of objects and control of remote vehicles
US20150161505A1 (en) 2013-12-11 2015-06-11 Volvo Car Corporation Method of Programming a Neural Network Computer
US20170004401A1 (en) 2015-06-30 2017-01-05 Alexandr Igorevich Kolotygin Artificial intuition
WO2017051120A1 (en) 2015-09-24 2017-03-30 Renault S.A.S Driving assistance device for estimating the danger of a situation
US20170096164A1 (en) 2015-10-05 2017-04-06 Delphi Technologies, Inc. Humanized Steering Model For Automated Vehicles
CN106347359A (en) 2016-09-14 2017-01-25 北京百度网讯科技有限公司 Method and apparatus for operating an autonomous vehicle

Also Published As

Publication number Publication date
SE541635C2 (en) 2019-11-19
SE1850271A1 (en) 2019-09-13
WO2019177511A1 (en) 2019-09-19
DE112019000582T5 (en) 2020-11-26

Similar Documents

Publication Publication Date Title
DE112019000582B4 (en) Method, control arrangement and machine learning-based system for autonomous vehicles to act proactively with respect to situations involving an increased risk of a traffic accident
DE102018129066B4 (en) SYSTEMS AND PROCEDURES FOR UNPROTECTED LEFT TURNS IN HEAVY TRAFFIC SITUATIONS IN AUTONOMOUS VEHICLES
DE102013210050B4 (en) Neurocognitive processing of a driver state
DE112020001642T5 (en) Autonomous Vehicle System
DE112019004597T5 (en) INFORMATION PROCESSING DEVICE, MOVEMENT DEVICE, METHOD AND PROGRAM
DE102019205223A1 (en) Threading systems and methods for threading vehicles
DE102019205228A1 (en) Threading systems and methods for vehicles on a main track
DE102017114049A1 (en) SYSTEMS FOR SELECTING AND PERFORMING ROUTES FOR AUTONOMOUS VEHICLES
DE102018218895A1 (en) A system and method for providing an infrastructure-based security alert associated with at least one lane
DE102018104801A1 (en) SUPPORT FOR DRIVERS ON TRIP CHANGES
DE112017006567T5 (en) AUTONOMOUS VEHICLE WITH DRIVER TRAINING
DE102017114876A1 (en) Driver assistance system for collision avoidance by means of warning and intervention cascade
DE102015202837A1 (en) Error handling in an autonomous vehicle
DE102008049824A1 (en) Method for collision avoidance
DE102017126760A1 (en) RECOGNIZE BLATTWERK USING RANGE DATA
DE102019122536A1 (en) EXZENTRIZITÄTSKARTEN
DE102019202106A1 (en) Method for validating automated functions of a vehicle
DE112022002869T5 (en) Method and system for predicting the behavior of actors in an autonomous vehicle environment
DE102021126603A1 (en) Measurement of driving safety quotient for drivers
DE102020107149A1 (en) VEHICLE CAPSULE NETWORKS
DE102016210760A1 (en) Method for interaction between a vehicle and road users
DE102021116309A1 (en) ASSISTANCE FOR DISABLED DRIVERS
DE112022001861T5 (en) MOTION CONSISTENCY MEASUREMENT FOR THE OPERATION OF AN AUTONOMOUS VEHICLE
DE112022001065T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM
DE102015103361A1 (en) TRAFFIC DENSITY SENSITIVITY VOTERS

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: B60W0030080000

R082 Change of representative

Representative=s name: THUM, MOETSCH, WEICKERT PATENTANWAELTE PARTG M, DE

Representative=s name: THUM & PARTNER THUM MOETSCH WEICKERT PATENTANW, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final