[go: up one dir, main page]

WO2013011090A2 - Assistenzsystem - Google Patents

Assistenzsystem Download PDF

Info

Publication number
WO2013011090A2
WO2013011090A2 PCT/EP2012/064186 EP2012064186W WO2013011090A2 WO 2013011090 A2 WO2013011090 A2 WO 2013011090A2 EP 2012064186 W EP2012064186 W EP 2012064186W WO 2013011090 A2 WO2013011090 A2 WO 2013011090A2
Authority
WO
WIPO (PCT)
Prior art keywords
speech
state
controlled system
unit
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/EP2012/064186
Other languages
English (en)
French (fr)
Other versions
WO2013011090A3 (de
Inventor
Juergen Rataj
Friedrich FAUBEL
Hartmut Helmke
Dietrich Klakow
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universitaet des Saarlandes
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Universitaet des Saarlandes
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universitaet des Saarlandes, Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Universitaet des Saarlandes
Priority to ES12746043.4T priority Critical patent/ES2639050T3/es
Priority to EP12746043.4A priority patent/EP2734998B1/de
Priority to US14/233,399 priority patent/US20140316538A1/en
Publication of WO2013011090A2 publication Critical patent/WO2013011090A2/de
Publication of WO2013011090A3 publication Critical patent/WO2013011090A3/de
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/20Arrangements for acquiring, generating, sharing or displaying traffic information
    • G08G5/22Arrangements for acquiring, generating, sharing or displaying traffic information located on the ground
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/20Arrangements for acquiring, generating, sharing or displaying traffic information
    • G08G5/26Transmission of traffic-related information between aircraft and ground stations
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/50Navigation or guidance aids
    • G08G5/56Navigation or guidance aids for two or more aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/70Arrangements for monitoring traffic-related situations or conditions
    • G08G5/72Arrangements for monitoring traffic-related situations or conditions for monitoring traffic
    • G08G5/727Arrangements for monitoring traffic-related situations or conditions for monitoring traffic from a ground station
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Definitions

  • the invention relates to an assistance system for assistance in situation-dependent planning and / or management tasks of a controlled system with a state detection unit for detecting at least one state of the controlled system.
  • the invention likewise relates to a method for assisting with situation-dependent planning and / or management tasks of a controlled system with detection of at least one state of the controlled system.
  • the invention also relates to a computer program for this purpose.
  • the assistance systems are arranged such that one or more states with respect to the controlled system are detected by the detection of features of the controlled system, such as parameters of the controlled system, measured values, objects and / or environmental features.
  • the assistance systems are connected to a series of sensor systems or databases from which the information necessary for the detection of the condition can be tapped. This allows the assistance system Develop a machine situational awareness in order to derive corresponding support measures for the persons concerned, eg based on strategies and goals, or to be able to carry out a fully automated regulation.
  • an operating device for a motor vehicle which has a display for displaying variable information. With the aid of a viewing direction detection unit, the viewing direction of the motor vehicle driver can be determined, wherein the operating device can be operated with the aid of acoustic commands when the viewing direction of the motor vehicle driver is directed to the display.
  • the object of the present invention is to provide an improved assistance system for assisting with situation-dependent planning and / or management tasks of a controlled system, which can react quickly to changing states or situations of the controlled system without additionally burdening the operating personnel.
  • an acoustic recording unit designed for recording acoustic voice signals of a voice communication between at least two persons and a voice processing unit for detecting voice information relating to the controlled system from the recorded
  • the state detection unit is adapted to adapt the detected state and / or a predicted state of the controlled system derivable from the current state as a function of the recognized speech information
  • a speech hypothesis unit is provided for determining of speech hypotheses is formed with respect to future expected speech information as a function of the detected state and / or a predicted state derivable from the current state
  • the S prach kauakusaku for recognizing the voice information with respect to the controlled system from the recorded acoustic speech signals is set up taking into account the determined language hypotheses.
  • the central idea of the present invention is that the assistance system with the aid of an acoustic recording unit accepts acoustic voice signals of a voice communication between two persons, in particular between persons who can act on the controlled system, and these with assistance.
  • a speech processing unit that uses speech hypotheses, analyzes and compares with the self-developed hypotheses.
  • corresponding voice information relating to the controlled system can be recognized from the recorded acoustic speech signals, so that the detected state and / or a predicted state derivable from the current state of the controlled system, in particular by planning, can be adapted as a function of the recognized speech information.
  • the comparison of the future situation hypotheses developed by the machine with the speech recognition instructions for the future situation can be used to adapt the strategies and objectives in the assistance system to those of the surgeon.
  • the assistance system can respond much faster to changing situations or states without having to run the risk of getting into the "out-of-the-loop" state.
  • the assistance system can, for example, based on instructions of a Operators without physical changes at this point are better able to react to future, changing conditions, even if nothing has happened yet according to the instructions of the pilot in the real world.Thus, without the corresponding processes being initiated, an anticipation of the physical predetermines takes place.
  • the recommendations for action with respect to the controlled system derived from the assistance system are substantially more accurate and much better coordinated with the situation, so that the assistance quality of such assistance systems is considerably improved.
  • the situation of the controlled system thus refers to a future expected state.
  • speech hypotheses about future expected speech information are determined by means of a speech hypothesis unit as a function of the detected or predicted state of the controlled system.
  • hypotheses regarding future speech information it is then possible to perform the recognition of the speech information as a function of these hypotheses.
  • the language context derived from the detected or predicted state can thus be extended by hypotheses about future speech information or speech contexts, which has a highly positive effect on the recognition rate.
  • occurrence probabilities are also assigned which predict the arrival of this hypothesis with a certain probability.
  • the hypotheses represent a possibility, on the basis of the current or predicted state, for the occurrence of specific speech information which could, with a certain probability, result for the detected situation.
  • the speech hypotheses and the probability of occurrence associated with the speech hypotheses can thereby significantly increase the accuracy of the speech recognition, since the speech recognition can now be directed to the essential part with respect to the context of the detected situation.
  • the detection of at least one state of the controlled system by the state detection unit can be effected by a first sensor system, which is generally used for monitoring controlled systems, such as radar sensors, locating units, temperature sensors, etc., from the detected sensor system Sensor data can then be used to record the current state of the controlled system.
  • a first sensor system which is generally used for monitoring controlled systems, such as radar sensors, locating units, temperature sensors, etc.
  • Sensor data can then be used to record the current state of the controlled system.
  • knowing the current state of the controlled system possibly in conjunction with the knowledge of targets to be achieved, it is also possible to derive a predicted state for the future, which indicates a prognosis for the development of the states of the controlled system. This allows us to deduce how a condition will develop in the future.
  • the acoustic voice signals do not represent a direct instruction in the form of a device operation on the assistance system, but are part of a voice communication between two persons. Due to the silent listening in of the assistance system during voice communication, it is not necessary for the persons concerned to prepare the assistance system for voice input. As a result, a significant relief in the planning and / or management task is achieved by the persons.
  • the acoustic recording unit in conjunction with the voice processing unit thus form a further, second sensor system for the detection or prognosis of the state of the controlled system.
  • the invention is thus characterized in that the acoustic recording unit and the speech processing unit are provided as a second sensor system.
  • the assistance system provides the context for the recognition of speech information, this can significantly increase the recognition rate in speech recognition, in particular if context-based speech recognition is used.
  • the context of the detected state can be derived from the hypotheses of the assistance system by using the existing situation knowledge on the controlled system using the sensor data and databases.
  • the assistance system is set up such that the receiving unit is set up to receive electrical signals of an electrical voice communication connection and to record the acoustic voice signals from the received electrical signals. This is particularly advantageous when the communication between the persons takes place via an electrical voice communication connection, for example via radio or via a telephone network.
  • the assistance system has an output unit which is set up for outputting generated support instructions for supporting the situation-dependent planning and / or leadership task of the controlled system, wherein the assistance instructions can be derived from the detected or predicted state.
  • an output unit can be, for example, a display on which instructions for a person are displayed.
  • the output unit can also be connected to a control device in order to access control variables of the controlled system directly and thus at least partially autonomously to be able to act on the controlled system, thereby enabling at least partial automatic operation.
  • the assistance system determines options for action to support the situation-dependent planning and / or management task of the controlled system, for example in the form of assistance instructions.
  • These options for action are determined on the basis of the detected state and / or the predicted state of the controlled system that can be derived from the current state and thus provide possible options for action on the controlled system.
  • the options for action lead to different predicted states and thus interact with each other. From these options of action, language hypotheses can then be determined with regard to future expected speech information with the aid of the speech hypothesis unit, so that the speech identifier, with the aid of which voice information is to be ascertained in order to adapt the detected or predicted state, since now action options determined from the state are made the basis of the speech hypotheses. Speech recognition can be increased from a previously 75% detection rate to 95%.
  • the options for action are ascertained from the speech information already recognized, as a result of which only the options for action that are likely with regard to the speech information need to be considered.
  • the known voice information adapts the condition with respect to the controlled system, as a result of which options for action, which now make it unlikely or no longer meaningful, can be disregarded.
  • This makes it possible that not only the speech recognition is improved, but also the acceptance of such assistance systems, since the options provided are much more accurately adapted to the state of the controlled system.
  • This is a preferably interactive approach in which different hypotheses about a future situation are generated. Through speech recognition, the system knows which hypothesis is being implemented by the pilot. As a result, the system can create improved plans for the future.
  • Figure 1 - schematic representation of the assistance system according to the invention
  • FIG. 1 schematically shows the assistance system 1 according to the invention, which can be used to support planning and / or management tasks of a controlled system 2.
  • a controlled system 2 may be, for example, the approach of aircraft at an airport, which is usually monitored and controlled by pilots.
  • the assistance system 1 has a state detection unit 3, which records data about the controlled system 2 with the aid of sensors 4a, 4b and determines therefrom a current state 5 of the controlled system 2. From this current state 5 of the controlled system 2, a predicted state 5 a can be derived via predefined targets by the planning component of the assistance system, which takes into account a future development of state 5 of the controlled system 2.
  • Both the current state 5 and a possibly derived and predicted state 5 a serve in a context determination unit 6 as the basis for the determination of a speech context which is provided as input to the speech recognizer or the speech processing unit 7. Because due to the knowledge of the current state 5 or a predicted state 5a, which can be derived ultimately from the sensor data of the controlled system 2 and from the action planning of the assistance system (hypothesis unit), the state detection unit thus ultimately also lies Context that should serve the speech recognizer 7 as a basis for speech recognition. This can significantly increase the recognition accuracy.
  • a speech hypothesis unit 8 can additionally be provided, which can be provided from the current state 5 or predicted state 5 a
  • the speech hypothesis unit 8 can be part of the state detection unit 3 or the speech processing unit 7.
  • the language context determined by the context determination unit 6 can thus be extended by the language hypotheses of the hypothesis unit 8.
  • the assistance system 1 is connected to an acoustic recording unit 9, which is also signal-technically connected to an input of the speech processing unit 7.
  • the acoustic recording unit 9 is in this case configured such that it receives acoustic voice signals in a voice communication between at least two persons (not shown), whereby the acoustic recording unit 9 represents a further sensor or a further sensor system for detecting the state of the controlled system 2.
  • the acoustic recording unit 9 can be a microphone which overhears the communication between two or more persons.
  • the acoustic recording unit 9 can also be an electrical device with which
  • Speech signals from an electrical signal can be tapped.
  • communications between people who communicate with each other through a telephone set can also be heard.
  • the recorded by the acoustic recording unit 9 speech signals are now analyzed by the speech processing unit 7 taking into account the determined speech context and the determined speech hypotheses and the speech information contained in the acoustic signals 1 0 recognized. Due to the fact that the context for the speech recognition from the controlled system, the planning (hypothesis unit) and the detected states 5, 5a can be derived directly or indirectly, the speech recognition of the detected acoustic speech signals can be significantly increased. In this context-based speech recognition, not only the current speech signal but also the context coming from an external source is used for speech recognition. Although this is more complex, but also more efficient, since the search space is limited either rule-based or probabilistic. Since the detected state comprises a large number of data and parameters via the controlled system 2, the context necessary for speech recognition can be derived here.
  • the speech recognizer advantageously only a small part of the context is determined by the speech recognizer itself, while the essential part of the context information about the state detection unit is determined from the state and the predicted states, i. H. the hypotheses about future situations.
  • the overall context is thus derived from the system status and the dialogue between two communication partners. This redundant determination of the speech context allows the speech recognizer to discard false recognition hypotheses that are inconsistent with the context information early, thus avoiding misrecognition, ultimately increasing the recognition performance substantially.
  • the overall context is thus determined on the one hand via a first sensor and planning system, which detects and predicts the system state of the controlled system, and via a second sensor system, which detects the speech communication of two communication partners, which substantially improves speech recognition itself.
  • the voice information thus recognized is now transmitted back to the state detection unit 3, the current state 5 or the predicted state 5 a being adjusted as a function of the recognized voice information 10 as a function of this voice information 10.
  • the adaptation of the states 5, 5 a by the state detection unit 3 can be carried out by way of example in such a way that certain parameters and / or data describing the state of the controlled system 2 are changed, so that a changed state 5 or 5 occurs for the state detection unit 3 5 a, which necessarily does not have to be consistent with the data sensed by the sensors 4 a, 4 b, at least for a moment.
  • the assistance system can have further units which, for example, provide for specific regulations for the controlled system 2 or can output corresponding action information or recommended actions via the output unit 11.
  • a pilot support system may be mentioned here, which should likewise be embedded in the assistance system 1 and assist the pilot in his regulation and management task.
  • the pilot support system can have a much better basis for its calculations and actions. recommendations, which increases acceptance and security.
  • FIG. 2 Such a system is shown by way of example in FIG. 2 for the controlled system during the guidance of an aircraft by a pilot 21.
  • the air traffic controller 21 who is usually in the control center or in the tower of the airport, is in radio communication with the pilot 22 of an aircraft 23.
  • the air traffic controller 21 issues instructions via the radio link 24 to the pilot 22 of the aircraft 23 so that the pilot 22 can land the aircraft 23 on a predetermined trajectory at the airport.
  • pilot support systems 25 have been known in support of the pilot, which can provide the pilot with different proposals for the landing sequences and / or flight guidance instructions for the aircraft, depending on the current situation in the airspace of the airport.
  • sensors 26a, 26b which may for example be radar sensors and thus continuously supply radar data to the pilot support system 25, a situation within the flight space or a state for the pilot can be set up to land the aircraft safely at the airport.
  • these data also provide the pilot support system 25 with the basis for suggesting the landing sequences and / or guidance instructions to the aircraft.
  • the system 25 does not notice anything until clear indications in the radar data regarding deviating flight behavior are present and have been recognized. However, this may take up to 30 seconds and more, so that during this time the illustrated situation or the detected state via the controlled system and the suggestions provided by the system 25 with the actual situation or the actual state are not consistent. However, this mismatch between the pilot intent and the machine situation awareness of the support system 25 results in limited proposals that Ultimately, the lack of acceptance of the system with the pilots.
  • an acoustic pickup unit 27 located in the communication link 24 between pilot 21 and pilot 22 is an acoustic pickup unit 27 communicatively communicating with the system 25.
  • the voice communication between the pilot 21 and the pilot 22 via the communication link 24 is therefore picked up by means of the acoustic recording unit 27 and made available to the system 25. If flight guidance instructions now changed by the pilot 21 from the actual strategy to the pilot 22 are transmitted via the communication link 24, this is detected by the acoustic recording unit 27.
  • These voice instructions transmitted via the communication connection 24 represent the earliest possible time for detecting a change in the strategy of the pilot 21 in traffic control.
  • the voice information relating to the controlled system can be recognized wherein the states detected by the system 25 as well as their further prognosis based on different strategies on the basis of alternative planning carried out in the assistance system provides the context for the speech recognition.
  • the voice information of the relevant person 21 and 22 recognized via the communication link 24 can then be used to adapt the conditions detected by the system 25, so as to be able to take into account the change in the pilot's strategy in the issue of corresponding proposals for flight guidance, although the changed states only some time later via the radar sensors 26a, 26b are detectable.
  • the pilot initially follows strategy 1 and then switches to strategy 2. This is recognized because there are plans for both strategies.
  • strategy 1 of the system can be seen outside the controller, although more than one strategy is calculated.
  • strategy 2 the primary strategy that is spent and deepened. Since this plan change is responded by the pilot directly by the system 25 by improving their own planning, the pilot immediately gets an idea of what further effects are triggered by the actions initiated by him. This is particularly useful in high traffic situations, as in such situations the burden is high for the pilot anyway. Due to the higher confidence on the system side with regard to the expected development of the future situation, it is now additionally possible to point out to the pilot about deviations of the aircraft from the planned trajectory.
  • the pilot adapts the situation in such a way that he does not have to make any further inputs to the system 25, for example by inputting corresponding instructions or by direct voice command. Rather, the adjustment is made under the circumstances of the normal operations of the pilot 21st This represents a significant advantage of system 25 to today's systems, and since the present system can already warn at a time when previous systems are still attempting to detect strategy changes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Die Erfindung betrifft ein Assistenzsystem (1, 25) zur Unterstützung bei situationsabhängigen Planungs- und/oder Führungsaufgaben einer Regelstrecke (2) mit - einer Zustandserfassungseinheit (3) zum Erfassen zumindest eines Zustandes (5, 5a) der Regelstrecke (2), wobei - einer akustischen Aufnahmeeinheit (9, 27), die zum Aufnehmen von akustischen Sprachsignalen einer Sprachkommunikation (24) zwischen mindestens zwei Personen (21, 22) ausgebildet ist, und - einer Sprachverarbeitungseinheit (7), die zum Erkennen von Sprachinformationen (10) bezüglich der Regelstrecke (2) aus den aufgenommenen akustischen Sprachsignalen eingerichtet ist, wobei die Zustandserfassungseinheit (3) zum Anpassen des erfassten Zustandes (5) und/oder eines aus dem aktuellen Zustand ableitbaren prognostizierten Zustandes (5a) der Regelstrecke (2) in Abhängigkeit von den erkannten Sprachinformationen (10) eingerichtet ist.

Description

ASSISTENZSYSTEM
Die Erfindung betrifft ein Assistenzsystem zur Unterstützung bei situationsabhängigen Planungs- und/oder Führungsaufgaben einer Regelstrecke mit einer Zustandserfassungseinheit zum Erfassen zumindest eines Zustandes der Regelstrecke. Die Erfindung betrifft ebenfalls ein Verfahren zur Unterstützung bei situationsabhängigen Planungs- und/oder Führungsaufgaben einer Regelstrecke mit Erfassen zumindest eines Zustandes der Regelstrecke. Die Erfindung betrifft ebenfalls ein Computerprogramm hierzu.
Durch den weiter steigenden Grad der Automation in fast allen Lebensbereichen kommen vermehrt immer mehr Assistenzsysteme zum Einsatz, die ganz oder nur in Teilbereichen die Planungs- und/oder Führungsaufgaben unterstützen oder sogar vollständig übernehmen sollen, um die mit der Planungs- und/oder Führungsaufgabe beauftragten Personen zu entlasten und die Sicherheit zu erhöhen.
In den meisten Fällen sind die Assistenzsysteme dabei derart eingerichtet, dass ein oder mehrere Zustände bezüglich der Regelstrecke durch das Detek- tieren von Merkmalen der Regelstrecke, wie beispielsweise Parameter der Regelstrecke, Messwerte, Objekte und/oder Umgebungsmerkmale erfasst werden. Hierzu sind die Assistenzsysteme mit einer Reihe von Sensorsystemen oder Datenbanken verbunden, aus denen die für die Erfassung des Zustandes notwendigen Informationen abgreifbar sind. Dadurch kann das Assistenzsystem ein maschinelles Situationsbewusstsein aufbauen, um daraus dann entsprechende Unterstützungsmaßnahmen für die betreffenden Personen z.B. auf Basis von Strategien und Zielen ableiten oder eine vollautomatisierte Regelung durchführen zu können.
Nicht selten kommt es bei derartigen Regelungskreisläufen vor, dass von den für die Planungs- und/oder Führungsaufgabe beauftragten Personen Handlungsanweisungen gegeben werden, die sich auf die Regelstrecke erst zeitverzögert auswirken, so dass die nachgeschalteten Assistenzsysteme, die mit Hil- fe ihrer angeschlossenen Sensorik den aktuellen Zustand der Regelstrecke versuchen zu erfassen, eine solche Veränderung ebenfalls zeitverzögert feststellen. In der Zwischenzeit geben die Assistenzsysteme jedoch Handlungsempfehlungen an die Personen, die auf alten Informationen über den Zustand der Regelstrecke beruhen, so dass die Ablehnung derartiger Assistenzsystem dadurch gefördert wird. Sollen die Assistenzsysteme zumindest auch teilweise selbstständig Handlungsaufgaben übernehmen, so kann dies mit unter schwerwiegende Folgen haben, wenn eine Situationsveränderung nicht rechtzeitig erkannt und mit einbezogen wird. Insbesondere bei Regelstrecken, bei denen von au ßen durch den Menschen noch eingegriffen werden kann, besteht hier eine besondere Gefahr.
Stand der Technik
Aus der DE 1 0 2009 034 069 A1 ist eine Bedienvorrichtung für ein Kraftfahr- zeug bekannt, das ein Display zur Darstellung veränderlicher Informationen aufweist. Mit Hilfe einer Blickrichtungserkennungseinheit kann die Blickrichtung des Kraftfahrzeugführers ermittelt werden, wobei die Bedienvorrichtung mit Hilfe von akustischen Befehlen bedient werden kann, wenn die Blickrichtung des Kraftfahrzeugführers auf das Display gerichtet ist.
Aufgabe Aufgabe der vorliegenden Erfindung ist es, ein verbessertes Assistenzsystem zur Unterstützung bei situationsabhängigen Planungs- und/oder Führungsaufgaben einer Regelstrecke zu schaffen, das schnell auf sich verändernde Zu- stände oder Situationen der Regelstrecke reagieren kann, ohne das Bedienpersonal zusätzlich zu belasten.
Lösung Die Aufgabe wird mit dem eingangs genannten Assistenzsystem erfindungsgemäß dadurch gelöst, dass eine akustische Aufnahmeeinheit, die zum Aufnehmen von akustischen Sprachsignalen einer Sprachkommunikation zwischen mindestens zwei Personen ausgebildet ist, und eine Sprachverarbeitungsein- heit, die zum Erkennen von Sprachinformationen bezüglich der Regelstrecke aus den aufgenommenen akustischen Sprachsignalen eingerichtet ist, vorgesehen sind, wobei die Zustandserfassungseinheit zum Anpassen des erfassten Zustandes und/oder eines aus dem aktuellen Zustand ableitbaren prognostizierten Zustandes der Regelstrecke in Abhängigkeit von den erkannten Sprachinformationen eingerichtet ist, und wobei eine Sprachhypotheseneinheit vorge- sehen ist, die zum Ermitteln von Sprachhypothesen bezüglich zukünftig erwarteter Sprachinformationen in Abhängigkeit von dem erfassten Zustand und/oder einem aus dem aktuellen Zustand ableitbaren prognostizierten Zustand ausgebildet ist, wobei die Sprachverarbeitungseinheit zum Erkennen der Sprachinformationen bezüglich der Regelstrecke aus den aufgenommenen akustischen Sprachsignalen unter Berücksichtigung der ermittelten Sprachhypothesen eingerichtet ist.
Kerngedanke der vorliegenden Erfindung ist es, dass das Assistenzsystem mit Hilfe einer akustischen Aufnahmeeinheit akustische Sprachsignale einer Sprachkommunikation zwischen zwei Personen, insbesondere zwischen Personen, die auf die Regelstrecke einwirken können, aufnimmt und diese mit Hil- fe einer Sprachverarbeitungseinheit, die Sprachhypothesen verwendet, analysiert und mit den selbst entwickelten Hypothesen vergleicht. Dabei können entsprechende Sprachinformationen bezüglich der Regelstrecke aus den aufgenommenen akustischen Sprachsignalen erkannt werden, so dass der erfasste Zustand und/oder ein aus dem aktuellen Zustand der Regelstrecke insbesondere durch Planung ableitbarer prognostizierter Zustand in Abhängigkeit von den erkannten Sprachinformationen angepasst werden kann. Der Vergleich der von der Maschine entwickelten zukünftigen Situationshypothesen mit den durch Spracherkennung erkannten Handlungsanweisungen für die zukünftige Situati- on kann zur Anpassung der Strategien und Ziele im Assistenzsystem an die des Operateurs genutzt werden.
Somit kann das Assistenzsystem wesentlich schneller auf sich verändernde Situationen oder Zustände reagieren, ohne dabei Gefahr laufen zu müssen, in den„Out-of-the-Loop"-Zustand zu geraten. Das Assistenzsystem kann somit z. B. auf Basis von Anweisungen eines Operateurs ohne physikalische Veränderungen zu diesem Zeitpunkt besser auf zukünftige, sich verändernde Zustände reagieren, auch wenn nach der Anweisung des Lotsen in der realen Welt noch nichts passiert ist. Ohne das entsprechende Vorgänge eingeleitet wurden, erfolgt somit eine Vorwegnahme des physikalisch Vorgegebenen.
Denn durch das Mithören bei der Sprachkommunikation von Menschen, die in den Arbeitsprozess der Regelstrecke eingebunden sind, können frühzeitig veranlasste Zustandsänderungen auf der Regelstrecke erkannt werden, so dass der erfasste sowie der erwartete Zustand entsprechend frühzeitig angepasst werden kann. Die von dem Assistenzsystem abgeleiteten Handlungsempfehlungen bezüglich der Regelstrecke sind aufgrund der frühzeitigen Anpassung des Zustandes bzw. eines prognostizierten Zustandes wesentlich genauer und auf die Situation wesentlich besser abgestimmt, so dass die Unterstützungs- qualität derartiger Assistenzsysteme erheblich verbessert wird. Die Situation der Regelstrecke bezieht sich somit auf einen zukünftig erwarteten Zustand. Um die Erkennungsrate der Spracherkennung weiter zu erhöhen, werden mittels einer Sprachhypotheseneinheit in Abhängigkeit von dem erfassten oder prognostizierten Zustand der Regelstrecke Sprachhypothesen über zukünftig zu erwartende Sprachinformationen ermittelt. Durch das Ermitteln von Hypothesen bezüglich zukünftiger Sprachinformationen lässt sich dann die Erkennung der Sprachinformationen in Abhängigkeit dieser Hypothesen durchführen. Der von dem erfassten oder prognostizierten Zustand abgeleitete Sprachkontext kann somit um Hypothesen über zukünftige Sprachinformationen oder Sprachkontexte erweitert werden, was sich höchst positiv auf die Erkennungsrate auswirkt.
Ganz besonders vorteilhaft ist es nun, wenn zu den ermittelten Sprachhypothesen zusätzlich Eintrittswahrscheinlichkeiten zugeordnet werden, die das Ein- treffen dieser Hypothese mit einer gewissen Wahrscheinlichkeit prognostizieren. Die Hypothesen stellen dabei eine Möglichkeit, ausgehend von dem aktuellen oder prognostizierten Zustand, für das Auftreten von bestimmten Sprachinformationen dar, die sich mit einer gewissen Wahrscheinlichkeit für die er- fasste Situation ergeben könnten.
Durch die Sprachhypothesen und die den Sprachhypothesen zugeordneten Eintrittswahrscheinlichkeiten lässt sich dabei die Genauigkeit der Spracherkennung signifikant erhöhen, da nunmehr bezüglich des Kontextes der erfassten Situation die Spracherkennung auf den wesentlichen Teil gerichtet werden kann.
Die Erfassung zumindest eines Zustandes der Regelstrecke durch die Zu- standserfassungseinheit kann durch ein mit der Zustandserfassungseinheit in Verbindung stehenden ersten Sensorsystem erfolgen, wie sie generell für die Überwachung von Regelstrecken verwendet werden, wie beispielsweise Radarsensoren, Ortungseinheiten, Temperatursensoren, etc. Aus den erfassten Daten der Sensorik lässt sich dann der aktuelle Zustand der Regelstrecke erfassen. Unter Kenntnis des aktuellen Zustandes der Regelstrecke gegebenenfalls in Verbindung mit der Kenntnis von zu erreichenden Zielen lässt sich darüber hinaus auch ein prognostizierter Zustand für die Zukunft ableiten, der eine Prognose für die Entwicklung der Zustände der Regelstrecke angibt. Dadurch lässt sich ableiten, wie sich ein Zustand zukünftig entwickelt.
Dabei stellen die akustischen Sprachsignale keine direkte Anweisung in Form einer Gerätebedienung an das Assistenzsystem dar, sondern sind Teil einer Sprachkommunikation zwischen zwei Personen. Durch das lautlose Mithören des Assistenzsystems während der Sprachkommunikation ist es für die betroffenen Personen nicht erforderlich, das Assistenzsystem auf eine Spracheingabe vorzubereiten. Dadurch wird eine deutliche Entlastung bei der Planungsund/oder Führungsaufgabe durch die Personen erreicht. Die akustische Auf- nahmeeinheit in Verbindung mit der Sprachverarbeitungseinheit bilden somit ein weiteres, zweites Sensorsystem für die Erfassung oder Prognose des Zustandes der Regelstrecke. Die Erfindung ist somit dadurch gekennzeichnet, dass die akustische Aufnahmeeinheit und die Sprachverarbeitungseinheit als ein zweites Sensorsystem vorgesehen sind.
Vorteilhafterweise erfolgt die Erkennung der Sprachinformationen durch die Sprachverarbeitungseinheit aus den aufgenommenen akustischen Sprachsignalen in Abhängigkeit von einem Kontext, der aus dem erfassten oder prognostizierten Zustand ermittelt werden kann. Da das Assistenzsystem den Kontext für die Erkennung von Sprachinformationen liefert, kann dadurch signifikant die Erkennungsrate bei der Spracherkennung erhöht werden, insbesondere dann, wenn eine kontextbasierte Spracherkennung eingesetzt wird. Der Kontext des erfassten Zustandes kann dabei aus den Hypothesen des Assistenzsystems durch Verwendung des vorhandenen Situationswissens über die Regelstrecke unter Nutzung der Sensordaten und Datenbanken abgeleitet werden. In einer vorteilhaften Ausführungsform ist das Assistenzsystem derart eingerichtet, dass die Aufnahmeeinheit zum Empfangen von elektrischen Signalen einer elektrischen Sprach-Kommunikationsverbindung und zum Aufnehmen der akustischen Sprachsignale aus den empfangenen elektrischen Signalen einge- richtet ist. Dies ist besonders dann vorteilhaft, wenn die Kommunikation zwischen den Personen über eine elektrische Sprach-Kommunikationsverbindung erfolgt, beispielsweise über Funk oder über ein Telefonnetzwerk.
Darüber hinaus weist das Assistenzsystem in einer weiteren vorteilhaften Aus- gestaltung eine Ausgabeeinheit auf, die zum Ausgeben von generierten Unterstützungsanweisungen zum Unterstützen der situationsabhängigen Planungsund/oder Führungsaufgabe der Regelstrecke eingerichtet ist, wobei die Unterstützungsanweisungen aus dem erfassten oder prognostizierten Zustand abgeleitet werden können. Eine derartige Ausgabeeinheit kann beispielsweise ein Display sein, auf dem Handlungsanweisungen für eine Person dargestellt werden. Die Ausgabeeinheit kann aber auch mit einer Steuerungseinrichtung verbunden sein, um direkt auf Stellgrö ßen der Regelstrecke zugreifen und so zumindest teilweise autonom auf die Regelstrecke einwirken zu können, wodurch ein zumindest teilweiser automatischer Betrieb ermöglicht wird.
In einer weiteren vorteilhaften Ausführungsform ermittelt das Assistenzsystem Handlungsoptionen zur Unterstützung der situationsabhängigen Planungsund/oder Führungsaufgabe der Regelstrecke, beispielsweise in Form von Unterstützungsanweisungen. Diese Handlungsoptionen werden anhand des er- fassten Zustandes und/oder des aus dem aktuellen Zustand ableitbaren prognostizierten Zustandes der Regelstrecke ermittelt und geben so mögliche Handlungsoptionen zum Einwirken auf die Regelstrecke vor. Dabei führen die Handlungsoptionen zu verschiedenen prognostizierten Zuständen und stehen somit in Wechselwirkung zueinander. Aus diesen Handlungsoptionen lassen sich dann mit Hilfe der Sprachhypotheseneinheit Sprachhypothesen bezüglich zukünftig zu erwartender Sprachinformationen ermitteln, so dass die Spracher- kennung, mit deren Hilfe Sprachinformationen zur Anpassung des erfassten oder prognostizierten Zustandes ermittelt werden sollen, verbessern, da nun aus dem Zustand ermittelte Handlungsoptionen zur Grundlage der Sprachhypothesen gemacht werden. Dabei kann die Spracherkennung von zuvor 75% Er- kennungsrate auf bis zum 95% gesteigert werden.
Hierbei ist es nun ganz besonders vorteilhaft, wenn zusätzlich die Handlungsoptionen aus den bereits erkannten Sprachinformationen ermittelt werden, wodurch nur noch die Handlungsoptionen betrachtet werden brauchen, die in Be- zug auf die Sprachinformationen wahrscheinlich sind. Denn durch die bekannten Sprachinformationen wird der Zustand bezüglich der Regelstrecke ange- passt, wodurch Handlungsoptionen, die nunmehr unwahrscheinlich oder keinen Sinn mehr machen, unberücksichtigt bleiben können. Hierdurch wird es möglich, dass nicht nur die Spracherkennung verbessert wird, sondern auch die Akzeptanz derartiger Assistenzsysteme, da die bereitgestellten Handlungsoptionen wesentlich genauer auf den Zustand der Regelstrecke angepasst sind. Dies ist ein vorzugsweise interaktives Vorgehen, bei dem verschiedene Hypothesen über eine zukünftige Situation erzeugt werden. Durch die Spracherkennung ist dem System bekannt, welche Hypothese vom Lotsen umgesetzt wird. Daraufhin kann das System verbesserte Planungen für die weitere Zukunft erstellen.
I m Übrigen wird die Aufgabe auch mit Verfahren nach Anspruch 8 gelöst. Vorteilhafte Ausgestaltungen des Verfahrens finden sich in den entsprechenden Unteransprüchen. Die Erfindung wird anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen :
Figur 1 - schematische Darstellung des erfindungsgemäßen Assistenzsys- tems;
Figur 2 - schematische Darstellung einer Regungskette bei der Fluglotsenunterstützung. Figur 1 zeigt schematisch das erfindungsgemäße Assistenzsystem 1 , das zur Unterstützung von Planungs- und/oder Führungsaufgaben einer Regelstrecke 2 Anwendung finden kann. Eine Regelstrecke 2 kann beispielsweise der Landeanflug von Flugzeugen auf einem Flughafen sein, der in der Regel von Lotsen überwacht und geregelt wird.
Das Assistenzsystem 1 weist eine Zustandserfassungseinheit 3 auf, die mit Hilfe von Sensoren 4a, 4b Daten über die Regelstrecke 2 erfasst und daraus einen aktuellen Zustand 5 der Regelstrecke 2 ermittelt. Aus diesem aktuellen Zustand 5 der Regelstrecke 2 lässt sich über vorgegebene Ziele durch die Pla- nungskomponente des Assistenzsystems ein prognostizierter Zustand 5a ableiten, der eine zukünftige Entwicklung des Zustandes 5 der Regelstrecke 2 berücksichtigt.
Sowohl der aktuelle Zustand 5 als auch ein möglicherweise abgeleiteter und prognostizierter Zustand 5a dienen in einer Kontextermittlungseinheit 6 als Grundlage für die Ermittlung eines Sprachkontextes, der als Eingabe in den Spracherkenner bzw. die Sprachverarbeitungseinheit 7 vorgesehen ist. Denn aufgrund der Kenntnis des aktuellen Zustandes 5 bzw. eines prognostizierten Zustandes 5a, die sich letztendlich aus den Sensordaten der Regelstrecke 2 sowie aus der Handlungsplanung des Assistenzsystems (Hypotheseneinheit) ableiten lassen, liegt der Zustandserfassungseinheit somit letztendlich auch der Kontext vor, der dem Spracherkenner 7 als Grundlage für die Spracherkennung dienen soll. Dadurch kann die Genauigkeit bei der Erkennung wesentlich erhöht werden. Darüber hinaus kann zusätzlich eine Sprachhypotheseneinheit 8 vorgesehen sein, die aus dem aktuellen Zustand 5 oder prognostizierten Zustand 5a
Sprachhypothesen bezüglich zukünftiger eventuell auftretender Sprachinformationen ermitteln kann. Die Sprachhypotheseneinheit 8 kann dabei Bestandteil der Zustandserfassungseinheit 3 oder der Sprachverarbeitungseinheit 7 sein. Der von der Kontextermittlungseinheit 6 ermittelte Sprachkontext kann somit um die Sprachhypothesen der Hypotheseneinheit 8 erweitert werden.
Sowohl der von der Kontextermittlungseinheit 6 ermittelte Sprachkontext als auch die Sprachhypothesen werden über einen Eingang der Sprachverarbei- tungseinheit 7 in diese übertragen und eingespeist. Des Weiteren ist das Assistenzsystem 1 mit einer akustischen Aufnahmeeinheit 9 verbunden, die ebenfalls mit einem Eingang der Sprachverarbeitungseinheit 7 signaltechnisch verbunden ist. Die akustische Aufnahmeeinheit 9 ist dabei derart eingerichtet, dass sie akustische Sprachsignale in einer Sprachkommunikation zwischen mindestens zwei Personen (nicht dargestellt) aufnimmt, wodurch die akustische Aufnahmeeinheit 9 ein weiterer Sensor bzw. eine weitere Sensorik zur Zustandserfassung der Regelstrecke 2 darstellt. Die akustische Aufnahmeeinheit 9 kann dabei in einem einfachsten Fall ein Mikrofon sein, welches die Kommunikation zwischen zwei oder mehreren Personen mithört. Die akustische Auf- nahmeeinheit 9 kann aber auch eine elektrische Vorrichtung sein, mit der
Sprachsignale aus einem elektrischen Signal, wie sie beispielsweise bei einer Funkverbindung oder einer Telefonverbindung vorliegt, abgegriffen werden können. Somit lassen sich auch Kommunikationen zwischen Personen mithören, die über eine Fernsprecheinrichtung miteinander kommunizieren.
Die von der akustischen Aufnahmeeinheit 9 aufgenommenen Sprachsignale werden nun durch die Sprachverarbeitungseinheit 7 unter Berücksichtigung des ermittelten Sprachkontextes und der ermittelten Sprachhypothesen analysiert und die in den akustischen Signalen enthaltenen Sprachinformationen 1 0 erkannt. Aufgrund der Tatsache, dass der Kontext für die Spracherkennung aus der Regelstrecke, der Planung (Hypotheseneinheit) und den erfassten Zuständen 5, 5a direkt oder indirekt ableitbar ist, lässt sich die Spracherkennung der erfassten akustischen Sprachsignale wesentlich erhöhen. Bei dieser kontextbasierten Spracherkennung wird nicht nur das aktuelle Sprachsignal, sondern auch der Kontext, der von einer externen Quelle kommt, zur Spracherkennung herangezogen. Dies ist zwar aufwändiger, aber auch leistungsfähiger, da dadurch der Suchraum entweder regelbasiert oder probabilistisch eingeschränkt wird. Da der erfasste Zustand eine Vielzahl von Daten und Parametern über die Regelstrecke 2 umfasst, kann hier der für die Spracherkennung notwendige Kontext abgeleitet werden.
So wird vorteilhafterweise nur noch ein geringer Teil des Kontextes vom Spracherkenner selbst bestimmt, während der wesentliche Teil der Kontextinformation über die Zustanderfassungseinheit aus dem Zustand und den prognostizierten Zuständen, d. h. den Hypothesen über die zukünftigen Situationen, be- stimmt werden. Der Gesamtkontext wird somit aus dem Systemzustand und dem Dialog zweier Kommunikationspartner abgeleitet. Diese redundante Bestimmung des Sprachkontextes ermöglicht es dem Spracherkenner, falsche Erkennungshypothesen, die mit der Kontextinformation nicht konsistent sind, frühzeitig zu verwerfen und damit Fehlerkennungen zu vermeiden, wodurch letztendlich die Erkennungsleistung wesentlich erhöht wird.
Der Gesamtkontext wird somit zum einen über ein erstes Sensor- und Planungssystem, welches den Systemzustand der Regelstrecke erfasst und prognostiziert, und über ein zweites Sensorsystem, welches die Sprachkommunika- tion zweier Kommunikationspartner erfasst, ermittelt, was die Spracherkennung selber wesentlich verbessert. Die so erkannten Sprachinformationen werden nun wieder zurück an die Zu- standserfassungseinheit 3 übertragen, wobei in Abhängigkeit der erkannten Sprachinformationen 1 0 der aktuelle Zustand 5 oder der prognostizierte Zu- stand 5a in Abhängigkeit dieser Sprachinformationen 1 0 angepasst wird. Denn wurde beispielsweise aus den Gesprächen zwischen den Personen erkannt, dass Änderungen innerhalb der Regelstrecke durchgeführt werden sollen, so dass sich der Zustand ändern wird, wobei diese Zustandsänderung noch nicht von der Sensorik 4a, 4b erfassbar ist, so kann der aktuelle Zustand 5 oder der für die Zukunft prognostizierte Zustand 5a aufgrund des Gespräches bereits angepasst werden, so dass das Assistenzsystem wesentlich genauere Informationen über die Regelstrecke 2 hat und somit entsprechende Handlungsempfehlungen, die an einer Ausgabeeinheit 1 1 ausgegeben werden können, wesentlich genauer sind.
So kann die Anpassung der Zustände 5, 5a durch die Zustandserfassungsein- heit 3 beispielhaft derart erfolgen, dass bestimmte Parameter und/oder Daten, welche den Zustand der Regelstrecke 2 beschreiben, verändert werden, so dass sich für die Zustandserfassungseinheit 3 ein veränderter Zustand 5 bzw. 5a darstellt, der mit den von der Sensorik 4a, 4b sensierten Daten zumindest für einen Moment zwangsläufig nicht konsistent sein muss.
Das Assistenzsystem kann neben den beschriebenen Einheiten weitere Einheiten aufweisen, die beispielsweise bestimmte Regelungen für die Regelstrecke 2 vorsehen bzw. entsprechende Handlungsinformationen oder Handlungsempfehlungen über die Ausgabeeinheit 1 1 ausgeben können. Beispielhaft sei hier ein Lotsenunterstützungssystem genannt, das ebenfalls in das Assistenzsystem 1 eingebettet und dem Lotsen bei seiner Regelungs- und Führungsaufgabe unterstützen soll. Durch die Anpassung der erfassten Zustände bzw. prognosti- zierten Zustände der Regelstrecke 2 kann dem Lotsenunterstützungssystem eine wesentlich bessere Grundlage für seine Berechnungen und Handlungs- empfehlungen gegeben werden, was die Akzeptanz und Sicherheit erhöht.
Ein derartiges System zeigt Figur 2 beispielhaft für die Regelstrecke bei der Führung eines Flugzeuges durch einen Lotsen 21 . Der Fluglotse 21 , der sich in der Regel im Kontrollzentrum oder im Tower des Flughafens aufhält, steht mit dem Piloten 22 eines Flugzeuges 23 in Funkverbindung. Der Fluglotse 21 erteilt über die Funkverbindung 24 dem Piloten 22 des Flugzeuges 23 entsprechende Anweisungen, damit der Pilot 22 das Flugzeug 23 auf einer vorbestimmten Trajektorie auf dem Flughafen landen kann.
Seit einiger Zeit sind zur Unterstützung des Lotsen 21 sogenannte Lotsenunterstützungssysteme 25 bekannt, die dem Lotsen in Abhängigkeit von der aktuellen Situation im Luftraum des Flughafens verschiedene Vorschläge für die Landesequenzen und/oder für Flugführungsanweisungen für die Flugzeuge lie- fern können. Mit Hilfe von Sensoren 26a, 26b, die beispielsweise Radarsensoren sein können und somit kontinuierlich Radardaten an das Lotsenunterstützungssystem 25 liefern, kann eine Situation innerhalb des Flugraumes bzw. ein Zustand für den Lotsen aufgebaut werden, um die Flugzeuge sicher auf dem Flughafen landen zu lassen. Diese Daten liefern dem Lotsenunterstützungssys- tem 25 aber auch die Grundlage für die Vorschläge der Landesequenzen und/oder Führungsanweisungen an die Flugzeuge.
Verändert der Lotse 21 jedoch seine Strategie, so merkt das System 25 solange nichts, bis eindeutige Hinweise in den Radardaten hinsichtlich eines abwei- chenden Flugverhaltens vorliegen und erkannt wurden. Dies kann jedoch bis zu 30 Sekunden und mehr dauern, so dass während dieser Zeit die dargestellte Situation bzw. der erfasste Zustand über die Regelstrecke und die von dem System 25 gelieferten Vorschläge mit der eigentlichen Situation bzw. dem eigentlichen Zustand nicht konsistent sind. Diese mangelnde Übereinstimmung zwischen der Lotsenabsicht und dem maschinellen Situationsbewusstsein des Unterstützungssystems 25 führt jedoch zu eingeschränkten Vorschlägen, die letztendlich für eine mangelnde Akzeptanz des Systems bei den Lotsen sorgen.
Um dieses Problem zu lösen, befindet sich in der Kommunikationsverbindung 24 zwischen Lotse 21 und Pilot 22 eine akustische Aufnahmeeinheit 27, die mit dem System 25 kommunikativ in Verbindung steht. Die Sprachkommunikation zwischen dem Lotsen 21 und dem Piloten 22 über die Kommunikationsverbindung 24 wird daher mit Hilfe der akustischen Aufnahmeeinheit 27 abgegriffen und dem System 25 zur Verfügung gestellt. Werden von dem Lotsen 21 nun von der eigentlichen Strategie veränderte Flugführungsanweisungen an den Piloten 22 über die Kommunikationsverbindung 24 übertragen, so wird dies von der akustischen Aufnahmeeinheit 27 er- fasst. Diese über die Kommunikationsverbindung 24 übertragenen Sprachanweisungen stellen dabei den frühest möglichen Zeitpunkt zur Erkennung einer Strategieänderung des Lotsen 21 bei der Verkehrssteuerung dar. Mittels eines Assistenzsystems, wie in Figur 1 beschrieben, das Bestandteil des Systems 25 ist, können die Sprachinformationen bezüglich der Regelstrecke erkannt werden, wobei die von dem System 25 erfassten Zustände sowie deren weitere Prognose auf Basis im Assistenzsystem durchgeführter alternativer Planungen basierend auf verschiedenen Strategien den Kontext für die Spracherkennung liefert. Die über die Kommunikationsverbindung 24 erkannten Sprachinformationen der betreffenden Person 21 und 22 können dann dazu genutzt werden, die von dem System 25 erfassten Zustände anzupassen, um so die Strategieänderung des Lotsen 21 bei der Ausgabe von entsprechenden Vorschlägen zur Flugführung mit berücksichtigen zu können, obwohl die veränderten Zustände erst einige Zeit später über die Radarsensoren 26a, 26b detektierbar werden. Der Lotse verfolgt z.B. zunächst die Strategie 1 und schwenkt dann auf eine Strategie 2 um. Dies wird erkannt, weil es Planungen für beide Strategien gibt. Da aber vom System nicht alle möglichen Planungen angezeigt werden, ist nach au ßen zum Lotsen nur Strategie 1 des Systems zu erkennen, obwohl mehr als eine Strategie berechnet wird. Die Berechnungen des Systems schwenken nun auf die Strategie 2 als erstrangige Strategie um, die ausgegeben und tiefergehend bearbeitet wird. Da auf diese Planänderung durch den Lotsen unmittelbar durch das System 25 durch Verbesserung der eigenen Planung reagiert wird, bekommt der Lotse sofort einen Eindruck davon, welche weiteren Auswirkungen durch die von ihm veranlassten Aktionen ausgelöst werden. Dies ist insbesondere in Situationen mit hohem Verkehrsaufkommen hilfreich, da in solchen Situationen die Belastung ohnehin für den Lotsen hoch ist. Durch die höhere Konfidenz auf der System- seite hinsichtlich der erwarteten Entwicklung der zukünftigen Situation besteht nun zusätzlich die Möglichkeit, den Lotsen auf Abweichungen des Flugzeuges von der geplanten Trajektorie hinzuweisen. Dabei erfolgt die Anpassung der Situation durch den Lotsen derart, dass dieser keine weiteren Eingaben an das System 25 vornehmen muss, wie beispielsweise durch Eingeben von entspre- chenden Anweisungen oder durch direkten Sprachbefehl. Vielmehr erfolgt die Anpassung unter den Umständen der ganz normalen Arbeitsabläufe der Lotsen 21 . Dies stellt einen deutlichen Vorteil des Systems 25 zu heutigen Systemen dar, und da das vorliegende System schon zu einem Zeitpunkt warnen kann, in dem bisherige System noch Strategieänderungen versuchen zu detektieren.

Claims

Patentansprüche
Assistenzsystem (1 , 25) zur Unterstützung bei situationsabhängigen Pla- nungs- und/oder Führungsaufgaben einer Regelstrecke (2) mit einer Zustandserfassungseinheit (3) zum Erfassen zumindest eines Zustandes (5, 5a) der Regelstrecke (2), einer akustischen Aufnahmeeinheit (9, 27), die zum Aufnehmen von akustischen Sprachsignalen einer Sprachkommunikation (24) zwischen mindestens zwei Personen (21 , 22) ausgebildet ist, und einer Sprachverarbeitungseinheit (7), die zum Erkennen von Sprachinformationen (1 0) bezüglich der Regelstrecke (2) aus den aufgenommenen akustischen Sprachsignalen eingerichtet ist, wobei die Zustandserfassungseinheit (3) zum Anpassen des erfassten Zustandes (5) und/oder eines aus dem aktuellen Zustand ableitbaren prognostizierten Zustandes (5a) der Regelstrecke (2) in Abhängigkeit von den erkannten Sprachinformationen (1 0) eingerichtet ist, dadurch gekennzeichnet, dass eine Sprachhypotheseneinheit (8) vorgesehen ist, die zum Ermitteln von Sprachhypothesen bezüglich zukünftig erwarteter Sprachinformationen in Abhängigkeit von dem erfassten Zustand (5) und/oder einem aus dem aktuellen Zustand ableitbaren prognostizierten Zustand (5a) ausgebildet ist, wobei die Sprachverarbeitungseinheit (7) zum Erkennen der Sprachinformationen (1 0) bezüglich der Regelstrecke (2) aus den aufgenommenen akustischen Sprachsignalen unter Berücksichtigung der ermittelten Sprachhypothesen eingerichtet ist.
Assistenzsystem (1 , 25) nach Anspruch 1 , dadurch gekennzeichnet, dass die Sprachhypotheseneinheit (8) zum Zuordnen von Eintrittswahrscheinlichkeiten zu den ermittelten Sprachhypothesen und die Sprachverarbeitungseinheit (7) zum Erkennen der Sprachinformationen (1 0) weiterhin unter Berücksichtigung der den Sprachhypothesen zugeordneten Eintrittswahrscheinlichkeiten eingerichtet ist.
Assistenzsystem (1 , 25) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass eine Kontextermittlungseinheit (6) vorgesehen ist, die zum Ermitteln eines Sprachkontextes in Abhängigkeit von dem erfassten Zustand (5) und/oder einem aus dem aktuellen Zustand ableitbaren prognostizierten Zustand (5a) ausgebildet ist, wobei die Sprachverarbeitungseinheit (7) zum Erkennen der Sprachinformationen (1 0) bezüglich der Regelstrecke (2) aus den aufgenommenen akustischen Sprachsignalen unter Berücksichtigung des ermittelten Sprachkontext eingerichtet ist.
Assistenzsystem (1 , 25) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die akustische Aufnahmeeinheit (9, 27) zum Empfangen von elektrischen Signalen in einer elektrischen Sprach- Kommunikationsverbindung (24) und zum Aufnehmen der akustischen Sprachsignale aus den empfangenen elektrischen Signalen eingerichtet ist.
Assistenzsystem (1 , 25) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Assistenzsystem (1 , 25) eine Ausgabeeinheit (1 1 ) zum Ausgeben von in Abhängigkeit von dem erfassten Zustand (5) und/oder einem aus dem aktuellen Zustand ableitbaren prognostizierten Zustand (5a) generierten Unterstützungsanweisungen zum Unterstützen der situationsabhängigen Planungs- und/oder Führungsaufgabe der Regelstrecke (2) aufweist.
6. Assistenzsystem (1 , 25) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Assistenzsystem zum Ermitteln von Handlungsoptionen zur Unterstützung der situationsabhängigen Planungsund/oder Führungsaufgabe der Regelstrecke in Abhängigkeit von dem er- fassten Zustand (5) und/oder einem aus dem aktuellen Zustand ableitbaren prognostizierten Zustand (5a) der Regelstrecke (2) eingerichtet ist, wobei die Sprachhypotheseneinheit ausgebildet ist, die Sprachhypothesen bezüglich zukünftig erwarteter Sprachinformationen in Abhängigkeit von aus dem erfassten Zustand und/oder dem prognostizierten Zustand ermittelten Handlungsoptionen zu ermitteln.
7. Assistenzsystem (1 , 25) nach Anspruch 6, dadurch gekennzeichnet, dass das Assistenzsystem zum Ermitteln der Handlungsoptionen zur Unterstützung der situationsabhängigen Planungs- und/oder Führungsaufgabe der Regelstrecke weiterhin in Abhängigkeit von den erkannten Sprachinformationen (1 0) eingerichtet ist.
8. Verfahren zur Unterstützung bei situationsabhängigen Planungs- und/oder Führungsaufgaben einer Regelstrecke mit den Schritten :
Erfassen zumindest eines Zustandes der Regelstrecke durch eine Zustandserfassungseinheit,
Aufnehmen von akustischen Sprachsignalen einer Sprachkommunikation zwischen mindestens zwei Personen durch eine akustische Aufnahmeeinheit, automatisiertes Erkennen von Sprachinformationen bezüglich der Regelstrecke aus den aufgenommenen akustischen Sprachsignalen durch eine Sprachverarbeitungseinheit, und Anpassen des erfassten Zustandes und/oder eines aus dem aktuellen Zustand ableitbaren prognostizierten Zustandes der Regelstrecke in Abhängigkeit von den erkannten Sprachinformationen durch die Zustandserfassungseinheit. gekennzeichnet durch automatisiertes Ermitteln von Sprachhypothesen bezüglich zukünftig erwarteter Sprachinformationen in Abhängigkeit von dem erfassten Zustand und/oder einem aus dem aktuellen Zustand ableitbaren prognostizierten Zustand durch eine Sprachhypotheseneinheit und automatisiertes Erkennen der Sprachinformationen bezüglich der Regelstrecke aus den aufgenommenen akustischen Sprachsignalen unter Berücksichtigung der ermittelten Sprachhypothesen durch die Sprachverarbeitungseinheit.
9. Verfahren nach Anspruch 8, gekennzeichnet durch Zuordnen von Eintrittswahrscheinlichkeiten zu den ermittelten Sprachhypothesen durch die Sprachhypotheseneinheit und Erkennen der Sprachinformationen weiterhin unter Berücksichtigung der den Sprachhypothesen zugeordneten Eintrittswahrscheinlichkeiten durch die Sprachverarbeitungseinheit.
1 0. Verfahren nach Anspruch 8 oder 9, gekennzeichnet durch
automatisiertes Ermitteln eines Sprachkontext in Abhängigkeit von dem erfassten Zustand und/oder einem aus dem aktuellen Zustand ableitbaren prognostizierten Zustand durch eine Kontextermittlungseinheit und
automatisiertes Erkennen der Sprachinformationen bezüglich der Regelstrecke aus den aufgenommenen akustischen Sprachsignalen unter Berücksichtigung des ermittelten Sprachkontext durch die Sprachverarbeitungseinheit. 1 . Verfahren nach einem der Ansprüche 8 bis 1 0, gekennzeichnet durch Empfangen von elektrischen Signalen aus einer elektrischen Sprachkommunikationsverbindung und Aufnehmen der akustischen Sprachsignale aus den empfangenen elektrischen Signalen durch die Aufnahmeeinheit. 2. Verfahren nach einem der Ansprüche 8 bis 1 1 , gekennzeichnet durch Ermitteln von Handlungsoptionen zur Unterstützung der situationsabhängigen Planungs- und/oder Führungsaufgabe der Regelstrecke in Abhängigkeit von dem erfassten Zustand (5) und/oder einem aus dem aktuellen Zustand ableitbaren prognostizierten Zustand (5a) der Regelstrecke (2) durch das Assistenzsystem und Ermitteln der Sprachhypothesen bezüglich zukünftig erwarteter Sprachinformationen in Abhängigkeit von aus dem erfassten Zustand und/oder prognostizierten Zustand ermittelten Handlungsoptionen durch die Sprachhypotheseneinheit. 3. Verfahren nach Anspruch 1 2, gekennzeichnet durch Ermitteln der Handlungsoptionen zur Unterstützung der situationsabhängigen Planungsund/oder Führungsaufgabe der Regelstrecke weiterhin in Abhängigkeit von den erkannten Sprachinformationen durch das Assistenzsystem. 4. Computerprogramm mit Programmcodemitteln, insbesondere auf einem maschinenlesbaren Träger gespeichert, eingerichtet zur Durchführung des Verfahrens nach einem der Ansprüche 8 bis 1 3, wenn das Computerprogramm auf einem Rechner ausgeführt wird.
PCT/EP2012/064186 2011-07-19 2012-07-19 Assistenzsystem Ceased WO2013011090A2 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
ES12746043.4T ES2639050T3 (es) 2011-07-19 2012-07-19 Sistema de asistencia
EP12746043.4A EP2734998B1 (de) 2011-07-19 2012-07-19 Assistenzsystem
US14/233,399 US20140316538A1 (en) 2011-07-19 2012-07-19 Assistance system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102011107934.7 2011-07-19
DE102011107934.7A DE102011107934B4 (de) 2011-07-19 2011-07-19 Assistenzsystem
US201261607167P 2012-03-06 2012-03-06
US61/607,167 2012-03-06

Publications (2)

Publication Number Publication Date
WO2013011090A2 true WO2013011090A2 (de) 2013-01-24
WO2013011090A3 WO2013011090A3 (de) 2013-03-28

Family

ID=47502033

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2012/064186 Ceased WO2013011090A2 (de) 2011-07-19 2012-07-19 Assistenzsystem

Country Status (5)

Country Link
US (1) US20140316538A1 (de)
EP (1) EP2734998B1 (de)
DE (1) DE102011107934B4 (de)
ES (1) ES2639050T3 (de)
WO (1) WO2013011090A2 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017107324B4 (de) 2017-04-05 2019-02-14 Deutsches Zentrum für Luft- und Raumfahrt e.V. Assistenzsystem und Verfahren zur Unterstützung bei der Durchführung von Aufgaben bezüglich einer Situation
EP3438978B1 (de) * 2017-08-02 2023-12-27 Rohde & Schwarz GmbH & Co. KG Signalbeurteilungssystem und signalbeurteilungsverfahren
DE102018126056B4 (de) 2018-10-19 2020-10-15 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Computerprogramm zum Transkribieren einer aufgezeichneten Sprachkommunikation
DE102019113680B3 (de) 2019-05-22 2020-06-18 Deutsches Zentrum für Luft- und Raumfahrt e.V. Assistenzsystem und Verfahren zur Unterstützung eines Operateurs
DE102019133410B4 (de) 2019-12-06 2024-08-01 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Unterstützung mindestens eines Operateurs bei Planungs- und/oder Führungsaufgaben
DE102020107619B4 (de) 2020-03-19 2024-02-15 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren, Vorrichtung sowie Computerprogramm zur Spracherkennung
DE102020008265B4 (de) 2020-03-19 2024-04-25 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren, Vorrichtung sowie Computerprogramm zur Spracherkennung
DE102020124172B4 (de) 2020-09-16 2024-08-01 Deutsches Zentrum für Luft- und Raumfahrt e.V. Assistenzsystem und Verfahren zur Unterstützung eines Operateurs

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009034069A1 (de) 2008-11-10 2010-05-12 Volkswagen Ag Bedienvorrichtung für ein Kraftfahrzeug

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2600098B2 (ja) 1992-12-04 1997-04-16 運輸省船舶技術研究所長 空港面における航空機識別方法およびその航空機自動識別装置
CA2114755A1 (en) 1993-02-26 1994-08-27 Peter L. Hoover Airport surveillance system
US5652897A (en) * 1993-05-24 1997-07-29 Unisys Corporation Robust language processor for segmenting and parsing-language containing multiple instructions
DE19619015B4 (de) 1996-05-10 2006-11-02 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Anordnung zur Verkehrsüberwachung
US6278965B1 (en) * 1998-06-04 2001-08-21 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Real-time surface traffic adviser
US7576695B2 (en) * 1999-03-05 2009-08-18 Era Systems Corporation Multilateration enhancements for noise and operations management
US6380869B1 (en) * 1999-05-19 2002-04-30 Potomac Aviation Technology Corporation Automated air-traffic advisory system and method
US7535404B2 (en) * 1999-11-25 2009-05-19 Nigel Corrigan Airport safety system
US20020087309A1 (en) * 2000-12-29 2002-07-04 Lee Victor Wai Leung Computer-implemented speech expectation-based probability method and system
US7174300B2 (en) * 2001-12-11 2007-02-06 Lockheed Martin Corporation Dialog processing method and apparatus for uninhabited air vehicles
US6950037B1 (en) * 2003-05-06 2005-09-27 Sensis Corporation Smart airport automation system
JP3991914B2 (ja) 2003-05-08 2007-10-17 日産自動車株式会社 移動体用音声認識装置
JP2005173134A (ja) 2003-12-10 2005-06-30 Nissan Motor Co Ltd 音声認識装置
US7542907B2 (en) 2003-12-19 2009-06-02 International Business Machines Corporation Biasing a speech recognizer based on prompt context
US7177731B2 (en) * 2004-03-10 2007-02-13 The Boeing Company Systems and methods for handling aircraft information received from an off-board source
US7672845B2 (en) 2004-06-22 2010-03-02 International Business Machines Corporation Method and system for keyword detection using voice-recognition
US20060224318A1 (en) * 2005-03-30 2006-10-05 Wilson Robert C Jr Trajectory prediction
FR2898675B1 (fr) 2006-03-14 2008-05-30 Thales Sa Procede d'amelioration de la securite aeronautique relative aux communications air/sol et a l'environnement des aeronefs
US7881832B2 (en) * 2006-06-09 2011-02-01 Garmin International, Inc. Automatic speech recognition system and method for aircraft
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
WO2008070374A2 (en) * 2006-11-03 2008-06-12 Convergent Aerospace Science And Technology Corp. Aviation text and voice communication system
US20080126075A1 (en) * 2006-11-27 2008-05-29 Sony Ericsson Mobile Communications Ab Input prediction
US20080201148A1 (en) * 2007-02-15 2008-08-21 Adacel, Inc. System and method for generating and using an array of dynamic grammar
US8348839B2 (en) 2007-04-10 2013-01-08 General Electric Company Systems and methods for active listening/observing and event detection
DE102007018327C5 (de) 2007-04-18 2010-07-01 Bizerba Gmbh & Co. Kg Ladenwaage
US8155641B2 (en) * 2007-12-27 2012-04-10 Michael Hirsch System and method for preventing lapses of communication in radio voice communications
US8417526B2 (en) 2009-03-13 2013-04-09 Adacel, Inc. Speech recognition learning system and method
FR2954564B1 (fr) 2009-12-23 2012-07-13 Thales Sa Systeme et procede d'aide a l'identification et au controle d'aeronefs presents dans un secteur aerien a surveiller.
US9165414B2 (en) * 2010-02-16 2015-10-20 Honeywell International Inc. Method and system for predicting performance of an aircraft

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009034069A1 (de) 2008-11-10 2010-05-12 Volkswagen Ag Bedienvorrichtung für ein Kraftfahrzeug

Also Published As

Publication number Publication date
EP2734998B1 (de) 2017-06-21
WO2013011090A3 (de) 2013-03-28
DE102011107934B4 (de) 2018-08-23
EP2734998A2 (de) 2014-05-28
US20140316538A1 (en) 2014-10-23
ES2639050T3 (es) 2017-10-25
DE102011107934A1 (de) 2013-01-24

Similar Documents

Publication Publication Date Title
EP2734998B1 (de) Assistenzsystem
EP3224100B1 (de) Verfahren und vorrichtung zum betreiben von mehreren fahrzeugen
EP3282399B1 (de) Verfahren zur verbesserten erkennung von prozessanomalien einer technischen anlage sowie entsprechendes diagnosesystem
WO2005052883A1 (de) Verfahren und system zur ermittlung der fahrsituation
DE102014210485A1 (de) Verfahren und Vorrichtung zum Überwachen eines eine zumindest teilautomatisierte Fahrfunktion bereitstellendes System eines Fahrzeugs
DE102014214777A1 (de) Verfahren zur Interaktion eines Fahrassistenzsystems mit einem Fahrer eines Fahrzeugs
DE112017007793T5 (de) Anomalieerkennung im innenraum eines autonomen fahrzeugs
WO2020173983A1 (de) Verfahren und vorrichtung zum überwachen eines industriellen prozessschrittes
EP3742419B1 (de) Risikoreduzierung im strassenverkehr
EP3798090A1 (de) Verfahren zum überwachen einer gesprochenen kommunikation im zugverkehr und zugehöriges zugleitsystem
DE102018133670A1 (de) Verfahren und Vorrichtung zum Erzeugen von Steuersignalen zum Unterstützen von Insassen eines Fahrzeugs
DE102019217225A1 (de) Verfahren zum Trainieren eines maschinellen Lernsystems für eine Objekterkennungsvorrichtung
DE112018005794T5 (de) System und Verfahren zum Steuern eines Kraftfahrzeugs zum autonomen Fahren
DE102018126056B4 (de) Verfahren und Computerprogramm zum Transkribieren einer aufgezeichneten Sprachkommunikation
EP3455097B1 (de) Verfahren zur steuerung von sprachgesteuerten bedienschnittstellen in kraftfahrzeugen und vorrichtung zur durchführung des verfahrens
WO2015158706A1 (de) Verfahren zur überwachung eines gegenwärtigen zustandes eines kraftfahrzeugs
EP3866135B1 (de) Verfahren zum steuern einer lichtsignalanlage
DE102018133672A1 (de) Verfahren und Vorrichtung zum Erzeugen von Steuersignalen zum Unterstützen von Insassen eines Fahrzeugs
DE102020107619B4 (de) Verfahren, Vorrichtung sowie Computerprogramm zur Spracherkennung
DE102019207344A1 (de) Verfahren zum Überwachen einer Infrastruktur
DE102020008265B4 (de) Verfahren, Vorrichtung sowie Computerprogramm zur Spracherkennung
DE102019004842A1 (de) Verfahren zum Betreiben eines wenigstens teilweise automatisierten Fahrzeugs
DE102018133674A1 (de) Verfahren und Vorrichtung zum Erzeugen von Steuersignalen zum Unterstützen von Insassen eines Fahrzeugs
DE102022209457A1 (de) Verfahren zum Steuern eines künstlichen neuronalen Netzes beim Bereitstellen einer Fahrzeugfunktion
WO2021099111A1 (de) Vorrichtung und verfahren zum verarbeiten von umfeldsensordaten eines fahrzeugs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12746043

Country of ref document: EP

Kind code of ref document: A2

REEP Request for entry into the european phase

Ref document number: 2012746043

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012746043

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12746043

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 14233399

Country of ref document: US