[go: up one dir, main page]

WO2019112407A1 - Navigation et comportement autonomes de véhicule sans pilote sans liaison avec la station de contrôle - Google Patents

Navigation et comportement autonomes de véhicule sans pilote sans liaison avec la station de contrôle Download PDF

Info

Publication number
WO2019112407A1
WO2019112407A1 PCT/MA2018/050013 MA2018050013W WO2019112407A1 WO 2019112407 A1 WO2019112407 A1 WO 2019112407A1 MA 2018050013 W MA2018050013 W MA 2018050013W WO 2019112407 A1 WO2019112407 A1 WO 2019112407A1
Authority
WO
WIPO (PCT)
Prior art keywords
module
mission
behavior
execution
tree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/MA2018/050013
Other languages
English (en)
Inventor
Younes MOUMEN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Atlan Space
Original Assignee
Atlan Space
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Atlan Space filed Critical Atlan Space
Publication of WO2019112407A1 publication Critical patent/WO2019112407A1/fr
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours

Definitions

  • the present invention relates to the general field of unmanned aerial vehicles. It belongs to the particular field of autonomous flight operations of aircraft without pilots, especially in a situation of no connection or reduced connection to a control station, with autonomous navigation and behavior embedded in the aircraft.
  • NORTHROP GRUMMAN CORPORATION addresses the particular problem of managing the loss of connectivity, or the encounter of unpredictable situations, by their patent US2006106506.
  • Their invention includes an evaluation of the performance of the vehicle to declare the unexpected.
  • a flight plan to return to the base is provided. This flight plan takes into consideration environmental conditions such as no-fly zones, terrain data, weather forecasts, and alternative control stations to restore communications. It is a question of a limited decisional autonomy able to detect an unforeseen, and to interrupt the mission in the most secure way possible.
  • THE BOEING COMPANY details the operation of a system and method of decisional autonomy in its patent EP3101502.
  • an apparatus leaves the transmission radius of the station on the ground, it can continue to perform the mission until the communication is restored through a mechanism that can be described as corrective.
  • This mechanism performs cycles of verification of the performances of the various components necessary for the functioning of the decisional autonomy.
  • a set of corrective actions are performed and a new reassessment cycle is undertaken.
  • This system is designed in a logic where the device is normally controlled remotely, and it is only in case of loss of connection that this Corrective system comes into play to maintain a minimum system operation according to the defined objectives, the time that the connection is restored.
  • the software components that provide these three main functions identified are: the Behavior Module (103), the Mission Module (104) and the Vision Module (105).
  • the Behavior Module (103) is the main module that is started at the beginning of the mission. It uses the Mission Module (104) and the Vision Module (105) to retrieve information and execute commands.
  • Module as a software program that can be loaded into a computer's memory and executed by its processors, with a shared static and dynamic data space accessible by all program instructions.
  • a Module may consist of submodules sharing the same characteristics and being able to access the data space of the parent module.
  • a second secondary computer (102) embarked in the unmanned aircraft can be used in the event of failure of the first computer (100).
  • the secondary computer (102) is connected to the main computer (100) by a bidirectional information exchange means such as a connection based on the Internet Protocol standard.
  • the secondary computer (102) periodically checks the correct operation of the first computer (100) and takes over in case of detected failure. Only components essential to a safe return to the nearest landing zone are embedded in the secondary computer (102).
  • the Behavior Module (103) is implemented in the memory of the computer as a
  • each node is a Behavior Tree (200) and each arc between two A to B trees is a call from an Action of Tree A to proceed to the execution of the root of Tree B. Only Tree is the starting point of execution of the Behavior Module (103).
  • the number of trees in the graph is at least one; the number of arcs is at least zero.
  • the behavior tree model used is based on a tree of nodes representing conditions, actions, and standard instructions that structure the execution of the tree. Each node can take input parameters and return a true / false Boolean value representing the pass / fail states respectively.
  • the run progress of the model is based on passes. In each pass, the computer executes the root node and calls the recursive execution of its children.
  • the Conditions represent information retrieved from the Mission Module (104), the Vision Module (105), or the Behavior Module (103) that represents internal data, data relayed from the Device Systems. (101) or a combination of both. Conditions can only be true or false.
  • Actions represent commands sent to the Mission Module (104), the Vision Module (105), or the Behavior Module (103) that have an internal impact on these modules, an impact on the Systems of the apparatus (101) or a combination of both. Actions are considered true if they succeed and false if they fail.
  • the Standard Instructions consist of multi-child scheduling instructions, one-child-only change instructions, and child-only sheet instructions.
  • the scheduling instructions supporting several children are: sequential execution of the child nodes and end with failure as soon as a child fails (201); sequential execution of child nodes and end with failure only if all children fail (202); parallel execution of the child nodes (203); random execution of the child nodes and ending with failure as soon as a child fails (204); random execution of child nodes and end with failure only if all children fail (205).
  • modification instructions supporting a single child are: Execution switch of the child node (210) at the request of an interrupt instruction (221); Inverter of the execution result of the child node (21 1); Limiter of the number of executions of the child (212); Repeater of the execution of the child node indefinitely (213); Repeater of the execution of the child node until it fails (214); Instruction that forces the success of the child node (215).
  • leaf instructions that do not support children are: Wait for a defined period of time (220); Execute an interruption (221); Return true (222); Return False (223); Change data in the global context (224); Execute a tree (thus creating an arc in the graph) (225); Perform an Action (226); Check a Condition (227); Execute a specific reinforcement learning algorithm (107); Check an inference on a neural network (108).
  • the Mission Module (104) consists of the following modules: Terrain Model (109), Mission Processor (1 10), Obstacle Detector (1 1 1), Flight Planner (1 12), Scanner Surfaces (1 13), Take-off & Landing (1 14), Object Tracker (115), Special Operations (116), Energy & Time Estimator (117), Advanced Adjustments (1 18), and Communications Center (1 19). All of these modules share the same data space in the computer.
  • the Mission Module (104) is the interface between the Behavior Module (103) and the Device Systems (101). It sends discrete commands to the Device Systems (101) in response to the Actions of the Behavior Module (103) and retrieves and consolidates the information retrieved from these systems (101) to feed them to the Conditions.
  • the Field Model (109) is a submodule of the Mission Module (104). It keeps in memory and updates if necessary a model of three-dimensional representation of the terrain including but not limited to the elevation data, meshes, the geo-fence volume from which the device must not go out, the no-fly zones, and weather forecasts.
  • the Mission Processor (1 10) is a submodule of the Mission Module (104). It remembers and updates as needed information about the tasks and objectives of the mission assigned to the device, as well as the current status of progress in performing tasks.
  • the Obstacle Detector (1 1 1) is a submodule of the Mission Module (104). It processes the sensor data of the device and retrieves useful information about the objects surrounding the device in its environment outside the elevation that is already pre-existing in the Terrain Module (109).
  • the Flight Planner (1 12) is a submodule of the Mission Module (104). It mainly receives data from the Terrain Model (109) and the Obstacle Detector (1 1 1) and generates optimized flight plans linking any point A to any point B within the geo-fence. These flight plans are used in more complex calculations or transmitted to the autopilot to be executed by the aircraft, depending on the Action initiated by the Behavior Module (103).
  • the Surface Scanner (1 13) is a submodule of the Mission Module (104). It mainly receives data from the Terrain Model (109) and the Obstacle Detector (1 1 1) and generates optimized flight plans designed to cover as effectively as possible geographic areas defined in suitable models.
  • Take-off & Landing (1-14) is a submodule of the Mission Module (104). It determines the maneuvers necessary to safely succeed the sensitive take-off and landing phases, translates them into commands, and sends them to the autopilot at the request of the Behavior Module Actions (103).
  • the Object follower (1 15) is a submodule of the Mission Module (104). It determines the maneuvers necessary to follow an object according to defined parameters, translates them into commands, and sends them to the autopilot at the request of the Actions of the Behavior Module (103).
  • Special Maneuvers (1 16) is a submodule of the Mission Module (104). It has the parametric commands necessary to perform special maneuvers. These maneuvers include but are not limited to hovering silently, zigzagging, or dropping a load. These commands are sent to the autopilot at the request of a Behavior Module Action (103).
  • the Energy & Time Estimator (1 17) is a submodule of the Mission Module (104). It mainly receives data from the Flight Planner (1 12), Surface Scanner (1 13) and Takeoff & Landing (1 14) modules as well as the onboard sensor history to calculate the energy or time required to complete a task by the Mission Processor (1 10) with an estimate of the error.
  • Advanced Adjustments (1 18) is a submodule of the Mission Module (104). It executes in the background a continuous trial & error algorithm that regularly injects changes to the parameters of the autopilot and analyzes the impact on the endurance of the aircraft in order to maximize it.
  • the Communication Center (1 19) is a submodule of the Mission Module (104). It records and processes incoming and outgoing messages. Processing consists of encrypting and sending outgoing messages, or decrypting and forwarding incoming messages.
  • the Vision Module (105) is composed of a set of submodules that are generally sequentially executed and which are: Image Preprocessor (118), Region Detection (119), and Classification (120).
  • the Image Preprocessor (1 18) is a sub-module of the Vision Module (105). It retrieves the last image of the sensor, applies some filters to it and cuts it according to the altitude of the device, its attitude, and the specifications of the sensor. Each cut image is inputted to the Region Detection Module (1 19).
  • the Regions Detection (1 19) is a submodule of the Vision Module (105). It performs neural network inference on the input image and returns the detected objects with their positions on the image as a rectangle that are translated into positions on the real world. Each rectangle is then cut off from the image and injected into the Classification Module (120).
  • the Classification (120) is a submodule of the Vision Module (105). It runs a set of subroutines that generate information about the object with calculated error rates. These subprograms include but are not limited to neuron network classification inference, Descriptor detection and comparison with an existing Descriptor database, execution of special filters, and recovery of descriptors. information extracted from the filtered image.
  • a typical operating method of this system resulting from a specific implementation of the Graph in the Behavior Module with a first Behavior Tree (200) that includes a sequential execution of: Action to arm the autopilot (230); followed by verification of the weather condition acceptable for the flight (250); followed by verification of the Condition of availability of sufficient energy (251), at the Energy & Time Estimator (1 17), to execute all the tasks supplied in the Mission Processor (1 10); tracking, according to the result of the condition, the interruption of the mission or the parallel execution (203) of the processes that represent trees of behavior of: navigation; Communication ; and detection.
  • the navigation tree includes a sequential execution (201) of: the Takeoff Action (231) at the Take-off & Landing Module (1 14); followed by a loop execution (214) of the sequence (201): checking the condition that no task remains (252); monitoring the Condition check that the energy is sufficient (251), at the Energy & Time Estimator (1 17), to perform the next task; followed, according to the result of Condition (251), to the interruption of the mission or Action to perform the next task (232).
  • the loop (214) terminates upon verification of the Condition that there are no tasks left (252) at the Mission Planner (1 10); Following this, the Landing Action (233) is executed at the Takeoff & Landing Module (1 14).
  • the communication tree comprises a loop (214) which executes in sequence (201): Checking the condition for receiving new commands (253) at the communication center (1 19); tracking the execution of the Order Action (234); monitoring the execution of the Mission Resume Action (235) by resuming the last task indicated by the Mission Processor (1 10).
  • the detection tree comprises a loop (214) which executes in sequence (201): Launching the detection action (236); followed by the verification of the Condition of the threshold of certainty of the detection of the object (254) required by the mission; followed by, in the case where the result of the Condition (254) is positive, the execution of the Send Alert Action (237) at the Communication Center (1 19).
  • the Action to perform the following task is usually a command to the Flight Planner (1 12) or the Surface Scanner (1 13) to calculate a flight plan and execute it at the autopilot level .
  • the landing action (233) includes the search for the closest landing zone with the possibility of constraining it to present good conditions (quality of the runway and wind direction, among others) according to the parameters of the landing zone. Entry of the Action.
  • the operating method can obviously change depending on the configuration of the behavior graph.
  • Other implementations may include and use as an example: an anomaly detection and correction tree, an advanced investigation tree of a detected object, or a navigation tree to the broadband connection point the closest to send large data in case of a critical situation.
  • Figure 1 shows a logical representation of the system components object of this invention.
  • Figure 2 shows a typical operation of this system, resulting from a specific implementation of the Graph in the Behavior Module (103).

Landscapes

  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Les systèmes de décision autonomes qui sont utilisés dans les avions sans pilotes sont conçus pour gérer des imprévus tels que la perte de connexion. Dans un tel cas, selon l'implémentation du système, celui-ci exécute un retour à la base en essayant de minimiser les risques, sinon, il veille à continuer l'exécution de la mission avec un mécanisme de cycles d'évaluations et de corrections le temps que la connexion soit rétablie. Ces implémentations, par leurs conceptions, permettent au système de fonctionner avec des performances définies par défaut sans qu'ils ne soient capables de prendre des initiatives, changer de mission en vol, gérer les situations d'incertitude, ni être totalement indépendants d'une station de contrôle. Nous proposons un système et méthode avec une conception où le fonctionnement en autonomie décisionnelle est le moyen principal d'opérer l'avion sans pilote pendant toute la mission, incluant le décollage et l'atterrissage. La commande à distance depuis une station au sol est secondaire. Cette autonomie décisionnelle est implémentée par trois modules de Comportement, de Vision et de Mission dont l'implémentation et le fonctionnement sont décrit dans ce document.

Description

Navigation et comportement autonomes de véhicule sans pilote sans liaison avec la station de contrôle
Description
[1 ] La présente invention est relative au domaine général des véhicules aériens sans pilotes. Elle appartient au domaine particulier des opérations de vol autonome d’appareils aériens sans pilotes, spécialement, en situation de non connexion ou de connexion réduite à une station de contrôle, avec une navigation et comportement autonomes embarqués dans l’appareil.
[2] Les capacités des avions sans pilotes à couvrir de larges zones géographiques sont largement handicapées par la nécessité d’une station de contrôle, communément au sol, en liaison avec l’avion afin d’envoyer les commandes de vol et de mission et de recevoir les données capturées et la télémétrie. La station de contrôle est gérée par des humains qui effectuent les planifications de navigation et veillent à exécuter les objectifs de la mission de vol tout en gérant les situations inattendues. Cette liaison, entre la station de contrôle et l’avion limite son rayon d’action à la capacité et performances de transmission de l’information de cette liaison. Dans le cas d’interruption de la liaison, l’avion se retrouve tout seul sans capacité d’autonomie suffisante pour continuer la mission. Il entreprend donc généralement une action par défaut, telle que le retour au point de décollage, qui est souvent dangereuse en vue des conditions imprévisibles sur le terrain. L’avion peut, à titre d’exemple, entreprendre un trajet direct qui passe par une zone interdite de vol, rencontrer des conditions météo imprévisibles ou retourner à un point qui n’est plus accessible pour récupération.
[3] Enlever la limitation de la liaison de communication revient à embarquer dans l’avion sans pilote une autonomie décisionnelle suffisante pour naviguer et se comporter d’une façon qui puisse satisfaire les objectifs de la mission et réagir correctement face à des situations imprévues. Nous allons aborder des propositions de solutions existantes, puis décrire notre invention.
[4] NORTHROP GRUMMAN CORPORATION répond au problème particulier de gestion de la perte de connectivité, ou de la rencontre de situations imprévisibles, par leur brevet d’invention US2006106506. Leur invention inclue une évaluation des performances du véhicule afin de déclarer les imprévus. Dans le cas de leur occurrence, un plan de vol pour retourner à la base est prévu. Ce plan de vol prend en considération des conditions d’environnement telles que les zones interdites de vol, les données de terrain, les prévisions météos, et les stations de contrôle alternatives pour rétablir les communications. Il s’agit concrètement d’une autonomie décisionnelle limitée capable de détecter un imprévu, et d’interrompre la mission de la façon la plus sécurisée possible.
[5] LOCKHEED CORP a également publié un brevet d’invention US2011184604 qui décrit en partie une autonomie plus avancée capable de continuer la mission en cas d’imprévu lors d’opérations incluant plusieurs appareils. L’approche ici est différente, adaptée pour gérer les situations imprévues et réagir rapidement lors de l’utilisation de véhicules avec différents niveaux d’autonomie. Toutefois, le brevet n’étant pas centré sur l’autonomie décisionnelle d’un seul appareil, le fonctionnement détaillé de l’autonomie n’est pas élaboré.
[6] THE BOEING COMPANY détaille le fonctionnement d’un système et méthode d’autonomie décisionnelle dans son brevet d’invention EP3101502. Selon cette invention, lorsqu’un appareil sort du rayon de transmission de la station au sol, il peut continuer à exécuter la mission jusqu’à rétablissement de la communication grâce à un mécanisme qu’on peut qualifier de correctif. Ce mécanisme effectue des cycles de vérification des performances des différents composants nécessaires au fonctionnement de l’autonomie décisionnelle. Dès que le résultat d’une évaluation est en dessous des objectifs de performances requis, un ensemble d’actions correctives sont exécutées, puis un nouveau cycle de réévaluation est entrepris. Ce système est conçu dans une logique où l’appareil est normalement commandé à distance, et ce n’est qu’en cas de perte de connexion que ce système correctif entre en jeu pour maintenir un fonctionnement minimal du système selon les objectifs définis, le temps que la connexion soit rétablie. Toutefois, le système semble intégrer l’ensemble des composantes et méthodes nécessaires à la réussite d’un fonctionnement selon les objectifs désirés. Seule la méthode corrective de génération de plans de vols alternatifs pour satisfaire aux objectifs de mission qui semble problématique par le fait qu’elle est composée en deux étapes : la première génère le plan de vol alternatif alors que la deuxième vérifie sa fiabilité. Ceci à notre sens offre des planifications de vol peu optimisées et nécessite un coût important en termes de puissance de calcul, spécialement dans les environnements où les risques sont nombreux : zones d’interdiction de vol, angles de dénivelé de terrain, etc.
[7] Les inventions dans l’état de la technique considèrent la commande depuis la station de contrôle comme étant le moyen principal d’opérer l’avion sans pilote, et le fonctionnement en dehors de la connectivité avec la station de contrôle est perçu comme un imprévu auxquels des systèmes à différents niveaux d’autonomie décisionnelle répondent. Selon les cas, cette autonomie décisionnelle permet un retour plus sécurisé à une zone de rétablissement de la connectivité, ou peut aller jusqu’à compléter la mission avec des objectifs de performances qui sont régulièrement évaluées et corrigées.
[8] Notre approche est différente par le fait que nous considérons une conception où le fonctionnement en autonomie décisionnelle est le moyen principal d’opérer l’avion sans pilote pendant toute la mission, incluant le décollage et l’atterrissage (ou amerrissage). La commande à distance depuis une station au sol est secondaire. Partant de cette approche, un système correctif basé sur des évaluations cycliques des performances ou un mécanisme de règles : actions exécutées une fois des conditions sont remplies, devient insatisfaisant.
[9] Dans notre approche, nous avons identifié les fonctions principales suivantes nécessaires à l’autonomie décisionnelle recherchée : Une autonomie de comportement capable de remplacer la prise de décision du pilote afin d’exécuter les objectifs de la mission et faire face à des incertitudes ou à des situations exceptionnelles ; Une navigation automatique pour parcourir des trajets ou scanner des zones sans incidents et avec une optimisation de l’énergie ou du temps nécessaire pour chaque parcours ; Et une reconnaissance automatique des objets en utilisant les capteurs et en interprétant les données. La reconnaissance automatique est accompagnée par un indice de certitude qui est remonté à l’autonomie de comportement. Cette reconnaissance automatique permet au système d’envoyer uniquement l’information utile détectée au lieu d’un flux vidéo en utilisant une connexion satellitaire à très faible débit.
[10] Les composantes logicielles qui assurent ces trois fonctions principales identifiées sont : le Module de Comportement (103), le Module de Mission (104) et le Module de Vision (105). Le Module de Comportement (103) est le module principal qui est démarré au début de la mission. Il fait appel au Module de Mission (104) et au Module de Vision (105) pour récupérer des informations et exécuter des commandes.
[1 1 ] Nous définissons un Module comme étant un programme logiciel pouvant être chargé dans la mémoire d’un ordinateur et exécuté par ses processeurs, avec un espace de données statiques et dynamiques partagées et accessibles par l’ensemble des instructions du programme. Un Module peut être composé de sous-modules partageant les mêmes caractéristiques et pouvant accéder à l’espace des données du module parent.
[12] L’ensemble des Modules sont exécutés par un ordinateur principal (100) embarqué dans l’avion sans pilote. Celui-ci est connecté aux différents Systèmes de l’appareil (101 ).
[13] Nous appelons Systèmes de l’appareil (101 ) tous les dispositifs de commande et tous les dispositifs de capture des données présents dans l’appareil. Ces Systèmes incluent et ne se limitent pas à l’autopilote, les moteurs, les relais, les caméras, les capteurs, les dispositifs de télécommunication par satellite, par GSM ou par radio en général. [14] Un deuxième ordinateur secondaire (102) embarqué dans l’avion sans pilote peut être utilisé dans le cas de défaillance du premier ordinateur (100). L’ordinateur secondaire (102) est relié à l’ordinateur principal (100) par un moyen d’échange bidirectionnel d’informations tel qu’une connexion basée sur le standard Internet Protocole. L’ordinateur secondaire (102) vérifie régulièrement le bon fonctionnement du premier ordinateur (100) et prend le relai en cas de défaillance détectée. Seules des composantes essentielles à un retour sécurisé vers la zone d’atterrissage la plus proche sont embarquées dans l’ordinateur secondaire (102).
[15] Le Module de Comportement (103) est implémenté dans la mémoire de l’ordinateur comme un
Graphe orienté où chaque nœud est un Arbre de comportement (200) et chaque arc entre deux arbres A vers B est un appel d’une Action de l’Arbre A pour passer à l’exécution de la racine de l’Arbre B. Un seul Arbre est le point de départ d’exécution du Module de Comportement (103). Le nombre de d’arbres dans le Graphe est au moins un ; le nombre d’arcs est au moins zéro.
[16] Le modèle d’arbre de comportement utilisé est basé sur une arborescence de nœuds représentant des Conditions, des Actions et des Instructions standards qui structurent l’exécution de l’arbre. Chaque nœud peut prendre des paramètres en entrée et retourne une valeur booléenne vraie/fausse représentant les états de réussite/échec respectivement. La progression d’exécution du modèle se base sur des passes. Dans chaque passe l’ordinateur exécute le nœud racine et appelle l’exécution récursive de ses enfants.
[17] Une partie du Graphe des Arbres de comportement est fixe (106), définie par un humain selon le comportement désiré de l’appareil. Des Actions spéciales font toutefois appel à l’exécution algorithmes spécifiques d’apprentissage par renforcement (107). Des Conditions spécifiques font appel à des inférences sur des réseaux neurones (108). Un contexte global permet le partage de données entre l’ensemble de ces éléments : le Graphe des Arbres de comportement (106), les algorithmes d’apprentissage par renforcement (107), et les réseaux de neurones (108).
[18] Les Conditions représentent des informations récupérées auprès du Module de Mission (104), du Module de Vision (105), ou du Module de Comportement (103) qui représentent des données internes, des données relayées depuis les Systèmes de l’appareil (101 ) ou une combinaison des deux. Les Conditions ne peuvent être que vraies ou fausses.
[19] Les Actions représentent des commandes envoyées au Module de Mission (104), au Module de Vision (105), ou au Module de Comportement (103) qui ont un impact interne sur ces modules, un impact sur les Systèmes de l’appareil (101 ) ou une combinaison des deux. Les Actions sont considérées vraies si elles réussissent et fausses si elles échouent.
[20] Les Instructions standards sont composées d’instructions d’ordonnancement supportant plusieurs enfants, d’instructions de modification supportant un seul et unique enfant, et d’instructions feuilles ne supportant par d’enfants.
[21 ] Sans que cette liste ne soit restrictive, les instructions d’ordonnancement supportant plusieurs enfants sont : exécution séquentielle des nœuds enfants et fin avec échec dès qu’un enfant échoue (201 ) ; exécution séquentielle des nœuds enfants et fin avec échec seulement si tous les enfants échouent (202) ; exécution parallèle des nœuds enfants (203) ; exécution aléatoire des nœuds enfants et fin avec échec dès qu’un enfant échoue (204) ; exécution aléatoire des nœuds enfants et fin avec échec seulement si tous les enfants échouent (205).
[22] Sans que cette liste ne soit restrictive, les instructions de modification supportant un seul et unique enfant sont : Interrupteur d’exécution du nœud enfant (210) à la demande d’une Instruction d’interruption (221 ) ; Inverseur du résultat d’exécution du nœud enfant (21 1 ) ; Limiteur du nombre d’exécutions de l’enfant (212) ; Répéteur de l’exécution du nœud enfant indéfiniment (213) ; Répéteur de l’exécution du nœud enfant jusqu’à son échec (214) ; Instruction qui force le succès du nœud enfant (215). [23] Sans que cette liste ne soit restrictive, les instructions feuilles ne supportant par d’enfants sont : Attendre pendant une durée définie (220) ; Exécuter une interruption (221 ) ; Retourner vrai (222) ; Retourner Faux (223) ; Changer des données dans le contexte global (224) ; Exécuter un arbre (créant ainsi un arc dans le graphe) (225) ; Exécuter une Action (226) ; Vérifier une Condition (227) ; Exécuter un algorithme spécifique d’apprentissage par renforcement (107) ; Vérifier une inférence sur un réseau de neurones (108).
[24] Le Module de Mission (104) est composé des modules de : Modèle de terrain (109), Processeur de mission (1 10), Détecteur des obstacles (1 1 1 ), Planificateur de vol (1 12), Scanneur de surfaces (1 13), Décollage & atterrissage (1 14), Suiveur d’objets (115), Manoeuvres spéciales (116), Estimateur d’énergie & de temps (117), Ajustements avancés (1 18), et Centre des communications (1 19). L’ensemble de ces modules partagent le même espace de données dans l’ordinateur.
[25] Le Module de Mission (104) est l’interface entre le Module de Comportement (103) et les Systèmes de l’appareil (101 ). Il envoi des commandes discrètes aux Systèmes de l’appareil (101 ) en réponse aux Actions du Module de Comportement (103) et récupère et consolide les informations récupérées de ces systèmes (101 ) pour les alimenter aux Conditions.
[26] Le Modèle de terrain (109) est un sous-module du Module de Mission (104). Il garde en mémoire et met à jour au besoin un modèle de représentation tridimensionnelle du terrain incluant mais non limité aux données d’élévation, des maillages, le volume de géo-clôture d’où l’appareil ne doit en aucun cas sortir, les zones d’interdiction de vol, et les prévisions météorologiques.
[27] Le Processeur de mission (1 10) est un sous-module du Module de Mission (104). Il garde en mémoire et met à jour au besoin des informations relatives aux tâches et objectifs de la mission attribuée à l’appareil, ainsi que le statut actuel de progression dans l’exécution des tâches.
[28] Le Détecteur des obstacles (1 1 1 ) est un sous-module du Module de Mission (104). Il traite les données des capteurs de l’appareils et extrait les informations utiles sur les objets qui entourent l’appareil dans son environnement en dehors de l’élévation qui est déjà préexistante dans le Module de Terrain (109).
[29] Le Planificateur de vol (1 12) est un sous-module du Module de Mission (104). Il reçoit en entrée principalement les données du Modèle de Terrain (109) et le Détecteur des obstacles (1 1 1 ) et génère des plans de vol optimisés reliant tout point A à tout point B à l’intérieur de la géo-clôture. Ces plans de vol sont utilisés dans des calculs plus complexes ou transmis à l’autopilote pour être exécutées par l’appareil, dépendamment de l’Action initiée par le Module de Comportement (103).
[30] Le Scanneur de surfaces (1 13) est un sous-module du Module de Mission (104). Il reçoit en entrée principalement les données du Modèle de Terrain (109) et le Détecteur des obstacles (1 1 1 ) et génère des plans de vol optimisés destinés à couvrir le plus efficacement possible de zones géographiques définies selon des modèles adaptés.
[31 ] Le Décollage & atterrissage (1 14) est un sous-module du Module de Mission (104). Il détermine les manoeuvres nécessaires pour réussir en toute sécurité les phases sensibles de décollage et d’atterrissage, les traduit en commandes, et les envoie à l’autopilote à la demande des Actions du Module de Comportement (103).
[32] Le Suiveur d’objets (1 15) est un sous-module du Module de Mission (104). Il détermine les manoeuvres nécessaires pour suivre un objet selon des paramètres définis, les traduit en commandes, et les envoie à l’autopilote à la demande des Actions du Module de Comportement (103).
[33] Manoeuvres spéciales (1 16) est un sous-module du Module de Mission (104). Il dispose des commandes paramétrables nécessaires pour effectuer des manœuvres spéciales. Ces manœuvres incluent mais ne se limitent pas à planer en silence, fuir en zigzags, ou le larguer une charge. Ces commandes sont envoyées à l’autopilote à la demande d’une Action du Module de Comportement (103).
[34] L’Estimateur d’énergie & de temps (1 17) est un sous-module du Module de Mission (104). Il reçoit principalement en entrée les données des modules de Planificateur de vol (1 12), Scanneur de surfaces (1 13) et Décollage & atterrissage (1 14) ainsi que l’historique des capteurs embarqués pour calculer en sortie l’énergie ou le temps nécessaire à exécuter une tâche par le Processeur de mission (1 10) avec une estimation de l’erreur.
[35] Ajustements avancés (1 18) est un sous-module du Module de Mission (104). Il exécute en arrière- plan en continue un algorithme de trial & error qui injecte régulièrement des modifications des paramètres de l’autopilote et analyse l’impact sur l’endurance de l’appareil afin de la maximiser.
[36] Le Centre de communication (1 19) est un sous-module du Module de Mission (104). Il enregistre et traite les messages entrants et sortants. Le traitement consiste en le cryptage et l’envoi des messages sortants, ou le décryptage et le transfert des messages entrants.
[37] Certains sous-modules du Module de Mission (104) restent passifs en attendant qu’un sous- programme soit déclenché par le Module de comportement (103). D’autres s’exécutent automatiquement au démarrage et restent en arrière-plan. C’est le cas des Modules Détecteur des Obstacles (1 1 1 ) et Ajustements avancées (1 18).
[38] Le Module de Vision (105) est composé d’un ensemble de sous-modules qui sont généralement exécutés séquentiellement et qui sont : Préprocesseur d’images (118), Détection de régions (119), et Classification (120).
[39] Le Préprocesseur d’images (1 18) est un sous-module du Module de Vision (105). Il récupère la dernière image du capteur, lui applique certains filtres et la découpe selon l’altitude de l’appareil, son attitude, et les spécifications du capteur. Chaque image découpée est injectée en entrée au Module de Détection de régions (1 19).
[40] La Détection de régions (1 19) est un sous-module du Module de Vision (105). Il exécute une inférence par réseaux de neurones sur l’image en entrée et retourne les objets détectés avec leurs positions sur l’image sous forme d’un rectangle qui sont traduites en positions sur le monde réel. Chaque rectangle est ensuite découpé de l’image est injecté en entrée au Module de Classification (120).
[41 ] La Classification (120) est un sous-module du Module de Vision (105). Il exécute un ensemble de sous-programmes qui génèrent des informations sur l’objet avec des taux d’erreur calculés. Ces sous- programmes incluent mais ne se limitent pas à une inférence de classification par réseau de neurones, à la détection de Descripteurs et la comparaison avec une base de données existante de Descripteurs, à l’exécution de filtres spéciaux, et à la récupération d’information extraites de l’image filtrée.
[42] Un procédé de fonctionnement typique de ce système, issu d’une implémentation spécifique du Graphe dans le Module de Comportement avec un premier Arbre de comportement (200) qui comprend une exécution séquentielle de : l’Action d’armer l’autopilote (230) ; suivi de la vérification de la Condition de météo acceptable pour le vol (250); suivi de la vérification de la Condition de disponibilité de suffisamment d’énergie (251 ), au niveau de l’Estimateur d’énergie & de temps (1 17), pour exécuter l’ensemble des tâches alimentées dans le Processeur de Mission (1 10) ; suivi, selon le résultat de la condition, de l’interruption de la mission ou l’exécution en parallèle (203) des procédés qui représentent des arbres de comportement de : la navigation ; la communication ; et la détection.
[43] L’arbre de navigation comprend une exécution séquentielle (201 ) de : l’Action de décollage (231 ) au niveau du Module de Décollage & atterrissage (1 14) ; suivie d’une exécution en boucle (214) de la séquence (201 ) : de vérification de la Condition qu’il ne reste aucune tâche (252) ; suivi de la vérification de la Condition que l’énergie est suffisante (251 ), au niveau de l’Estimateur d’énergie & de temps (1 17), pour exécuter la tâche suivante ; suivi, selon le résultat de la Condition (251 ), de l’interruption de la mission ou de l’Action d’exécuter la tâche suivante (232). La boucle (214) se termine à la vérification de la Condition qu’il ne reste aucune tâche (252) au niveau du Planificateur de Mission (1 10) ; A la suite à cela, l’Action d’atterrissage (233) est exécutée au niveau du Module de Décollage & atterrissage (1 14).
[44] L’arbre de de communication comprend une boucle (214) qui exécute en séquence (201 ) : Vérification de la Condition de réception de nouvelles commandes (253) au niveau du Centre de communication (1 19) ; suivi de l’exécution de l’Action relative à la commande (234) ; suivi de l’exécution de l’Action de reprise de la mission (235) en reprenant la dernière tâche indiquée par le Processeur de Mission (1 10).
[45] L’arbre de détection comprend une boucle (214) qui exécute en séquence (201 ) : Lancement de l’Action de détection (236) ; suivi de la vérification de la Condition du seuil de certitude de la détection de l’objet (254) requis par la mission ; suivi de, dans le cas où le résultat de la Condition (254) est positif, de l’exécution de l’Action d’envoi d’une alerte (237) au niveau du Centre de communication (1 19).
[46] Il est à noter que pour des besoins de simplifier la compréhension, seules les Actions et Conditions importantes ont été indiquées. Les Actions et Conditions ainsi que les Instructions standards non nécessaires à la compréhension de ce fonctionnement typique sont ignorées.
[47] L’Action d’exécuter la tâche suivante représente généralement une commande au Planificateur de vol (1 12) ou au Scanneur de surfaces (1 13) afin de calculer un plan de vol et l’exécuter au niveau de l’autopilote.
[48] L’Action d’atterrissage (233) englobe la recherche de la zone d’atterrissage la plus proche avec possibilité de la contraindre à présenter de bonnes conditions (qualité de la piste et sens du vent entre autres) selon le paramètres en entrée de l’Action.
[49] Le procédé de fonctionnement peut évidemment changer selon la configuration du Graphe de comportement. D’autres implémentations peuvent inclure et faire appel à titre d’exemple à : un arbre de détection et de correction des anomalies, un arbre d’investigation avancée d’un objet détecté, ou un arbre de navigation vers le point de connexion haut débit le plus proche pour envoyer des données volumineuses en cas de situation critique.
La figure 1 montre une représentation logique des composantes du système objet de cette invention.
La figure 2 montre un fonctionnement typique de ce système, issu d’une implémentation spécifique du Graphe dans le Module de Comportement (103).

Claims

Revendications
1 . Un système de navigation et de comportement autonomes de véhicule aérien sans pilote caractérisé par un Module de Comportement (103), un Module de Mission (104) et un Module de Vision (105) exécutés par un ordinateur principal (100) embarqué dans l’avion sans pilote. Celui-ci est connecté aux différents Systèmes de l’appareil (101) qui incluent tous les systèmes embarqués de commande et de capture des données : l’autopilote, les moteurs, les relais, les caméras, les capteurs, les dispositifs de télécommunication par satellite, GSM, ou radio en général.
2. Un système selon la revendication 1 caractérisé en ce que le Module de Comportement (103) est implémenté dans la mémoire de l’ordinateur comme un Graphe orienté où chaque nœud est un Arbre de comportement et chaque arc entre deux Arbres A vers B est un appel d’une Action de l’Arbre A pour passer à l’exécution de la racine de l’Arbre B. Un seul Arbre est le point de départ d’exécution du Module de Comportement (103). Le nombre d’Arbres est au moins un ; le nombre d’arcs est au moins zéro. Le modèle d’arbre de comportement utilisé est basé sur une arborescence de nœuds représentant des Conditions, des Actions et des Instructions standards qui structurent l’exécution de l’arbre. Les Conditions représentent des informations récupérées auprès du Module de Mission (104) , du Module de Vision (105), ou du Module de Comportement (103) qui représentent des données internes, des données relayées depuis les Systèmes de l’appareil (101) ou une combinaison des deux. Les Actions représentent des commandes envoyées au Module de Mission (104), au Module de Vision (105) ou au Module de Comportement (103) qui ont un impact interne sur ces modules, un impact sur les Systèmes de l’appareil (101) ou une combinaison des deux.
3. Un système selon les revendications 1 et 2 caractérisé en ce qu’une partie du Graphe des Arbres de comportement est fixe (106), définie par un humain selon le comportement désiré de l’appareil. Des Actions spéciales font toutefois appel à l’exécution d’algorithmes spécifiques d’apprentissage par renforcement (107). Des Conditions spécifiques font appel à des inférences sur des réseaux neurones (108). Un contexte global permet le partage de données entre l’ensemble de ces éléments : le Graphe des Arbres de comportement (106), les algorithmes d’apprentissage par renforcement (107), et les réseaux de neurones (108).
4. Un système selon la revendication 1 caractérisé en ce que le Module de Mission (104) est l’interface entre le Module de Comportement (103) et les Systèmes de l’appareil (101). Il (104) est composé des modules de : Modèle de terrain (109), Processeur de mission (1 10), Détecteur des obstacles (1 1 1 ), Planificateur de vol (1 12), Scanneur de surfaces (1 13), Décollage & atterrissage (1 14), Suiveur d’objets (115), Manœuvres spéciales (116), Estimateur d’énergie & de temps (117), Ajustements avancés (1 18), et Centre des communications (1 19). L’ensemble de ces modules partagent le même espace de données dans l’ordinateur.
5. Un système selon la revendication 1 caractérisé en ce que le Module de Vision (105) est composé d’un ensemble de sous-modules qui sont : Préprocesseur d’images (118), Détection de régions (119), et Classification (120).
6. Un procédé de navigation et de comportement autonomes de véhicule aérien sans pilote caractérisé par l’exécution qui commence par un Arbre de démarrage du Graphe du Module de comportement (103). La progression d’exécution du modèle se base sur des passes. Dans chaque passe l’ordinateur (100) exécute le nœud racine et appelle l’exécution récursive de ses enfants. Ces derniers pouvant être des Conditions, des Actions ou des Instructions standards qui structurent l’exécution de l’Arbre. Les Conditions représentent des informations récupérées auprès du Module de Mission (104) , du Module de Vision (105), ou du Module de Comportement (103) qui représentent des données internes, des données relayées depuis les Systèmes de l’appareil (101) ou une combinaison des deux. Les Actions représentent des commandes envoyées au Module de Mission (104), au Module de Vision (105) ou au Module de Comportement (103) qui ont un impact interne sur ces modules, un impact sur les Systèmes de l’appareil (101) ou une combinaison des deux.
7. Un procédé selon la revendication 6 caractérisé en ce qu’une partie du Graphe des Arbres de comportement est fixe (106), définie par un humain selon le comportement désiré de l’appareil. Des Actions spéciales font toutefois appel à l’exécution d’algorithmes spécifiques d’apprentissage par renforcement (107). Des Conditions spécifiques font appel à des inférences sur des réseaux neurones (108).
8. Un procédé selon la revendication 6 caractérisé en ce que le Module de Mission (104) envoi des commandes discrètes aux Systèmes de l’appareil (101) en réponse aux Actions du Module de Comportement (103) et récupère et consolide les informations récupérées de ces systèmes (101 ) pour les alimenter aux Conditions.
En particulier, le Modèle de terrain (109) garde en mémoire et met à jour au besoin un modèle de représentation tridimensionnelle du terrain ;
Le Processeur de mission (1 10) garde en mémoire et met à jour au besoin des informations relatives aux tâches et objectifs de la mission attribuée à l’appareil, ainsi que le statut actuel de progression dans l’exécution des tâches ;
Le Détecteur des obstacles (111) traite les données des capteurs de l’appareils et extrait les informations utiles sur les objets qui entourent l’appareil dans son environnement en dehors de l’élévation qui est déjà préexistante dans le Module de Terrain (109) ;
Le Planificateur de vol (1 12) reçoit en entrée principalement les données du Modèle de Terrain (109) et du Détecteur des obstacles (1 1 1 ) et génère des plans de vol optimisés reliant tout point A à tout point B à l’intérieur de la géo-clôture ;
Le Scanneur de surfaces (1 13) reçoit en entrée principalement les données du Modèle de Terrain (109) et du Détecteur des obstacles (1 1 1 ) et génère des plans de vol optimisés destinés à couvrir le plus efficacement possible des zones géographiques définies selon des modèles adaptés ;
Le Décollage & atterrissage (114) détermine les manoeuvres nécessaires pour réussir en toute sécurité les phases sensibles de décollage et d’atterrissage, les traduit en commandes, et les envoie à l’autopilote à la demande des Actions du Module de Comportement (103) ;
Le Suiveur d’objets (115) détermine les manoeuvres nécessaires pour suivre un objet selon des paramètres définis, les traduit en commandes, et les envoie à l’autopilote à la demande des Actions du Module de Comportement (103).
Manoeuvres spéciales (116) dispose des commandes paramétrables nécessaires pour effectuer des manœuvres spéciales. Ces manœuvres incluent mais ne se limitent pas à planer en silence, fuir en zigzags, ou le larguer une charge. Ces commandes sont envoyées à l’autopilote à la demande d’une Action du Module de Comportement (103) ;
L’Estimateur d’énergie & de temps (117) reçoit principalement en entrée les données des Modules Planificateur de vol (1 12), Scanneur de surfaces (1 13) et Décollage & atterrissage (1 14) ainsi que l'historique des capteurs embarqués pour calculer en sortie l’énergie ou le temps nécessaire à exécuter une tâche par le Processeur de mission (110) avec une estimation de l’erreur ;
Ajustements avancés (1 18) exécute en arrière-plan en continue un algorithme de trial & error qui injecte régulièrement des modifications des paramètres de l’autopilote et analyse l’impact sur l’endurance de l’appareil ;
Le Centre de communication (1 19) enregistre et traite les messages entrants et sortants. Le traitement consiste en le cryptage et envoi des messages sortants, ou le décryptage et transfert des messages entrants.
9. Un procédé selon la revendication 6 caractérisé en ce que le Préprocesseur d’images (118) récupère la dernière image du capteur, lui applique certains filtres et la découpe selon l’altitude de l’appareil, son attitude, et les spécifications du capteur. Chaque image découpée est injectée en entrée au Module de Détection de régions (1 19). Ce dernier exécute une inférence par réseau de neurones sur l’image en entrée et retourne les objets détectés avec leurs positions sur l’image sous forme d’un rectangle qui sont traduites en positions sur le monde réel. Chaque rectangle découpé de l’image est ensuite injecté en entrée au Module de Classification (120). Ce dernier exécute un ensemble de sous- programmes qui génèrent des informations sur l’objet avec des taux d’erreur calculés. Ces sous- programmes incluent mais ne se limitent pas à une inférence de classification, par réseau de neurones, à la détection de Descripteurs et la comparaison avec une base de données existante de Descripteurs, à l’exécution de filtres spéciaux et à la récupération d’informations extraites de l’image filtrée.
10. Un procédé selon les revendications 6, 7, 8 et 9 caractérisé par un fonctionnement typique de ce système, issu d’une implémentation spécifique du Graphe dans le Module de Comportement (103) avec un premier Arbre de comportement (200) qui comprend une exécution séquentielle de : l’Action d’armer l’autopilote (230) ; suivi de la vérification de la Condition de météo acceptable pour le vol (250); suivi de la vérification de la Condition de disponibilité de suffisamment d’énergie (251) pour exécuter l’ensemble des tâches alimentées dans le Processeur de Mission (1 10) ; suivi, selon le résultat de la condition, de l’interruption de la mission ou l’exécution en parallèle (203) des procédés qui représentent des arbres de comportement de : la navigation ; la communication ; et la détection où :
L’arbre de navigation comprend une exécution séquentielle (201) de : l’Action de décollage (231) ; suivie d’une exécution en boucle (214) de la séquence (201) : de vérification de la Condition qu’il ne reste aucune tâche (252) ; suivi de la vérification de la Condition que l’énergie est suffisante (251), au niveau de l’Estimateur d’énergie & de temps (117), pour exécuter la tâche suivante ; suivi, selon le résultat de la Condition (251), de l’interruption de la mission ou de l’Action d’exécuter la tâche suivante (232). La boucle (214) se termine à la vérification de la Condition qu’il ne reste aucune tâche (252) ; A la suite à cela, l’Action d’atterrissage (233) est exécutée.
L’arbre de de communication comprend une boucle (214) qui exécute en séquence (201 ) : la vérification de la Condition de réception de nouvelles commandes (253) ; suivi de l’exécution de l’Action relative à la commande (234) ; suivi de l’exécution de l’Action de reprise de la mission (235) en reprenant la dernière tâche.
L’arbre de détection comprend une boucle (214) qui exécute en séquence (201 ) : le lancement de l’Action de détection (236) ; suivi de la vérification de la Condition du seuil de certitude de la détection de l’objet (254) requis par la mission ; suivi de, dans le cas où le résultat de la Condition (254) est positif, de l’exécution de l’Action d’envoi d’une alerte (237).
PCT/MA2018/050013 2017-12-05 2018-12-04 Navigation et comportement autonomes de véhicule sans pilote sans liaison avec la station de contrôle Ceased WO2019112407A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
MAMA41572 2017-12-05
MA41572A MA41572B1 (fr) 2017-12-05 2017-12-05 Navigation et comportement autonomes de vehicule sans pilote sans liaison avec la station de controle

Publications (1)

Publication Number Publication Date
WO2019112407A1 true WO2019112407A1 (fr) 2019-06-13

Family

ID=65019551

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/MA2018/050013 Ceased WO2019112407A1 (fr) 2017-12-05 2018-12-04 Navigation et comportement autonomes de véhicule sans pilote sans liaison avec la station de contrôle

Country Status (2)

Country Link
MA (1) MA41572B1 (fr)
WO (1) WO2019112407A1 (fr)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111353606A (zh) * 2020-02-29 2020-06-30 中国电子科技集团公司第五十二研究所 一种基于模糊决策树的深度强化学习空战博弈解释方法和系统
CN111914412A (zh) * 2020-07-21 2020-11-10 同济大学 一种基于错误注入器的自动驾驶性能局限测试系统及方法
CN112099525A (zh) * 2020-08-31 2020-12-18 北京航空航天大学 一种航天器编队飞行低通讯连通保持协同控制方法
CN113110114A (zh) * 2021-05-24 2021-07-13 北京润科通用技术有限公司 一种超实时联合仿真的调度方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060106506A1 (en) 2004-11-16 2006-05-18 Nichols William M Automatic contingency generator
US20110184604A1 (en) 2005-02-16 2011-07-28 Lockheed Martin Corporation Hierarchical contingency management system for mission planners
US20150051783A1 (en) * 2012-03-22 2015-02-19 Israel Aerospace Industries Ltd. Planning and monitoring of autonomous-mission
WO2016033796A1 (fr) * 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Sélection de mode de vol basée sur le contexte
US20160187882A1 (en) * 2011-08-16 2016-06-30 Unmanned Innovation, Inc. Modular flight management system incorporating an autopilot
EP3101502A2 (fr) 2015-06-05 2016-12-07 The Boeing Company Prise de décision de véhicule aérien télépiloté autonome

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060106506A1 (en) 2004-11-16 2006-05-18 Nichols William M Automatic contingency generator
US20110184604A1 (en) 2005-02-16 2011-07-28 Lockheed Martin Corporation Hierarchical contingency management system for mission planners
US20160187882A1 (en) * 2011-08-16 2016-06-30 Unmanned Innovation, Inc. Modular flight management system incorporating an autopilot
US20150051783A1 (en) * 2012-03-22 2015-02-19 Israel Aerospace Industries Ltd. Planning and monitoring of autonomous-mission
WO2016033796A1 (fr) * 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Sélection de mode de vol basée sur le contexte
EP3101502A2 (fr) 2015-06-05 2016-12-07 The Boeing Company Prise de décision de véhicule aérien télépiloté autonome

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111353606A (zh) * 2020-02-29 2020-06-30 中国电子科技集团公司第五十二研究所 一种基于模糊决策树的深度强化学习空战博弈解释方法和系统
CN111353606B (zh) * 2020-02-29 2022-05-03 中国电子科技集团公司第五十二研究所 一种基于模糊决策树的深度强化学习空战博弈方法和系统
CN111914412A (zh) * 2020-07-21 2020-11-10 同济大学 一种基于错误注入器的自动驾驶性能局限测试系统及方法
CN111914412B (zh) * 2020-07-21 2023-07-04 同济大学 一种基于错误注入器的自动驾驶性能局限测试系统及方法
CN112099525A (zh) * 2020-08-31 2020-12-18 北京航空航天大学 一种航天器编队飞行低通讯连通保持协同控制方法
CN113110114A (zh) * 2021-05-24 2021-07-13 北京润科通用技术有限公司 一种超实时联合仿真的调度方法及装置

Also Published As

Publication number Publication date
MA41572B1 (fr) 2019-08-30
MA41572A1 (fr) 2019-06-28

Similar Documents

Publication Publication Date Title
US12405615B2 (en) Cloud and hybrid-cloud flight vehicle and robotic control system AI and ML enabled cloud-based software and data system method for the optimization and distribution of flight control and robotic system solutions and capabilities
WO2019112407A1 (fr) Navigation et comportement autonomes de véhicule sans pilote sans liaison avec la station de contrôle
US8265818B2 (en) Open architecture command system
EP3489929B1 (fr) Système électronique de télé-pilotage de drones, procédé et programme d'ordinateur associés
US10921812B2 (en) System and method for rendezvous coordination of an autonomous automotive vehicle with an ambulance
CN110723150A (zh) 处理自主车辆处的乘坐者服务
FR3010809A1 (fr) Procede et dispositif de gestion automatique a bord d'un aeronef de messages audio de controle aerien.
US12260616B1 (en) Multi-task machine learning model for event detection
WO2021105055A1 (fr) Dispositif et procede d'aide a la decision pour la gestion de conflits aeriens
WO2020127703A1 (fr) Dispositif de pilotage destine a etre integre dans un aeronef preexistant
US20240231359A1 (en) Advanced flight processing system and/or method
CA3020086A1 (fr) Procede de controle de la restitution d'alerte(s) et/ou de procedure(s) de reconfiguration systeme(s), produit programme d'ordinateur et systeme de controle associes
WO2023137285A1 (fr) Systèmes et procédés d'optimisation de trajet de vol en nuage pour véhicules aériens sans pilote
US11392139B2 (en) Method, apparatus and control system for controlling mobile robot
Schirmer et al. Considerations of artificial intelligence safety engineering for unmanned aircraft
EP3232417A1 (fr) Securisation du sequencement du plan de vol d'un aeronef
WO2021094178A1 (fr) Système de pilotage de drone et procédé de pilotage associé
WO2023135202A1 (fr) Système de sélection de trajectoire d'un aéronef muni d'un système de navigation et guidage automatique sur une trajectoire
Shishkov et al. Using drones for resilience: a system of systems perspective
EP4078559A1 (fr) Gestion de l'encombrement spatial autour de la trajectoire d'un vehicule
US20230225036A1 (en) Power conservation tools and techniques for emergency vehicle lighting systems
US11988749B2 (en) System and method for hybrid LiDAR segmentation with outlier detection
FR3090979A1 (fr) Système de pilotage alternatif destiné à être intégré dans un aéronef préexistant
Smirnov et al. Knowledge elicitation and representation for module based perceptual capabilities onboard UAVs
FR3092428A1 (fr) Dispositif d’acquisition et d’analyse destiné à être intégré dans un aéronef préexistant

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18833729

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18833729

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 15/11/2021)

122 Ep: pct application non-entry in european phase

Ref document number: 18833729

Country of ref document: EP

Kind code of ref document: A1