[go: up one dir, main page]

JP7552581B2 - 行動制御装置および行動制御方法 - Google Patents

行動制御装置および行動制御方法 Download PDF

Info

Publication number
JP7552581B2
JP7552581B2 JP2021503966A JP2021503966A JP7552581B2 JP 7552581 B2 JP7552581 B2 JP 7552581B2 JP 2021503966 A JP2021503966 A JP 2021503966A JP 2021503966 A JP2021503966 A JP 2021503966A JP 7552581 B2 JP7552581 B2 JP 7552581B2
Authority
JP
Japan
Prior art keywords
self
unit
location estimation
estimation unit
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021503966A
Other languages
English (en)
Other versions
JPWO2020179491A1 (ja
Inventor
堅一郎 多井
正樹 半田
琢人 元山
駿 李
政彦 豊吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020179491A1 publication Critical patent/JPWO2020179491A1/ja
Priority to JP2024151434A priority Critical patent/JP2024163227A/ja
Application granted granted Critical
Publication of JP7552581B2 publication Critical patent/JP7552581B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/40Control within particular dimensions
    • G05D1/46Control of position or course in three dimensions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/20Arrangements for acquiring, generating, sharing or displaying traffic information
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/20Arrangements for acquiring, generating, sharing or displaying traffic information
    • G08G5/26Transmission of traffic-related information between aircraft and ground stations
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/30Flight plan management
    • G08G5/34Flight plan management for flight plan modification
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/50Navigation or guidance aids
    • G08G5/53Navigation or guidance aids for cruising
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/50Navigation or guidance aids
    • G08G5/55Navigation or guidance aids for a single aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/50Navigation or guidance aids
    • G08G5/57Navigation or guidance aids for unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/70Arrangements for monitoring traffic-related situations or conditions
    • G08G5/74Arrangements for monitoring traffic-related situations or conditions for monitoring terrain
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/80Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、行動制御装置および行動制御方法に関し、特に、より適切な行動制御を実現することができるようにした行動制御装置および行動制御方法に関する。
従来、いわゆるドローンと称される無人航空機(UAV:Unmanned Aerial Vehicle)などの移動体は、例えば、ユーザの操作に応じて飛行する他、予め指定されたウェイポイントを通過するというミッションに従って飛行すること(以下、ミッション飛行と称する)ができる。
このようなミッション飛行を実現するには、ドローンが、自己の位置を推定するための自己位置推定システムを備える必要がある。例えば、自己位置推定システムには、GPS(Global Positioning System)センサを利用して自己の位置を推定する手法や、ビジョンセンサを利用して自己の位置を推定する手法などが主に用いられ、その他にも様々な手法を用いることができる。
例えば、GPSセンサを利用した自己位置推定システムは、GPSを広範囲で利用することができるメリットがある一方で、自己位置を推定する精度が低い(例えば、数メートル程度の誤差)というデメリットがある。また、ビジョンセンサを利用した自己位置推定システムは、自己位置を推定する精度が高い(例えば、数センチ程度の誤差)というメリットがある一方で、ビジョンが有効に利用できる範囲が狭く、一様な見た目や遠景などにおいては利用することができないというデメリットがある。
また、特許文献1には、複数の位置情報を取得して移動範囲の情報を設定することによって、移動する経路または範囲を、より正確に設定することが可能な移動体が開示されている。
特許第6289750号
ところで、従来のドローンでは、例えば、ミッション飛行の全体に亘って同一の自己位置推定システムを利用するように構成されていたため、自己位置を推定する際の推定精度を変えながら、状況に応じた適切な飛行制御を行うことは困難であった。例えば、あるウェイポイントでは高精度で自己位置を推定しながら飛行させたり、あるウェイポイントでは低精度であっても高速で飛行させたりするというようなミッション飛行を行うことが実現されていなかった。
本開示は、このような状況に鑑みてなされたものであり、より適切な行動制御を実現することができるようにするものである。
本開示の一側面の行動制御装置は、移動体の位置を推定するのに使用する自己位置推定部を、推定精度の異なる複数の前記自己位置推定部の中から指標に基づいて選択して、前記移動体の状態を求める状態特定部と、前記移動体の状態に基づいて、予め作成された行動計画に従って前記移動体の行動を制御する行動制御部とを備え、前記自己位置推定部には、画像センサから取得した情報を利用するVisionベース自己位置推定部と、GPS(Global Positioning System)センサから取得した情報を利用するGPSベース自己位置推定部とを含む
本開示の一側面の行動制御方法は、前記移動体の位置を推定するのに使用する自己位置推定部を、推定精度の異なる複数の前記自己位置推定部の中から指標に基づいて選択して、前記移動体の状態を求めることと、前記移動体の状態に基づいて、予め作成された行動計画に従って前記移動体の行動を制御することとを含み、前記自己位置推定部には、画像センサから取得した情報を利用するVisionベース自己位置推定部と、GPSセンサから取得した情報を利用するGPSベース自己位置推定部とを含む
本開示の一側面においては、移動体の位置を推定するのに使用する自己位置推定部が、推定精度の異なる複数の自己位置推定部の中から指標に基づいて選択されて、移動体の状態が求められ、移動体の状態に基づいて、予め作成された行動計画に従って移動体の行動が制御される。そして、自己位置推定部には、画像センサから取得した情報を利用するVisionベース自己位置推定部と、GPSセンサから取得した情報を利用するGPSベース自己位置推定部とが含まれる。
ミッション飛行について説明する図である。 本技術を適用したミッション飛行制御装置の第1の実施の形態の構成例を示すブロック図である。 EKF処理部の構成例を示す図である。 ミッション飛行設定画面の一例を示す図である。 自己位置推定システムの切り替えについて説明する図である。 ミッション飛行制御処理を説明するフローチャートである。 EKF処理を説明するフローチャートである。 高度および速度の有効範囲を視覚化したユーザインタフェースの一例を示す図である。 推定精度を視覚化したユーザインタフェースの一例を示す図である。 自己位置推定システムごとの高度および速度についての有効範囲を説明する図である。 Visionベース自己位置推定が選択不可であることを視覚化したユーザインタフェースの一例を示す図である。 高精度優先でウェイポイントWPを自動的に選択するウェイポイント設定処理を説明するフローチャートである。 速度優先でウェイポイントWPを自動的に選択するウェイポイント設定処理を説明するフローチャートである。 速度および自己位置推定システムの指定に応じて、ウェイポイントWPごとの高度を自動的に選択するウェイポイント設定処理を説明するフローチャートである。 ミッション飛行制御装置での位置合わせについて説明する図である。 障害物の位置に基づいて、障害物を回避するようにミッション飛行をカスタマイズする方法について説明する図である。 障害物マップを利用したウェイポイントの微調整について説明する図である。 本技術を適用したミッション飛行制御装置の第2の実施の形態の構成例を示すブロック図である。 ミッション飛行をカスタマイズする処理を説明するフローチャートが示されている。 障害物の測距精度を視覚化したユーザインタフェースの一例を示す図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
<ミッション飛行について>
図1を参照して、ドローンのミッション飛行について説明する。
例えば、図1に示すように、6カ所のウェイポイントWP1乃至WP6が指定されている場合、スタート位置であるウェイポイントWP1からゴール位置であるウェイポイントWP6まで順番に、ウェイポイントWP2乃至WP5を通過するような経路で行動計画が作成される。この場合、ドローン1は、図1において2点鎖線で示されるような経路に沿って飛行するミッション飛行を実行することができる。
なお、本実施の形態では、ドローン1が通過する際の指標としてウェイポイントWPを利用するミッション飛行について説明するが、ウェイポイントWPを利用する以外に、例えば、ドローン1の行動タスク(撮像を行うや、物品を搬送するなど)を指定して行動計画を作成してもよい。即ち、ユーザがウェイポイントWPを指定することに限らず、行動タスクの内容に従ってウェイポイントWPが指定されるようにしてもよい。なお、ウェイポイントWPの位置は、例えば、ドローン1が事前飛行を行う際にGPSに従って取得される位置情報または領域情報に基づいて特定することができる。
<ミッション飛行制御装置の第1の構成例>
図2は、本技術を適用したミッション飛行制御装置の第1の実施の形態の構成例を示すブロック図である。
図2に示すように、ミッション飛行制御装置11は、パーソナルコンピュータ12、行動計画作成部13、画像センサ14、慣性計測装置15、Visionベース自己位置推定部16、GPSベース自己位置推定部17、フライト制御部18、および、駆動部19を備えて構成される。また、フライト制御部18は、EKF(Extended Kalman Filter)処理部21、ナビゲータ22、および、駆動制御部23を備えて構成される。
例えば、図1のドローン1に、画像センサ14、慣性計測装置15、Visionベース自己位置推定部16、GPSベース自己位置推定部17、フライト制御部18、および、駆動部19が内蔵されるように、ミッション飛行制御装置11を構成することができる。
パーソナルコンピュータ12は、例えば、後述する図4に示すようなミッション飛行設定画面41を表示する表示部、および、マウスやキーボードなどの操作部を有しており、ユーザが、ウェイポイントWPを指定するのに用いられる。そして、パーソナルコンピュータ12は、ユーザにより指定されたウェイポイントWPを、行動計画作成部13に供給するとともに、フライト制御部18のEKF処理部21に供給する。
行動計画作成部13は、パーソナルコンピュータ12から供給されるウェイポイントWPを通過するようにドローン1を飛行させるための行動計画(Path plan)を作成して、フライト制御部18のナビゲータ22に供給する。
画像センサ14は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサなどの固体撮像素子を有している。そして、画像センサ14は、ドローン1の周囲を固体撮像素子で撮像することにより得られる画像の画像データ(Image data)を、Visionベース自己位置推定部16に供給する。
慣性計測装置15は、例えば、3軸のジャイロセンサなどから構成されるIMU(Inertial Measurement Unit)である。そして、慣性計測装置15は、ドローン1の飛行に伴って計測される加速度および角速度を、慣性計測データ(IMU data)としてVisionベース自己位置推定部16に供給するとともに、フライト制御部18のEKF処理部21に供給する。
Visionベース自己位置推定部16は、画像センサ14から供給される画像データ、および、慣性計測装置15から供給される慣性計測データを用いて、ドローン1の位置を推定する自己位置推定(Visual Inertial Odometry)を行う。例えば、Visionベース自己位置推定部16には、SLAM(Simultaneous Localization and Mapping)を利用することができる。そして、Visionベース自己位置推定部16は、画像データに基づいて自己位置推定を行った結果として得られる姿勢および速度(Pose/Velocity)を、Visionベースの観測情報としてフライト制御部18のEKF処理部21に供給する。
GPSベース自己位置推定部17は、例えば、GPSを利用して、ドローン1の位置を推定する自己位置推定を行う。そして、GPSベース自己位置推定部17は、GPSに基づいて自己位置推定を行った結果として得られるNED(North-East-Down)座標上での姿勢(Pose in NED)を、GPSベースの観測情報としてフライト制御部18のEKF処理部21に供給する。
フライト制御部18は、行動計画作成部13から供給される行動計画に従ってドローン1が飛行するように駆動部19を制御し、ドローン1の飛行制御を実行する。
駆動部19は、例えば、複数のロータを駆動するモータにより構成され、それらのロータにより発生する推力により、ドローン1を飛行させる。
EKF処理部21は、慣性計測装置15から供給される慣性計測データ、Visionベース自己位置推定部16から供給されるVisionベースの観測情報、および、GPSベース自己位置推定部17から供給されるGPSベースの観測情報に基づいて、ドローン1の状態(位置および姿勢)を求めるEKF処理を行う。そして、EKF処理部21は、EKF処理を行った結果得られるEKF処理結果として、ドローン1の状態を示す状態情報を、ナビゲータ22および駆動制御部23に供給する。なお、EKF処理部21の詳細な構成については、図2を参照して後述する。
ナビゲータ22は、行動計画作成部13から供給される行動計画に従ってドローン1が飛行するように、EKF処理部21から供給される状態情報に基づいて、駆動制御部23に対し、現在のドローン1の状態から経路に沿った飛行に必要な指示を行う。
駆動制御部23は、EKF処理部21から供給される状態情報に基づいて、ナビゲータ22からの指示に従ってドローン1を飛行させるために、駆動部19に対する駆動制御(例えば、位置制御(Position Control)および姿勢制御(Attitude Control))を行う。
以上のようにミッション飛行制御装置11は構成されており、例えば、ユーザは、パーソナルコンピュータ12を用いてウェイポイントWPを指定する際に、ウェイポイントWPごとに自己位置推定システムを指定することができる。即ち、ミッション飛行制御装置11では、ウェイポイントWPごとの自己位置推定システムとして、Visionベース自己位置推定部16またはGPSベース自己位置推定部17が指定され、いずれか一方の観測情報を用いた飛行制御が行われる。なお、ミッション飛行制御装置11では、ウェイポイントWPごとに、Visionベース自己位置推定部16およびGPSベース自己位置推定部17の両方の観測情報を組み合わせて、例えば、複数の観測情報を選択的に用いて飛行制御を行ってもよい。
従って、EKF処理部21は、最近傍のウェイポイントWPにおける自己位置推定システムとしてVisionベース自己位置推定部16が指定されている場合には、Visionベースの観測情報を選択してEKF処理を行う。一方、EKF処理部21は、最近傍のウェイポイントWPにおける自己位置推定システムとしてGPSベース自己位置推定部17が指定されている場合には、GPSベースの観測情報を選択してEKF処理を行う。
図3は、EKF処理部21の構成例を示すブロック図である。
図3に示すように、EKF処理部21は、EKF状態予測部31、最近傍ウェイポイント選択部32、観測情報選択部33、およびEKF状態更新部34を備えて構成される。
EKF状態予測部31には、EKF処理部21から周期的に出力される、最新のドローン1の状態を示す状態情報がEKF状態更新部34から供給される。そして、EKF状態予測部31は、その最新の状態情報から、図2の慣性計測装置15から供給される慣性計測データ(IMU data)に基づいて、次に状態情報を出力するタイミングにおけるドローン1の状態を予測する。そして、EKF状態予測部31は、予測したドローン1の状態を示す予測状態情報を、最近傍ウェイポイント選択部32およびEKF状態更新部34に供給する。例えば、予測状態情報は、EKFの状態変数であり、ドローン1の位置および姿勢や、慣性計測装置15が有するセンサのバイアス値などである。
最近傍ウェイポイント選択部32は、パーソナルコンピュータ12から供給された複数のウェイポイントWPの中から、EKF状態予測部31から供給される予測状態情報に基づくドローン1の位置に最も近い最近傍ウェイポイントを選択する。例えば、最近傍ウェイポイント選択部32は、NED座標系でのユークリッド距離が最短になるウェイポイントWPを、最近傍ウェイポイントとして選択する。そして、最近傍ウェイポイント選択部32は、最近傍ウェイポイントについて、Visionベース自己位置推定部16およびGPSベース自己位置推定部17のうち、どちらが自己位置推定システムとして指定されているかを示す指定情報を、観測情報選択部33に供給する。
観測情報選択部33は、最近傍ウェイポイント選択部32から供給される指定情報に従って、Visionベース自己位置推定部16から供給されるVisionベースの観測情報(Pose/Velocity)、および、GPSベース自己位置推定部17から供給されるGPSベースの観測情報(Pose in NED)のうち、いずれか一方を選択する。例えば、観測情報選択部33は、最近傍ウェイポイントにおける自己位置推定システムとしてVisionベース自己位置推定部16が指定されている場合、Visionベースの観測情報を選択して、EKF状態更新部34に供給する。一方、観測情報選択部33は、最近傍ウェイポイントにおける自己位置推定システムとしてGPSベース自己位置推定部17が指定されている場合、GPSベースの観測情報を選択して、EKF状態更新部34に供給する。
EKF状態更新部34は、観測情報選択部33が選択した観測情報に基づいて、EKF状態予測部31から供給される予測状態情報を更新し、最新の観測情報に基づいたドローン1の状態を求める。例えば、EKF状態更新部34は、観測情報に示される推定された位置に従って、EKF状態予測部31により予測されたドローン1の状態が、より正確なものとなるように更新する。そして、EKF状態更新部34は、ドローン1の状態を示す状態情報を、EKF処理部21におけるEKF処理結果として出力するとともに、EKF状態予測部31に供給する。
以上のように、EKF処理部21は、最近傍ウェイポイントにおける自己位置推定システムを選択することができ、ウェイポイントWPごとの状況に応じた推定精度で、ドローン1の状態を求めることができる。
従って、ミッション飛行制御装置11では、ウェイポイントWPごとに自己位置を推定する際の推定精度を変えながら、状況に応じた適切な飛行制御によってドローン1のミッション飛行を行うことができる。
また、本実施の形態のように、最近傍ウェイポイントについて、いずれかの自己位置推定システムが指定される構成の他、例えば、ウェイポイントWPに替えて、地図上の位置に応じていずれかの自己位置推定システムが指定される構成を採用してもよい。また、地図上の領域に応じていずれかの自己位置推定システムが指定される構成であってもよい。
なお、本実施の形態では、自己位置推定システムとしてVisionベース自己位置推定部16およびGPSベース自己位置推定部17を利用しているが、この2つを利用する構成に限定されることはない。例えば、ミッション飛行制御装置11は、高度センサや地磁気センサ、その他自己位置推定システム(UWB(Ultra Wide Band),wifi SLAM,OptiTrack、近距離無線通信ベースなど)を利用し、それらを切り替えて使用するような構成としてもよい。
図4は、ミッション飛行設定画面の一例を示す図である。
例えば、ミッション飛行設定画面41は、パーソナルコンピュータ12のGUI(Graphical User Interface)を利用して、ミッション飛行を行うのに必要な各種の指示を入力するのに用いられる。図示するように、ミッション飛行設定画面41は、マップ表示領域42および指示GUI表示領域43からなる。
マップ表示領域42には、例えば、ドローン1を飛行させる領域の地図が表示される。そして、マップ表示領域42に表示されている地図を利用してユーザがウェイポイントWP1乃至WP6を指示すると、その地図に重畳するようにウェイポイントWP1乃至WP6が表示される。
このとき、ウェイポイントWP1乃至WP6は、それぞれに対して指定されている自己位置推定システムを視覚化するように表示される。即ち、図4に示す例では、ウェイポイントWP1乃至WP3およびWP6が実線で表されており、自己位置推定システムとしてVisionベース自己位置推定部16が指定されていることが視覚化されている。また、ウェイポイントWP4およびWP5が破線で表されており、自己位置推定システムとしてGPSベース自己位置推定部17が指定されていることが視覚化されている。
また、マップ表示領域42では、ウェイポイントWP1乃至WP6を順番に接続する経路についても、それぞれの経路をドローン1が飛行する際に用いられる自己位置推定システムを視覚化するような表示が行われる。
例えば、図4に示す例では、自己位置推定システムとしてVisionベース自己位置推定部16が指定されているウェイポイントWP1乃至WP3を接続する経路は実線で表されており、その経路をドローン1が飛行する際にVisionベース自己位置推定部16が用いられることが視覚化されている。同様に、自己位置推定システムとしてGPSベース自己位置推定部17が指定されているウェイポイントWP4およびWP5を接続する経路は破線で表されており、その経路をドローン1が飛行する際にGPSベース自己位置推定部17が用いられることが視覚化されている。
さらに、ウェイポイントWP3およびWP4を接続する経路では、その経路をドローン1が飛行する際にVisionベース自己位置推定部16からGPSベース自己位置推定部17に切り替えられて用いられることが、実線から破線へ変化することで視覚化されている。同様に、ウェイポイントWP5およびWP6を接続する経路では、その経路をドローン1が飛行する際にGPSベース自己位置推定部17からVisionベース自己位置推定部16に切り替えられて用いられることが、破線から実線へ変化することで視覚化されている。
指示GUI表示領域43には、例えば、図5を参照して後述するように、ウェイポイントWPごとの自己位置推定システムを指示するのに利用されるGUIが表示される。
図5を参照して、ウェイポイントWPに対して指定される自己位置推定システムの切り替えについて説明する。図5には、ウェイポイントWP4に対して指定される自己位置推定システムを、GPSベース自己位置推定部17からVisionベース自己位置推定部16に切り替える例が示されている。
図5の上側に示すように、マップ表示領域42において、自己位置推定システムの切り替えの対象となるウェイポイントWP4を指定すると、指示GUI表示領域43に、自己位置推定システムを指定するためのチェックボックスが表示される。即ち、GPSベース自己位置推定部17を指定するためのチェックボックスと、Visionベース自己位置推定部16を指定するためのチェックボックスとが表示される。
このとき、GPSベース自己位置推定部17を指定するためのチェックボックスにチェックマークが表示されており、ウェイポイントWP4に対してGPSベース自己位置推定部17が指定されていることが視覚化されている。
そして、ユーザが、Visionベース自己位置推定部16を指定するためのチェックボックスに対する操作を行うと、図5の下側に示すように、Visionベース自己位置推定部16を指定するためのチェックボックスにチェックマークが表示される。これにより、マップ表示領域42において、ウェイポイントWP4の表示が破線から実線となるように変化する。さらに、ウェイポイントWP3およびWP4を接続する経路は実線で表され、ウェイポイントWP4およびWP5を接続する経路は破線から実線へ変化するように表される。
例えば、GPSベース自己位置推定部17の推定精度でドローン1を飛行させていた個所において、より高精度にドローン1を飛行させたい場合に、Visionベース自己位置推定部16に設定を切り替える操作が行われる。このように、ユーザは、ウェイポイントWPを通過する際に要求される推定精度に基づいて、自己位置推定システムを指定することができる。
<ミッション飛行制御処理>
図6に示すフローチャートを参照して、ミッション飛行制御装置11において実行されるミッション飛行制御処理について説明する。なお、ミッション飛行を行うのに必要な情報、例えば、ドローン1を飛行させる領域の地図や地形などの情報は、事前に低精度で飛行することによって取得されているものとする。
ステップS11において、ユーザは、パーソナルコンピュータ12を利用し、図4に示したミッション飛行設定画面41のマップ表示領域42に表示されている地図上にウェイポイントWPを指定する。これに応じて、パーソナルコンピュータ12は、ユーザにより指定されたウェイポイントWPを、行動計画作成部13に供給する。
ステップS12において、ユーザは、パーソナルコンピュータ12を利用し、ステップS11で指定したウェイポイントWPごとの自己位置推定システムとして、Visionベース自己位置推定部16またはGPSベース自己位置推定部17を指定する。これに応じて、パーソナルコンピュータ12は、ユーザにより指定されたウェイポイントWPごとの自己位置推定システムを、フライト制御部18のEKF処理部21に供給する。
ステップS13において、行動計画作成部13は、ステップS11で指定されたウェイポイントWPを通過するようなドローン1の行動計画を作成し、フライト制御部18のナビゲータ22に供給する。
ステップS14において、ユーザがドローン1に対する飛行開始を指示すると、その指示に応じてフライト制御部18が飛行制御を行う。これにより、ドローン1は、例えば、図1に示したスタート位置であるウェイポイントWP1に向かって飛行し、ステップS13で作成された行動計画に従った飛行を開始する。
ステップS15において、Visionベース自己位置推定部16は、画像センサ14から供給される画像データ、および、慣性計測装置15から供給される慣性計測データに基づいてドローン1の位置を推定し、Visionベースの観測情報を取得する。また、GPSベース自己位置推定部17は、GPSを利用してドローン1の位置を推定し、GPSベースの観測情報を取得する。
ステップS16において、EKF処理部21は、慣性計測装置15から供給される慣性計測データ、Visionベース自己位置推定部16から供給されるVisionベースの観測情報、および、GPSベース自己位置推定部17から供給されるGPSベースの観測情報に基づいて、ドローン1の状態を求めるEKF処理を行う。なお、EKF処理については、図7を参照して後述する。
ステップS17において、フライト制御部18は、ドローン1を経路に沿って飛行させる飛行制御を行う。即ち、ナビゲータ22は、ステップS13で行動計画作成部13により作成された行動計画に従ってドローン1が飛行するように、EKF処理部21から供給される状態情報に基づいて、駆動制御部23に対する指示を行う。そして、駆動制御部23は、EKF処理部21から供給される状態情報に基づいて、ナビゲータ22からの指示に従ってドローン1を飛行させるように、駆動部19に対する駆動制御を行う。
ステップS18において、ナビゲータ22は、例えば、図1に示したゴール位置であるウェイポイントWP6までドローン1が飛行したか否かを判定する。
ステップS18において、ナビゲータ22が、ゴール位置までドローン1が飛行していないと判定した場合、処理はステップS15に戻り、以下、同様の処理が繰り返して行われる。一方、ステップS18において、ナビゲータ22が、ゴール位置までドローン1が飛行したと判定した場合、処理はステップS19に進む。
ステップS19において、フライト制御部18は、ドローン1が飛行の終了に伴う所定動作、例えば、ホバリングなどを行うように飛行制御を行い、その後、ミッション飛行制御処理は終了される。
図7は、図6のステップS16で行われるEKF処理を説明するフローチャートである。
ステップS21において、EKF状態予測部31は、図2の慣性計測装置15から供給される慣性計測データに基づいて、ドローン1の状態(位置および姿勢)を予測する。
ステップS22において、最近傍ウェイポイント選択部32は、ステップS21でEKF状態予測部31により予測されたドローン1の位置に最も近い最近傍ウェイポイントを選択する。そして、最近傍ウェイポイント選択部32は、最近傍ウェイポイントに対して指定されている自己位置推定システムを示す指定情報を、観測情報選択部33に供給する。
ステップS23において、観測情報選択部33は、ステップS22で最近傍ウェイポイント選択部32から供給された指定情報に従って、観測情報を選択してEKF状態更新部34に供給する。例えば、観測情報選択部33は、最近傍ウェイポイントに対する自己位置推定システムとして、Visionベース自己位置推定部16が指定されている場合にはVisionベースの観測情報を選択し、GPSベース自己位置推定部17が指定されている場合にはGPSベースの観測情報を選択する。
ステップS24において、EKF状態更新部34は、ステップS23で観測情報選択部33から供給される観測情報に基づいて、ステップS21でEKF状態予測部31により予測されたドローン1の状態を更新する。そして、ドローン1の状態を示す状態情報を出力した後、EKF処理は終了される。
以上のようなミッション飛行制御処理およびEKF処理によって、ミッション飛行制御装置11は、ウェイポイントWPごとに自己位置推定システムを選択して、それぞれの推定精度で、ドローン1の適切な飛行制御を実現することができる。
<自己位置推定システムの指定に必要な情報の視覚化>
図8乃至図11を参照して、自己位置推定システムの指定に必要な情報の視覚化について説明する。
図8には、高度および速度の有効範囲を視覚化したユーザインタフェースの一例が示されている。
例えば、図8に示すように、ウェイポイントWP3における自己位置推定システムとしてVisionベース自己位置推定部16を指定したとき、高度および速度の有効範囲が視覚化して提示される。即ち、Visionベース自己位置推定部16を利用する場合、所定の精度以上で自己位置を推定することが可能な高度および速度が決められており、図8に示す例では、その高度および速度以上となる範囲がグレーアウトとなっている。
これにより、ユーザは、高度および速度の有効範囲を参考にして、自己位置推定システムとしてVisionベース自己位置推定部16を指定するかどうかを判断することができる。
図9には、推定精度を視覚化したユーザインタフェースの一例が示されている。
例えば、図9示すように、自己位置を推定する精度に基づく誤差範囲を表す誤差楕円が、一点鎖線の円形で提示される。即ち、Visionベース自己位置推定部16は高精度で自己位置を推定することができ、Visionベース自己位置推定部16を利用する経路には、誤差範囲が小さなことを表す小さな円形が一定間隔で表示される。一方、GPSベース自己位置推定部17は低精度で自己位置を推定することになり、GPSベース自己位置推定部17を利用する経路には、誤差範囲が大きいことを表す大きな円形が一定間隔で表示される。
例えば、誤差範囲を表す円形は、Visionベース自己位置推定部16およびGPSベース自己位置推定部17が利用するセンサのスペックから定数で指定したり、ユーザが指定したりすることができる。
これにより、ユーザは、ドローン1が利用する自己位置推定システムの推定精度を、地図上で経路に沿って容易に把握することができ、例えば、障害物とのマージンを確認することができる。
図10および図11を参照して、選択不可となる自己位置推定システムの視覚化について説明する。
例えば、図10に示すように、自己位置推定システムごとに、ドローン1の高度および速度についての有効範囲が求められる。
即ち、図10のAに示すように、ドローン1において下向きのステレオカメラを用いたSLAMを利用するVisionベース自己位置推定部16では、図10のBに示すように、SLAMのビジョンが有効な範囲として求められる。つまり、ステレオ視差有効限界以下となり、かつ、フレーム(時刻)間共通視野限界およびステレオ共通視野限界以上となる高度および速度が、SLAMのビジョンが有効な範囲となる。そして、ステレオ視差有効限界より高い高度、および、フレーム(時刻)間共通視野限界より低い高度では、慣性計測装置15のみが用いられる。さらに、ステレオ共通視野限界より低い高度では、慣性計測装置15および近接測距センサが用いられる。
例えば、ドローン1が速度X[m/s2]で飛行する場合、フレーム(時刻)間共通視野限界であるH1からステレオ視差有効限界である高度H2までが、Visionベース自己位置推定部16を利用できる高度の有効範囲として求められる。
従って、ミッション飛行制御装置11では、ウェイポイントWPにおける高度および速度が指定されるのに基づいて、Visionベース自己位置推定部16の有効範囲内であるか否かを判定することができる。そして、例えば、指定された高度および速度が、Visionベース自己位置推定部16の有効範囲内ではないと判定された場合、即ち、Visionベース自己位置推定部16の有効範囲外である場合、Visionベース自己位置推定部16の選択が自動的に不可となる。
従って、図11に示すように、指定された高度および速度が、Visionベース自己位置推定部16の有効範囲外である場合、指示GUI表示領域43において、Visionベース自己位置推定部16を選択するためのチェックボックスがグレーアウトとなる。即ち、Visionベース自己位置推定部16が選択不可であることが視覚化されている。
これにより、ユーザは、高度および速度に基づいて選択することができる自己位置推定システムを認識することができ、状況に応じた自己位置推定システムの選択を容易に行うことができる。
<指標に基づく自動設定処理>
図12乃至図14を参照して、優先事項に基づいて、ウェイポイントWPごとに自己位置推定システムや高度などを自動的に設定する自動設定処理について説明する。
図12は、高精度優先でウェイポイントWPを自動的に選択するウェイポイント設定処理を説明するフローチャートである。例えば、図12に示すウェイポイント設定処理は、図6のステップS12に替えて実行することができる。
例えば、図6のステップS11の処理後、ステップS31において、ユーザは、パーソナルコンピュータ12を利用し、ステップS11で指定したウェイポイントWPごとに、高度および速度を指定する。
ステップS32において、ユーザは、パーソナルコンピュータ12を利用し、ウェイポイントWPごとの自己位置推定システムを精度優先で、自動的に設定する処理を開始することを指示する。
ステップS33において、例えば、パーソナルコンピュータ12は、スタート位置であるウェイポイントWPから順に自己位置推定システムを設定する対象とし、その対象のウェイポイントWPについて、最も高精度の自己位置推定システムを仮設定する。
ステップS34において、パーソナルコンピュータ12は、ステップS31で指定された高度および速度が、現時点で仮設定されている自己位置推定システムを用いることができる有効範囲内であるか否かを判定する。
ステップS34において、パーソナルコンピュータ12が、高度および速度が有効範囲内でないと判定した場合、即ち、高度および速度が有効範囲外である場合、処理はステップS35に進む。
ステップS35において、パーソナルコンピュータ12は、現時点で仮設定されている自己位置推定システムの次に高精度の自己位置推定システムを仮設定する。その後、処理はステップS34に戻り、以下、同様の処理が繰り返して行われる。
一方、ステップS34において、高度および速度が有効範囲内であると判定した場合、処理はステップS36に進む。
ステップS36において、パーソナルコンピュータ12は、現時点で仮設定されている自己位置推定システムを、対象のウェイポイントWPに対して設定する。
ステップS37において、パーソナルコンピュータ12は、図6のステップS11でユーザにより指定された全てのウェイポイントWPについて自己位置推定システムを設定したか否かを判定する。
ステップS37において、パーソナルコンピュータ12が、全てのウェイポイントWPについて自己位置推定システムを設定していないと判定した場合、次のウェイポイントWPを対象として、処理はステップS33に戻る。そして、以下、同様の処理が繰り返して行われる。
一方、ステップS37において、パーソナルコンピュータ12が、全てのウェイポイントWPについて自己位置推定システムを設定したと判定した場合、ウェイポイント設定処理は終了し、図6のステップS13に進む。
以上のようなウェイポイント設定処理によって、ミッション飛行制御装置11は、ウェイポイントWPごとに高精度優先で自己位置推定システムを自動的に設定して、より高精度で飛行するように、ドローン1の適切な飛行制御を実現することができる。
図13は、速度優先でウェイポイントWPを自動的に選択するウェイポイント設定処理を説明するフローチャートである。例えば、図13に示すウェイポイント設定処理は、図6のステップS12に替えて実行することができる。
例えば、図6のステップS11の処理後、ステップS41において、ユーザは、パーソナルコンピュータ12を利用し、ステップS11で指定したウェイポイントWPごとに、高度および速度を指定する。
ステップS42において、ユーザは、パーソナルコンピュータ12を利用し、ウェイポイントWPごとの自己位置推定システムを速度優先で、自動的に設定する処理を開始することを指示する。
ステップS43において、例えば、パーソナルコンピュータ12は、スタート位置であるウェイポイントWPから順に自己位置推定システムを設定する対象とし、その対象のウェイポイントWPについて、最も高速度の自己位置推定システムを仮設定する。
ステップS44において、パーソナルコンピュータ12は、ステップS41で指定された高度および速度が、現時点で仮設定されている自己位置推定システムを用いることができる有効範囲内であるか否かを判定する。
ステップS44において、パーソナルコンピュータ12が、高度および速度が有効範囲内でないと判定した場合、即ち、高度および速度が有効範囲外である場合、処理はステップS45に進む。
ステップS45において、パーソナルコンピュータ12は、現時点で仮設定されている自己位置推定システムの次に高速度の自己位置推定システムを仮設定する。その後、処理はステップS44に戻り、以下、同様の処理が繰り返して行われる。
一方、ステップS44において、高度および速度が有効範囲内であると判定した場合、処理はステップS46に進む。
ステップS46において、パーソナルコンピュータ12は、現時点で仮設定されている自己位置推定システムを、対象のウェイポイントWPに対して設定する。
ステップS47において、パーソナルコンピュータ12は、図6のステップS11でユーザにより指定された全てのウェイポイントWPについて自己位置推定システムを設定したか否かを判定する。
ステップS47において、パーソナルコンピュータ12が、全てのウェイポイントWPについて自己位置推定システムを設定していないと判定した場合、次のウェイポイントWPを対象として、処理はステップS43に戻る。そして、以下、同様の処理が繰り返して行われる。
一方、ステップS47において、パーソナルコンピュータ12が、全てのウェイポイントWPについて自己位置推定システムを設定したと判定した場合、ウェイポイント設定処理は終了し、図6のステップS13に進む。
以上のようなウェイポイント設定処理によって、ミッション飛行制御装置11は、ウェイポイントWPごとに速度優先で自己位置推定システムを自動的に設定して、より高速度で飛行するように、ドローン1の適切な飛行制御を実現することができる。
図14は、速度および自己位置推定システムの指定に応じて、ウェイポイントWPごとの高度を自動的に選択するウェイポイント設定処理を説明するフローチャートである。例えば、図12に示すウェイポイント設定処理は、図6のステップS12に替えて実行することができる。
例えば、図6のステップS11の処理後、ステップS51において、ユーザは、パーソナルコンピュータ12を利用し、ステップS11で指定したウェイポイントWPごとに、自己位置推定システムおよび速度を指定する。
ステップS52において、ユーザは、パーソナルコンピュータ12を利用し、ウェイポイントWPごとの高度を、自動的に設定する処理を開始することを指示する。
ステップS53において、例えば、パーソナルコンピュータ12は、スタート位置であるウェイポイントWPから順に自己位置推定システムを設定する対象とし、その対象のウェイポイントWPについて、自己位置推定システムが有効な最も低い高度を算出する。
ステップS54において、パーソナルコンピュータ12は、ステップS53で算出された高度が、対象のウェイポイントWPに対して設定されている自己位置推定システムを用いたときの有効範囲内であるか否かを判定する。
ステップS54において、パーソナルコンピュータ12が、高度が有効範囲内でないと判定した場合、即ち、高度が有効範囲外である場合、処理はステップS55に進む。
ステップS55において、対象のウェイポイントWPに対して指定された自己位置推定システムおよび速度が指定不可であることを示すエラー表示を行い、ウェイポイント設定処理は終了される。即ち、この場合、ウェイポイントWPごとの高度を自動的に選択する処理が中止されることになる。
一方、ステップS54において、パーソナルコンピュータ12が、高度が有効範囲内であると判定した場合、処理はステップS56に進む。
ステップS56において、パーソナルコンピュータ12は、ステップS53で算出された高度を、対象のウェイポイントWPに対して設定する。
ステップS57において、パーソナルコンピュータ12は、図6のステップS11でユーザにより指定された全てのウェイポイントWPについて高度を設定したか否かを判定する。
ステップS57において、パーソナルコンピュータ12が、全てのウェイポイントWPについて高度を設定していないと判定した場合、次のウェイポイントWPを対象として、処理はステップS53に戻り、以下、同様の処理が繰り返して行われる。
一方、ステップS57において、パーソナルコンピュータ12が、全てのウェイポイントWPについて高度を設定したと判定した場合、ウェイポイント設定処理は終了し、図6のステップS13に進む。
以上のようなウェイポイント設定処理によって、ミッション飛行制御装置11は、ウェイポイントWPごとに高度を自動的に設定して、より低い高度で飛行するように、ドローン1の適切な飛行制御を実現することができる。
<ビジョンだけのときの地図上の位置表示方法>
図15を参照して、ビジョンだけのときの地図上の位置表示方法について説明する。
例えば、図4のマップ表示領域42に表示される地図上に、ドローン1の位置を表示するには、ドローン1の実際の位置と地図上の位置との位置合わせを行う必要がある。この位置合わせを行う方法としては、以下で説明する2つの方法が提案される。
第1の方法としては、図15において外部からデータをパーソナルコンピュータ12に向かう破線の矢印のように、ユーザがパーソナルコンピュータ12にデータを入力する方法が用いられる。即ち、ユーザが、ドローン1が離陸する位置の緯度や経度、方位角を示すデータをパーソナルコンピュータ12に入力することで、それらのデータを地図上で位置合わせすることができる。
第2の方法としては、図15においてGPSベース自己位置推定部17からデータをパーソナルコンピュータ12に向かう破線の矢印のように、GPSベース自己位置推定部17からデータをパーソナルコンピュータ12にデータを入力する方法が用いられる。即ち、ドローン1に搭載されているGPSベース自己位置推定部17から出力されるGPSベースの観測情報をパーソナルコンピュータ12に入力することで、ドローン1が離陸する位置の緯度や経度、方位角を示すデータを、地図上で位置合わせすることができる。
<ミッション飛行制御装置の第2の構成例>
図16乃至図20を参照して、ミッション飛行制御装置の第2の構成例について説明する。
例えば、ミッション飛行制御装置11は、障害物の位置に基づいて、障害物を回避するようにミッション飛行をカスタマイズすることができる。
まず、図16の上段に示すように、マップ表示領域42に表示される地図上で、障害物に当たらない範囲でウェイポイントWPが指定される。そして、そのウェイポイントWPに沿った経路でドローン1を飛行させることにより、図16の中段に示すような視点画像および障害物マップが取得される。
視点画像は、例えば、ドローン1に搭載されているカメラにより飛行する方向に向かって撮像された画像である。障害物マップは、例えば、ドローン1に搭載されているビジョンセンサによる測距に基づく障害物を3次元的に表現したマップ(Occupancy map)であり、図16の中段には、視点画像に対応する障害物マップの一例が示されている。
その後、ユーザは、障害物マップを参照して、ウェイポイントWPの位置を微調整するように、例えば、図16の下段に示すようにウェイポイントWP5を、障害物を回避しつつ、障害物の近傍まで近づけるように、ミッション飛行の経路をカスタマイズすることができる。
このとき、例えば、図17に示すように、ミッション飛行制御装置11は、3次元的に表現されている障害物マップに重畳させて、ウェイポイントWPおよび経路を表示させることができる。このような障害物マップを利用することで、より詳細に、例えば、障害物の高度を参照して、ウェイポイントWPの微調整を行うことができる。または、微調整の対象となっているウェイポイントWPの高度での障害物を、等高線を用いて表現した地図を利用してもよい。
図18は、ミッション飛行制御装置の第2の実施の形態の構成例を示すブロック図である。なお、図18に示すミッション飛行制御装置11Aにおいて、図2のミッション飛行制御装置11と共通する構成については、同一の符号を付し、その詳細な説明は省略する。
即ち、ミッション飛行制御装置11Aは、パーソナルコンピュータ12、行動計画作成部13、画像センサ14、慣性計測装置15、Visionベース自己位置推定部16、GPSベース自己位置推定部17、フライト制御部18、および、駆動部19を備えて構成される点で、図2のミッション飛行制御装置11と共通する。
そして、ミッション飛行制御装置11Aは、障害物マップ作成部20を備える点で、図2のミッション飛行制御装置11と異なる構成となっている。
障害物マップ作成部20には、画像センサ14から画像データ(Image data)が供給されるとともに、Visionベース自己位置推定部16からVisionベースの観測情報(Pose/Velocity)が供給される。そして、障害物マップ作成部20は、画像データおよびVisionベースの観測情報に基づいて、図16に示したような障害物マップを作成して、パーソナルコンピュータ12に供給する。
これにより、ユーザは、図16および図17に示したような障害物マップを利用してウェイポイントWPの微調整を行い、障害物を回避するようにミッション飛行をカスタマイズすることができる。
図19には、ミッション飛行をカスタマイズする処理を説明するフローチャートが示されている。
ステップS61において、ユーザは、パーソナルコンピュータ12を利用し、ミッション飛行設定画面41のマップ表示領域42に表示されている地図上で、ドローン1が障害物に当たらない範囲でウェイポイントWPを指定する。
ステップS62において、ユーザがドローン1に対する飛行開始を指示すると、その指示に応じてフライト制御部18が飛行制御を行って、ドローン1は、障害物マップを作成するための障害物マップ作成飛行を開始する。
ステップS63において、障害物マップ作成部20は、ドローン1の障害物マップ作成飛行中に、画像センサ14から供給される画像データ、および、Visionベース自己位置推定部16から供給されるVisionベースの観測情報に基づいて測距を行う。そして、障害物マップ作成部20は、ステップS61で指定されたウェイポイントWPに基づく経路において障害物が存在する範囲を表す障害物マップを作成する。
ステップS64において、フライト制御部18は、ステップS61で指定されたウェイポイントWPに基づく経路を全て通過して、障害物マップ作成飛行が終了した後、スタート位置でドローン1を待機させる。
ステップS65において、パーソナルコンピュータ12は、障害物マップ作成部20により作成された障害物マップを表示部に表示する。このとき、図16に示したように、マップ表示領域42に表示される地図に障害物ゾーンを重畳させて障害物マップを表示してもよいし、図17に示したように、ドローン1の視点から見て3次元的に表現されている障害物マップを表示してもよい。
ステップS66において、ユーザは、パーソナルコンピュータ12を利用し、障害物マップを参照してウェイポイントWPの位置を微調整する。
その後、ユーザがウェイポイントWPの微調整を終了すると、行動計画作成部13がドローン1の行動計画を更新し、以下、図6のステップS14以降で説明したのと同様の処理が行われ、微調整されたウェイポイントWPに基づく飛行制御が行われる。
図20を参照して、障害物の測距精度の視覚化について説明する。
図20のAに示すように、マップ表示領域42には、障害物マップを作成する際における測距の測距誤差に従い、障害物ゾーンに対して、測距誤差込みの障害物ゾーンを地図に重畳して表示することができる。
さらに、図20のBに示すように、マップ表示領域42には、上述した図9と同様に、自己位置推定システムの推定精度に基づく誤差範囲を表す誤差楕円を、測距誤差込みの障害物ゾーンが表示されている地図に重畳して表示することができる。
例えば、ステレオカメラを利用した障害物の測距では、測距誤差を算出することが可能である。
即ち、測距誤差ΔZc[m]は、測距奥行Zc[m]、最小視差単位Δd[pixel]、ベースライン距離b[m]、およびフォーカス距離f[pixel]を用いて、次の式(1)に従って求めることができる。
Figure 0007552581000001
例えば、式(1)に基づき、障害物までの距離を表す測距奥行Zcが大きくなるほど、測距誤差ΔZcは大きくなる。
<本技術の適用について>
本技術は、上述したようなドローン1がウェイポイントWPを通過するような飛行制御以外に適用することができる。
例えば、ドローン1が、画像センサ、GPSセンサ、下方に向かうToF(Time of Flight)センサを備えて構成されるとき、利用するセンサの切り替えに適用することができる。例えば、ToFセンサは、テクスチャがない場所や、暗い場所などでの計測が可能であり、画像センサより高精度というメリットがある一方で、自発光する近赤外光が届く距離しか計測できず、自発光のため消費電力が高いというデメリットがある。
そこで、ドローン1が着陸する着陸モードのときは、下方に向かうToFセンサをオンにして、着陸できそうな平坦な場所を探すために、近辺の形状をToFセンサで計測する。このとき、ToFセンサは、テクスチャが少ない場所でも形状を計測することができるので、画像センサより有効に平坦な場所を探すことができる。
これに対し、ドローン1が離陸するときやミッション飛行中には、下方に向かうToFセンサをオフにする。即ち、ToFセンサの特性上、ToFセンサから近距離しか計測できないため、ドローン1は、ToFセンサをオフにすることで消費電力を抑制することができる。
また、本技術は、例えば、自動走行を行うロボット掃除機に適用することができる。
例えば、ロボット掃除機は、画像センサおよびToFセンサを備えて構成され、給電ポートから掃除開始するものとする。この場合、ロボット掃除機が掃除を実行する掃除モードのとき、ToFセンサをオンにし、ロボット掃除機は、自己位置と近辺の障害物を高精度に探すために、ToFセンサおよび画像センサで計測する。同時に、ロボット掃除機は、給電ポートからの地図を作成する。
これに対し、ロボット掃除機の電圧が低下して、給電ポート帰還モードとなったとき、ToFセンサをオフにする。この場合、ロボット掃除機は、給電ポートからの地図を保持しているので、ToFセンサでの追加の障害物検知は不要であり、画像センサだけで自己位置を検出し、給電ポートに帰還することができる。また、ロボット掃除機は、ToFセンサをオフにすることで消費電力を抑制することができる。そして、ロボット掃除機が給電ポートの近傍まで移動した後、給電ポートとの高精度な位置合わせのために、ToFセンサをオンにする。
なお、本技術においてタスクに応じて指定されるセンサには、ToFセンサ以外の能動型センサ、例えば、LidarやSonarなどにも、ToFセンサと同様に適用することができる。また、自動走行を行うロボットであれば、ロボット掃除機以外にも、例えば、工場用搬送ロボットなどにも適用することができる。
さらに、本技術は、ドローン1の飛行制御の他、例えば、自動運転の車両における運転制御に適用することができる。例えば、自動運転の車両が一般の道路を走行する際は、GPSベース自己位置推定部17を用いる一方で、自動運転の車両が駐車場に駐車する際は、Visionベース自己位置推定部16を用いる構成とすること、または、各種のレーダやToFセンサなどの能動型センサを利用した自己位置推定部を用いる構成とすることができる。
<コンピュータの構成例>
次に、上述した一連の処理(情報処理方法)は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
図21は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。
あるいはまた、プログラムは、ドライブ109によって駆動されるリムーバブル記録媒体111に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウェアとして提供することができる。ここで、リムーバブル記録媒体111としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク105にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)102を内蔵しており、CPU102には、バス101を介して、入出力インタフェース110が接続されている。
CPU102は、入出力インタフェース110を介して、ユーザによって、入力部107が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、CPU102は、ハードディスク105に格納されたプログラムを、RAM(Random Access Memory)104にロードして実行する。
これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
なお、入力部107は、キーボードや、マウス、マイク等で構成される。また、出力部106は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
<構成の組み合わせ例>
なお、本技術は以下のような構成も取ることができる。
(1)
移動体の位置を推定するのに使用する自己位置推定部を、推定精度の異なる複数の前記自己位置推定部の中から指標に基づいて選択して、前記移動体の状態を求める状態特定部と、
前記移動体の状態に基づいて、予め作成された行動計画に従って前記移動体の行動を制御する行動制御部と
を備える行動制御装置。
(2)
前記指標は、GPS(Global Positioning System)から取得した位置情報または領域情報である
上記(1)に記載の行動制御装置。
(3)
前記状態特定部は、
前記移動体が行動する際の指標のうち、前記移動体の行動に伴って最も近傍となる前記指標を選択する最近傍指標選択部と、
複数の前記自己位置推定部それぞれが前記移動体の位置を推定した結果として出力される複数の観測情報のうちの、前記最近傍指標選択部により選択された前記指標に基づいて指定されている前記自己位置推定部から出力される前記観測情報を選択する観測情報選択部と、
前記観測情報選択部により選択された前記観測情報に基づいて、前記移動体の最新の状態を求める状態更新部と
を有する
上記(1)または(2)に記載の行動制御装置。
(4)
前記状態特定部により選択される前記自己位置推定部を、前記指標ごとに指定する指定部
をさらに備える上記(1)から(3)のいずれかに記載の行動制御装置。
(5)
前記指定部は、所定の前記指標における前記移動体の自己位置を前記自己位置推定部が推定する際に優先させる優先事項に従って、所定の前記指標ごとの前記自己位置推定部を指定する
上記(4)に記載の行動制御装置。
(6)
前記指定部は、前記優先事項が推定精度である場合、前記自己位置推定部が有効に機能することが可能な高度および速度の有効範囲の範囲内で、最も高い推定精度を得られる前記自己位置推定部を指定する
上記(5)に記載の行動制御装置。
(7)
前記指定部は、前記優先事項が移動速度である場合、前記自己位置推定部が有効に機能することが可能な高度および速度の有効範囲の範囲内で、最も高速な移動速度を得られる前記自己位置推定部を指定する
上記(5)に記載の行動制御装置。
(8)
前記指定部は、所定の前記指標における前記自己位置推定部と前記移動体の速度とが指定された場合、その指定された前記自己位置推定部が有効に機能する最も低い高度を、所定の前記指標ごとに指定する
上記(4)に記載の行動制御装置。
(9)
前記指定部では、前記行動計画の作成を指示するユーザによって、複数の前記指標が指定されるとともに、それぞれの前記指標ごとの前記自己位置推定部が指定される
上記(4)に記載の行動制御装置。
(10)
前記指定部により前記指標ごとに指定された前記自己位置推定部を視覚化するとともに、前記指標に従った経路ごとに使用される前記自己位置推定部を視覚化して表示する表示部
をさらに備える上記(9)に記載の行動制御装置。
(11)
前記表示部は、所定の前記自己位置推定部が指定された前記指標に基づいて、その自己位置推定部が有効に機能することが可能な前記移動体の高度および速度の有効範囲を表示し、前記有効範囲外について指定不可であることを視覚化して表示する
上記(10)に記載の行動制御装置。
(12)
前記表示部は、前記経路で使用される前記自己位置推定部の推定精度を、それぞれの経路に沿って視覚化して表示する
上記(10)に記載の行動制御装置。
(13)
前記表示部は、前記移動体の高度および速度が指定されるのに応じて、その高度および速度では有効に機能することができない前記自己位置推定部について指定不可であることを視覚化して表示する
上記(10)に記載の行動制御装置。
(14)
前記行動計画に従って前記移動体が移動しながら行う測距に基づいて、前記経路の近傍において障害物が存在する範囲を表す障害物マップを作成する障害物マップ作成部
をさらに備え、
前記表示部は、前記移動体を移動させる領域を表す地図に重畳させて前記障害物マップを表示し、
前記指定部では、前記地図上における前記指標の位置がユーザにより微調整されて再指定される
上記(10)に記載の行動制御装置。
(15)
前記表示部は、前記障害物マップを作成する際における測距の測距誤差に従って、前記障害物が存在する範囲に対する誤差範囲を前記地図に重畳して表示する
上記(14)に記載の行動制御装置。
(16)
前記表示部は、前記自己位置推定部の推定精度に基づく誤差範囲を表す誤差楕円を、前記地図に重畳して表示する
上記(15)に記載の行動制御装置。
(17)
移動体の行動を制御する行動制御装置が、
前記移動体の位置を推定するのに使用する自己位置推定部を、推定精度の異なる複数の前記自己位置推定部の中から指標に基づいて選択して、前記移動体の状態を求めることと、
前記移動体の状態に基づいて、予め作成された行動計画に従って前記移動体の行動を制御することと
を含む行動制御方法。
(18)
移動体の行動を制御する行動制御装置のコンピュータに、
前記移動体の位置を推定するのに使用する自己位置推定部を、推定精度の異なる複数の前記自己位置推定部の中から指標に基づいて選択して、前記移動体の状態を求めることと、
前記移動体の状態に基づいて、予め作成された行動計画に従って前記移動体の行動を制御することと
を含む情報処理を実行させるためのプログラム。
なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
11 ミッション飛行制御装置, 12 パーソナルコンピュータ, 13 行動計画作成部, 14 画像センサ, 15 慣性計測装置, 16 Visionベース自己位置推定部, 17 GPSベース自己位置推定部, 18 フライト制御部, 19 駆動部, 20 障害物マップ作成部, 21 EKF処理部, 22 ナビゲータ, 23 駆動制御部, 31 EKF状態予測部, 32 最近傍ウェイポイント選択部, 33 観測情報選択部, 34 EKF状態更新部, 41 ミッション飛行設定画面, 42 マップ表示領域, 43 指示GUI表示領域

Claims (18)

  1. 移動体の位置を推定するのに使用する自己位置推定部を、推定精度の異なる複数の前記自己位置推定部の中から指標に基づいて選択して、前記移動体の状態を求める状態特定部と、
    前記移動体の状態に基づいて、予め作成された行動計画に従って前記移動体の行動を制御する行動制御部と
    を備え
    前記自己位置推定部には、画像センサから取得した情報を利用するVisionベース自己位置推定部と、GPS(Global Positioning System)センサから取得した情報を利用するGPSベース自己位置推定部とを含む
    行動制御装置。
  2. 移動体の位置を推定するのに使用する自己位置推定部を、推定精度の異なる複数の前記自己位置推定部の中から指標に基づいて選択して、前記移動体の状態を求める状態特定部と、
    前記移動体の状態に基づいて、予め作成された行動計画に従って前記移動体の行動を制御する行動制御部と、
    前記状態特定部により選択される前記自己位置推定部を、前記指標ごとに指定する指定部と
    を備え、
    前記指定部は、所定の前記指標における前記移動体の自己位置を前記自己位置推定部が推定する際に優先させる優先事項に従って、所定の前記指標ごとの前記自己位置推定部を指定し、
    前記指定部は、前記優先事項が移動速度である場合、前記自己位置推定部が有効に機能することが可能な高度および速度の有効範囲の範囲内で、最も高速な移動速度を得られる前記自己位置推定部を指定する
    行動制御装置。
  3. 移動体の位置を推定するのに使用する自己位置推定部を、推定精度の異なる複数の前記自己位置推定部の中から指標に基づいて選択して、前記移動体の状態を求める状態特定部と、
    前記移動体の状態に基づいて、予め作成された行動計画に従って前記移動体の行動を制御する行動制御部と、
    前記状態特定部により選択される前記自己位置推定部を、前記指標ごとに指定する指定部と
    を備え、
    前記指定部は、所定の前記指標における前記自己位置推定部と前記移動体の速度とが指定された場合、その指定された前記自己位置推定部が有効に機能する最も低い高度を、所定の前記指標ごとに指定する
    行動制御装置。
  4. 前記指定部は、所定の前記指標における前記移動体の自己位置を前記自己位置推定部が推定する際に優先させる優先事項に従って、所定の前記指標ごとの前記自己位置推定部を指定する
    請求項2または3に記載の行動制御装置。
  5. 前記指定部は、前記優先事項が推定精度である場合、前記自己位置推定部が有効に機能することが可能な高度および速度の有効範囲の範囲内で、最も高い推定精度を得られる前記自己位置推定部を指定する
    請求項に記載の行動制御装置。
  6. 前記指標は、GPS(Global Positioning System)から取得した位置情報または領域情報である
    請求項1から5のいずれかに記載の行動制御装置。
  7. 前記状態特定部は、
    前記移動体が行動する際の指標のうち、前記移動体の行動に伴って最も近傍となる前記指標を選択する最近傍指標選択部と、
    複数の前記自己位置推定部それぞれが前記移動体の位置を推定した結果として出力される複数の観測情報のうちの、前記最近傍指標選択部により選択された前記指標に基づいて指定されている前記自己位置推定部から出力される前記観測情報を選択する観測情報選択部と、
    前記観測情報選択部により選択された前記観測情報に基づいて、前記移動体の最新の状態を求める状態更新部と
    を有する
    請求項1から6のいずれかに記載の行動制御装置。
  8. 移動体の位置を推定するのに使用する自己位置推定部を、推定精度の異なる複数の前記自己位置推定部の中から指標に基づいて選択して、前記移動体の状態を求める状態特定部と、
    前記移動体の状態に基づいて、予め作成された行動計画に従って前記移動体の行動を制御する行動制御部と、
    前記状態特定部により選択される前記自己位置推定部を、前記指標ごとに指定する指定部と、
    前記指定部により前記指標ごとに指定された前記自己位置推定部を視覚化するとともに、前記指標に従った経路ごとに使用される前記自己位置推定部を視覚化して表示する表示部と
    を備え、
    前記指定部では、前記行動計画の作成を指示するユーザによって、複数の前記指標が指定されるとともに、それぞれの前記指標ごとの前記自己位置推定部が指定される
    行動制御装置。
  9. 前記表示部は、所定の前記自己位置推定部が指定された前記指標に基づいて、その自己位置推定部が有効に機能することが可能な前記移動体の高度および速度の有効範囲を表示し、前記有効範囲外について指定不可であることを視覚化して表示する
    請求項8に記載の行動制御装置。
  10. 前記表示部は、前記経路で使用される前記自己位置推定部の推定精度を、それぞれの経
    路に沿って視覚化して表示する
    請求項8に記載の行動制御装置。
  11. 前記表示部は、前記移動体の高度および速度が指定されるのに応じて、その高度および速度では有効に機能することができない前記自己位置推定部について指定不可であることを視覚化して表示する
    請求項8に記載の行動制御装置。
  12. 前記行動計画に従って前記移動体が移動しながら行う測距に基づいて、前記経路の近傍において障害物が存在する範囲を表す障害物マップを作成する障害物マップ作成部
    をさらに備え、
    前記表示部は、前記移動体を移動させる領域を表す地図に重畳させて前記障害物マップを表示し、
    前記指定部では、前記地図上における前記指標の位置がユーザにより微調整されて再指定される
    請求項8に記載の行動制御装置。
  13. 前記表示部は、前記障害物マップを作成する際における測距の測距誤差に従って、前記障害物が存在する範囲に対する誤差範囲を前記地図に重畳して表示する
    請求項12に記載の行動制御装置。
  14. 前記表示部は、前記自己位置推定部の推定精度に基づく誤差範囲を表す誤差楕円を、前記地図に重畳して表示する
    請求項13に記載の行動制御装置。
  15. 移動体の行動を制御する行動制御装置が、
    前記移動体の位置を推定するのに使用する自己位置推定部を、推定精度の異なる複数の前記自己位置推定部の中から指標に基づいて選択して、前記移動体の状態を求めることと、
    前記移動体の状態に基づいて、予め作成された行動計画に従って前記移動体の行動を制御することと
    を含み、
    前記自己位置推定部には、画像センサから取得した情報を利用するVisionベース自己位置推定部と、GPSセンサから取得した情報を利用するGPSベース自己位置推定部とを含む
    行動制御方法。
  16. 移動体の行動を制御する行動制御装置が、
    前記移動体の位置を推定するのに使用する自己位置推定部を、推定精度の異なる複数の前記自己位置推定部の中から指標に基づいて選択して、前記移動体の状態を求めることと、
    前記移動体の状態に基づいて、予め作成された行動計画に従って前記移動体の行動を制御することと、
    選択される前記自己位置推定部を、前記指標ごとに指定することと
    を含み、
    所定の前記指標における前記移動体の自己位置を前記自己位置推定部が推定する際に優先させる優先事項に従って、所定の前記指標ごとの前記自己位置推定部を指定し、
    前記優先事項が推定精度である場合、前記自己位置推定部が有効に機能することが可能な高度および速度の有効範囲の範囲内で、最も高い推定精度を得られる前記自己位置推定部を指定する
    行動制御方法。
  17. 移動体の行動を制御する行動制御装置が、
    前記移動体の位置を推定するのに使用する自己位置推定部を、推定精度の異なる複数の前記自己位置推定部の中から指標に基づいて選択して、前記移動体の状態を求めることと、
    前記移動体の状態に基づいて、予め作成された行動計画に従って前記移動体の行動を制御することと、
    選択される前記自己位置推定部を、前記指標ごとに指定することと
    を含み、
    所定の前記指標における前記自己位置推定部と前記移動体の速度とが指定された場合、その指定された前記自己位置推定部が有効に機能する最も低い高度を、所定の前記指標ごとに指定する
    行動制御方法。
  18. 移動体の行動を制御する行動制御装置が、
    前記移動体の位置を推定するのに使用する自己位置推定部を、推定精度の異なる複数の前記自己位置推定部の中から指標に基づいて選択して、前記移動体の状態を求めることと、
    前記移動体の状態に基づいて、予め作成された行動計画に従って前記移動体の行動を制御することと、
    選択される前記自己位置推定部を、前記指標ごとに指定することと、
    前記指標ごとに指定された前記自己位置推定部を視覚化するとともに、前記指標に従った経路ごとに使用される前記自己位置推定部を視覚化して表示することと
    を含み、
    前記行動計画の作成を指示するユーザによって、複数の前記指標が指定されるとともに、それぞれの前記指標ごとの前記自己位置推定部が指定される
    行動制御方法。
JP2021503966A 2019-03-06 2020-02-21 行動制御装置および行動制御方法 Active JP7552581B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024151434A JP2024163227A (ja) 2019-03-06 2024-09-03 行動制御装置および行動制御方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019040139 2019-03-06
JP2019040139 2019-03-06
PCT/JP2020/006992 WO2020179491A1 (ja) 2019-03-06 2020-02-21 行動制御装置および行動制御方法、並びにプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024151434A Division JP2024163227A (ja) 2019-03-06 2024-09-03 行動制御装置および行動制御方法

Publications (2)

Publication Number Publication Date
JPWO2020179491A1 JPWO2020179491A1 (ja) 2020-09-10
JP7552581B2 true JP7552581B2 (ja) 2024-09-18

Family

ID=72337924

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021503966A Active JP7552581B2 (ja) 2019-03-06 2020-02-21 行動制御装置および行動制御方法
JP2024151434A Pending JP2024163227A (ja) 2019-03-06 2024-09-03 行動制御装置および行動制御方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024151434A Pending JP2024163227A (ja) 2019-03-06 2024-09-03 行動制御装置および行動制御方法

Country Status (4)

Country Link
US (1) US12073732B2 (ja)
JP (2) JP7552581B2 (ja)
CN (1) CN113498498B (ja)
WO (1) WO2020179491A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7501535B2 (ja) * 2019-07-19 2024-06-18 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理プログラム
US20210287556A1 (en) * 2020-03-13 2021-09-16 Electronics And Telecommunications Research Institute Method and apparatus for generating optimal path for an unmanned aerial vehicle
WO2022036284A1 (en) * 2020-08-13 2022-02-17 Invensense, Inc. Method and system for positioning using optical sensor and motion sensors

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002103A (ja) 2012-06-20 2014-01-09 Clarion Co Ltd 車両位置検出装置および車両位置検出方法
JP2016082441A (ja) 2014-10-17 2016-05-16 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
JP2018160760A (ja) 2017-03-22 2018-10-11 日本電気株式会社 画像投稿サービスシステム、移動体積載装置、画像投稿サービス提供方法及びプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030008619A1 (en) * 2001-07-03 2003-01-09 Werner Raymond J. Location-based information service for identifying areas with degraded radio signal strength
US6876906B1 (en) * 2003-06-06 2005-04-05 Rockwell Collins Graphical symbology for depicting traffic position, navigation uncertainty, and data quality on aircraft displays
JP4694582B2 (ja) * 2008-01-31 2011-06-08 株式会社デンソー ハイブリッド車両の駆動制御装置
EP2638405A4 (en) * 2010-11-12 2014-09-17 Nextnav Llc EXTENDED LOCATION SYSTEM
US9235212B2 (en) 2012-05-01 2016-01-12 5D Robotics, Inc. Conflict resolution based on object behavioral determination and collaborative relative positioning
US9121711B2 (en) * 2013-03-15 2015-09-01 Csr Technology Inc. Environmental awareness for improved power consumption and responsiveness in positioning devices
CA2849469C (en) 2013-08-30 2016-11-01 Motohide Sugihara Mining machine management system and mining machine management method
JP6246609B2 (ja) 2014-02-12 2017-12-13 株式会社デンソーアイティーラボラトリ 自己位置推定装置及び自己位置推定方法
EP3135580B1 (en) 2014-04-25 2023-10-18 Sony Group Corporation Control device, imaging device, control method, imaging method, and computer program
EP3344514B1 (en) 2015-09-04 2020-11-11 Gatekeeper Systems, Inc. Estimating motion of wheeled carts
US10417469B2 (en) * 2016-05-07 2019-09-17 Morgan E. Davidson Navigation using self-describing fiducials
JP6645910B2 (ja) * 2016-05-31 2020-02-14 株式会社デンソー 位置推定装置
WO2018020659A1 (ja) 2016-07-29 2018-02-01 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 移動体、移動体制御方法、移動体制御システム、及び移動体制御プログラム
JP6778063B2 (ja) 2016-09-07 2020-10-28 株式会社Soken 運転支援装置、運転支援方法
EP3500903B1 (en) 2016-12-01 2021-04-28 SZ DJI Technology Co., Ltd. Systems and methods of unmanned aerial vehicle flight restriction for stationary and moving objects
KR20180107642A (ko) 2017-03-22 2018-10-02 삼성전자주식회사 외부 객체의 움직임에 기반하여 이동 위치를 결정하는 방법 및 이를 구현한 전자 장치
CN107290765B (zh) 2017-07-13 2020-11-03 清华大学 水下潜航器的协作定位方法和系统
CN107289948A (zh) 2017-07-24 2017-10-24 成都通甲优博科技有限责任公司 一种基于多传感器融合的无人机导航系统及方法
US10599161B2 (en) 2017-08-08 2020-03-24 Skydio, Inc. Image space motion planning of an autonomous vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014002103A (ja) 2012-06-20 2014-01-09 Clarion Co Ltd 車両位置検出装置および車両位置検出方法
JP2016082441A (ja) 2014-10-17 2016-05-16 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
JP2018160760A (ja) 2017-03-22 2018-10-11 日本電気株式会社 画像投稿サービスシステム、移動体積載装置、画像投稿サービス提供方法及びプログラム

Also Published As

Publication number Publication date
CN113498498B (zh) 2024-04-19
US20220157179A1 (en) 2022-05-19
WO2020179491A1 (ja) 2020-09-10
US12073732B2 (en) 2024-08-27
CN113498498A (zh) 2021-10-12
JPWO2020179491A1 (ja) 2020-09-10
JP2024163227A (ja) 2024-11-21

Similar Documents

Publication Publication Date Title
US12296951B2 (en) Image space motion planning of an autonomous vehicle
US10724505B2 (en) Aerial inspection in a movable object environment
EP3767420A1 (en) Robotic mower boundary detection system
CN108475059B (zh) 自主视觉导航
JP2024163227A (ja) 行動制御装置および行動制御方法
EP2895819B1 (en) Sensor fusion
WO2018214978A1 (zh) 定位装置及方法以及自动行走设备
WO2019167205A1 (ja) 管理装置、管理システム、移動体及びプログラム
WO2019167199A1 (ja) 制御装置、移動体及びプログラム
JP2017182692A (ja) 自律移動ロボット
WO2019106714A1 (ja) 無人航空機、無人航空機の飛行制御装置、無人航空機の飛行制御方法、及びプログラム
Teixeira et al. Autonomous aerial inspection using visual-inertial robust localization and mapping
US20210208608A1 (en) Control method, control apparatus, control terminal for unmanned aerial vehicle
US12174629B2 (en) Information processing apparatus, information processing method, program, and information processing system
JP7184381B2 (ja) 無人航空機、無人航空機の飛行制御装置、無人航空機の飛行制御方法、及びプログラム
Kurdi et al. Navigation of mobile robot with cooperation of quadcopter
JP2017181443A (ja) 自己位置推定装置
EP4481527A1 (en) Mobile apparatus, method for determining position, and non-transitory recording medium
JP7760088B2 (ja) 無人航空機を使用する輪郭スキャン
JP2025001630A (ja) 移動体、プログラム、位置推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240819

R150 Certificate of patent or registration of utility model

Ref document number: 7552581

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150