[go: up one dir, main page]

WO2021224955A1 - Own-position estimation device, flight control device, image generation device, artificial satellite system, and own-position estimation method - Google Patents

Own-position estimation device, flight control device, image generation device, artificial satellite system, and own-position estimation method Download PDF

Info

Publication number
WO2021224955A1
WO2021224955A1 PCT/JP2020/018498 JP2020018498W WO2021224955A1 WO 2021224955 A1 WO2021224955 A1 WO 2021224955A1 JP 2020018498 W JP2020018498 W JP 2020018498W WO 2021224955 A1 WO2021224955 A1 WO 2021224955A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
self
position estimation
template
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2020/018498
Other languages
French (fr)
Japanese (ja)
Inventor
浩平 岡原
百代 日野
秀明 前原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to PCT/JP2020/018498 priority Critical patent/WO2021224955A1/en
Priority to JP2020549818A priority patent/JP6808111B1/en
Publication of WO2021224955A1 publication Critical patent/WO2021224955A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present disclosure relates to a self-position estimation device, a navigation control device, an image generator, an artificial satellite system, and a self-position estimation method.
  • a system for capturing an image of a subject using a camera provided on a moving body that moves around the subject has been developed.
  • a system for imaging a celestial body using a camera provided on an artificial satellite orbiting the celestial body has been developed.
  • a technique for estimating the position of such a subject has been developed by using an image captured by such a camera.
  • Patent Document 1 discloses the following techniques. That is, a plurality of images are sequentially captured by the moving camera. Next, a group of feature points in each image is extracted. Next, feature matching using these feature point clouds is performed. Based on the feature amount matching result, the three-dimensional position of the subject and the parameters of the camera are estimated.
  • Patent Document 1 extracts a group of feature points in each image and executes feature amount matching as described above. Due to these processes, there is a problem that the amount of calculation is large. Therefore, there is a problem that it is difficult to realize these processes when the computational resources in the mobile body are limited.
  • This disclosure is made to solve the above-mentioned problems, and aims to reduce the amount of calculation related to the estimation of the self-position.
  • the self-position estimation device is a moving body that moves around the subject, and is a self-position estimating device provided in the moving body that captures the subject using a camera, and is a first template based on an image captured by the camera.
  • a first image acquisition unit that acquires an image and acquires a first reference image based on a simulation image corresponding to the captured image, and a first reference image is scanned using the first template image while scaling the first template image.
  • Self-position estimated value using the first image matching unit that calculates the first position shift amount and the first scale change amount by executing the first template matching, and the first position shift amount and the first scale change amount. It is provided with a self-position estimation unit for calculating.
  • the amount of calculation related to the estimation of the self-position can be reduced.
  • FIG. 1 It is a block diagram which shows the main part of the artificial satellite system which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the main part of the image generation apparatus in the artificial satellite system which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the main part of the navigation control device in the artificial satellite system which concerns on Embodiment 1.
  • FIG. It is explanatory drawing which shows the example of 1st template matching.
  • It is a block diagram which shows the hardware configuration of the main part of the image generation apparatus in the artificial satellite system which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the other hardware configuration of the main part of the image generation apparatus in the artificial satellite system which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the other hardware configuration of the main part of the image generation apparatus in the artificial satellite system which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the hardware composition of the main part of the navigation control device in the artificial satellite system which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the other hardware configuration of the main part of the navigation control device in the artificial satellite system which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the other hardware configuration of the main part of the navigation control device in the artificial satellite system which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the image generator in the artificial satellite system which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the self-position estimation apparatus in the artificial satellite system which concerns on Embodiment 1.
  • FIG. It is a flowchart which shows the operation of the navigation control device in the artificial satellite system which concerns on Embodiment 1.
  • FIG. It is a block diagram which shows the main part of the artificial satellite system which concerns on Embodiment 2.
  • FIG. It is explanatory drawing which shows the example of the 2nd template matching.
  • FIG. 1 is a block diagram showing a main part of the artificial satellite system according to the first embodiment.
  • FIG. 2 is a block diagram showing a main part of an image generation device in the artificial satellite system according to the first embodiment.
  • FIG. 3 is a block diagram showing a main part of the navigation control device in the artificial satellite system according to the first embodiment. The artificial satellite system according to the first embodiment will be described with reference to FIGS. 1 to 3.
  • the artificial satellite system 1 includes a ground station 2 and an artificial satellite 3.
  • the ground station 2 includes an image generation device 11, a storage device 12, and a communication device 13.
  • the artificial satellite 3 includes a communication device 21, an attitude estimation device 22, a camera 23, a storage device 24, and a navigation control device 25.
  • the communication device 13 and the communication device 21 can communicate with each other.
  • the ground station 2 and the artificial satellite 3 can communicate with each other.
  • Ground station 2 is provided on celestial body O (not shown).
  • the artificial satellite 3 orbits around the celestial body O.
  • the optical axis of the camera 23 is directed to the celestial body O.
  • imaging time a plurality of times (hereinafter, may be referred to as “imaging time”) for imaging the celestial body O are set.
  • the artificial satellite 3 uses the camera 23 to image the celestial body O at each imaging time.
  • the image I1 captured by the camera 23 at each imaging time may be referred to as an “captured image”.
  • a state in which there is no error in the orbit of the artificial satellite 3, no error in the position of the artificial satellite 3, and no error in the attitude of the artificial satellite 3 is referred to as an "ideal state”.
  • the orbit of the artificial satellite 3 in the ideal state (hereinafter, may be referred to as “target orbit”) follows a predetermined orbit.
  • the position of the artificial satellite 3 (hereinafter, may be referred to as “target position”) at each imaging time in the ideal state is a predetermined position in the target orbit.
  • the posture of the artificial satellite 3 (hereinafter, may be referred to as “target posture”) at each imaging time in the ideal state is a predetermined posture.
  • the optical axis of the camera 23 is directed to the central portion of the celestial body O.
  • the image generation device 11 includes a simulation image generation unit 31 and a reference image generation unit 32.
  • the simulation image generation unit 31 simulates the image I1 to be captured by the camera 23 at each imaging time in an ideal state. As a result, the simulation image I2 corresponding to each image I1 is generated.
  • the storage device 12 stores information indicating a target trajectory and information indicating individual imaging times.
  • the simulation image generation unit 31 acquires this information.
  • the simulation image generation unit 31 uses the acquired information to predict the position (x, y, z) of the artificial satellite 3 at each imaging time in the ideal state, and the camera at each imaging time in the ideal state. Predict the orientation (vx, by, vz) of the optical axis of 23.
  • the storage device 12 stores data indicating a three-dimensional model of the celestial body O.
  • the simulation image generation unit 31 acquires such data.
  • the simulation image generation unit 31 arranges the three-dimensional model of the celestial body O in the virtual space for simulation by using the acquired data.
  • the storage device 12 stores information indicating a parameter related to the celestial body O (hereinafter referred to as “unique parameter”) and information indicating a parameter related to the camera 23 (hereinafter referred to as “camera parameter”).
  • the simulation image generation unit 31 acquires this information.
  • the simulation image generation unit 31 sets parameters for simulation (hereinafter referred to as “simulation parameters”) using the acquired information.
  • the unique parameters include a value indicating the reflectance (for example, albedo) in the celestial body O and a value indicating the solar altitude in the celestial body O.
  • the camera parameters include a value indicating the focus of the camera 23, a value indicating the optical axis of the camera 23, a value indicating the position of the camera 23, and the like.
  • the camera parameters may include a value indicating the lens distortion coefficient in the camera 23, a value indicating noise in the camera 23, and the like.
  • the simulation image generation unit 31 sets the simulation image generation unit 31 at each imaging time in an ideal state based on the predicted position (x, y, z), the predicted orientation (vx, vy, vz), and the set simulation parameters.
  • Image I1 is simulated.
  • a model similar to the projection model in the actual camera 23 is used as the projection model of the lens.
  • the simulation image generation unit 31 stores the data indicating the generated simulation image I2 (hereinafter referred to as “simulation image data”) in the storage device 12.
  • the simulation image generation unit 31 may generate the following simulation image I2.
  • the simulation image generation unit 31 generates a simulation image I2 corresponding to a state in which the entire celestial body O is virtually imaged by the camera 23 by virtually expanding the angle of view of the camera 23. You may. As a result, a simulation image I2 including the entire celestial body O is generated. As a result, even when the distance between the celestial body O and the artificial satellite 3 is small, it is possible to realize template matching (hereinafter referred to as "first template matching") executed by the first image matching unit 52 described later. can.
  • first template matching hereinafter referred to as "first template matching
  • the simulation image generation unit 31 generates the simulation image I2 by virtually increasing the number of pixels of the camera 23 without changing the focal length of the camera 23.
  • the value indicating the focal length of the camera 23 included in the information indicating the unique parameter can be used as it is.
  • the reference image generation unit 32 acquires the simulation image data stored in the storage device 12.
  • the reference image generation unit 32 uses the acquired simulation image data to generate a reference image (hereinafter referred to as “first reference image”) I2 ′ for first template matching.
  • the reference image generation unit 32 executes the binarization process for each simulation image I2 using the acquired simulation image data.
  • a predetermined value is used for the parameter for binarization (including the threshold value for binarization; hereinafter referred to as "first binarization parameter").
  • first binarization parameter a value calculated by a statistical method is used as the first binarization parameter.
  • a value calculated by a discriminant analysis method is used as the first binarization parameter.
  • the reference image generation unit 32 executes noise removal processing on the binarized simulation image I2. As a result, it is possible to prevent such noise from affecting the correlation value calculated by the first template matching (hereinafter referred to as "first correlation value").
  • first correlation value the correlation value calculated by the first template matching
  • the reference image generation unit 32 resizes the binarized simulation image I2 or the noise-removed simulation image I2 to a predetermined size. As a result, the individual simulation images I2 are resized to the size for the first template matching.
  • the reference image generation unit 32 stores the data indicating the generated first reference image I2'(hereinafter referred to as "reference image data") in the storage device 12.
  • the reference image data may include the first binarization parameter.
  • the communication device 13 acquires the reference image data stored in the storage device 12.
  • the communication device 13 transmits the acquired reference image data to the artificial satellite 3.
  • the communication device 21 receives the transmitted reference image data.
  • the communication device 21 stores the received reference image data in the storage device 24.
  • the posture estimation device 22 is composed of, for example, a start racker.
  • the attitude estimation device 22 estimates the attitude ( ⁇ , ⁇ , ⁇ ) of the artificial satellite 3.
  • the posture ( ⁇ , ⁇ , ⁇ ) estimated by the posture estimation device 22 includes the posture ( ⁇ , ⁇ , ⁇ ) at each imaging time.
  • the posture estimation device 22 stores a value (hereinafter referred to as “posture estimation value”) indicating the estimated posture ( ⁇ , ⁇ , ⁇ ) in the storage device 24.
  • the camera 23 captures the celestial body O at each imaging time.
  • the camera 23 stores data indicating the image I1 captured at each imaging time (hereinafter referred to as “captured image data”) in the storage device 24.
  • the navigation control device 25 includes a self-position estimation device 41, a navigation value calculation unit 42, and a navigation control unit 43.
  • the self-position estimation device 41 includes a first image acquisition unit 51, a first image matching unit 52, and a self-position estimation unit 53.
  • the first image acquisition unit 51 acquires the reference image data stored in the storage device 24. As a result, the first reference image I2'is acquired. In addition, the first image acquisition unit 51 acquires the captured image data stored in the storage device 24. The first image acquisition unit 51 uses the acquired captured image data to generate a template image (hereinafter referred to as “first template image”) I1 ′ for first template matching. As a result, the first template image I1'is acquired.
  • first template image hereinafter referred to as “first template image”
  • the first image acquisition unit 51 acquires reference image data indicating the first reference image I2'corresponding to the image I1 captured at the latest imaging time. As a result, the first reference image I2'corresponding to the image I1 captured at the latest imaging time is acquired. In addition, the first image acquisition unit 51 acquires captured image data indicating the image I1 captured at the latest imaging time. The first image acquisition unit 51 uses the acquired captured image data to generate a first template image I1'corresponding to the image I1 captured at the latest imaging time. As a result, the first template image I1'corresponding to the image I1 captured at the latest imaging time is acquired.
  • the first image acquisition unit 51 executes a binarization process similar to the binarization process executed by the reference image generation unit 32 on each captured image I1. At this time, the first image acquisition unit 51 may use the first binarization parameter included in the acquired reference image data. Next, the first image acquisition unit 51 appropriately executes a noise removal process similar to the noise removal process executed by the reference image generation unit 32 on the binarized captured image I1. In this way, the first template image I1'corresponding to each captured image I1 is generated. That is, the first template image I1'corresponding to each captured image I1 is acquired.
  • the first image matching unit 52 uses the first template image I1'acquired by the first image acquisition unit 51 and the first reference image I2' acquired by the first image acquisition unit 51 to perform the first template matching. It is what you do.
  • FIG. 4 shows an example of first template matching.
  • the first image matching unit 52 changes the scale s of the acquired first template image I1'. More specifically, the first image matching unit 52 enlarges or reduces the scale s of the acquired first template image I1'within a predetermined range. As a result, a plurality of first template images I1'having different scales s are generated.
  • the first image matching unit 52 executes the zero padding process on the acquired first reference image I2'. As a result, the first reference image I2'having a margin region is generated. By adding a margin area to the first reference image I2', even if the celestial body O is located at the end (that is, the upper end, the lower end, the left end or the right end) of the first template image I1', the celestial body O is located.
  • the first template matching can be realized.
  • the first image matching unit 52 scans the first reference image I2'having the margin area by using each of the plurality of first template images I1'. At this time, the first image matching unit 52 is the first for each position (cx, cy) of the first template image I1'in the first reference image I2'and for each scale s of the first template image I1'. The correlation value (that is, the first correlation value) between the template image I1'and the first reference image I2' is calculated.
  • first correlation values are calculated.
  • SAD Sud of Absolute Difference
  • ZNCC Zero-mean Normalized Cross-Correlatio
  • first matching positions positions (cx_b, cy_b) corresponding to the maximum value among the plurality of calculated first correlation values
  • first matching positions positions (cx_b, cy_b) corresponding to the maximum value among the plurality of calculated first correlation values
  • scale s_b corresponding to the maximum value among the plurality of calculated first correlation values may be referred to as a "first matching scale”.
  • the first matching position (cx_b, cy_b) corresponds to the amount of deviation of the position of the celestial body O in the first template image I1'with respect to the position of the celestial body O in the first reference image I2'.
  • a deviation amount may be referred to as a “first position deviation amount”.
  • the first matching scale s_b corresponds to the amount of change in the scale of the celestial body O in the first template image I1'with respect to the scale of the celestial body O in the first reference image I2'.
  • such a change amount may be referred to as a “first scale change amount”.
  • the first image matching unit 52 calculates the first matching position (cx_b, cy_b) corresponding to the first position deviation amount by executing the template matching, and the first scale corresponding to the first scale change amount.
  • the matching scale s_b is calculated.
  • the first image matching unit 52 outputs the calculated first matching position (cx_b, cy_b) to the self-position estimation unit 53, and outputs the calculated first matching scale s_b to the self-position estimation unit 53. ..
  • the self-position estimation unit 53 acquires the first matching position (cx_b, cy_b) output by the first image matching unit 52. Further, the self-position estimation unit 53 acquires the first matching scale s_b output by the first image matching unit 52.
  • the self-position estimation unit 53 acquires the posture estimation values ( ⁇ , ⁇ , ⁇ ) stored in the storage device 24. Specifically, for example, the self-position estimation unit 53 acquires the posture estimation values ( ⁇ , ⁇ , ⁇ ) at the latest imaging time.
  • the storage device 24 stores data indicating a digital elevation model of the celestial body O.
  • the self-position estimation unit 53 acquires such data.
  • the self-position estimation unit 53 acquires the first position deviation amount corresponding to the acquired first matching position (cx_b, cy_b), the first scale change amount corresponding to the acquired first matching scale s_b, and the above-mentioned acquired one.
  • the self-position of the artificial satellite 3 is estimated by using the attitude estimation values ( ⁇ , ⁇ , ⁇ ) and the numerical elevation values included in the acquired data. Thereby, for example, the self-position at the latest imaging time is estimated.
  • the self-position estimation unit 53 outputs a value indicating the estimated self-position (hereinafter referred to as “self-position estimation value”) to the navigation value calculation unit 42.
  • the navigation value calculation unit 42 acquires the self-position estimation value output by the self-position estimation unit 53.
  • the navigation value calculation unit 42 calculates the amount of deviation of the self-position indicated by the acquired self-position estimated value with respect to the target position at the corresponding imaging time (for example, the latest imaging time). At this time, the navigation value calculation unit 42 may calculate the amount of deviation in two directions (including the horizontal direction and the vertical direction).
  • the navigation value calculation unit 42 calculates a control value (hereinafter referred to as “navigation value”) used for controlling a thruster or the like on the artificial satellite 3 according to the calculated deviation amount.
  • the navigation value calculation unit 42 outputs the calculated navigation value to the navigation control unit 43.
  • the navigation control unit 43 acquires the navigation value output by the navigation value calculation unit 42.
  • the navigation control unit 43 controls the thruster or the like of the artificial satellite 3 by using the acquired navigation value.
  • the position (x, y, z) of the artificial satellite 3 can be brought closer to the target position.
  • the processes executed by the simulation image generation unit 31 may be collectively referred to as “simulation image generation processing”.
  • the processes executed by the reference image generation unit 32 may be collectively referred to as “reference image generation process”.
  • the processes executed by the first image acquisition unit 51 may be collectively referred to as “first image acquisition process”.
  • the processes executed by the first image matching unit 52 may be collectively referred to as “first image matching process”.
  • the processes executed by the self-position estimation unit 53 may be collectively referred to as “self-position estimation process”.
  • the processing executed by the navigation value calculation unit 42 may be collectively referred to as “navigation value calculation processing”.
  • the processing and control executed by the navigation control unit 43 may be collectively referred to as "navigation control”.
  • the processes executed by the self-position estimation device 41 may be collectively referred to as "self-position estimation process, etc.” That is, the self-position estimation process and the like include a first image acquisition process, a first image matching process, and a self-position estimation process.
  • the functions of the simulation image generation unit 31 are collectively referred to as "simulation image generation function".
  • the functions of the reference image generation unit 32 may be collectively referred to as a "reference image generation function”.
  • the functions of the first image acquisition unit 51 may be collectively referred to as the "first image acquisition function”.
  • the functions of the first image matching unit 52 may be collectively referred to as the "first image matching function”.
  • the functions of the self-position estimation unit 53 may be collectively referred to as “self-position estimation function”.
  • the functions of the navigation value calculation unit 42 may be collectively referred to as a "navigation value calculation function”.
  • the functions of the navigation control unit 43 may be collectively referred to as "navigation control function”.
  • the code of "F1" may be used for the simulation image generation function.
  • the reference image generation function may use the reference numeral "F2".
  • the reference numeral “F11” may be used for the first image acquisition function.
  • the reference numeral “F12” may be used for the first image matching function.
  • the code “F13” may be used for the self-position estimation function.
  • the code “F21” may be used for the navigation value calculation function.
  • the code “F22” may be used for the navigation control function.
  • the image generator 11 has a processor 61 and a memory 62.
  • the memory 62 stores programs corresponding to a plurality of functions (including a simulation image generation function and a reference image generation function) F1 and F2.
  • the processor 61 reads and executes the program stored in the memory 62. As a result, a plurality of functions F1 and F2 are realized.
  • the image generator 11 has a processing circuit 63.
  • the processing circuit 63 executes processing corresponding to the plurality of functions F1 and F2. As a result, a plurality of functions F1 and F2 are realized.
  • the image generator 11 has a processor 61, a memory 62, and a processing circuit 63.
  • a program corresponding to a part of the plurality of functions F1 and F2 is stored in the memory 62.
  • the processor 61 reads and executes the program stored in the memory 62. As a result, some of these functions are realized.
  • the processing circuit 63 executes processing corresponding to the remaining functions of the plurality of functions F1 and F2. As a result, such a residual function is realized.
  • the processor 61 is composed of one or more processors.
  • processors for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a microprocessor, a microprocessor, or a DSP (Digital Signal Processor) is used.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • microprocessor a microprocessor
  • DSP Digital Signal Processor
  • the memory 62 is composed of one or more non-volatile memories.
  • the memory 62 is composed of one or more non-volatile memories and one or more volatile memories. That is, the memory 62 is composed of one or more memories.
  • the individual memory uses, for example, a semiconductor memory, a magnetic disk, an optical disk, a magneto-optical disk, a magnetic tape, or a magnetic drum. More specifically, each volatile memory uses, for example, a RAM (Random Access Memory).
  • individual non-volatile memories include, for example, ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmory), EEPROM (Electrically Erasable Programmory), flexible disk drive A compact disc, a DVD (Digital Versaille Disc), a Blu-ray disc, or a mini disc is used.
  • ROM Read Only Memory
  • flash memory EPROM (Erasable Programmable Read Only Memory)
  • EEPROM Electrically Erasable Programmory
  • EEPROM Electrical Erasable Programmory
  • flexible disk drive A compact disc, a DVD (Digital Versaille Disc), a Blu-ray disc, or a mini disc is used.
  • the processing circuit 63 is composed of one or more digital circuits. Alternatively, the processing circuit 63 is composed of one or more digital circuits and one or more analog circuits. That is, the processing circuit 63 is composed of one or more processing circuits.
  • the individual processing circuits are, for example, ASIC (Application Special Integrated Circuit), PLD (Programmable Logic Device), FPGA (Field Programmable Gate Array), FPGA (Field Program Is.
  • the processor 61 when the processor 61 is composed of a plurality of processors, the correspondence between the plurality of functions F1 and F2 and the plurality of processors is arbitrary. That is, each of the plurality of processors may read and execute a program corresponding to one or more corresponding functions among the plurality of functions F1 and F2.
  • the processor 61 may include a dedicated processor corresponding to each function F1 and F2.
  • each of the plurality of memories may store a program corresponding to one or more corresponding functions among the plurality of functions F1 and F2.
  • the memory 62 may include a dedicated memory corresponding to the individual functions F1 and F2.
  • the processing circuit 63 when the processing circuit 63 is composed of a plurality of processing circuits, the correspondence between the plurality of functions F1 and F2 and the plurality of processing circuits is arbitrary. That is, each of the plurality of processing circuits may execute processing corresponding to one or more corresponding functions among the plurality of functions F1 and F2.
  • the processing circuit 63 may include a dedicated processing circuit corresponding to each function F1 and F2.
  • the individual functions F1 and F2 may be realized by a dedicated processing circuit.
  • the navigation control device 25 has a processor 71 and a memory 72.
  • the memory 72 is a program corresponding to a plurality of functions (including a first image acquisition function, a first image matching function, a self-position estimation function, a navigation value calculation function, and a navigation control function) F11 to F13, F21, and F22. Is remembered.
  • the processor 71 reads and executes the program stored in the memory 72. As a result, a plurality of functions F11 to F13, F21, and F22 are realized.
  • the navigation control device 25 has a processing circuit 73.
  • the processing circuit 73 executes processing corresponding to a plurality of functions F11 to F13, F21, and F22. As a result, a plurality of functions F11 to F13, F21, and F22 are realized.
  • the navigation control device 25 includes a processor 71, a memory 72, and a processing circuit 73.
  • the memory 72 stores programs corresponding to some of the plurality of functions F11 to F13, F21, and F22.
  • the processor 71 reads and executes the program stored in the memory 72. As a result, some of these functions are realized.
  • the processing circuit 73 executes processing corresponding to the remaining functions of the plurality of functions F11 to F13, F21, and F22. As a result, such a residual function is realized.
  • the specific example of the processor 71 is the same as the specific example of the processor 61.
  • the specific example of the memory 72 is the same as the specific example of the memory 62.
  • the specific example of the processing circuit 73 is the same as the specific example of the processing circuit 63. Therefore, detailed description thereof will be omitted.
  • the processor 71 when the processor 71 is composed of a plurality of processors, the correspondence between the plurality of functions F11 to F13, F21, F22 and the plurality of processors is arbitrary. That is, each of the plurality of processors may read and execute a program corresponding to one or more corresponding functions among the plurality of functions F11 to F13, F21, and F22.
  • the processor 71 may include a dedicated processor corresponding to each function F11 to F13, F21, F22.
  • each of the plurality of memories may store a program corresponding to one or more corresponding functions among the plurality of functions F11 to F13, F21, and F22.
  • the memory 72 may include dedicated memories corresponding to the individual functions F11 to F13, F21, and F22.
  • the processing circuit 73 when the processing circuit 73 is composed of a plurality of processing circuits, the correspondence between the plurality of functions F11 to F13, F21, F22 and the plurality of processing circuits is arbitrary. That is, each of the plurality of processing circuits may execute processing corresponding to one or more corresponding functions among the plurality of functions F11 to F13, F21, and F22.
  • the processing circuit 73 may include a dedicated processing circuit corresponding to each function F11 to F13, F21, F22.
  • the individual functions F11 to F13 may be realized by a dedicated processing circuit. Further, in the navigation control device 25, the individual functions F11 to F13, F21, and F22 may be realized by a dedicated processing circuit.
  • the simulation image generation unit 31 executes the simulation image generation process (step ST1).
  • the reference image generation unit 32 executes the reference image generation process (step ST2).
  • the first image acquisition unit 51 executes the first image acquisition process (step ST11).
  • the captured image I1 indicated by the captured image data acquired in step ST11 contains at least a part of the celestial body O (step ST12 “YES”)
  • the first image matching unit 52 performs the first image matching process. Is executed (step ST13).
  • the self-position estimation unit 53 executes the self-position estimation process (step ST14).
  • step ST12 “NO” If the captured image I1 indicated by the captured image data acquired in step ST11 does not include the celestial body O (step ST12 “NO”), it is impossible or difficult to accurately execute the first template matching. be. Therefore, the processes of steps ST13 and ST14 are skipped. As a result, the processing of the self-position estimation device 41 is completed.
  • step ST12 is, for example, as follows. That is, the number of white pixels in the first template image I1'generated in step ST11 is calculated. When the calculated number is equal to or greater than a predetermined threshold value, it is determined that the corresponding captured image I1 contains at least a part of the celestial body O (step ST12 “YES”). If not, it is determined that the corresponding captured image I1 does not contain the celestial body O (step ST12 “NO”).
  • the self-position estimation device 41 executes self-position estimation processing and the like (step ST21). As a result, the process described with reference to FIG. 12 is executed. Next, the navigation value calculation unit 42 executes the navigation value calculation process (step ST22). Next, the navigation control unit 43 executes navigation control (step ST23).
  • the self-position estimation device 41 estimates the self-position by executing the first template matching using the first template image I1'based on the captured image I1 and the first reference image I2' based on the simulation image I2. Is what you do. In other words, in the self-position estimation device 41, in estimating the self-position, it is not necessary to perform a process of extracting a feature point cloud in each captured image I1. Further, there is no need for a process of performing feature amount matching between the captured images I1.
  • the self-position estimation device 41 it is possible to reduce the amount of calculation related to self-position estimation as compared with the case of using the technique described in Patent Document 1. As a result, even when the computational resources of the artificial satellite 3 are limited, it is possible to estimate the self-position of the artificial satellite 3.
  • the reference image generation unit 32 may be provided in the self-position estimation device 41 instead of being provided in the image generation device 11. That is, the reference image generation process may be executed by the self-position estimation device 41 instead of being executed by the image generation device 11.
  • the navigation control device 25 may be provided on a moving body different from the artificial satellite 3.
  • the navigation control device 25 may be provided in a vehicle, a ship, or an aircraft. Therefore, the subject by the camera 23 is not limited to the celestial body O. The subject by the camera 23 may be any object.
  • the image generation device 11 may be provided at a place different from that of the ground station 2. The image generation device 11 may be provided at any place as long as it can communicate with the moving body having the navigation control device 25.
  • the self-position estimation device 41 is a moving body (artificial satellite 3) that moves around the subject (celestial body O), and uses the camera 23 to move the subject (celestial body O).
  • the self-position estimation device 41 provided in the moving body (artificial satellite 3) to be imaged the first template image I1'based on the image captured by the camera 23 is acquired, and the first template image I1'based on the simulated image I2 corresponding to the captured image I1 is acquired.
  • the first image acquisition unit 51 that acquires the reference image I2'and the first template image I1' are scaled up and down, and the first template matching that scans the first reference image I2'using the first template image I1'is executed.
  • the first image matching unit 52 that calculates the first displacement amount and the first scale change amount, and the self-position estimation that calculates the self-position estimation value using the first position deviation amount and the first scale change amount.
  • a unit 53 is provided. As a result, the amount of calculation related to the estimation of the self-position can be reduced.
  • the artificial satellite system 1 is an artificial satellite 3 that orbits around the celestial body O, and is a self-position estimation device 41 provided in the artificial satellite 3 that images the celestial body O by using the camera 23.
  • the self-position estimation device 41 displays the first template image I1'based on the image I1 captured by the camera 23.
  • the first image acquisition unit 51 that acquires the first reference image I2'based on the simulation image I2 corresponding to the captured image I1 and the first template image I1'are scaled and the first template image I1'is used.
  • the first image matching unit 52 that calculates the first position shift amount and the first scale change amount by executing the first template matching that scans the first reference image I2', and the first position shift amount and the first
  • a self-position estimation unit 53 that calculates a self-position estimation value using the amount of scale change is provided, and the image generation device 11 generates a simulation image generation unit 31 that generates a simulation image I2 and a first reference image I2'.
  • a reference image generation unit 32 is provided. As a result, the amount of calculation related to the estimation of the self-position can be reduced.
  • the self-position estimation method according to the first embodiment is a moving body (artificial satellite 3) that moves around the subject (celestial body O), and the moving body that images the subject (celestial body O) using the camera 23.
  • the first image acquisition unit 51 acquires the first template image I1'based on the image I1 captured by the camera 23, and is based on the simulation image I2 corresponding to the captured image I1.
  • Step ST11 to acquire the first reference image I2'and the first image matching unit 52 scale the first template image I1'and scan the first reference image I2' using the first template image I1'.
  • a step ST14 for calculating an estimated value is provided. As a result, the amount of calculation related to the estimation of the self-position can be reduced.
  • FIG. 14 is a block diagram showing a main part of the artificial satellite system according to the second embodiment.
  • FIG. 15 is a block diagram showing a main part of an image generation device in the artificial satellite system according to the second embodiment.
  • FIG. 16 is a block diagram showing a main part of the navigation control device in the artificial satellite system according to the first embodiment. The artificial satellite system according to the second embodiment will be described with reference to FIGS. 14 to 16.
  • FIG. 14 the same blocks as those shown in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted.
  • FIG. 15 the same blocks as those shown in FIG. 2 are designated by the same reference numerals, and the description thereof will be omitted.
  • FIG. 16 the same blocks as those shown in FIG. 3 are designated by the same reference numerals, and the description thereof will be omitted.
  • the artificial satellite system 1a includes a ground station 2a and an artificial satellite 3a.
  • the ground station 2a includes an image generation device 11a, a storage device 12, and a communication device 13.
  • the artificial satellite 3a includes a communication device 21, an attitude estimation device 22, a camera 23, a storage device 24, and a navigation control device 25a.
  • the image generation device 11a includes a simulation image generation unit 31 and a reference image generation unit 32. In addition to this, the image generation device 11a includes a template image generation unit 33.
  • the template image generation unit 33 acquires the simulation image data stored in the storage device 12.
  • the template image generation unit 33 uses the acquired simulation image data to perform a template image (hereinafter, referred to as “second template matching”) for template matching (hereinafter referred to as “second template matching”) executed by the second image acquisition unit 54, which will be described later. It is called a "second template image”.) I2 "is generated.
  • the template image generation unit 33 executes edge detection processing for each simulation image I2 using the acquired simulation image data. Any detection method may be used for the edge detection process.
  • the template image generation unit 33 executes binarization processing for the simulation image I2 after edge detection.
  • the threshold value for binarization may use a predetermined value, or may use a value calculated by a statistical method.
  • the template image generation unit 33 generates data indicating the generated second template image I2 "(hereinafter,” template image data ". ”) Is stored in the storage device 12.
  • the template image data may include information indicating a detection method in the edge detection process (hereinafter referred to as “detection method information”). Further, the template image data may include parameters for edge detection (hereinafter referred to as “edge detection parameters”). Further, the template image data may include a parameter for binarization (including a threshold value for binarization; hereinafter referred to as "second binarization parameter").
  • the template image generation unit 33 when the template image generation unit 33 generates the second template image I2 ", the template image generation unit 33 arranges the central portion of the celestial body O in the region including the central portion of the second template image I2" (hereinafter referred to as "central region"). It may be something to do.
  • the communication device 13 acquires the reference image data and the template image data stored in the storage device 12.
  • the communication device 13 transmits the acquired reference image data and template image data to the artificial satellite 3a.
  • the communication device 21 receives the transmitted reference image data and template image data.
  • the communication device 21 stores the received reference image data and the template image data in the storage device 24.
  • the navigation control device 25a includes a self-position estimation device 41a, a navigation value calculation unit 42, and a navigation control unit 43.
  • the self-position estimation device 41 includes a first image acquisition unit 51, a first image matching unit 52, and a self-position estimation unit 53a.
  • the self-position estimation device 41 includes a second image acquisition unit 54 and a second image matching unit 55.
  • the second image acquisition unit 54 acquires the template image data stored in the storage device 24. As a result, the second template image I2 ”is acquired. Further, the second image acquisition unit 54 acquires the captured image data stored in the storage device 24. The second image acquisition unit 54 obtains the captured image data. Using the acquired captured image data, a reference image for second template matching (hereinafter referred to as "second reference image") I1 "is generated. As a result, the second reference image I1" is acquired. Will be done.
  • the second image acquisition unit 54 acquires template image data indicating the second template image I2 ”corresponding to the image I1 captured at the latest imaging time.
  • the second template image I2 ”corresponding to the image I1 captured at the time is acquired.
  • the second image acquisition unit 54 acquires captured image data indicating the image I1 captured at the latest imaging time.
  • the second image acquisition unit 54 uses the acquired captured image data to generate a second reference image I1 ”corresponding to the image I1 captured at the latest imaging time, thereby generating the latest imaging time.
  • the second reference image I1 ”corresponding to the image I1 captured in is acquired.
  • the second image acquisition unit 54 is similar to the edge detection process executed by the template image generation unit 33 for each captured image I1.
  • the edge detection process is executed.
  • the second image acquisition unit 54 may use the detection method information and the edge detection parameters included in the acquired template image data.
  • the second image acquisition. executes a binarization process similar to the binarization process executed by the template image generation unit 33 on the captured image I1 after edge detection.
  • the second image acquisition unit 54 executes the binarization process.
  • the second binarization parameter included in the acquired template image data may be used. In this way, the second reference image I1 ”corresponding to each captured image I1 is generated. That is, the second reference image I1 ”corresponding to each captured image I1 is acquired.
  • the second image matching unit 55 uses the second template image I2 "acquired by the second image acquisition unit 54 and the second reference image I1" acquired by the second image acquisition unit 54 to perform the second template matching. It is what you do.
  • FIG. 17 shows an example of second template matching.
  • the algorithm of the second template matching is the same as the algorithm of the first template matching.
  • the second image matching unit 55 changes the scale s of the acquired second template image I2 ". More specifically, the second image matching unit 55 changes the scale s of the acquired second template image I2".
  • the scale s of " is enlarged or reduced within a predetermined range. As a result, a plurality of second template images I2 "having different scales s are generated.
  • the second image matching unit 55 scans the acquired second reference image I1 "using each of the plurality of second template images I2". At this time, the second image matching unit 55 is used for each position (cx, cy) of the second template image I2 "in the second reference image I1" and for each scale s of the second template image I2 ".
  • the correlation value between the template image I2 "and the second reference image I1" (hereinafter referred to as "second correlation value”) is calculated.
  • the second image matching unit 55 scans only the area including the position (cx, cy) corresponding to the first matching position (cx_b, cy_b) in the acquired second reference image I1 ”. In other words, the second image matching unit 55 may exclude the remaining region of the acquired second reference image I1 ”from the scanning target.
  • the second image matching unit 55 selects one or more second template images I2 "having scales s corresponding to the first matching scale s_b among the plurality of second template images I2". There may be.
  • the second image matching unit 55 may use each of the selected one or more second template images I2 ”for scanning. In other words, the second image matching unit 55 may use the plurality of images.
  • the remaining second template image I2 "of the second template image I2" may not be used for scanning.
  • each second correlation value for example, SAD or ZNCC is used.
  • the position (cx_e, cy_e) corresponding to the maximum value among the plurality of calculated second correlation values may be referred to as a "second matching position”.
  • the scale s_e corresponding to the maximum value among the plurality of calculated second correlation values may be referred to as a "second matching scale”.
  • the second matching position (cx_e, cy_e) corresponds to the amount of deviation of the position of the celestial body O in the second template image I2 "with respect to the position of the celestial body O in the second reference image I1".
  • a deviation amount may be referred to as a “second position deviation amount”.
  • the second matching scale s_e corresponds to the amount of change in the scale of the celestial body O in the second template image I2 "with respect to the scale of the celestial body O in the second reference image I1".
  • such a change amount may be referred to as a “second scale change amount”.
  • the second image matching unit 55 calculates the second matching position (cx_e, cy_e) corresponding to the second position deviation amount by executing the second template matching, and corresponds to the second scale change amount.
  • the second matching scale s_e is calculated.
  • the second image matching unit 55 outputs the calculated second matching position (cx_e, cy_e) to the self-position estimation unit 53a, and outputs the calculated second matching scale s_e to the self-position estimation unit 53a. ..
  • the self-position estimation unit 53a estimates the self-position of the artificial satellite 3a by an estimation method similar to the estimation method by the self-position estimation unit 53. However, when estimating the self-position, the self-position estimation unit 53a may use the second position shift amount and the second scale change amount instead of using the first position shift amount and the first scale change amount. .. In other words, the self-position estimation unit 53a selectively uses the first position shift amount and the first scale change amount or the second position shift amount and the second scale change amount for self-position estimation.
  • templates image generation processing may be collectively referred to as “template image generation processing”.
  • second image acquisition process may be collectively referred to as “second image acquisition process”.
  • second image matching process may be collectively referred to as “second image matching process”.
  • self-position estimation process may be collectively referred to as "self-position estimation process”.
  • the processes executed by the self-position estimation device 41a may be collectively referred to as "self-position estimation process, etc.” That is, the self-position estimation process and the like include a first image acquisition process, a first image matching process, a second image acquisition processing process, a second image matching process, and a self-position estimation process.
  • templates image generation function the functions of the template image generation unit 33 may be collectively referred to as "template image generation function".
  • second image acquisition unit 54 may be collectively referred to as the "second image acquisition function”.
  • second image matching unit 55 the functions of the second image matching unit 55.
  • self-position estimation unit 53a the functions of the self-position estimation unit 53a may be collectively referred to as "self-position estimation function”.
  • the code of "F3” may be used for the template image generation function.
  • the reference numeral “F14” may be used for the second image acquisition function.
  • the reference numeral “F15” may be used for the second image matching function.
  • the reference numeral “F13a” may be used for the self-position estimation function in the self-position estimation unit 53a.
  • the hardware configuration of the main part of the image generation device 11a is the same as that described with reference to FIGS. 5 to 7 in the first embodiment. Therefore, detailed description thereof will be omitted.
  • the image generation device 11a has a plurality of functions (including a simulation image generation function, a reference image generation function, and a template image generation function) F1 to F3.
  • the individual functions F1 to F3 may be realized by the processor 61 and the memory 62, or may be realized by the processing circuit 63.
  • the processor 61 may include a dedicated processor corresponding to each function F1 to F3.
  • the memory 62 may include a dedicated memory corresponding to the individual functions F1 to F3.
  • the processing circuit 63 may include a dedicated processing circuit corresponding to the individual functions F1 to F3.
  • the individual functions F1 to F3 may be realized by a dedicated processing circuit.
  • the hardware configuration of the main part of the navigation control device 25a is the same as that described with reference to FIGS. 8 to 10 in the first embodiment. Therefore, detailed description thereof will be omitted.
  • the navigation control device 25a has a plurality of functions (first image acquisition function, first image matching function, second image acquisition function, second image matching function, self-position estimation function, navigation value calculation function, and navigation control function. Includes) F11, F12, F13a, F14, F15, F21, F22.
  • the individual functions F11, F12, F13a, F14, F15, F21, and F22 may be realized by the processor 71 and the memory 72, or may be realized by the processing circuit 73.
  • the processor 71 may include a dedicated processor corresponding to each function F11, F12, F13a, F14, F15, F21, F22.
  • the memory 72 may include a dedicated memory corresponding to each function F11, F12, F13a, F14, F15, F21, F22.
  • the processing circuit 73 may include a dedicated processing circuit corresponding to each function F11, F12, F13a, F14, F15, F21, F22.
  • the individual functions F11, F12, F13a, F14, and F15 may be realized by a dedicated processing circuit. Further, in the navigation control device 25a, the individual functions F11, F12, F13a, F14, F15, F21, and F22 may be realized by a dedicated processing circuit.
  • the simulation image generation unit 31 executes the simulation image generation process (step ST1).
  • the reference image generation unit 32 executes the reference image generation process (step ST2).
  • the template image generation unit 33 executes the template image generation process (step ST3).
  • the first image acquisition unit 51 executes the first image acquisition process (step ST11).
  • the captured image I1 indicated by the captured image data acquired in step ST11 contains at least a part of the celestial body O (step ST12 “YES”)
  • the first image matching unit 52 performs the first image matching process. Is executed (step ST13).
  • step ST12 “NO” If the captured image I1 indicated by the captured image data acquired in step ST11 does not include the celestial body O (step ST12 “NO”), it is impossible or difficult to accurately execute the first template matching. be. It is also impossible or difficult to accurately perform the second template matching. Therefore, the processing after step ST13 is skipped. As a result, the processing of the self-position estimation device 41a is completed.
  • the second image acquisition unit 54 When the captured image I1 indicated by the captured image data acquired in step ST11 includes the central portion of the celestial body O (step ST15 “YES”), the second image acquisition unit 54 then performs the second image acquisition process. Execute (step ST16). Next, the second image matching unit 55 executes the second image matching process (step ST17).
  • step ST11 If the captured image I1 indicated by the captured image data acquired in step ST11 does not include the central portion of the celestial body O, it is impossible or difficult to accurately execute the second template matching. Therefore, the processes of steps ST16 and ST17 are skipped. As a result, the process of the self-position estimation device 41a proceeds to step ST14a.
  • the self-position estimation unit 53a executes the self-position estimation process (step ST14a).
  • the first position shift amount and the first scale change amount are used for estimating the self-position.
  • the second position shift amount and the second scale change amount are used for estimating the self-position.
  • the self-position estimation device 41a executes self-position estimation processing and the like (step ST21a). As a result, the process described with reference to FIG. 19 is executed.
  • the navigation value calculation unit 42 executes the navigation value calculation process (step ST22).
  • the navigation control unit 43 executes navigation control (step ST23).
  • a state may occur in which the entire celestial body O is included in the captured image I1 and only a part of the region in the captured image I1 corresponds to the celestial body O.
  • a state may be referred to as a "first state”.
  • the following states may occur. That is, a state may occur in which the entire image I1 or substantially the entire image I1 is a region corresponding to the celestial body O.
  • a state may be referred to as a "second state”. In the second state, a part of the celestial body O may protrude from the captured image I1.
  • the image generated by executing the binarization process (that is, the first template image I1') is entirely or substantially entirely composed of white pixels.
  • the accuracy of matching in the first template matching may decrease.
  • the estimation accuracy of the self-position may decrease.
  • the captured image I1 contains detailed features of the celestial body O. Therefore, by using the images generated by executing the edge detection process (that is, the second template image I2 "and the second reference image I1"), highly accurate second template matching can be realized. In other words, the accuracy of the second template matching can be improved. Then, by using the second misalignment amount and the second scale change amount, the self-position estimation accuracy is improved as compared with the case where the first misalignment amount and the first scale amount are used for self-position estimation. Can be done.
  • the second template matching algorithm is the same as the first template matching algorithm. Therefore, in the second state, it is possible to realize the estimation of the self-position by the same algorithm as the algorithm in the first state.
  • the central portion of the celestial body O in the central region of the second template image I2 ", the following effects can be obtained. That is, as described above, one of the celestial bodies O in the second state. The portion may protrude from the captured image I1. Even in such a case, if the central portion of the celestial body O is included in the captured image I1, matching by such a central portion can be realized. The amount of the second misalignment based on the position of the central portion can be calculated.
  • the second image matching unit 55 may execute parabolic fitting using each second correlation value and the corresponding scale s after executing the second template matching. As a result, the second image matching unit 55 may calculate a more detailed second matching scale s_e.
  • the reference image generation unit 32 may be provided in the self-position estimation device 41a instead of being provided in the image generation device 11a. That is, the reference image generation process may be executed by the self-position estimation device 41a instead of being executed by the image generation device 11a.
  • the template image generation unit 33 may be provided in the self-position estimation device 41a instead of being provided in the image generation device 11a. That is, the template image generation process may be executed by the self-position estimation device 41a instead of being executed by the image generation device 11a.
  • the navigation control device 25a may be provided on a moving body different from the artificial satellite 3a.
  • the navigation control device 25a may be provided in a vehicle, a ship, or an aircraft.
  • the image generation device 11a may be provided at a place different from that of the ground station 2a.
  • the image generation device 11a may be provided at any place as long as it can communicate with the moving body having the navigation control device 25a.
  • the self-position estimation device 41a acquires the second template image I2 "based on the simulation image I2 and the second reference image I1" based on the captured image I1.
  • the second template matching that scans the second reference image I1 "using the image acquisition unit 54 and the second template image I2" while scaling the second template image I2 ".
  • a second image matching unit 55 for calculating the second scale change amount is provided, and the self-position estimation unit 53a uses the first position shift amount and the first scale change amount, or the second position shift amount and the second scale.
  • the self-position estimation value is calculated using the amount of change. Thereby, the self-position estimation by the same algorithm can be realized in the first state or the second state.
  • the self-position estimation device 41a acquires the second template image I2 "based on the simulation image I2 and the second reference image I1" based on the captured image I1.
  • the second position is obtained by performing a second template matching in which the second image acquisition unit 54 and the second template image I2 "are scaled and the second reference image I1" is scanned using the second template image I2 ".
  • the image generation device 11a includes a second image matching unit 55 for calculating the deviation amount and the second scale change amount, and the image generation device 11a includes a template image generation unit 33 for generating the second template image I2 ”, and a self-position estimation unit 53a. Calculates its own position estimate using the first misalignment amount and the first scale change amount, or using the second misalignment amount and the second scale change amount. Thereby, the self-position estimation by the same algorithm can be realized in the first state or the second state.
  • the second image acquisition unit 54 acquires the second template image I2 "based on the simulation image I2 and obtains the second reference image I1" based on the captured image I1.
  • the acquisition step ST16 and the second image matching unit 55 perform the second template matching that scales the second template image I2 "and scans the second reference image I1" using the second template image I2 ".
  • the self-position estimation unit 53a includes the step ST17 for calculating the second position shift amount and the second scale change amount, and the self-position estimation unit 53a uses the first position shift amount and the first scale change amount or the second position shift amount.
  • the second scale change amount is used to calculate the self-position estimation value.
  • the self-position estimation device, navigation control device, image generation device, artificial satellite system, and self-position estimation method according to the present disclosure can be used, for example, for an orbiting satellite.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

An own-position estimation device (41) is provided in a mobile item (3) that moves around an object (O) and that captures images of the object (O) by using a camera (23). The own-position estimation device (41) is provided with: a first image acquisition unit (51) that acquires a first template image (I1') based on a captured image (I1) captured by the camera (23) and that acquires a first reference image (I2') based on a simulation image (I2) corresponding to the captured image (I1); a first image matching unit (52) that calculates a first position deviation amount and a first scale change amount by executing first template matching, in which the first template image (I1') is enlarged or reduced and the first reference image (I2') is scanned by using the first template image (I1'); and an own-position estimation unit (53) that calculates an estimated own-position value by using the first position deviation amount and the first scale change amount.

Description

自己位置推定装置、航行制御装置、画像生成装置、人工衛星システム及び自己位置推定方法Self-position estimation device, navigation control device, image generator, artificial satellite system and self-position estimation method

 本開示は、自己位置推定装置、航行制御装置、画像生成装置、人工衛星システム及び自己位置推定方法に関する。 The present disclosure relates to a self-position estimation device, a navigation control device, an image generator, an artificial satellite system, and a self-position estimation method.

 従来、被写体の周囲を移動する移動体に設けられたカメラを用いて被写体を撮像するシステムが開発されている。具体的には、例えば、天体の周囲を周回する人工衛星に設けられたカメラを用いて天体を撮像するシステムが開発されている。また、かかるカメラにより撮像された画像を用いて、かかる被写体の位置を推定する技術が開発されている。 Conventionally, a system for capturing an image of a subject using a camera provided on a moving body that moves around the subject has been developed. Specifically, for example, a system for imaging a celestial body using a camera provided on an artificial satellite orbiting the celestial body has been developed. Further, a technique for estimating the position of such a subject has been developed by using an image captured by such a camera.

 例えば、特許文献1には、以下のような技術が開示されている。すなわち、移動体のカメラにより複数枚の画像が順次撮像される。次いで、個々の画像における特徴点群が抽出される。次いで、これらの特徴点群を用いた特徴量マッチングが実行される。特徴量マッチングの結果に基づき、被写体の三次元位置及びカメラのパラメータが推定される。 For example, Patent Document 1 discloses the following techniques. That is, a plurality of images are sequentially captured by the moving camera. Next, a group of feature points in each image is extracted. Next, feature matching using these feature point clouds is performed. Based on the feature amount matching result, the three-dimensional position of the subject and the parameters of the camera are estimated.

特開2019-49457号公報JP-A-2019-49457

 移動体において当該移動体の位置(以下「自己位置」ということがある。)を推定することが要求されることがある。具体的には、例えば、人工衛星において当該人工衛星の自己位置を推定することが要求されることがある。特許文献1記載の技術は、被写体の位置の推定に用いられるのはもちろんのこと、自己位置の推定に用いられるものである(例えば、特許文献1の段落[0077]参照。)。しかしながら、特許文献1記載の技術を用いて自己位置を推定する場合、以下のような問題があった。 In a moving body, it may be required to estimate the position of the moving body (hereinafter sometimes referred to as "self-position"). Specifically, for example, it may be required to estimate the self-position of the artificial satellite in the artificial satellite. The technique described in Patent Document 1 is used not only for estimating the position of a subject but also for estimating a self-position (see, for example, paragraph [0077] of Patent Document 1). However, when the self-position is estimated by using the technique described in Patent Document 1, there are the following problems.

 すなわち、特許文献1記載の技術は、上記のとおり、個々の画像における特徴点群を抽出して、特徴量マッチングを実行するものである。これらの処理により、計算量が多いという問題があった。このため、移動体における計算資源が制限されているとき、これらの処理を実現することが困難であるという問題があった。 That is, the technique described in Patent Document 1 extracts a group of feature points in each image and executes feature amount matching as described above. Due to these processes, there is a problem that the amount of calculation is large. Therefore, there is a problem that it is difficult to realize these processes when the computational resources in the mobile body are limited.

 本開示は、上記のような課題を解決するためになされたものであり、自己位置の推定に係る計算量を低減することを目的とする。 This disclosure is made to solve the above-mentioned problems, and aims to reduce the amount of calculation related to the estimation of the self-position.

 本開示に係る自己位置推定装置は、被写体の周囲を移動する移動体であって、カメラを用いて被写体を撮像する移動体に設けられる自己位置推定装置において、カメラによる撮像画像に基づく第1テンプレート画像を取得するとともに、撮像画像に対応するシミュレーション画像に基づく第1リファレンス画像を取得する第1画像取得部と、第1テンプレート画像を拡縮するとともに第1テンプレート画像を用いて第1リファレンス画像を走査する第1テンプレートマッチングを実行することにより、第1位置ずれ量及び第1スケール変化量を算出する第1画像マッチング部と、第1位置ずれ量及び第1スケール変化量を用いて自己位置推定値を算出する自己位置推定部と、を備えるものである。 The self-position estimation device according to the present disclosure is a moving body that moves around the subject, and is a self-position estimating device provided in the moving body that captures the subject using a camera, and is a first template based on an image captured by the camera. A first image acquisition unit that acquires an image and acquires a first reference image based on a simulation image corresponding to the captured image, and a first reference image is scanned using the first template image while scaling the first template image. Self-position estimated value using the first image matching unit that calculates the first position shift amount and the first scale change amount by executing the first template matching, and the first position shift amount and the first scale change amount. It is provided with a self-position estimation unit for calculating.

 本開示によれば、上記のように構成したので、自己位置の推定に係る計算量を低減することができる。 According to the present disclosure, since it is configured as described above, the amount of calculation related to the estimation of the self-position can be reduced.

実施の形態1に係る人工衛星システムの要部を示すブロック図である。It is a block diagram which shows the main part of the artificial satellite system which concerns on Embodiment 1. FIG. 実施の形態1に係る人工衛星システムにおける画像生成装置の要部を示すブロック図である。It is a block diagram which shows the main part of the image generation apparatus in the artificial satellite system which concerns on Embodiment 1. FIG. 実施の形態1に係る人工衛星システムにおける航行制御装置の要部を示すブロック図である。It is a block diagram which shows the main part of the navigation control device in the artificial satellite system which concerns on Embodiment 1. FIG. 第1テンプレートマッチングの例を示す説明図である。It is explanatory drawing which shows the example of 1st template matching. 実施の形態1に係る人工衛星システムにおける画像生成装置の要部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware configuration of the main part of the image generation apparatus in the artificial satellite system which concerns on Embodiment 1. FIG. 実施の形態1に係る人工衛星システムにおける画像生成装置の要部の他のハードウェア構成を示すブロック図である。It is a block diagram which shows the other hardware configuration of the main part of the image generation apparatus in the artificial satellite system which concerns on Embodiment 1. FIG. 実施の形態1に係る人工衛星システムにおける画像生成装置の要部の他のハードウェア構成を示すブロック図である。It is a block diagram which shows the other hardware configuration of the main part of the image generation apparatus in the artificial satellite system which concerns on Embodiment 1. FIG. 実施の形態1に係る人工衛星システムにおける航行制御装置の要部のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware composition of the main part of the navigation control device in the artificial satellite system which concerns on Embodiment 1. FIG. 実施の形態1に係る人工衛星システムにおける航行制御装置の要部の他のハードウェア構成を示すブロック図である。It is a block diagram which shows the other hardware configuration of the main part of the navigation control device in the artificial satellite system which concerns on Embodiment 1. FIG. 実施の形態1に係る人工衛星システムにおける航行制御装置の要部の他のハードウェア構成を示すブロック図である。It is a block diagram which shows the other hardware configuration of the main part of the navigation control device in the artificial satellite system which concerns on Embodiment 1. FIG. 実施の形態1に係る人工衛星システムにおける画像生成装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the image generator in the artificial satellite system which concerns on Embodiment 1. FIG. 実施の形態1に係る人工衛星システムにおける自己位置推定装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the self-position estimation apparatus in the artificial satellite system which concerns on Embodiment 1. FIG. 実施の形態1に係る人工衛星システムにおける航行制御装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the navigation control device in the artificial satellite system which concerns on Embodiment 1. FIG. 実施の形態2に係る人工衛星システムの要部を示すブロック図である。It is a block diagram which shows the main part of the artificial satellite system which concerns on Embodiment 2. 実施の形態2に係る人工衛星システムにおける画像生成装置の要部を示すブロック図である。It is a block diagram which shows the main part of the image generation apparatus in the artificial satellite system which concerns on Embodiment 2. 実施の形態1に係る人工衛星システムにおける航行制御装置の要部を示すブロック図である。It is a block diagram which shows the main part of the navigation control device in the artificial satellite system which concerns on Embodiment 1. FIG. 第2テンプレートマッチングの例を示す説明図である。It is explanatory drawing which shows the example of the 2nd template matching. 実施の形態2に係る人工衛星システムにおける画像生成装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the image generator in the artificial satellite system which concerns on Embodiment 2. 実施の形態2に係る人工衛星システムにおける自己位置推定装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the self-position estimation apparatus in the artificial satellite system which concerns on Embodiment 2. 実施の形態2に係る人工衛星システムにおける航行制御装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the navigation control device in the artificial satellite system which concerns on Embodiment 2.

 以下、この開示をより詳細に説明するために、この開示を実施するための形態について、添付の図面に従って説明する。 Hereinafter, in order to explain this disclosure in more detail, a mode for carrying out this disclosure will be described with reference to the attached drawings.

実施の形態1.
 図1は、実施の形態1に係る人工衛星システムの要部を示すブロック図である。図2は、実施の形態1に係る人工衛星システムにおける画像生成装置の要部を示すブロック図である。図3は、実施の形態1に係る人工衛星システムにおける航行制御装置の要部を示すブロック図である。図1~図3を参照して、実施の形態1に係る人工衛星システムについて説明する。
Embodiment 1.
FIG. 1 is a block diagram showing a main part of the artificial satellite system according to the first embodiment. FIG. 2 is a block diagram showing a main part of an image generation device in the artificial satellite system according to the first embodiment. FIG. 3 is a block diagram showing a main part of the navigation control device in the artificial satellite system according to the first embodiment. The artificial satellite system according to the first embodiment will be described with reference to FIGS. 1 to 3.

 図1に示す如く、人工衛星システム1は、地上局2及び人工衛星3を含むものである。地上局2は、画像生成装置11、記憶装置12及び通信装置13を含むものである。人工衛星3は、通信装置21、姿勢推定装置22、カメラ23、記憶装置24及び航行制御装置25を含むものである。 As shown in FIG. 1, the artificial satellite system 1 includes a ground station 2 and an artificial satellite 3. The ground station 2 includes an image generation device 11, a storage device 12, and a communication device 13. The artificial satellite 3 includes a communication device 21, an attitude estimation device 22, a camera 23, a storage device 24, and a navigation control device 25.

 通信装置13及び通信装置21は、相互に通信自在である。これにより、地上局2及び人工衛星3は、相互に通信自在である。 The communication device 13 and the communication device 21 can communicate with each other. As a result, the ground station 2 and the artificial satellite 3 can communicate with each other.

 地上局2は、天体O(不図示)に設けられている。これに対して、人工衛星3は、天体Oの周囲を周回するものである。ここで、カメラ23の光軸は、天体Oに向けられるものである。また、人工衛星システム1においては、天体Oを撮像するべき複数個の時刻(以下「撮像時刻」ということがある。)が設定されるものである。人工衛星3は、個々の撮像時刻にて、カメラ23を用いて天体Oを撮像するものである。以下、個々の撮像時刻にてカメラ23により撮像された画像I1を「撮像画像」ということがある。 Ground station 2 is provided on celestial body O (not shown). On the other hand, the artificial satellite 3 orbits around the celestial body O. Here, the optical axis of the camera 23 is directed to the celestial body O. Further, in the artificial satellite system 1, a plurality of times (hereinafter, may be referred to as “imaging time”) for imaging the celestial body O are set. The artificial satellite 3 uses the camera 23 to image the celestial body O at each imaging time. Hereinafter, the image I1 captured by the camera 23 at each imaging time may be referred to as an “captured image”.

 以下、人工衛星3の軌道に誤差が生じておらず、かつ、人工衛星3の位置に誤差が生じておらず、かつ、人工衛星3の姿勢に誤差が生じていない状態を「理想状態」ということがある。理想状態における人工衛星3の軌道(以下「目標軌道」ということがある。)は、所定の周回軌道に沿うものとなる。また、理想状態における個々の撮像時刻における人工衛星3の位置(以下「目標位置」ということがある。)は、目標軌道における所定の位置となる。また、理想状態における個々の撮像時刻における人工衛星3の姿勢(以下「目標姿勢」ということがある。)は、所定の姿勢となる。また、理想状態において、カメラ23の光軸は、天体Oの中心部に向けられる。 Hereinafter, a state in which there is no error in the orbit of the artificial satellite 3, no error in the position of the artificial satellite 3, and no error in the attitude of the artificial satellite 3 is referred to as an "ideal state". Sometimes. The orbit of the artificial satellite 3 in the ideal state (hereinafter, may be referred to as “target orbit”) follows a predetermined orbit. Further, the position of the artificial satellite 3 (hereinafter, may be referred to as “target position”) at each imaging time in the ideal state is a predetermined position in the target orbit. Further, the posture of the artificial satellite 3 (hereinafter, may be referred to as “target posture”) at each imaging time in the ideal state is a predetermined posture. Further, in the ideal state, the optical axis of the camera 23 is directed to the central portion of the celestial body O.

 図2に示す如く、画像生成装置11は、シミュレーション画像生成部31及びリファレンス画像生成部32を含むものである。 As shown in FIG. 2, the image generation device 11 includes a simulation image generation unit 31 and a reference image generation unit 32.

 シミュレーション画像生成部31は、理想状態にて個々の撮像時刻にてカメラ23により撮像されるべき画像I1を模擬するものである。これにより、個々の画像I1に対応するシミュレーション画像I2が生成される。 The simulation image generation unit 31 simulates the image I1 to be captured by the camera 23 at each imaging time in an ideal state. As a result, the simulation image I2 corresponding to each image I1 is generated.

 すなわち、記憶装置12には、目標軌道を示す情報及び個々の撮像時刻を示す情報が記憶されている。シミュレーション画像生成部31は、これらの情報を取得する。シミュレーション画像生成部31は、当該取得された情報を用いて、理想状態における個々の撮像時刻における人工衛星3の位置(x,y,z)を予測するとともに、理想状態における個々の撮像時刻におけるカメラ23の光軸の向き(vx,vy,vz)を予測する。 That is, the storage device 12 stores information indicating a target trajectory and information indicating individual imaging times. The simulation image generation unit 31 acquires this information. The simulation image generation unit 31 uses the acquired information to predict the position (x, y, z) of the artificial satellite 3 at each imaging time in the ideal state, and the camera at each imaging time in the ideal state. Predict the orientation (vx, by, vz) of the optical axis of 23.

 また、記憶装置12には、天体Oの三次元モデルを示すデータが記憶されている。シミュレーション画像生成部31は、かかるデータを取得する。シミュレーション画像生成部31は、当該取得されたデータを用いて、天体Oの三次元モデルをシミュレーション用の仮想空間に配置する。 Further, the storage device 12 stores data indicating a three-dimensional model of the celestial body O. The simulation image generation unit 31 acquires such data. The simulation image generation unit 31 arranges the three-dimensional model of the celestial body O in the virtual space for simulation by using the acquired data.

 また、記憶装置12には、天体Oに係るパラメータ(以下「固有パラメータ」という。)を示す情報及びカメラ23に係るパラメータ(以下「カメラパラメータ」という。)を示す情報が記憶されている。シミュレーション画像生成部31は、これらの情報を取得する。シミュレーション画像生成部31は、当該取得された情報を用いて、シミュレーション用のパラメータ(以下「シミュレーションパラメータ」という。)を設定する。 Further, the storage device 12 stores information indicating a parameter related to the celestial body O (hereinafter referred to as "unique parameter") and information indicating a parameter related to the camera 23 (hereinafter referred to as "camera parameter"). The simulation image generation unit 31 acquires this information. The simulation image generation unit 31 sets parameters for simulation (hereinafter referred to as “simulation parameters”) using the acquired information.

 固有パラメータは、天体Oにおける反射率(例えばアルベド)を示す値及び天体Oにおける太陽高度を示す値などを含むものである。カメラパラメータは、カメラ23の焦点を示す値、カメラ23の光軸を示す値及びカメラ23の位置を示す値などを含むものである。これに加えて、カメラパラメータは、カメラ23におけるレンズ歪み係数を示す値及びカメラ23におけるノイズを示す値などを含むものであっても良い。 The unique parameters include a value indicating the reflectance (for example, albedo) in the celestial body O and a value indicating the solar altitude in the celestial body O. The camera parameters include a value indicating the focus of the camera 23, a value indicating the optical axis of the camera 23, a value indicating the position of the camera 23, and the like. In addition to this, the camera parameters may include a value indicating the lens distortion coefficient in the camera 23, a value indicating noise in the camera 23, and the like.

 シミュレーション画像生成部31は、上記予測された位置(x,y,z)、上記予測された向き(vx,vy,vz)及び上記設定されたシミュレーションパラメータに基づき、理想状態における個々の撮像時刻における画像I1を模擬する。このとき、レンズの投影モデルには、実際のカメラ23における投影モデルと同様のモデルが用いられる。 The simulation image generation unit 31 sets the simulation image generation unit 31 at each imaging time in an ideal state based on the predicted position (x, y, z), the predicted orientation (vx, vy, vz), and the set simulation parameters. Image I1 is simulated. At this time, a model similar to the projection model in the actual camera 23 is used as the projection model of the lens.

 これにより、個々の画像I1に対応するシミュレーション画像I2が生成される。シミュレーション画像生成部31は、当該生成されたシミュレーション画像I2を示すデータ(以下「シミュレーション画像データ」という。)を記憶装置12に記憶させる。 As a result, a simulation image I2 corresponding to each image I1 is generated. The simulation image generation unit 31 stores the data indicating the generated simulation image I2 (hereinafter referred to as “simulation image data”) in the storage device 12.

 ここで、天体Oと人工衛星3間の距離が小さい場合、天体Oがカメラ23の画角からはみ出すことにより、天体Oの一部のみがカメラ23により撮像される状態が生ずることがある。この結果、天体Oの一部のみが画像I1に含まれる状態が生ずることがある。この場合、シミュレーション画像生成部31は、以下のようなシミュレーション画像I2を生成するものであっても良い。 Here, when the distance between the celestial body O and the artificial satellite 3 is small, the celestial body O may protrude from the angle of view of the camera 23, so that only a part of the celestial body O may be imaged by the camera 23. As a result, a state in which only a part of the celestial body O is included in the image I1 may occur. In this case, the simulation image generation unit 31 may generate the following simulation image I2.

 すなわち、シミュレーション画像生成部31は、仮想的にカメラ23の画角が拡大されることにより仮想的に天体Oの全体がカメラ23により撮像される状態に対応するシミュレーション画像I2を生成するものであっても良い。これにより、天体Oの全体を含むシミュレーション画像I2が生成される。この結果、天体Oと人工衛星3間の距離が小さい場合であっても、後述する第1画像マッチング部52により実行されるテンプレートマッチング(以下「第1テンプレートマッチング」という。)を実現することができる。 That is, the simulation image generation unit 31 generates a simulation image I2 corresponding to a state in which the entire celestial body O is virtually imaged by the camera 23 by virtually expanding the angle of view of the camera 23. You may. As a result, a simulation image I2 including the entire celestial body O is generated. As a result, even when the distance between the celestial body O and the artificial satellite 3 is small, it is possible to realize template matching (hereinafter referred to as "first template matching") executed by the first image matching unit 52 described later. can.

 このとき、シミュレーション画像生成部31は、カメラ23の焦点距離を変更することなく、カメラ23の画素数を仮想的に大きくすることにより、かかるシミュレーション画像I2を生成する。これにより、かかるシミュレーション画像I2を生成するにあたり、固有パラメータを示す情報に含まれるカメラ23の焦点距離を示す値をそのまま用いることができる。 At this time, the simulation image generation unit 31 generates the simulation image I2 by virtually increasing the number of pixels of the camera 23 without changing the focal length of the camera 23. As a result, in generating the simulation image I2, the value indicating the focal length of the camera 23 included in the information indicating the unique parameter can be used as it is.

 リファレンス画像生成部32は、記憶装置12に記憶されているシミュレーション画像データを取得するものである。リファレンス画像生成部32は、当該取得されたシミュレーション画像データを用いて、第1テンプレートマッチング用のリファレンス画像(以下「第1リファレンス画像」という。)I2’を生成するものである。 The reference image generation unit 32 acquires the simulation image data stored in the storage device 12. The reference image generation unit 32 uses the acquired simulation image data to generate a reference image (hereinafter referred to as “first reference image”) I2 ′ for first template matching.

 すなわち、リファレンス画像生成部32は、当該取得されたシミュレーション画像データを用いて、個々のシミュレーション画像I2に対する二値化処理を実行する。このとき、二値化用のパラメータ(二値化用の閾値を含む。以下「第1二値化パラメータ」という。)には、所定の値が用いられる。または、第1二値化パラメータには、統計的手法により算出された値が用いられる。具体的には、例えば、第1二値化パラメータには、判別分析法により算出された値が用いられる。 That is, the reference image generation unit 32 executes the binarization process for each simulation image I2 using the acquired simulation image data. At this time, a predetermined value is used for the parameter for binarization (including the threshold value for binarization; hereinafter referred to as "first binarization parameter"). Alternatively, a value calculated by a statistical method is used as the first binarization parameter. Specifically, for example, a value calculated by a discriminant analysis method is used as the first binarization parameter.

 二値化後のシミュレーション画像I2にノイズが含まれる場合、リファレンス画像生成部32は、二値化後のシミュレーション画像I2に対するノイズ除去処理を実行する。これにより、かかるノイズが第1テンプレートマッチングにより算出される相関値(以下「第1相関値」という。)に影響を与えるのを回避することができる。ノイズ除去処理には、例えば、拡縮処理が用いられる。 When the binarized simulation image I2 contains noise, the reference image generation unit 32 executes noise removal processing on the binarized simulation image I2. As a result, it is possible to prevent such noise from affecting the correlation value calculated by the first template matching (hereinafter referred to as "first correlation value"). For the noise removal process, for example, a scaling process is used.

 次いで、リファレンス画像生成部32は、二値化後のシミュレーション画像I2又はノイズ除去後のシミュレーション画像I2を所定のサイズにリサイズする。これにより、個々のシミュレーション画像I2が第1テンプレートマッチング用のサイズにリサイズされる。 Next, the reference image generation unit 32 resizes the binarized simulation image I2 or the noise-removed simulation image I2 to a predetermined size. As a result, the individual simulation images I2 are resized to the size for the first template matching.

 このようにして、個々のシミュレーション画像I2に対応する第1リファレンス画像I2’が生成される。リファレンス画像生成部32は、当該生成された第1リファレンス画像I2’を示すデータ(以下「リファレンス画像データ」という。)を記憶装置12に記憶させる。なお、リファレンス画像データは、第1二値化パラメータを含むものであっても良い。 In this way, the first reference image I2'corresponding to each simulation image I2 is generated. The reference image generation unit 32 stores the data indicating the generated first reference image I2'(hereinafter referred to as "reference image data") in the storage device 12. The reference image data may include the first binarization parameter.

 通信装置13は、記憶装置12に記憶されているリファレンス画像データを取得する。通信装置13は、当該取得されたリファレンス画像データを人工衛星3に送信する。通信装置21は、当該送信されたリファレンス画像データを受信する。通信装置21は、当該受信されたリファレンス画像データを記憶装置24に記憶させる。 The communication device 13 acquires the reference image data stored in the storage device 12. The communication device 13 transmits the acquired reference image data to the artificial satellite 3. The communication device 21 receives the transmitted reference image data. The communication device 21 stores the received reference image data in the storage device 24.

 姿勢推定装置22は、例えば、スタートラッカにより構成されている。姿勢推定装置22は、人工衛星3の姿勢(φ,θ,ψ)を推定するものである。ここで、姿勢推定装置22により推定される姿勢(φ,θ,ψ)は、個々の撮像時刻における姿勢(φ,θ,ψ)を含むものである。姿勢推定装置22は、当該推定された姿勢(φ,θ,ψ)を示す値(以下「姿勢推定値」という。)を記憶装置24に記憶させるものである。 The posture estimation device 22 is composed of, for example, a start racker. The attitude estimation device 22 estimates the attitude (φ, θ, ψ) of the artificial satellite 3. Here, the posture (φ, θ, ψ) estimated by the posture estimation device 22 includes the posture (φ, θ, ψ) at each imaging time. The posture estimation device 22 stores a value (hereinafter referred to as “posture estimation value”) indicating the estimated posture (φ, θ, ψ) in the storage device 24.

 カメラ23は、上記のとおり、個々の撮像時刻にて天体Oを撮像するものである。カメラ23は、個々の撮像時刻にて撮像された画像I1を示すデータ(以下「撮像画像データ」という。)を記憶装置24に記憶させるものである。 As described above, the camera 23 captures the celestial body O at each imaging time. The camera 23 stores data indicating the image I1 captured at each imaging time (hereinafter referred to as “captured image data”) in the storage device 24.

 図3に示す如く、航行制御装置25は、自己位置推定装置41、航法値算出部42及び航行制御部43を含むものである。自己位置推定装置41は、第1画像取得部51、第1画像マッチング部52及び自己位置推定部53を含むものである。 As shown in FIG. 3, the navigation control device 25 includes a self-position estimation device 41, a navigation value calculation unit 42, and a navigation control unit 43. The self-position estimation device 41 includes a first image acquisition unit 51, a first image matching unit 52, and a self-position estimation unit 53.

 第1画像取得部51は、記憶装置24に記憶されているリファレンス画像データを取得するものである。これにより、第1リファレンス画像I2’が取得される。また、第1画像取得部51は、記憶装置24に記憶されている撮像画像データを取得するものである。第1画像取得部51は、当該取得された撮像画像データを用いて、第1テンプレートマッチング用のテンプレート画像(以下「第1テンプレート画像」という。)I1’を生成するものである。これにより、第1テンプレート画像I1’が取得される。 The first image acquisition unit 51 acquires the reference image data stored in the storage device 24. As a result, the first reference image I2'is acquired. In addition, the first image acquisition unit 51 acquires the captured image data stored in the storage device 24. The first image acquisition unit 51 uses the acquired captured image data to generate a template image (hereinafter referred to as “first template image”) I1 ′ for first template matching. As a result, the first template image I1'is acquired.

 具体的には、例えば、第1画像取得部51は、直近の撮像時刻にて撮像された画像I1に対応する第1リファレンス画像I2’を示すリファレンス画像データを取得する。これにより、直近の撮像時刻にて撮像された画像I1に対応する第1リファレンス画像I2’が取得される。また、第1画像取得部51は、直近の撮像時刻にて撮像された画像I1を示す撮像画像データを取得する。第1画像取得部51は、当該取得された撮像画像データを用いて、直近の撮像時刻にて撮像された画像I1に対応する第1テンプレート画像I1’を生成する。これにより、直近の撮像時刻にて撮像された画像I1に対応する第1テンプレート画像I1’が取得される。 Specifically, for example, the first image acquisition unit 51 acquires reference image data indicating the first reference image I2'corresponding to the image I1 captured at the latest imaging time. As a result, the first reference image I2'corresponding to the image I1 captured at the latest imaging time is acquired. In addition, the first image acquisition unit 51 acquires captured image data indicating the image I1 captured at the latest imaging time. The first image acquisition unit 51 uses the acquired captured image data to generate a first template image I1'corresponding to the image I1 captured at the latest imaging time. As a result, the first template image I1'corresponding to the image I1 captured at the latest imaging time is acquired.

 ここで、第1テンプレート画像I1’の生成方法について説明する。第1画像取得部51は、個々の撮像画像I1に対して、リファレンス画像生成部32により実行される二値化処理と同様の二値化処理を実行する。このとき、第1画像取得部51は、上記取得されたリファレンス画像データに含まれる第1二値化パラメータを用いるものであっても良い。次いで、第1画像取得部51は、二値化後の撮像画像I1に対して、リファレンス画像生成部32により実行されるノイズ除去処理と同様のノイズ除去処理を適宜実行する。このようにして、個々の撮像画像I1に対応する第1テンプレート画像I1’が生成される。すなわち、個々の撮像画像I1に対応する第1テンプレート画像I1’が取得される。 Here, a method of generating the first template image I1'will be described. The first image acquisition unit 51 executes a binarization process similar to the binarization process executed by the reference image generation unit 32 on each captured image I1. At this time, the first image acquisition unit 51 may use the first binarization parameter included in the acquired reference image data. Next, the first image acquisition unit 51 appropriately executes a noise removal process similar to the noise removal process executed by the reference image generation unit 32 on the binarized captured image I1. In this way, the first template image I1'corresponding to each captured image I1 is generated. That is, the first template image I1'corresponding to each captured image I1 is acquired.

 第1画像マッチング部52は、第1画像取得部51により取得された第1テンプレート画像I1’及び第1画像取得部51により取得された第1リファレンス画像I2’を用いて、第1テンプレートマッチングを実行するものである。図4は、第1テンプレートマッチングの例を示している。 The first image matching unit 52 uses the first template image I1'acquired by the first image acquisition unit 51 and the first reference image I2' acquired by the first image acquisition unit 51 to perform the first template matching. It is what you do. FIG. 4 shows an example of first template matching.

 すなわち、第1画像マッチング部52は、上記取得された第1テンプレート画像I1’のスケールsを変化させる。より具体的には、第1画像マッチング部52は、上記取得された第1テンプレート画像I1’のスケールsを所定の範囲内にて拡大又は縮小する。これにより、互いに異なるスケールsを有する複数枚の第1テンプレート画像I1’が生成される。 That is, the first image matching unit 52 changes the scale s of the acquired first template image I1'. More specifically, the first image matching unit 52 enlarges or reduces the scale s of the acquired first template image I1'within a predetermined range. As a result, a plurality of first template images I1'having different scales s are generated.

 また、第1画像マッチング部52は、上記取得された第1リファレンス画像I2’に対するゼロパディング処理を実行する。これにより、余白領域を有する第1リファレンス画像I2’が生成される。第1リファレンス画像I2’に余白領域を付加することにより、第1テンプレート画像I1’の端部(すなわち上端部、下端部、左端部又は右端部)に天体Oが位置する場合であっても、第1テンプレートマッチングを実現することができる。 Further, the first image matching unit 52 executes the zero padding process on the acquired first reference image I2'. As a result, the first reference image I2'having a margin region is generated. By adding a margin area to the first reference image I2', even if the celestial body O is located at the end (that is, the upper end, the lower end, the left end or the right end) of the first template image I1', the celestial body O is located. The first template matching can be realized.

 次いで、第1画像マッチング部52は、上記複数枚の第1テンプレート画像I1’の各々を用いて、上記余白領域を有する第1リファレンス画像I2’を走査する。このとき、第1画像マッチング部52は、第1リファレンス画像I2’における第1テンプレート画像I1’の位置(cx,cy)毎に、かつ、第1テンプレート画像I1’のスケールs毎に、第1テンプレート画像I1’と第1リファレンス画像I2’との相関値(すなわち第1相関値)を算出する。 Next, the first image matching unit 52 scans the first reference image I2'having the margin area by using each of the plurality of first template images I1'. At this time, the first image matching unit 52 is the first for each position (cx, cy) of the first template image I1'in the first reference image I2'and for each scale s of the first template image I1'. The correlation value (that is, the first correlation value) between the template image I1'and the first reference image I2' is calculated.

 このようにして、複数個の第1相関値が算出される。個々の第1相関値には、例えば、SAD(Sum of Absolute Difference)又はZNCC(Zero-mean Normalized Cross-Correlatio)が用いられる。 In this way, a plurality of first correlation values are calculated. For each first correlation value, for example, SAD (Sum of Absolute Difference) or ZNCC (Zero-mean Normalized Cross-Correlatio) is used.

 以下、当該算出された複数個の第1相関値のうちの最大値に対応する位置(cx_b,cy_b)を「第1マッチング位置」ということがある。また、当該算出された複数個の第1相関値のうちの最大値に対応するスケールs_bを「第1マッチングスケール」ということがある。 Hereinafter, the positions (cx_b, cy_b) corresponding to the maximum value among the plurality of calculated first correlation values may be referred to as "first matching positions". Further, the scale s_b corresponding to the maximum value among the plurality of calculated first correlation values may be referred to as a "first matching scale".

 第1マッチング位置(cx_b,cy_b)は、第1リファレンス画像I2’における天体Oの位置に対する第1テンプレート画像I1’における天体Oの位置のずれ量に対応している。以下、かかるずれ量を「第1位置ずれ量」ということがある。また、第1マッチングスケールs_bは、第1リファレンス画像I2’における天体Oのスケールに対する第1テンプレート画像I1’における天体Oのスケールの変化量に対応している。以下、かかる変化量を「第1スケール変化量」ということがある。 The first matching position (cx_b, cy_b) corresponds to the amount of deviation of the position of the celestial body O in the first template image I1'with respect to the position of the celestial body O in the first reference image I2'. Hereinafter, such a deviation amount may be referred to as a “first position deviation amount”. Further, the first matching scale s_b corresponds to the amount of change in the scale of the celestial body O in the first template image I1'with respect to the scale of the celestial body O in the first reference image I2'. Hereinafter, such a change amount may be referred to as a “first scale change amount”.

 すなわち、第1画像マッチング部52は、テンプレートマッチングを実行することにより、第1位置ずれ量に対応する第1マッチング位置(cx_b,cy_b)を算出するとともに、第1スケール変化量に対応する第1マッチングスケールs_bを算出するものである。第1画像マッチング部52は、当該算出された第1マッチング位置(cx_b,cy_b)を自己位置推定部53に出力するとともに、当該算出された第1マッチングスケールs_bを自己位置推定部53に出力する。 That is, the first image matching unit 52 calculates the first matching position (cx_b, cy_b) corresponding to the first position deviation amount by executing the template matching, and the first scale corresponding to the first scale change amount. The matching scale s_b is calculated. The first image matching unit 52 outputs the calculated first matching position (cx_b, cy_b) to the self-position estimation unit 53, and outputs the calculated first matching scale s_b to the self-position estimation unit 53. ..

 自己位置推定部53は、第1画像マッチング部52により出力された第1マッチング位置(cx_b,cy_b)を取得するものである。また、自己位置推定部53は、第1画像マッチング部52により出力された第1マッチングスケールs_bを取得するものである。 The self-position estimation unit 53 acquires the first matching position (cx_b, cy_b) output by the first image matching unit 52. Further, the self-position estimation unit 53 acquires the first matching scale s_b output by the first image matching unit 52.

 また、自己位置推定部53は、記憶装置24に記憶されている姿勢推定値(φ,θ,ψ)を取得するものである。具体的には、例えば、自己位置推定部53は、直近の撮像時刻における姿勢推定値(φ,θ,ψ)を取得するものである。 Further, the self-position estimation unit 53 acquires the posture estimation values (φ, θ, ψ) stored in the storage device 24. Specifically, for example, the self-position estimation unit 53 acquires the posture estimation values (φ, θ, ψ) at the latest imaging time.

 また、記憶装置24には、天体Oの数値標高モデルを示すデータが記憶されている。自己位置推定部53は、かかるデータを取得するものである。 Further, the storage device 24 stores data indicating a digital elevation model of the celestial body O. The self-position estimation unit 53 acquires such data.

 自己位置推定部53は、上記取得された第1マッチング位置(cx_b,cy_b)に対応する第1位置ずれ量、上記取得された第1マッチングスケールs_bに対応する第1スケール変化量、上記取得された姿勢推定値(φ,θ,ψ)及び上記取得されたデータに含まれる数値標高値を用いて、人工衛星3の自己位置を推定するものである。これにより、例えば、直近の撮像時刻における自己位置が推定される。 The self-position estimation unit 53 acquires the first position deviation amount corresponding to the acquired first matching position (cx_b, cy_b), the first scale change amount corresponding to the acquired first matching scale s_b, and the above-mentioned acquired one. The self-position of the artificial satellite 3 is estimated by using the attitude estimation values (φ, θ, ψ) and the numerical elevation values included in the acquired data. Thereby, for example, the self-position at the latest imaging time is estimated.

 かかる自己位置の推定には、公知の種々の技術を用いることができる。これらの技術についての詳細な説明は省略する。自己位置推定部53は、当該推定された自己位置を示す値(以下「自己位置推定値」という。)を航法値算出部42に出力するものである。 Various known techniques can be used to estimate such self-position. Detailed description of these techniques will be omitted. The self-position estimation unit 53 outputs a value indicating the estimated self-position (hereinafter referred to as “self-position estimation value”) to the navigation value calculation unit 42.

 航法値算出部42は、自己位置推定部53により出力された自己位置推定値を取得するものである。航法値算出部42は、対応する撮像時刻(例えば直近の撮像時刻)における目標位置に対する当該取得された自己位置推定値が示す自己位置のずれ量を算出するものである。このとき、航法値算出部42は、2方向(水平方向及び垂直方向を含む。)におけるずれ量を算出するものであっても良い。 The navigation value calculation unit 42 acquires the self-position estimation value output by the self-position estimation unit 53. The navigation value calculation unit 42 calculates the amount of deviation of the self-position indicated by the acquired self-position estimated value with respect to the target position at the corresponding imaging time (for example, the latest imaging time). At this time, the navigation value calculation unit 42 may calculate the amount of deviation in two directions (including the horizontal direction and the vertical direction).

 航法値算出部42は、当該算出されたずれ量に応じて、人工衛星3におけるスラスタ等の制御に用いられる制御値(以下「航法値」という。)を算出するものである。航法値算出部42は、当該算出された航法値を航行制御部43に出力するものである。 The navigation value calculation unit 42 calculates a control value (hereinafter referred to as “navigation value”) used for controlling a thruster or the like on the artificial satellite 3 according to the calculated deviation amount. The navigation value calculation unit 42 outputs the calculated navigation value to the navigation control unit 43.

 航行制御部43は、航法値算出部42により出力された航法値を取得するものである。航行制御部43は、当該取得された航法値を用いて、人工衛星3のスラスタ等を制御するものである。これにより、人工衛星3の位置(x,y,z)に誤差が生じているとき、人工衛星3の位置(x,y,z)を目標位置に近づけることができる。 The navigation control unit 43 acquires the navigation value output by the navigation value calculation unit 42. The navigation control unit 43 controls the thruster or the like of the artificial satellite 3 by using the acquired navigation value. As a result, when there is an error in the position (x, y, z) of the artificial satellite 3, the position (x, y, z) of the artificial satellite 3 can be brought closer to the target position.

 以下、シミュレーション画像生成部31により実行される処理を総称して「シミュレーション画像生成処理」ということがある。また、リファレンス画像生成部32により実行される処理を総称して「リファレンス画像生成処理」ということがある。また、第1画像取得部51により実行される処理を総称して「第1画像取得処理」ということがある。また、第1画像マッチング部52により実行される処理を総称して「第1画像マッチング処理」ということがある。また、自己位置推定部53により実行される処理を総称して「自己位置推定処理」ということがある。また、航法値算出部42により実行される処理を総称して「航法値算出処理」ということがある。また、航行制御部43により実行される処理及び制御を総称して「航行制御」ということがある。 Hereinafter, the processes executed by the simulation image generation unit 31 may be collectively referred to as "simulation image generation processing". Further, the processes executed by the reference image generation unit 32 may be collectively referred to as "reference image generation process". Further, the processes executed by the first image acquisition unit 51 may be collectively referred to as "first image acquisition process". Further, the processes executed by the first image matching unit 52 may be collectively referred to as "first image matching process". Further, the processes executed by the self-position estimation unit 53 may be collectively referred to as "self-position estimation process". Further, the processing executed by the navigation value calculation unit 42 may be collectively referred to as "navigation value calculation processing". Further, the processing and control executed by the navigation control unit 43 may be collectively referred to as "navigation control".

 以下、自己位置推定装置41により実行される処理を総称して「自己位置推定処理等」ということがある。すなわち、かかる自己位置推定処理等は、第1画像取得処理、第1画像マッチング処理及び自己位置推定処理を含むものである。 Hereinafter, the processes executed by the self-position estimation device 41 may be collectively referred to as "self-position estimation process, etc." That is, the self-position estimation process and the like include a first image acquisition process, a first image matching process, and a self-position estimation process.

 以下、シミュレーション画像生成部31が有する機能を総称して「シミュレーション画像生成機能」ということがある。また、リファレンス画像生成部32が有する機能を総称して「リファレンス画像生成機能」ということがある。また、第1画像取得部51が有する機能を総称して「第1画像取得機能」ということがある。また、第1画像マッチング部52が有する機能を総称して「第1画像マッチング機能」ということがある。また、自己位置推定部53が有する機能を総称して「自己位置推定機能」ということがある。また、航法値算出部42が有する機能を総称して「航法値算出機能」ということがある。また、航行制御部43が有する機能を総称して「航行制御機能」ということがある。 Hereinafter, the functions of the simulation image generation unit 31 are collectively referred to as "simulation image generation function". Further, the functions of the reference image generation unit 32 may be collectively referred to as a "reference image generation function". In addition, the functions of the first image acquisition unit 51 may be collectively referred to as the "first image acquisition function". In addition, the functions of the first image matching unit 52 may be collectively referred to as the "first image matching function". Further, the functions of the self-position estimation unit 53 may be collectively referred to as "self-position estimation function". Further, the functions of the navigation value calculation unit 42 may be collectively referred to as a "navigation value calculation function". Further, the functions of the navigation control unit 43 may be collectively referred to as "navigation control function".

 以下、シミュレーション画像生成機能に「F1」の符号を用いることがある。また、リファレンス画像生成機能に「F2」の符号を用いることがある。また、第1画像取得機能に「F11」の符号を用いることがある。また、第1画像マッチング機能に「F12」の符号を用いることがある。また、自己位置推定機能に「F13」の符号を用いることがある。また、航法値算出機能に「F21」の符号を用いることがある。また、航行制御機能に「F22」の符号を用いることがある。 Hereinafter, the code of "F1" may be used for the simulation image generation function. In addition, the reference image generation function may use the reference numeral "F2". Further, the reference numeral "F11" may be used for the first image acquisition function. Further, the reference numeral "F12" may be used for the first image matching function. In addition, the code "F13" may be used for the self-position estimation function. In addition, the code "F21" may be used for the navigation value calculation function. In addition, the code "F22" may be used for the navigation control function.

 次に、図5~図7を参照して、画像生成装置11の要部のハードウェア構成について説明する。 Next, the hardware configuration of the main part of the image generation device 11 will be described with reference to FIGS. 5 to 7.

 図5に示す如く、画像生成装置11は、プロセッサ61及びメモリ62を有している。メモリ62には、複数個の機能(シミュレーション画像生成機能及びリファレンス画像生成機能を含む。)F1,F2に対応するプログラムが記憶されている。プロセッサ61は、メモリ62に記憶されているプログラムを読み出して実行する。これにより、複数個の機能F1,F2が実現される。 As shown in FIG. 5, the image generator 11 has a processor 61 and a memory 62. The memory 62 stores programs corresponding to a plurality of functions (including a simulation image generation function and a reference image generation function) F1 and F2. The processor 61 reads and executes the program stored in the memory 62. As a result, a plurality of functions F1 and F2 are realized.

 または、図6に示す如く、画像生成装置11は、処理回路63を有している。処理回路63は、複数個の機能F1,F2に対応する処理を実行する。これにより、複数個の機能F1,F2が実現される。 Alternatively, as shown in FIG. 6, the image generator 11 has a processing circuit 63. The processing circuit 63 executes processing corresponding to the plurality of functions F1 and F2. As a result, a plurality of functions F1 and F2 are realized.

 または、図7に示す如く、画像生成装置11は、プロセッサ61、メモリ62及び処理回路63を有している。メモリ62には、複数個の機能F1,F2のうちの一部の機能に対応するプログラムが記憶されている。プロセッサ61は、メモリ62に記憶されているプログラムを読み出して実行する。これにより、かかる一部の機能が実現される。また、処理回路63は、複数個の機能F1,F2のうちの残余の機能に対応する処理を実行する。これにより、かかる残余の機能が実現される。 Alternatively, as shown in FIG. 7, the image generator 11 has a processor 61, a memory 62, and a processing circuit 63. A program corresponding to a part of the plurality of functions F1 and F2 is stored in the memory 62. The processor 61 reads and executes the program stored in the memory 62. As a result, some of these functions are realized. Further, the processing circuit 63 executes processing corresponding to the remaining functions of the plurality of functions F1 and F2. As a result, such a residual function is realized.

 プロセッサ61は、1個以上のプロセッサにより構成されている。個々のプロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)を用いたものである。 The processor 61 is composed of one or more processors. As each processor, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a microprocessor, a microprocessor, or a DSP (Digital Signal Processor) is used.

 メモリ62は、1個以上の不揮発性メモリにより構成されている。または、メモリ62は、1個以上の不揮発性メモリ及び1個以上の揮発性メモリにより構成されている。すなわち、メモリ62は、1個以上のメモリにより構成されている。個々のメモリは、例えば、半導体メモリ、磁気ディスク、光ディスク、光磁気ディスク、磁気テープ又は磁気ドラムを用いたものである。より具体的には、個々の揮発性メモリは、例えば、RAM(Random Access Memory)を用いたものである。また、個々の不揮発性メモリは、例えば、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、ソリッドステートドライブ、ハードディスクドライブ、フレキシブルディスク、コンパクトディスク、DVD(Digital Versatile Disc)、ブルーレイディスク又はミニディスクを用いたものである。 The memory 62 is composed of one or more non-volatile memories. Alternatively, the memory 62 is composed of one or more non-volatile memories and one or more volatile memories. That is, the memory 62 is composed of one or more memories. The individual memory uses, for example, a semiconductor memory, a magnetic disk, an optical disk, a magneto-optical disk, a magnetic tape, or a magnetic drum. More specifically, each volatile memory uses, for example, a RAM (Random Access Memory). In addition, individual non-volatile memories include, for example, ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmory), EEPROM (Electrically Erasable Programmory), flexible disk drive A compact disc, a DVD (Digital Versaille Disc), a Blu-ray disc, or a mini disc is used.

 処理回路63は、1個以上のデジタル回路により構成されている。または、処理回路63は、1個以上のデジタル回路及び1個以上のアナログ回路により構成されている。すなわち、処理回路63は、1個以上の処理回路により構成されている。個々の処理回路は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、SoC(System on a Chip)又はシステムLSI(Large Scale Integration)を用いたものである。 The processing circuit 63 is composed of one or more digital circuits. Alternatively, the processing circuit 63 is composed of one or more digital circuits and one or more analog circuits. That is, the processing circuit 63 is composed of one or more processing circuits. The individual processing circuits are, for example, ASIC (Application Special Integrated Circuit), PLD (Programmable Logic Device), FPGA (Field Programmable Gate Array), FPGA (Field Program Is.

 ここで、プロセッサ61が複数個のプロセッサにより構成されているとき、複数個の機能F1,F2と複数個のプロセッサとの対応関係は任意である。すなわち、複数個のプロセッサの各々は、複数個の機能F1,F2のうちの対応する1個以上の機能に対応するプログラムを読み出して実行するものであっても良い。プロセッサ61は、個々の機能F1,F2に対応する専用のプロセッサを含むものであっても良い。 Here, when the processor 61 is composed of a plurality of processors, the correspondence between the plurality of functions F1 and F2 and the plurality of processors is arbitrary. That is, each of the plurality of processors may read and execute a program corresponding to one or more corresponding functions among the plurality of functions F1 and F2. The processor 61 may include a dedicated processor corresponding to each function F1 and F2.

 また、メモリ62が複数個のメモリにより構成されているとき、複数個の機能F1,F2と複数個のメモリとの対応関係は任意である。すなわち、複数個のメモリの各々は、複数個の機能F1,F2のうちの対応する1個以上の機能に対応するプログラムを記憶するものであっても良い。メモリ62は、個々の機能F1,F2に対応する専用のメモリを含むものであっても良い。 Further, when the memory 62 is composed of a plurality of memories, the correspondence between the plurality of functions F1 and F2 and the plurality of memories is arbitrary. That is, each of the plurality of memories may store a program corresponding to one or more corresponding functions among the plurality of functions F1 and F2. The memory 62 may include a dedicated memory corresponding to the individual functions F1 and F2.

 また、処理回路63が複数個の処理回路により構成されているとき、複数個の機能F1,F2と複数個の処理回路との対応関係は任意である。すなわち、複数個の処理回路の各々は、複数個の機能F1,F2のうちの対応する1個以上の機能に対応する処理を実行するものであっても良い。処理回路63は、個々の機能F1,F2に対応する専用の処理回路を含むものであっても良い。 Further, when the processing circuit 63 is composed of a plurality of processing circuits, the correspondence between the plurality of functions F1 and F2 and the plurality of processing circuits is arbitrary. That is, each of the plurality of processing circuits may execute processing corresponding to one or more corresponding functions among the plurality of functions F1 and F2. The processing circuit 63 may include a dedicated processing circuit corresponding to each function F1 and F2.

 すなわち、画像生成装置11においては、個々の機能F1,F2が専用の処理回路により実現されるものであっても良い。 That is, in the image generation device 11, the individual functions F1 and F2 may be realized by a dedicated processing circuit.

 次に、図8~図10を参照して、航行制御装置25の要部のハードウェア構成について説明する。 Next, the hardware configuration of the main part of the navigation control device 25 will be described with reference to FIGS. 8 to 10.

 図8に示す如く、航行制御装置25は、プロセッサ71及びメモリ72を有している。メモリ72には、複数個の機能(第1画像取得機能、第1画像マッチング機能、自己位置推定機能、航法値算出機能及び航行制御機能を含む。)F11~F13,F21,F22に対応するプログラムが記憶されている。プロセッサ71は、メモリ72に記憶されているプログラムを読み出して実行する。これにより、複数個の機能F11~F13,F21,F22が実現される。 As shown in FIG. 8, the navigation control device 25 has a processor 71 and a memory 72. The memory 72 is a program corresponding to a plurality of functions (including a first image acquisition function, a first image matching function, a self-position estimation function, a navigation value calculation function, and a navigation control function) F11 to F13, F21, and F22. Is remembered. The processor 71 reads and executes the program stored in the memory 72. As a result, a plurality of functions F11 to F13, F21, and F22 are realized.

 または、図9に示す如く、航行制御装置25は、処理回路73を有している。処理回路73は、複数個の機能F11~F13,F21,F22に対応する処理を実行する。これにより、複数個の機能F11~F13,F21,F22が実現される。 Alternatively, as shown in FIG. 9, the navigation control device 25 has a processing circuit 73. The processing circuit 73 executes processing corresponding to a plurality of functions F11 to F13, F21, and F22. As a result, a plurality of functions F11 to F13, F21, and F22 are realized.

 または、図10に示す如く、航行制御装置25は、プロセッサ71、メモリ72及び処理回路73を有している。メモリ72には、複数個の機能F11~F13,F21,F22のうちの一部の機能に対応するプログラムが記憶されている。プロセッサ71は、メモリ72に記憶されているプログラムを読み出して実行する。これにより、かかる一部の機能が実現される。また、処理回路73は、複数個の機能F11~F13,F21,F22のうちの残余の機能に対応する処理を実行する。これにより、かかる残余の機能が実現される。 Alternatively, as shown in FIG. 10, the navigation control device 25 includes a processor 71, a memory 72, and a processing circuit 73. The memory 72 stores programs corresponding to some of the plurality of functions F11 to F13, F21, and F22. The processor 71 reads and executes the program stored in the memory 72. As a result, some of these functions are realized. Further, the processing circuit 73 executes processing corresponding to the remaining functions of the plurality of functions F11 to F13, F21, and F22. As a result, such a residual function is realized.

 プロセッサ71の具体例は、プロセッサ61の具体例と同様である。メモリ72の具体例は、メモリ62の具体例と同様である。処理回路73の具体例は、処理回路63の具体例と同様である。このため、詳細な説明は省略する。 The specific example of the processor 71 is the same as the specific example of the processor 61. The specific example of the memory 72 is the same as the specific example of the memory 62. The specific example of the processing circuit 73 is the same as the specific example of the processing circuit 63. Therefore, detailed description thereof will be omitted.

 ここで、プロセッサ71が複数個のプロセッサにより構成されているとき、複数個の機能F11~F13,F21,F22と複数個のプロセッサとの対応関係は任意である。すなわち、複数個のプロセッサの各々は、複数個の機能F11~F13,F21,F22のうちの対応する1個以上の機能に対応するプログラムを読み出して実行するものであっても良い。プロセッサ71は、個々の機能F11~F13,F21,F22に対応する専用のプロセッサを含むものであっても良い。 Here, when the processor 71 is composed of a plurality of processors, the correspondence between the plurality of functions F11 to F13, F21, F22 and the plurality of processors is arbitrary. That is, each of the plurality of processors may read and execute a program corresponding to one or more corresponding functions among the plurality of functions F11 to F13, F21, and F22. The processor 71 may include a dedicated processor corresponding to each function F11 to F13, F21, F22.

 また、メモリ72が複数個のメモリにより構成されているとき、複数個の機能F11~F13,F21,F22と複数個のメモリとの対応関係は任意である。すなわち、複数個のメモリの各々は、複数個の機能F11~F13,F21,F22のうちの対応する1個以上の機能に対応するプログラムを記憶するものであっても良い。メモリ72は、個々の機能F11~F13,F21,F22に対応する専用のメモリを含むものであっても良い。 Further, when the memory 72 is composed of a plurality of memories, the correspondence between the plurality of functions F11 to F13, F21, F22 and the plurality of memories is arbitrary. That is, each of the plurality of memories may store a program corresponding to one or more corresponding functions among the plurality of functions F11 to F13, F21, and F22. The memory 72 may include dedicated memories corresponding to the individual functions F11 to F13, F21, and F22.

 また、処理回路73が複数個の処理回路により構成されているとき、複数個の機能F11~F13,F21,F22と複数個の処理回路との対応関係は任意である。すなわち、複数個の処理回路の各々は、複数個の機能F11~F13,F21,F22のうちの対応する1個以上の機能に対応する処理を実行するものであっても良い。処理回路73は、個々の機能F11~F13,F21,F22に対応する専用の処理回路を含むものであっても良い。 Further, when the processing circuit 73 is composed of a plurality of processing circuits, the correspondence between the plurality of functions F11 to F13, F21, F22 and the plurality of processing circuits is arbitrary. That is, each of the plurality of processing circuits may execute processing corresponding to one or more corresponding functions among the plurality of functions F11 to F13, F21, and F22. The processing circuit 73 may include a dedicated processing circuit corresponding to each function F11 to F13, F21, F22.

 すなわち、自己位置推定装置41においては、個々の機能F11~F13が専用の処理回路により実現されるものであっても良い。また、航行制御装置25においては、個々の機能F11~F13,F21,F22が専用の処理回路により実現されるものであっても良い。 That is, in the self-position estimation device 41, the individual functions F11 to F13 may be realized by a dedicated processing circuit. Further, in the navigation control device 25, the individual functions F11 to F13, F21, and F22 may be realized by a dedicated processing circuit.

 次に、図11に示すフローチャートを参照して、画像生成装置11の動作について説明する。 Next, the operation of the image generator 11 will be described with reference to the flowchart shown in FIG.

 まず、シミュレーション画像生成部31がシミュレーション画像生成処理を実行する(ステップST1)。次いで、リファレンス画像生成部32がリファレンス画像生成処理を実行する(ステップST2)。 First, the simulation image generation unit 31 executes the simulation image generation process (step ST1). Next, the reference image generation unit 32 executes the reference image generation process (step ST2).

 次に、図12に示すフローチャートを参照して、自己位置推定装置41の動作について説明する。 Next, the operation of the self-position estimation device 41 will be described with reference to the flowchart shown in FIG.

 まず、第1画像取得部51が第1画像取得処理を実行する(ステップST11)。ステップST11にて取得された撮像画像データが示す撮像画像I1に天体Oの少なくとも一部が含まれている場合(ステップST12“YES”)、次いで、第1画像マッチング部52が第1画像マッチング処理を実行する(ステップST13)。次いで、自己位置推定部53が自己位置推定処理を実行する(ステップST14)。 First, the first image acquisition unit 51 executes the first image acquisition process (step ST11). When the captured image I1 indicated by the captured image data acquired in step ST11 contains at least a part of the celestial body O (step ST12 “YES”), then the first image matching unit 52 performs the first image matching process. Is executed (step ST13). Next, the self-position estimation unit 53 executes the self-position estimation process (step ST14).

 なお、ステップST11にて取得された撮像画像データが示す撮像画像I1に天体Oが含まれていない場合(ステップST12“NO”)、第1テンプレートマッチングを正確に実行することが不可能又は困難である。このため、ステップST13,ST14の処理はスキップされる。これにより、自己位置推定装置41の処理は終了する。 If the captured image I1 indicated by the captured image data acquired in step ST11 does not include the celestial body O (step ST12 “NO”), it is impossible or difficult to accurately execute the first template matching. be. Therefore, the processes of steps ST13 and ST14 are skipped. As a result, the processing of the self-position estimation device 41 is completed.

 ステップST12における判定は、例えば、以下のようなものである。すなわち、ステップST11にて生成された第1テンプレート画像I1’における白画素の個数が算出される。当該算出された個数が所定の閾値以上である場合、対応する撮像画像I1に天体Oの少なくとも一部が含まれていると判定される(ステップST12“YES”)。そうでない場合、対応する撮像画像I1に天体Oが含まれていないと判定される(ステップST12“NO”)。 The determination in step ST12 is, for example, as follows. That is, the number of white pixels in the first template image I1'generated in step ST11 is calculated. When the calculated number is equal to or greater than a predetermined threshold value, it is determined that the corresponding captured image I1 contains at least a part of the celestial body O (step ST12 “YES”). If not, it is determined that the corresponding captured image I1 does not contain the celestial body O (step ST12 “NO”).

 次に、図13に示すフローチャートを参照して、航行制御装置25の動作について説明する。 Next, the operation of the navigation control device 25 will be described with reference to the flowchart shown in FIG.

 まず、自己位置推定装置41が自己位置推定処理等を実行する(ステップST21)。これにより、図12を参照して説明した処理が実行される。次いで、航法値算出部42が航法値算出処理を実行する(ステップST22)。次いで、航行制御部43が航行制御を実行する(ステップST23)。 First, the self-position estimation device 41 executes self-position estimation processing and the like (step ST21). As a result, the process described with reference to FIG. 12 is executed. Next, the navigation value calculation unit 42 executes the navigation value calculation process (step ST22). Next, the navigation control unit 43 executes navigation control (step ST23).

 次に、自己位置推定装置41を用いることによる効果について説明する。 Next, the effect of using the self-position estimation device 41 will be described.

 上記のとおり、自己位置推定装置41は、撮像画像I1に基づく第1テンプレート画像I1’及びシミュレーション画像I2に基づく第1リファレンス画像I2’を用いた第1テンプレートマッチングを実行することにより自己位置を推定するものである。換言すれば、自己位置推定装置41においては、自己位置を推定するにあたり、個々の撮像画像I1における特徴点群を抽出する処理が不要である。また、撮像画像I1間の特徴量マッチングを実行する処理が不要である。 As described above, the self-position estimation device 41 estimates the self-position by executing the first template matching using the first template image I1'based on the captured image I1 and the first reference image I2' based on the simulation image I2. Is what you do. In other words, in the self-position estimation device 41, in estimating the self-position, it is not necessary to perform a process of extracting a feature point cloud in each captured image I1. Further, there is no need for a process of performing feature amount matching between the captured images I1.

 このため、自己位置推定装置41を用いることにより、特許文献1記載の技術を用いる場合に比して、自己位置の推定に係る計算量を低減することができる。これにより、人工衛星3における計算資源が制限されている場合であっても、人工衛星3における自己位置の推定を実現することができる。 Therefore, by using the self-position estimation device 41, it is possible to reduce the amount of calculation related to self-position estimation as compared with the case of using the technique described in Patent Document 1. As a result, even when the computational resources of the artificial satellite 3 are limited, it is possible to estimate the self-position of the artificial satellite 3.

 次に、実施の形態1に係る変形例について説明する。 Next, a modified example according to the first embodiment will be described.

 リファレンス画像生成部32は、画像生成装置11に設けられているのに代えて、自己位置推定装置41に設けられているものであっても良い。すなわち、リファレンス画像生成処理は、画像生成装置11により実行されるのに代えて、自己位置推定装置41により実行されるものであっても良い。 The reference image generation unit 32 may be provided in the self-position estimation device 41 instead of being provided in the image generation device 11. That is, the reference image generation process may be executed by the self-position estimation device 41 instead of being executed by the image generation device 11.

 航行制御装置25は、人工衛星3と異なる移動体に設けられるものであっても良い。例えば、航行制御装置25は、車両、船舶又は航空機に設けられるものであっても良い。したがって、カメラ23による被写体は、天体Oに限定されるものではない。カメラ23による被写体は、如何なる物体であっても良い。また、画像生成装置11は、地上局2と異なる場所に設けられるものであっても良い。画像生成装置11は、航行制御装置25を有する移動体と通信自在な場所であれば、如何なる場所に設けられるものであっても良い。 The navigation control device 25 may be provided on a moving body different from the artificial satellite 3. For example, the navigation control device 25 may be provided in a vehicle, a ship, or an aircraft. Therefore, the subject by the camera 23 is not limited to the celestial body O. The subject by the camera 23 may be any object. Further, the image generation device 11 may be provided at a place different from that of the ground station 2. The image generation device 11 may be provided at any place as long as it can communicate with the moving body having the navigation control device 25.

 以上のように、実施の形態1に係る自己位置推定装置41は、被写体(天体O)の周囲を移動する移動体(人工衛星3)であって、カメラ23を用いて被写体(天体O)を撮像する移動体(人工衛星3)に設けられる自己位置推定装置41において、カメラ23による撮像画像I1に基づく第1テンプレート画像I1’を取得するとともに、撮像画像I1に対応するシミュレーション画像I2に基づく第1リファレンス画像I2’を取得する第1画像取得部51と、第1テンプレート画像I1’を拡縮するとともに第1テンプレート画像I1’を用いて第1リファレンス画像I2’を走査する第1テンプレートマッチングを実行することにより、第1位置ずれ量及び第1スケール変化量を算出する第1画像マッチング部52と、第1位置ずれ量及び第1スケール変化量を用いて自己位置推定値を算出する自己位置推定部53と、を備える。これにより、自己位置の推定に係る計算量を低減することができる。 As described above, the self-position estimation device 41 according to the first embodiment is a moving body (artificial satellite 3) that moves around the subject (celestial body O), and uses the camera 23 to move the subject (celestial body O). In the self-position estimation device 41 provided in the moving body (artificial satellite 3) to be imaged, the first template image I1'based on the image captured by the camera 23 is acquired, and the first template image I1'based on the simulated image I2 corresponding to the captured image I1 is acquired. 1 The first image acquisition unit 51 that acquires the reference image I2'and the first template image I1' are scaled up and down, and the first template matching that scans the first reference image I2'using the first template image I1'is executed. By doing so, the first image matching unit 52 that calculates the first displacement amount and the first scale change amount, and the self-position estimation that calculates the self-position estimation value using the first position deviation amount and the first scale change amount. A unit 53 is provided. As a result, the amount of calculation related to the estimation of the self-position can be reduced.

 また、実施の形態1に係る人工衛星システム1は、天体Oの周囲を周回する人工衛星3であって、カメラ23を用いて天体Oを撮像する人工衛星3に設けられる自己位置推定装置41と、人工衛星3と通信自在な地上局2に設けられる画像生成装置11と、を含む人工衛星システム1において、自己位置推定装置41は、カメラ23による撮像画像I1に基づく第1テンプレート画像I1’を取得するとともに、撮像画像I1に対応するシミュレーション画像I2に基づく第1リファレンス画像I2’を取得する第1画像取得部51と、第1テンプレート画像I1’を拡縮するとともに第1テンプレート画像I1’を用いて第1リファレンス画像I2’を走査する第1テンプレートマッチングを実行することにより、第1位置ずれ量及び第1スケール変化量を算出する第1画像マッチング部52と、第1位置ずれ量及び第1スケール変化量を用いて自己位置推定値を算出する自己位置推定部53と、を備え、画像生成装置11は、シミュレーション画像I2を生成するシミュレーション画像生成部31と、第1リファレンス画像I2’を生成するリファレンス画像生成部32と、を備える。これにより、自己位置の推定に係る計算量を低減することができる。 Further, the artificial satellite system 1 according to the first embodiment is an artificial satellite 3 that orbits around the celestial body O, and is a self-position estimation device 41 provided in the artificial satellite 3 that images the celestial body O by using the camera 23. In the artificial satellite system 1 including the image generation device 11 provided in the ground station 2 capable of communicating with the artificial satellite 3, the self-position estimation device 41 displays the first template image I1'based on the image I1 captured by the camera 23. The first image acquisition unit 51 that acquires the first reference image I2'based on the simulation image I2 corresponding to the captured image I1 and the first template image I1'are scaled and the first template image I1'is used. The first image matching unit 52 that calculates the first position shift amount and the first scale change amount by executing the first template matching that scans the first reference image I2', and the first position shift amount and the first A self-position estimation unit 53 that calculates a self-position estimation value using the amount of scale change is provided, and the image generation device 11 generates a simulation image generation unit 31 that generates a simulation image I2 and a first reference image I2'. A reference image generation unit 32 is provided. As a result, the amount of calculation related to the estimation of the self-position can be reduced.

 また、実施の形態1に係る自己位置推定方法は、被写体(天体O)の周囲を移動する移動体(人工衛星3)であって、カメラ23を用いて被写体(天体O)を撮像する移動体(人工衛星3)における自己位置推定方法において、第1画像取得部51が、カメラ23による撮像画像I1に基づく第1テンプレート画像I1’を取得するとともに、撮像画像I1に対応するシミュレーション画像I2に基づく第1リファレンス画像I2’を取得するステップST11と、第1画像マッチング部52が、第1テンプレート画像I1’を拡縮するとともに第1テンプレート画像I1’を用いて第1リファレンス画像I2’を走査する第1テンプレートマッチングを実行することにより、第1位置ずれ量及び第1スケール変化量を算出するステップST13と、自己位置推定部53が、第1位置ずれ量及び第1スケール変化量を用いて自己位置推定値を算出するステップST14と、を備える。これにより、自己位置の推定に係る計算量を低減することができる。 Further, the self-position estimation method according to the first embodiment is a moving body (artificial satellite 3) that moves around the subject (celestial body O), and the moving body that images the subject (celestial body O) using the camera 23. In the self-position estimation method in (artificial satellite 3), the first image acquisition unit 51 acquires the first template image I1'based on the image I1 captured by the camera 23, and is based on the simulation image I2 corresponding to the captured image I1. Step ST11 to acquire the first reference image I2'and the first image matching unit 52 scale the first template image I1'and scan the first reference image I2' using the first template image I1'. Step ST13 for calculating the first position shift amount and the first scale change amount by executing one template matching, and the self-position estimation unit 53 self-position using the first position shift amount and the first scale change amount. A step ST14 for calculating an estimated value is provided. As a result, the amount of calculation related to the estimation of the self-position can be reduced.

実施の形態2.
 図14は、実施の形態2に係る人工衛星システムの要部を示すブロック図である。図15は、実施の形態2に係る人工衛星システムにおける画像生成装置の要部を示すブロック図である。図16は、実施の形態1に係る人工衛星システムにおける航行制御装置の要部を示すブロック図である。図14~図16を参照して、実施の形態2に係る人工衛星システムについて説明する。
Embodiment 2.
FIG. 14 is a block diagram showing a main part of the artificial satellite system according to the second embodiment. FIG. 15 is a block diagram showing a main part of an image generation device in the artificial satellite system according to the second embodiment. FIG. 16 is a block diagram showing a main part of the navigation control device in the artificial satellite system according to the first embodiment. The artificial satellite system according to the second embodiment will be described with reference to FIGS. 14 to 16.

 なお、図14において、図1に示すブロックと同様のブロックには同一符号を付して説明を省略する。また、図15において、図2に示すブロックと同様のブロックには同一符号を付して説明を省略する。また、図16において、図3に示すブロックと同様のブロックには同一符号を付して説明を省略する。 Note that, in FIG. 14, the same blocks as those shown in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted. Further, in FIG. 15, the same blocks as those shown in FIG. 2 are designated by the same reference numerals, and the description thereof will be omitted. Further, in FIG. 16, the same blocks as those shown in FIG. 3 are designated by the same reference numerals, and the description thereof will be omitted.

 図14に示す如く、人工衛星システム1aは、地上局2a及び人工衛星3aを含むものである。地上局2aは、画像生成装置11a、記憶装置12及び通信装置13を含むものである。人工衛星3aは、通信装置21、姿勢推定装置22、カメラ23、記憶装置24及び航行制御装置25aを含むものである。 As shown in FIG. 14, the artificial satellite system 1a includes a ground station 2a and an artificial satellite 3a. The ground station 2a includes an image generation device 11a, a storage device 12, and a communication device 13. The artificial satellite 3a includes a communication device 21, an attitude estimation device 22, a camera 23, a storage device 24, and a navigation control device 25a.

 図15に示す如く、画像生成装置11aは、シミュレーション画像生成部31及びリファレンス画像生成部32を含むものである。これに加えて、画像生成装置11aは、テンプレート画像生成部33を含むものである。 As shown in FIG. 15, the image generation device 11a includes a simulation image generation unit 31 and a reference image generation unit 32. In addition to this, the image generation device 11a includes a template image generation unit 33.

 テンプレート画像生成部33は、記憶装置12に記憶されているシミュレーション画像データを取得するものである。テンプレート画像生成部33は、当該取得されたシミュレーション画像データを用いて、後述する第2画像取得部54により実行されるテンプレートマッチング(以下「第2テンプレートマッチング」という。)用のテンプレート画像(以下「第2テンプレート画像」という。)I2”を生成するものである。 The template image generation unit 33 acquires the simulation image data stored in the storage device 12. The template image generation unit 33 uses the acquired simulation image data to perform a template image (hereinafter, referred to as “second template matching”) for template matching (hereinafter referred to as “second template matching”) executed by the second image acquisition unit 54, which will be described later. It is called a "second template image".) I2 "is generated.

 すなわち、テンプレート画像生成部33は、当該取得されたシミュレーション画像データを用いて、個々のシミュレーション画像I2に対するエッジ検出処理を実行する。エッジ検出処理は、如何なる検出方法を用いるものであっても良い。 That is, the template image generation unit 33 executes edge detection processing for each simulation image I2 using the acquired simulation image data. Any detection method may be used for the edge detection process.

 次いで、テンプレート画像生成部33は、エッジ検出後のシミュレーション画像I2に対する二値化処理を実行する。二値化用の閾値は、所定の値を用いるものであっても良く、又は統計的手法により算出された値を用いるものであっても良い。 Next, the template image generation unit 33 executes binarization processing for the simulation image I2 after edge detection. The threshold value for binarization may use a predetermined value, or may use a value calculated by a statistical method.

 このようにして、個々のシミュレーション画像I2に対応する第2テンプレート画像I2”が生成される。テンプレート画像生成部33は、当該生成された第2テンプレート画像I2”を示すデータ(以下「テンプレート画像データ」という。)を記憶装置12に記憶させる。 In this way, the second template image I2 "corresponding to each simulation image I2" is generated. The template image generation unit 33 generates data indicating the generated second template image I2 "(hereinafter," template image data ". ”) Is stored in the storage device 12.

 なお、テンプレート画像データは、エッジ検出処理における検出方法を示す情報(以下「検出方法情報」という。)を含むものであっても良い。また、テンプレート画像データは、エッジ検出用のパラメータ(以下「エッジ検出パラメータ」という。)を含むものであっても良い。また、テンプレート画像データは、二値化用のパラメータ(二値化用の閾値を含む。以下「第2二値化パラメータ」という。)を含むものであっても良い。 Note that the template image data may include information indicating a detection method in the edge detection process (hereinafter referred to as "detection method information"). Further, the template image data may include parameters for edge detection (hereinafter referred to as "edge detection parameters"). Further, the template image data may include a parameter for binarization (including a threshold value for binarization; hereinafter referred to as "second binarization parameter").

 また、テンプレート画像生成部33は、第2テンプレート画像I2”を生成するとき、第2テンプレート画像I2”の中心部を含む領域(以下「中心領域」という。)内に天体Oの中心部を配置するものであっても良い。 Further, when the template image generation unit 33 generates the second template image I2 ", the template image generation unit 33 arranges the central portion of the celestial body O in the region including the central portion of the second template image I2" (hereinafter referred to as "central region"). It may be something to do.

 通信装置13は、記憶装置12に記憶されているリファレンス画像データ及びテンプレート画像データを取得する。通信装置13は、当該取得されたリファレンス画像データ及びテンプレート画像データを人工衛星3aに送信する。通信装置21は、当該送信されたリファレンス画像データ及びテンプレート画像データを受信する。通信装置21は、当該受信されたリファレンス画像データ及びテンプレート画像データを記憶装置24に記憶させる。 The communication device 13 acquires the reference image data and the template image data stored in the storage device 12. The communication device 13 transmits the acquired reference image data and template image data to the artificial satellite 3a. The communication device 21 receives the transmitted reference image data and template image data. The communication device 21 stores the received reference image data and the template image data in the storage device 24.

 図16に示す如く、航行制御装置25aは、自己位置推定装置41a、航法値算出部42及び航行制御部43を含むものである。自己位置推定装置41は、第1画像取得部51、第1画像マッチング部52及び自己位置推定部53aを含むものである。これに加えて、自己位置推定装置41は、第2画像取得部54及び第2画像マッチング部55を含むものである。 As shown in FIG. 16, the navigation control device 25a includes a self-position estimation device 41a, a navigation value calculation unit 42, and a navigation control unit 43. The self-position estimation device 41 includes a first image acquisition unit 51, a first image matching unit 52, and a self-position estimation unit 53a. In addition to this, the self-position estimation device 41 includes a second image acquisition unit 54 and a second image matching unit 55.

 第2画像取得部54は、記憶装置24に記憶されているテンプレート画像データを取得するものである。これにより、第2テンプレート画像I2”が取得される。また、第2画像取得部54は、記憶装置24に記憶されている撮像画像データを取得するものである。第2画像取得部54は、当該取得された撮像画像データを用いて、第2テンプレートマッチング用のリファレンス画像(以下「第2リファレンス画像」という。)I1”を生成するものである。これにより、第2リファレンス画像I1”が取得される。 The second image acquisition unit 54 acquires the template image data stored in the storage device 24. As a result, the second template image I2 ”is acquired. Further, the second image acquisition unit 54 acquires the captured image data stored in the storage device 24. The second image acquisition unit 54 obtains the captured image data. Using the acquired captured image data, a reference image for second template matching (hereinafter referred to as "second reference image") I1 "is generated. As a result, the second reference image I1" is acquired. Will be done.

 具体的には、例えば、第2画像取得部54は、直近の撮像時刻にて撮像された画像I1に対応する第2テンプレート画像I2”を示すテンプレート画像データを取得する。これにより、直近の撮像時刻にて撮像された画像I1に対応する第2テンプレート画像I2”が取得される。また、第2画像取得部54は、直近の撮像時刻にて撮像された画像I1を示す撮像画像データを取得する。第2画像取得部54は、当該取得された撮像画像データを用いて、直近の撮像時刻にて撮像された画像I1に対応する第2リファレンス画像I1”を生成する。これにより、直近の撮像時刻にて撮像された画像I1に対応する第2リファレンス画像I1”が取得される。 Specifically, for example, the second image acquisition unit 54 acquires template image data indicating the second template image I2 ”corresponding to the image I1 captured at the latest imaging time. The second template image I2 ”corresponding to the image I1 captured at the time is acquired. In addition, the second image acquisition unit 54 acquires captured image data indicating the image I1 captured at the latest imaging time. The second image acquisition unit 54 uses the acquired captured image data to generate a second reference image I1 ”corresponding to the image I1 captured at the latest imaging time, thereby generating the latest imaging time. The second reference image I1 ”corresponding to the image I1 captured in is acquired.

 ここで、第2リファレンス画像I1”の生成方法について説明する。まず、第2画像取得部54は、個々の撮像画像I1に対して、テンプレート画像生成部33により実行されるエッジ検出処理と同様のエッジ検出処理を実行する。このとき、第2画像取得部54は、上記取得されたテンプレート画像データに含まれる検出方法情報及びエッジ検出パラメータを用いるものであっても良い。次いで、第2画像取得部54は、エッジ検出後の撮像画像I1に対して、テンプレート画像生成部33により実行される二値化処理と同様の二値化処理を実行する。このとき、第2画像取得部54は、上記取得されたテンプレート画像データに含まれる第2二値化パラメータを用いるものであっても良い。このようにして、個々の撮像画像I1に対応する第2リファレンス画像I1”が生成される。すなわち、個々の撮像画像I1に対応する第2リファレンス画像I1”が取得される。 Here, a method of generating the second reference image I1 ”will be described. First, the second image acquisition unit 54 is similar to the edge detection process executed by the template image generation unit 33 for each captured image I1. The edge detection process is executed. At this time, the second image acquisition unit 54 may use the detection method information and the edge detection parameters included in the acquired template image data. Next, the second image acquisition. The unit 54 executes a binarization process similar to the binarization process executed by the template image generation unit 33 on the captured image I1 after edge detection. At this time, the second image acquisition unit 54 executes the binarization process. The second binarization parameter included in the acquired template image data may be used. In this way, the second reference image I1 ”corresponding to each captured image I1 is generated. That is, the second reference image I1 ”corresponding to each captured image I1 is acquired.

 第2画像マッチング部55は、第2画像取得部54により取得された第2テンプレート画像I2”及び第2画像取得部54により取得された第2リファレンス画像I1”を用いて、第2テンプレートマッチングを実行するものである。図17は、第2テンプレートマッチングの例を示している。 The second image matching unit 55 uses the second template image I2 "acquired by the second image acquisition unit 54 and the second reference image I1" acquired by the second image acquisition unit 54 to perform the second template matching. It is what you do. FIG. 17 shows an example of second template matching.

 ここで、第2テンプレートマッチングのアルゴリズムは、第1テンプレートマッチングのアルゴリズムと同様である。 Here, the algorithm of the second template matching is the same as the algorithm of the first template matching.

 すなわち、第2画像マッチング部55は、上記取得された第2テンプレート画像I2”のスケールsを変化させる。より具体的には、第2画像マッチング部55は、上記取得された第2テンプレート画像I2”のスケールsを所定の範囲内にて拡大又は縮小する。これにより、互いに異なるスケールsを有する複数枚の第2テンプレート画像I2”が生成される。 That is, the second image matching unit 55 changes the scale s of the acquired second template image I2 ". More specifically, the second image matching unit 55 changes the scale s of the acquired second template image I2". The scale s of "is enlarged or reduced within a predetermined range. As a result, a plurality of second template images I2 "having different scales s are generated.

 次いで、第2画像マッチング部55は、上記複数枚の第2テンプレート画像I2”の各々を用いて、上記取得された第2リファレンス画像I1”を走査する。このとき、第2画像マッチング部55は、第2リファレンス画像I1”における第2テンプレート画像I2”の位置(cx,cy)毎に、かつ、第2テンプレート画像I2”のスケールs毎に、第2テンプレート画像I2”と第2リファレンス画像I1”との相関値(以下「第2相関値」という。)を算出する。 Next, the second image matching unit 55 scans the acquired second reference image I1 "using each of the plurality of second template images I2". At this time, the second image matching unit 55 is used for each position (cx, cy) of the second template image I2 "in the second reference image I1" and for each scale s of the second template image I2 ". The correlation value between the template image I2 "and the second reference image I1" (hereinafter referred to as "second correlation value") is calculated.

 ただし、第2画像マッチング部55は、上記取得された第2リファレンス画像I1”のうちの第1マッチング位置(cx_b,cy_b)に対応する位置(cx,cy)を含む領域のみを走査の対象に含めるものであっても良い。換言すれば、第2画像マッチング部55は、上記取得された第2リファレンス画像I1”のうちの残余の領域を走査の対象から除外するものであっても良い。 However, the second image matching unit 55 scans only the area including the position (cx, cy) corresponding to the first matching position (cx_b, cy_b) in the acquired second reference image I1 ”. In other words, the second image matching unit 55 may exclude the remaining region of the acquired second reference image I1 ”from the scanning target.

 また、第2画像マッチング部55は、上記複数枚の第2テンプレート画像I2”のうちの第1マッチングスケールs_bに対応するスケールsを有する1枚以上の第2テンプレート画像I2”を選択するものであっても良い。第2画像マッチング部55は、当該選択された1枚以上の第2テンプレート画像I2”の各々を走査に用いるものであっても良い。換言すれば、第2画像マッチング部55は、上記複数枚の第2テンプレート画像I2”のうちの残余の第2テンプレート画像I2”を走査に用いないものであっても良い。 Further, the second image matching unit 55 selects one or more second template images I2 "having scales s corresponding to the first matching scale s_b among the plurality of second template images I2". There may be. The second image matching unit 55 may use each of the selected one or more second template images I2 ”for scanning. In other words, the second image matching unit 55 may use the plurality of images. The remaining second template image I2 "of the second template image I2" may not be used for scanning.

 このようにして、複数個の第2相関値が算出される。個々の第2相関値には、例えば、SAD又はZNCCが用いられる。 In this way, a plurality of second correlation values are calculated. For each second correlation value, for example, SAD or ZNCC is used.

 以下、当該算出された複数個の第2相関値のうちの最大値に対応する位置(cx_e,cy_e)を「第2マッチング位置」ということがある。また、当該算出された複数個の第2相関値のうちの最大値に対応するスケールs_eを「第2マッチングスケール」ということがある。 Hereinafter, the position (cx_e, cy_e) corresponding to the maximum value among the plurality of calculated second correlation values may be referred to as a "second matching position". Further, the scale s_e corresponding to the maximum value among the plurality of calculated second correlation values may be referred to as a "second matching scale".

 第2マッチング位置(cx_e,cy_e)は、第2リファレンス画像I1”における天体Oの位置に対する第2テンプレート画像I2”における天体Oの位置のずれ量に対応している。以下、かかるずれ量を「第2位置ずれ量」ということがある。また、第2マッチングスケールs_eは、第2リファレンス画像I1”における天体Oのスケールに対する第2テンプレート画像I2”における天体Oのスケールの変化量に対応している。以下、かかる変化量を「第2スケール変化量」ということがある。 The second matching position (cx_e, cy_e) corresponds to the amount of deviation of the position of the celestial body O in the second template image I2 "with respect to the position of the celestial body O in the second reference image I1". Hereinafter, such a deviation amount may be referred to as a “second position deviation amount”. Further, the second matching scale s_e corresponds to the amount of change in the scale of the celestial body O in the second template image I2 "with respect to the scale of the celestial body O in the second reference image I1". Hereinafter, such a change amount may be referred to as a “second scale change amount”.

 すなわち、第2画像マッチング部55は、第2テンプレートマッチングを実行することにより、第2位置ずれ量に対応する第2マッチング位置(cx_e,cy_e)を算出するとともに、第2スケール変化量に対応する第2マッチングスケールs_eを算出するものである。第2画像マッチング部55は、当該算出された第2マッチング位置(cx_e,cy_e)を自己位置推定部53aに出力するとともに、当該算出された第2マッチングスケールs_eを自己位置推定部53aに出力する。 That is, the second image matching unit 55 calculates the second matching position (cx_e, cy_e) corresponding to the second position deviation amount by executing the second template matching, and corresponds to the second scale change amount. The second matching scale s_e is calculated. The second image matching unit 55 outputs the calculated second matching position (cx_e, cy_e) to the self-position estimation unit 53a, and outputs the calculated second matching scale s_e to the self-position estimation unit 53a. ..

 自己位置推定部53aは、自己位置推定部53による推定方法と同様の推定方法により人工衛星3aの自己位置を推定するものである。ただし、自己位置推定部53aは、自己位置を推定するとき、第1位置ずれ量及び第1スケール変化量を用いるのに代えて、第2位置ずれ量及び第2スケール変化量を用いることがある。換言すれば、自己位置推定部53aは、第1位置ずれ量及び第1スケール変化量又は第2位置ずれ量及び第2スケール変化量を選択的に自己位置の推定に用いるものである。 The self-position estimation unit 53a estimates the self-position of the artificial satellite 3a by an estimation method similar to the estimation method by the self-position estimation unit 53. However, when estimating the self-position, the self-position estimation unit 53a may use the second position shift amount and the second scale change amount instead of using the first position shift amount and the first scale change amount. .. In other words, the self-position estimation unit 53a selectively uses the first position shift amount and the first scale change amount or the second position shift amount and the second scale change amount for self-position estimation.

 以下、テンプレート画像生成部33により実行される処理を総称して「テンプレート画像生成処理」ということがある。また、第2画像取得部54により実行される処理を総称して「第2画像取得処理」ということがある。また、第2画像マッチング部55により実行される処理を総称して「第2画像マッチング処理」ということがある。また、自己位置推定部53aにより実行される処理を総称して「自己位置推定処理」ということがある。 Hereinafter, the processing executed by the template image generation unit 33 may be collectively referred to as "template image generation processing". Further, the processes executed by the second image acquisition unit 54 may be collectively referred to as "second image acquisition process". Further, the processes executed by the second image matching unit 55 may be collectively referred to as "second image matching process". Further, the processes executed by the self-position estimation unit 53a may be collectively referred to as "self-position estimation process".

 以下、自己位置推定装置41aにより実行される処理を総称して「自己位置推定処理等」ということがある。すなわち、かかる自己位置推定処理等は、第1画像取得処理、第1画像マッチング処理、第2画像取得処処理、第2画像マッチング処理及び自己位置推定処理を含むものである。 Hereinafter, the processes executed by the self-position estimation device 41a may be collectively referred to as "self-position estimation process, etc." That is, the self-position estimation process and the like include a first image acquisition process, a first image matching process, a second image acquisition processing process, a second image matching process, and a self-position estimation process.

 以下、テンプレート画像生成部33が有する機能を総称して「テンプレート画像生成機能」ということがある。また、第2画像取得部54が有する機能を総称して「第2画像取得機能」ということがある。また、第2画像マッチング部55が有する機能を総称して「第2画像マッチング機能」ということがある。また、自己位置推定部53aが有する機能を総称して「自己位置推定機能」ということがある。 Hereinafter, the functions of the template image generation unit 33 may be collectively referred to as "template image generation function". In addition, the functions of the second image acquisition unit 54 may be collectively referred to as the "second image acquisition function". In addition, the functions of the second image matching unit 55 may be collectively referred to as the "second image matching function". Further, the functions of the self-position estimation unit 53a may be collectively referred to as "self-position estimation function".

 以下、テンプレート画像生成機能に「F3」の符号を用いることがある。また、第2画像取得機能に「F14」の符号を用いることがある。また、第2画像マッチング機能に「F15」の符号を用いることがある。また、自己位置推定部53aにおける自己位置推定機能に「F13a」の符号を用いることがある。 Hereinafter, the code of "F3" may be used for the template image generation function. In addition, the reference numeral "F14" may be used for the second image acquisition function. In addition, the reference numeral "F15" may be used for the second image matching function. Further, the reference numeral "F13a" may be used for the self-position estimation function in the self-position estimation unit 53a.

 画像生成装置11aの要部のハードウェア構成は、実施の形態1にて図5~図7を参照して説明したものと同様である。このため、詳細な説明は省略する。 The hardware configuration of the main part of the image generation device 11a is the same as that described with reference to FIGS. 5 to 7 in the first embodiment. Therefore, detailed description thereof will be omitted.

 すなわち、画像生成装置11aは、複数個の機能(シミュレーション画像生成機能、リファレンス画像生成機能及びテンプレート画像生成機能を含む。)F1~F3を有している。個々の機能F1~F3は、プロセッサ61及びメモリ62により実現されるものであっても良く、又は処理回路63により実現されるものであっても良い。 That is, the image generation device 11a has a plurality of functions (including a simulation image generation function, a reference image generation function, and a template image generation function) F1 to F3. The individual functions F1 to F3 may be realized by the processor 61 and the memory 62, or may be realized by the processing circuit 63.

 ここで、プロセッサ61は、個々の機能F1~F3に対応する専用のプロセッサを含むものであっても良い。また、メモリ62は、個々の機能F1~F3に対応する専用のメモリを含むものであっても良い。また、処理回路63は、個々の機能F1~F3に対応する専用の処理回路を含むものであっても良い。 Here, the processor 61 may include a dedicated processor corresponding to each function F1 to F3. Further, the memory 62 may include a dedicated memory corresponding to the individual functions F1 to F3. Further, the processing circuit 63 may include a dedicated processing circuit corresponding to the individual functions F1 to F3.

 すなわち、画像生成装置11aにおいては、個々の機能F1~F3が専用の処理回路により実現されるものであっても良い。 That is, in the image generation device 11a, the individual functions F1 to F3 may be realized by a dedicated processing circuit.

 航行制御装置25aの要部のハードウェア構成は、実施の形態1にて図8~図10を参照して説明したものと同様である。このため、詳細な説明は省略する。 The hardware configuration of the main part of the navigation control device 25a is the same as that described with reference to FIGS. 8 to 10 in the first embodiment. Therefore, detailed description thereof will be omitted.

 すなわち、航行制御装置25aは、複数個の機能(第1画像取得機能、第1画像マッチング機能、第2画像取得機能、第2画像マッチング機能、自己位置推定機能、航法値算出機能及び航行制御機能を含む。)F11,F12,F13a,F14,F15,F21,F22を有している。個々の機能F11,F12,F13a,F14,F15,F21,F22は、プロセッサ71及びメモリ72により実現されるものであっても良く、又は処理回路73により実現されるものであっても良い。 That is, the navigation control device 25a has a plurality of functions (first image acquisition function, first image matching function, second image acquisition function, second image matching function, self-position estimation function, navigation value calculation function, and navigation control function. Includes) F11, F12, F13a, F14, F15, F21, F22. The individual functions F11, F12, F13a, F14, F15, F21, and F22 may be realized by the processor 71 and the memory 72, or may be realized by the processing circuit 73.

 ここで、プロセッサ71は、個々の機能F11,F12,F13a,F14,F15,F21,F22に対応する専用のプロセッサを含むものであっても良い。また、メモリ72は、個々の機能F11,F12,F13a,F14,F15,F21,F22に対応する専用のメモリを含むものであっても良い。また、処理回路73は、個々の機能F11,F12,F13a,F14,F15,F21,F22に対応する専用の処理回路を含むものであっても良い。 Here, the processor 71 may include a dedicated processor corresponding to each function F11, F12, F13a, F14, F15, F21, F22. Further, the memory 72 may include a dedicated memory corresponding to each function F11, F12, F13a, F14, F15, F21, F22. Further, the processing circuit 73 may include a dedicated processing circuit corresponding to each function F11, F12, F13a, F14, F15, F21, F22.

 すなわち、自己位置推定装置41aにおいては、個々の機能F11,F12,F13a,F14,F15が専用の処理回路により実現されるものであっても良い。また、航行制御装置25aにおいては、個々の機能F11,F12,F13a,F14,F15,F21,F22が専用の処理回路により実現されるものであっても良い。 That is, in the self-position estimation device 41a, the individual functions F11, F12, F13a, F14, and F15 may be realized by a dedicated processing circuit. Further, in the navigation control device 25a, the individual functions F11, F12, F13a, F14, F15, F21, and F22 may be realized by a dedicated processing circuit.

 次に、図18に示すフローチャートを参照して、画像生成装置11aの動作について説明する。なお、図18において、図11に示すステップと同様のステップには同一符号を付している。 Next, the operation of the image generation device 11a will be described with reference to the flowchart shown in FIG. In FIG. 18, the same reference numerals are given to the same steps as those shown in FIG.

 まず、シミュレーション画像生成部31がシミュレーション画像生成処理を実行する(ステップST1)。次いで、リファレンス画像生成部32がリファレンス画像生成処理を実行する(ステップST2)。次いで、テンプレート画像生成部33がテンプレート画像生成処理を実行する(ステップST3)。 First, the simulation image generation unit 31 executes the simulation image generation process (step ST1). Next, the reference image generation unit 32 executes the reference image generation process (step ST2). Next, the template image generation unit 33 executes the template image generation process (step ST3).

 次に、図19に示すフローチャートを参照して、自己位置推定装置41aの動作について説明する。なお、図19において、図12に示すステップと同様のステップには同一符号を付している。 Next, the operation of the self-position estimation device 41a will be described with reference to the flowchart shown in FIG. In FIG. 19, the same reference numerals are given to the same steps as those shown in FIG.

 まず、第1画像取得部51が第1画像取得処理を実行する(ステップST11)。ステップST11にて取得された撮像画像データが示す撮像画像I1に天体Oの少なくとも一部が含まれている場合(ステップST12“YES”)、次いで、第1画像マッチング部52が第1画像マッチング処理を実行する(ステップST13)。 First, the first image acquisition unit 51 executes the first image acquisition process (step ST11). When the captured image I1 indicated by the captured image data acquired in step ST11 contains at least a part of the celestial body O (step ST12 “YES”), then the first image matching unit 52 performs the first image matching process. Is executed (step ST13).

 なお、ステップST11にて取得された撮像画像データが示す撮像画像I1に天体Oが含まれていない場合(ステップST12“NO”)、第1テンプレートマッチングを正確に実行することが不可能又は困難である。また、第2テンプレートマッチングを正確に実行することも不可能又は困難である。このため、ステップST13以降の処理はスキップされる。これにより、自己位置推定装置41aの処理は終了する。 If the captured image I1 indicated by the captured image data acquired in step ST11 does not include the celestial body O (step ST12 “NO”), it is impossible or difficult to accurately execute the first template matching. be. It is also impossible or difficult to accurately perform the second template matching. Therefore, the processing after step ST13 is skipped. As a result, the processing of the self-position estimation device 41a is completed.

 ステップST11にて取得された撮像画像データが示す撮像画像I1に天体Oの中心部が含まれている場合(ステップST15“YES”)、次いで、第2画像取得部54が第2画像取得処理を実行する(ステップST16)。次いで、第2画像マッチング部55が第2画像マッチング処理を実行する(ステップST17)。 When the captured image I1 indicated by the captured image data acquired in step ST11 includes the central portion of the celestial body O (step ST15 “YES”), the second image acquisition unit 54 then performs the second image acquisition process. Execute (step ST16). Next, the second image matching unit 55 executes the second image matching process (step ST17).

 なお、ステップST11にて取得された撮像画像データが示す撮像画像I1に天体Oの中心部が含まれていない場合、第2テンプレートマッチングを正確に実行することが不可能又は困難である。このため、ステップST16,ST17の処理はスキップされる。これにより、自己位置推定装置41aの処理はステップST14aに進む。 If the captured image I1 indicated by the captured image data acquired in step ST11 does not include the central portion of the celestial body O, it is impossible or difficult to accurately execute the second template matching. Therefore, the processes of steps ST16 and ST17 are skipped. As a result, the process of the self-position estimation device 41a proceeds to step ST14a.

 次いで、自己位置推定部53aが自己位置推定処理を実行する(ステップST14a)。ここで、ステップST16,ST17の処理がスキップされた場合、第1位置ずれ量及び第1スケール変化量が自己位置の推定に用いられる。他方、ステップST16,ST17の処理が実行された場合、第2位置ずれ量及び第2スケール変化量が自己位置の推定に用いられる。 Next, the self-position estimation unit 53a executes the self-position estimation process (step ST14a). Here, when the processes of steps ST16 and ST17 are skipped, the first position shift amount and the first scale change amount are used for estimating the self-position. On the other hand, when the processes of steps ST16 and ST17 are executed, the second position shift amount and the second scale change amount are used for estimating the self-position.

 次に、図20に示すフローチャートを参照して、航行制御装置25aの動作について説明する。なお、図20において、図13に示すステップと同様のステップには同一符号を付している。 Next, the operation of the navigation control device 25a will be described with reference to the flowchart shown in FIG. In FIG. 20, the same reference numerals are given to the same steps as those shown in FIG.

 まず、自己位置推定装置41aが自己位置推定処理等を実行する(ステップST21a)。これにより、図19を参照して説明した処理が実行される。次いで、航法値算出部42が航法値算出処理を実行する(ステップST22)。次いで、航行制御部43が航行制御を実行する(ステップST23)。 First, the self-position estimation device 41a executes self-position estimation processing and the like (step ST21a). As a result, the process described with reference to FIG. 19 is executed. Next, the navigation value calculation unit 42 executes the navigation value calculation process (step ST22). Next, the navigation control unit 43 executes navigation control (step ST23).

 次に、自己位置推定装置41aを用いることによる効果について説明する。 Next, the effect of using the self-position estimation device 41a will be described.

 天体Oと人工衛星3間の距離が大きいとき、以下のような状態が生ずることがある。すなわち、天体Oの全体が撮像画像I1に含まれており、かつ、撮像画像I1における一部の領域のみが天体Oに対応する状態が生ずることがある。以下、かかる状態を「第1状態」ということがある。他方、天体Oと人工衛星3間の距離が小さいとき、以下のような状態が生ずることがある。すなわち、撮像画像I1の全体又は略全体が天体Oに対応する領域となる状態が生ずることがある。以下、かかる状態を「第2状態」ということがある。第2状態においては、天体Oの一部が撮像画像I1からはみ出すこともある。 When the distance between the celestial body O and the artificial satellite 3 is large, the following states may occur. That is, a state may occur in which the entire celestial body O is included in the captured image I1 and only a part of the region in the captured image I1 corresponds to the celestial body O. Hereinafter, such a state may be referred to as a "first state". On the other hand, when the distance between the celestial body O and the artificial satellite 3 is small, the following states may occur. That is, a state may occur in which the entire image I1 or substantially the entire image I1 is a region corresponding to the celestial body O. Hereinafter, such a state may be referred to as a "second state". In the second state, a part of the celestial body O may protrude from the captured image I1.

 第2状態において、二値化処理を実行することにより生成された画像(すなわち第1テンプレート画像I1’)は、その全体又は略全体が白画素により構成されたものとなる。これにより、第1テンプレートマッチングにおけるマッチングの精度が低下することがある。そして、第1位置ずれ量及び第1スケール変化量が自己位置の推定に用いられることにより、自己位置の推定精度が低下することがある。 In the second state, the image generated by executing the binarization process (that is, the first template image I1') is entirely or substantially entirely composed of white pixels. As a result, the accuracy of matching in the first template matching may decrease. Then, since the first position deviation amount and the first scale change amount are used for the estimation of the self-position, the estimation accuracy of the self-position may decrease.

 他方、第2状態において、撮像画像I1には、天体Oの詳細な特徴が含まれている蓋然性が高い。このため、エッジ検出処理を実行することにより生成された画像(すなわち第2テンプレート画像I2”及び第2リファレンス画像I1”)を用いることにより、高精度な第2テンプレートマッチングを実現することができる。換言すれば、第2テンプレートマッチングの精度を向上することができる。そして、第2位置ずれ量及び第2スケール変化量を用いることにより、第1位置ずれ量及び第1スケール量を自己位置の推定に用いる場合に比して、自己位置の推定精度を向上することができる。 On the other hand, in the second state, it is highly probable that the captured image I1 contains detailed features of the celestial body O. Therefore, by using the images generated by executing the edge detection process (that is, the second template image I2 "and the second reference image I1"), highly accurate second template matching can be realized. In other words, the accuracy of the second template matching can be improved. Then, by using the second misalignment amount and the second scale change amount, the self-position estimation accuracy is improved as compared with the case where the first misalignment amount and the first scale amount are used for self-position estimation. Can be done.

 また、上記のとおり、第2テンプレートマッチングのアルゴリズムは、第1テンプレートマッチングのアルゴリズムと同様である。このため、第2状態において、第1状態におけるアルゴリズムと同様のアルゴリズムによる自己位置の推定を実現することができる。 Also, as described above, the second template matching algorithm is the same as the first template matching algorithm. Therefore, in the second state, it is possible to realize the estimation of the self-position by the same algorithm as the algorithm in the first state.

 また、第2テンプレート画像I2”の中心領域内に天体Oの中心部が配置されていることにより、以下のような効果が得られる。すなわち、上記のとおり、第2状態において、天体Oの一部が撮像画像I1からはみ出すことがある。このような場合であっても、天体Oの中心部が撮像画像I1に含まれていれば、かかる中心部によるマッチングを実現することができる。すなわち、かかる中心部の位置に基づく第2位置ずれ量を算出することができる。 Further, by arranging the central portion of the celestial body O in the central region of the second template image I2 ", the following effects can be obtained. That is, as described above, one of the celestial bodies O in the second state. The portion may protrude from the captured image I1. Even in such a case, if the central portion of the celestial body O is included in the captured image I1, matching by such a central portion can be realized. The amount of the second misalignment based on the position of the central portion can be calculated.

 次に、実施の形態2に係る変形例について説明する。 Next, a modified example according to the second embodiment will be described.

 第2画像マッチング部55は、第2テンプレートマッチングを実行した後、個々の第2相関値及び対応するスケールsを用いたパラボラフィッティングを実行するものであっても良い。これにより、第2画像マッチング部55は、より詳細な第2マッチングスケールs_eを算出するものであっても良い。 The second image matching unit 55 may execute parabolic fitting using each second correlation value and the corresponding scale s after executing the second template matching. As a result, the second image matching unit 55 may calculate a more detailed second matching scale s_e.

 リファレンス画像生成部32は、画像生成装置11aに設けられているのに代えて、自己位置推定装置41aに設けられているものであっても良い。すなわち、リファレンス画像生成処理は、画像生成装置11aにより実行されるのに代えて、自己位置推定装置41aにより実行されるものであっても良い。 The reference image generation unit 32 may be provided in the self-position estimation device 41a instead of being provided in the image generation device 11a. That is, the reference image generation process may be executed by the self-position estimation device 41a instead of being executed by the image generation device 11a.

 テンプレート画像生成部33は、画像生成装置11aに設けられているのに代えて、自己位置推定装置41aに設けられているものであっても良い。すなわち、テンプレート画像生成処理は、画像生成装置11aにより実行されるのに代えて、自己位置推定装置41aにより実行されるものであっても良い。 The template image generation unit 33 may be provided in the self-position estimation device 41a instead of being provided in the image generation device 11a. That is, the template image generation process may be executed by the self-position estimation device 41a instead of being executed by the image generation device 11a.

 航行制御装置25aは、人工衛星3aと異なる移動体に設けられるものであっても良い。例えば、航行制御装置25aは、車両、船舶又は航空機に設けられるものであっても良い。また、画像生成装置11aは、地上局2aと異なる場所に設けられるものであっても良い。画像生成装置11aは、航行制御装置25aを有する移動体と通信自在な場所であれば、如何なる場所に設けられるものであっても良い。 The navigation control device 25a may be provided on a moving body different from the artificial satellite 3a. For example, the navigation control device 25a may be provided in a vehicle, a ship, or an aircraft. Further, the image generation device 11a may be provided at a place different from that of the ground station 2a. The image generation device 11a may be provided at any place as long as it can communicate with the moving body having the navigation control device 25a.

 以上のように、実施の形態2に係る自己位置推定装置41aは、シミュレーション画像I2に基づく第2テンプレート画像I2”を取得するとともに、撮像画像I1に基づく第2リファレンス画像I1”を取得する第2画像取得部54と、第2テンプレート画像I2”を拡縮するとともに第2テンプレート画像I2”を用いて第2リファレンス画像I1”を走査する第2テンプレートマッチングを実行することにより、第2位置ずれ量及び第2スケール変化量を算出する第2画像マッチング部55と、を備え、自己位置推定部53aは、第1位置ずれ量及び第1スケール変化量を用いて又は第2位置ずれ量及び第2スケール変化量を用いて自己位置推定値を算出する。これにより、第1状態においても、又は第2状態においても、同様のアルゴリズムによる自己位置の推定を実現することができる。 As described above, the self-position estimation device 41a according to the second embodiment acquires the second template image I2 "based on the simulation image I2 and the second reference image I1" based on the captured image I1. By executing the second template matching that scans the second reference image I1 "using the image acquisition unit 54 and the second template image I2" while scaling the second template image I2 ", the amount of the second misalignment and the amount of the second position shift are obtained. A second image matching unit 55 for calculating the second scale change amount is provided, and the self-position estimation unit 53a uses the first position shift amount and the first scale change amount, or the second position shift amount and the second scale. The self-position estimation value is calculated using the amount of change. Thereby, the self-position estimation by the same algorithm can be realized in the first state or the second state.

 また、実施の形態2に係る人工衛星システム1aにおいて、自己位置推定装置41aは、シミュレーション画像I2に基づく第2テンプレート画像I2”を取得するとともに、撮像画像I1に基づく第2リファレンス画像I1”を取得する第2画像取得部54と、第2テンプレート画像I2”を拡縮するとともに第2テンプレート画像I2”を用いて第2リファレンス画像I1”を走査する第2テンプレートマッチングを実行することにより、第2位置ずれ量及び第2スケール変化量を算出する第2画像マッチング部55と、を備え、画像生成装置11aは、第2テンプレート画像I2”を生成するテンプレート画像生成部33を備え、自己位置推定部53aは、第1位置ずれ量及び第1スケール変化量を用いて又は第2位置ずれ量及び第2スケール変化量を用いて自己位置推定値を算出する。これにより、第1状態においても、又は第2状態においても、同様のアルゴリズムによる自己位置の推定を実現することができる。 Further, in the artificial satellite system 1a according to the second embodiment, the self-position estimation device 41a acquires the second template image I2 "based on the simulation image I2 and the second reference image I1" based on the captured image I1. The second position is obtained by performing a second template matching in which the second image acquisition unit 54 and the second template image I2 "are scaled and the second reference image I1" is scanned using the second template image I2 ". The image generation device 11a includes a second image matching unit 55 for calculating the deviation amount and the second scale change amount, and the image generation device 11a includes a template image generation unit 33 for generating the second template image I2 ”, and a self-position estimation unit 53a. Calculates its own position estimate using the first misalignment amount and the first scale change amount, or using the second misalignment amount and the second scale change amount. Thereby, the self-position estimation by the same algorithm can be realized in the first state or the second state.

 また、実施の形態2に係る自己位置推定方法は、第2画像取得部54が、シミュレーション画像I2に基づく第2テンプレート画像I2”を取得するとともに、撮像画像I1に基づく第2リファレンス画像I1”を取得するステップST16と、第2画像マッチング部55が、第2テンプレート画像I2”を拡縮するとともに第2テンプレート画像I2”を用いて第2リファレンス画像I1”を走査する第2テンプレートマッチングを実行することにより、第2位置ずれ量及び第2スケール変化量を算出するステップST17と、を備え、自己位置推定部53aは、第1位置ずれ量及び第1スケール変化量を用いて又は第2位置ずれ量及び第2スケール変化量を用いて自己位置推定値を算出する。これにより、第1状態においても、又は第2状態においても、同様のアルゴリズムによる自己位置の推定を実現することができる。 Further, in the self-position estimation method according to the second embodiment, the second image acquisition unit 54 acquires the second template image I2 "based on the simulation image I2 and obtains the second reference image I1" based on the captured image I1. The acquisition step ST16 and the second image matching unit 55 perform the second template matching that scales the second template image I2 "and scans the second reference image I1" using the second template image I2 ". The self-position estimation unit 53a includes the step ST17 for calculating the second position shift amount and the second scale change amount, and the self-position estimation unit 53a uses the first position shift amount and the first scale change amount or the second position shift amount. And the second scale change amount is used to calculate the self-position estimation value. Thereby, the self-position estimation by the same algorithm can be realized in the first state or the second state.

 なお、本願開示はその開示の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 It should be noted that, within the scope of the disclosure of the present application, it is possible to freely combine each embodiment, modify any component of each embodiment, or omit any component in each embodiment. ..

 本開示に係る自己位置推定装置、航行制御装置、画像生成装置、人工衛星システム及び自己位置推定方法は、例えば、周回衛星に用いることができる。 The self-position estimation device, navigation control device, image generation device, artificial satellite system, and self-position estimation method according to the present disclosure can be used, for example, for an orbiting satellite.

 1,1a 人工衛星システム、2,2a 地上局、3,3a 人工衛星、11,11a 画像生成装置、12 記憶装置、13 通信装置、21 通信装置、22 姿勢推定装置、23 カメラ、24 記憶装置、25,25a 航行制御装置、31 シミュレーション画像生成部、32 リファレンス画像生成部、33 テンプレート画像生成部、41,41a 自己位置推定装置、42 航法値算出部、43 航行制御部、51 第1画像取得部、52 第1画像マッチング部、53,53a 自己位置推定部、54 第2画像取得部、55 第2画像マッチング部、61 プロセッサ、62 メモリ、63 処理回路、71 プロセッサ、72 メモリ、73 処理回路。 1,1a artificial satellite system, 2,2a ground station, 3,3a artificial satellite, 11,11a image generator, 12 storage device, 13 communication device, 21 communication device, 22 attitude estimation device, 23 camera, 24 storage device, 25, 25a Navigation control device, 31 Simulation image generation unit, 32 Reference image generation unit, 33 Template image generation unit, 41, 41a Self-position estimation device, 42 Navigation value calculation unit, 43 Navigation control unit, 51 First image acquisition unit , 52 1st image matching unit, 53, 53a self-position estimation unit, 54 2nd image acquisition unit, 55 2nd image matching unit, 61 processor, 62 memory, 63 processing circuit, 71 processor, 72 memory, 73 processing circuit.

Claims (17)

 被写体の周囲を移動する移動体であって、カメラを用いて前記被写体を撮像する前記移動体に設けられる自己位置推定装置において、
 前記カメラによる撮像画像に基づく第1テンプレート画像を取得するとともに、前記撮像画像に対応するシミュレーション画像に基づく第1リファレンス画像を取得する第1画像取得部と、
 前記第1テンプレート画像を拡縮するとともに前記第1テンプレート画像を用いて前記第1リファレンス画像を走査する第1テンプレートマッチングを実行することにより、第1位置ずれ量及び第1スケール変化量を算出する第1画像マッチング部と、
 前記第1位置ずれ量及び前記第1スケール変化量を用いて自己位置推定値を算出する自己位置推定部と、
 を備えることを特徴とする自己位置推定装置。
In a self-position estimation device provided in a moving body that moves around a subject and images the subject using a camera.
A first image acquisition unit that acquires a first template image based on an image captured by the camera and also acquires a first reference image based on a simulation image corresponding to the captured image.
The first template image and the first scale change amount are calculated by performing the first template matching that scans the first reference image using the first template image while scaling the first template image. 1 image matching part and
A self-position estimation unit that calculates a self-position estimation value using the first position shift amount and the first scale change amount, and a self-position estimation unit.
A self-position estimation device comprising.
 前記シミュレーション画像に基づく第2テンプレート画像を取得するとともに、前記撮像画像に基づく第2リファレンス画像を取得する第2画像取得部と、
 前記第2テンプレート画像を拡縮するとともに前記第2テンプレート画像を用いて前記第2リファレンス画像を走査する第2テンプレートマッチングを実行することにより、第2位置ずれ量及び第2スケール変化量を算出する第2画像マッチング部と、を備え、
 前記自己位置推定部は、前記第1位置ずれ量及び前記第1スケール変化量を用いて又は前記第2位置ずれ量及び前記第2スケール変化量を用いて前記自己位置推定値を算出する
 ことを特徴とする請求項1記載の自己位置推定装置。
A second image acquisition unit that acquires a second template image based on the simulation image and also acquires a second reference image based on the captured image.
The second template image is scaled and the second template image is used to scan the second reference image to perform second template matching to calculate the second misalignment amount and the second scale change amount. Equipped with 2 image matching parts
The self-position estimation unit calculates the self-position estimation value using the first position shift amount and the first scale change amount, or using the second position shift amount and the second scale change amount. The self-position estimation device according to claim 1, wherein the self-position estimation device is characterized.
 前記第1テンプレート画像は、前記撮像画像に対する二値化処理を実行することにより生成されたものであり、
 前記第1リファレンス画像は、前記シミュレーション画像に対する二値化処理を実行することにより生成されたものである
 ことを特徴とする請求項1又は請求項2記載の自己位置推定装置。
The first template image is generated by executing a binarization process on the captured image.
The self-position estimation device according to claim 1 or 2, wherein the first reference image is generated by executing a binarization process on the simulation image.
 前記第2テンプレート画像は、前記シミュレーション画像に対するエッジ検出処理及び二値化処理を実行することにより生成されたものであり、
 前記第2リファレンス画像は、前記撮像画像に対するエッジ検出処理及び二値化処理を実行することにより生成されたものである
 ことを特徴とする請求項2記載の自己位置推定装置。
The second template image is generated by executing an edge detection process and a binarization process on the simulation image.
The self-position estimation device according to claim 2, wherein the second reference image is generated by executing an edge detection process and a binarization process on the captured image.
 前記シミュレーション画像は、仮想的に前記カメラの画角が拡大されることにより仮想的に前記被写体の全体が前記カメラにより撮像される状態に対応するものであることを特徴とする請求項1又は請求項2記載の自己位置推定装置。 Claim 1 or claim, wherein the simulation image corresponds to a state in which the entire subject is virtually imaged by the camera by virtually expanding the angle of view of the camera. Item 2. The self-position estimation device according to item 2.  前記移動体が人工衛星であり、かつ、前記被写体が天体であることを特徴とする請求項1又は請求項2記載の自己位置推定装置。 The self-position estimation device according to claim 1 or 2, wherein the moving body is an artificial satellite and the subject is a celestial body.  請求項1又は請求項2記載の自己位置推定装置と、
 前記自己位置推定値に応じた航法値を算出する航法値算出部と、
 前記航法値を用いて前記移動体の航行制御を実行する航行制御部と、
 を備える航行制御装置。
The self-position estimation device according to claim 1 or 2,
A navigation value calculation unit that calculates a navigation value according to the self-position estimated value, and a navigation value calculation unit.
A navigation control unit that executes navigation control of the moving body using the navigation value, and
A navigation control device equipped with.
 請求項1記載の自己位置推定装置用の画像生成装置において、
 前記シミュレーション画像を生成するシミュレーション画像生成部と、
 前記第1リファレンス画像を生成するリファレンス画像生成部と、
 を備えることを特徴とする画像生成装置。
In the image generator for the self-position estimation device according to claim 1,
A simulation image generator that generates the simulation image,
A reference image generation unit that generates the first reference image, and
An image generator characterized by comprising.
 請求項2記載の自己位置推定装置用の画像生成装置において、
 前記シミュレーション画像を生成するシミュレーション画像生成部と、
 前記第1リファレンス画像を生成するリファレンス画像生成部と、
 前記第2テンプレート画像を生成するテンプレート画像生成部と、
 を備えることを特徴とする画像生成装置。
In the image generation device for the self-position estimation device according to claim 2.
A simulation image generator that generates the simulation image,
A reference image generation unit that generates the first reference image, and
A template image generation unit that generates the second template image, and
An image generator characterized by comprising.
 前記シミュレーション画像生成部は、仮想的に前記カメラの画角が拡大されることにより仮想的に前記被写体の全体が前記カメラにより撮像される状態に対応する前記シミュレーション画像を生成することを特徴とする請求項8又は請求項9記載の画像生成装置。 The simulation image generation unit is characterized in that the simulation image corresponding to a state in which the entire subject is virtually imaged by the camera is generated by virtually expanding the angle of view of the camera. The image generator according to claim 8 or 9.  前記リファレンス画像生成部は、前記シミュレーション画像に対する二値化処理を実行することにより前記第1リファレンス画像を生成することを特徴とする請求項8又は請求項9記載の画像生成装置。 The image generation device according to claim 8 or 9, wherein the reference image generation unit generates the first reference image by executing a binarization process on the simulation image.  前記テンプレート画像生成部は、前記シミュレーション画像に対するエッジ検出処理及び二値化処理を実行することにより前記第2テンプレート画像を生成することを特徴とする請求項9記載の画像生成装置。 The image generation device according to claim 9, wherein the template image generation unit generates the second template image by executing an edge detection process and a binarization process on the simulation image.  前記移動体が人工衛星であり、かつ、前記被写体が天体であり、
 前記人工衛星と通信自在な地上局に設けられるものである
 ことを特徴とする請求項8又は請求項9記載の画像生成装置。
The moving body is an artificial satellite, and the subject is a celestial body.
The image generator according to claim 8 or 9, wherein the image generation device is provided in a ground station capable of communicating with the artificial satellite.
 天体の周囲を周回する人工衛星であって、カメラを用いて前記天体を撮像する前記人工衛星に設けられる自己位置推定装置と、前記人工衛星と通信自在な地上局に設けられる画像生成装置と、を含む人工衛星システムにおいて、
 前記自己位置推定装置は、
 前記カメラによる撮像画像に基づく第1テンプレート画像を取得するとともに、前記撮像画像に対応するシミュレーション画像に基づく第1リファレンス画像を取得する第1画像取得部と、
 前記第1テンプレート画像を拡縮するとともに前記第1テンプレート画像を用いて前記第1リファレンス画像を走査する第1テンプレートマッチングを実行することにより、第1位置ずれ量及び第1スケール変化量を算出する第1画像マッチング部と、
 前記第1位置ずれ量及び前記第1スケール変化量を用いて自己位置推定値を算出する自己位置推定部と、を備え、
 前記画像生成装置は、
 前記シミュレーション画像を生成するシミュレーション画像生成部と、
 前記第1リファレンス画像を生成するリファレンス画像生成部と、を備える
 ことを特徴とする人工衛星システム。
An artificial satellite that orbits around a celestial body, a self-position estimation device provided on the artificial satellite that images the celestial body using a camera, and an image generation device provided on a ground station capable of communicating with the artificial satellite. In artificial satellite systems including
The self-position estimation device
A first image acquisition unit that acquires a first template image based on an image captured by the camera and also acquires a first reference image based on a simulation image corresponding to the captured image.
The first template image and the first scale change amount are calculated by performing the first template matching that scans the first reference image using the first template image while scaling the first template image. 1 image matching part and
It is provided with a self-position estimation unit that calculates a self-position estimation value using the first position shift amount and the first scale change amount.
The image generator
A simulation image generator that generates the simulation image,
An artificial satellite system including a reference image generation unit that generates the first reference image.
 前記自己位置推定装置は、
 前記シミュレーション画像に基づく第2テンプレート画像を取得するとともに、前記撮像画像に基づく第2リファレンス画像を取得する第2画像取得部と、
 前記第2テンプレート画像を拡縮するとともに前記第2テンプレート画像を用いて前記第2リファレンス画像を走査する第2テンプレートマッチングを実行することにより、第2位置ずれ量及び第2スケール変化量を算出する第2画像マッチング部と、を備え、
 前記画像生成装置は、前記第2テンプレート画像を生成するテンプレート画像生成部を備え、
 前記自己位置推定部は、前記第1位置ずれ量及び前記第1スケール変化量を用いて又は前記第2位置ずれ量及び前記第2スケール変化量を用いて前記自己位置推定値を算出する
 ことを特徴とする請求項14記載の人工衛星システム。
The self-position estimation device
A second image acquisition unit that acquires a second template image based on the simulation image and also acquires a second reference image based on the captured image.
The second template image is scaled and the second template image is used to scan the second reference image to perform second template matching to calculate the second misalignment amount and the second scale change amount. Equipped with 2 image matching parts
The image generation device includes a template image generation unit that generates the second template image.
The self-position estimation unit calculates the self-position estimation value using the first position shift amount and the first scale change amount, or using the second position shift amount and the second scale change amount. The artificial satellite system according to claim 14.
 被写体の周囲を移動する移動体であって、カメラを用いて前記被写体を撮像する前記移動体における自己位置推定方法において、
 第1画像取得部が、前記カメラによる撮像画像に基づく第1テンプレート画像を取得するとともに、前記撮像画像に対応するシミュレーション画像に基づく第1リファレンス画像を取得するステップと、
 第1画像マッチング部が、前記第1テンプレート画像を拡縮するとともに前記第1テンプレート画像を用いて前記第1リファレンス画像を走査する第1テンプレートマッチングを実行することにより、第1位置ずれ量及び第1スケール変化量を算出するステップと、
 自己位置推定部が、前記第1位置ずれ量及び前記第1スケール変化量を用いて自己位置推定値を算出するステップと、
 を備えることを特徴とする自己位置推定方法。
In a method of estimating a self-position in a moving body that moves around a subject and captures the subject using a camera.
A step in which the first image acquisition unit acquires a first template image based on an image captured by the camera and also acquires a first reference image based on a simulation image corresponding to the captured image.
The first image matching unit scales the first template image and executes the first template matching that scans the first reference image using the first template image, whereby the first misalignment amount and the first Steps to calculate the amount of scale change and
A step in which the self-position estimation unit calculates a self-position estimation value using the first position deviation amount and the first scale change amount.
A self-position estimation method comprising.
 第2画像取得部が、前記シミュレーション画像に基づく第2テンプレート画像を取得するとともに、前記撮像画像に基づく第2リファレンス画像を取得するステップと、
 第2画像マッチング部が、前記第2テンプレート画像を拡縮するとともに前記第2テンプレート画像を用いて前記第2リファレンス画像を走査する第2テンプレートマッチングを実行することにより、第2位置ずれ量及び第2スケール変化量を算出するステップと、を備え、
 前記自己位置推定部は、前記第1位置ずれ量及び前記第1スケール変化量を用いて又は前記第2位置ずれ量及び前記第2スケール変化量を用いて前記自己位置推定値を算出する
 ことを特徴とする請求項16記載の自己位置推定方法。
A step in which the second image acquisition unit acquires a second template image based on the simulation image and also acquires a second reference image based on the captured image.
The second image matching unit scales the second template image and executes the second template matching that scans the second reference image using the second template image, whereby the second misalignment amount and the second are performed. With a step to calculate the amount of scale change,
The self-position estimation unit calculates the self-position estimation value using the first position shift amount and the first scale change amount, or using the second position shift amount and the second scale change amount. The self-position estimation method according to claim 16.
PCT/JP2020/018498 2020-05-07 2020-05-07 Own-position estimation device, flight control device, image generation device, artificial satellite system, and own-position estimation method Ceased WO2021224955A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2020/018498 WO2021224955A1 (en) 2020-05-07 2020-05-07 Own-position estimation device, flight control device, image generation device, artificial satellite system, and own-position estimation method
JP2020549818A JP6808111B1 (en) 2020-05-07 2020-05-07 Self-position estimation device, navigation control device, image generator, artificial satellite system and self-position estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/018498 WO2021224955A1 (en) 2020-05-07 2020-05-07 Own-position estimation device, flight control device, image generation device, artificial satellite system, and own-position estimation method

Publications (1)

Publication Number Publication Date
WO2021224955A1 true WO2021224955A1 (en) 2021-11-11

Family

ID=73992810

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/018498 Ceased WO2021224955A1 (en) 2020-05-07 2020-05-07 Own-position estimation device, flight control device, image generation device, artificial satellite system, and own-position estimation method

Country Status (2)

Country Link
JP (1) JP6808111B1 (en)
WO (1) WO2021224955A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023017153A (en) * 2021-07-26 2023-02-07 富士通株式会社 Coordinates identification program, coordinates identification method, and information processor

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053278A (en) * 2002-07-16 2004-02-19 Nissan Motor Co Ltd Forward vehicle tracking system and forward vehicle tracking method
JP2015102449A (en) * 2013-11-26 2015-06-04 日産自動車株式会社 Vehicle self position estimation apparatus and vehicle self position estimation method
WO2018147059A1 (en) * 2017-02-07 2018-08-16 ソニー株式会社 Image processing device, image processing method, and program
WO2018173908A1 (en) * 2017-03-24 2018-09-27 日立オートモティブシステムズ株式会社 Stereo image processing device
JP2019045892A (en) * 2017-08-29 2019-03-22 ソニー株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND MOBILE OBJECT
JP2019211949A (en) * 2018-06-04 2019-12-12 国立大学法人電気通信大学 Point group matching device, point group matching method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053278A (en) * 2002-07-16 2004-02-19 Nissan Motor Co Ltd Forward vehicle tracking system and forward vehicle tracking method
JP2015102449A (en) * 2013-11-26 2015-06-04 日産自動車株式会社 Vehicle self position estimation apparatus and vehicle self position estimation method
WO2018147059A1 (en) * 2017-02-07 2018-08-16 ソニー株式会社 Image processing device, image processing method, and program
WO2018173908A1 (en) * 2017-03-24 2018-09-27 日立オートモティブシステムズ株式会社 Stereo image processing device
JP2019045892A (en) * 2017-08-29 2019-03-22 ソニー株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, PROGRAM, AND MOBILE OBJECT
JP2019211949A (en) * 2018-06-04 2019-12-12 国立大学法人電気通信大学 Point group matching device, point group matching method and program

Also Published As

Publication number Publication date
JPWO2021224955A1 (en) 2021-11-11
JP6808111B1 (en) 2021-01-06

Similar Documents

Publication Publication Date Title
JP7716712B2 (en) Three-dimensional model generation method, information processing device and program
US9799139B2 (en) Accurate image alignment to a 3D model
US10684116B2 (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
JP6044293B2 (en) 3D object recognition apparatus and 3D object recognition method
JP5484133B2 (en) Method for estimating the 3D pose of a specular object
US20020082800A1 (en) Method of composing three-dimensional multi-viewpoints data
CN109844818B (en) Methods and associated systems for building deformable 3D models of elements
KR102262397B1 (en) Method and Apparatus for Automatically Matching between Multi-Temporal SAR Images
KR20210032678A (en) Method and system for estimating position and direction of image
US20220358720A1 (en) Method and apparatus for generating three-dimensional content
CN118397200B (en) Method, device and equipment for reconstructing scene in automatic parking process
JP2003061936A (en) Moving three-dimensional model formation apparatus and method
JP6808111B1 (en) Self-position estimation device, navigation control device, image generator, artificial satellite system and self-position estimation method
US20230169674A1 (en) Information processing device, information processing method, and information processing program
US20250277908A1 (en) Lidar-based map generation method and device therefor
US12462191B2 (en) Image processing methods and systems for training a machine learning model to predict illumination conditions for different positions relative to a scene
CN117911613A (en) Dense reconstruction system, method, electronic device and storage medium
WO2019239460A1 (en) Camera calibration device
Zheng et al. Phase-SLAM: Mobile structured light illumination for full body 3D scanning
CN113091759A (en) Pose processing and map building method and device
KR102878417B1 (en) Apparatus and method for generating 3d mesh
JP7729650B1 (en) Program, information processing device, and adaptive density control method
CN116012451B (en) Object pose estimation method, device, equipment and storage medium
McBryde et al. Spacecraft relative navigation using appearance matching and sensor fusion
WO2023176078A1 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2020549818

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20934594

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20934594

Country of ref document: EP

Kind code of ref document: A1