WO2019239460A1 - Camera calibration device - Google Patents
Camera calibration device Download PDFInfo
- Publication number
- WO2019239460A1 WO2019239460A1 PCT/JP2018/022246 JP2018022246W WO2019239460A1 WO 2019239460 A1 WO2019239460 A1 WO 2019239460A1 JP 2018022246 W JP2018022246 W JP 2018022246W WO 2019239460 A1 WO2019239460 A1 WO 2019239460A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- reference point
- horizontal line
- position information
- input
- acquisition unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Definitions
- the present invention relates to a camera calibration device.
- an object such as a moving object (for example, a ship) is captured in an image captured by a camera such as a so-called “live camera”
- the position of the object in real space is determined according to the position of the object in the captured image.
- a method of identifying has been developed. This identification method uses parameters corresponding to the angle of view and lens distortion of the camera (so-called “internal parameters”) and parameters corresponding to the installation position and orientation angle of the camera (so-called “external parameters”) in advance. Calibration is required.
- each of the plurality of GCPs corresponds to, for example, a structure on the ground or water whose coordinate values (hereinafter referred to as “absolute coordinate values”) indicating positions in real space are known and constant.
- Non-Patent Document 1 and the like uses a plurality of GCPs for calculating the attitude angle.
- GCPs for calculating the attitude angle.
- the conventional technique described in Non-Patent Document 1 and the like has a problem that the posture angle cannot be calculated in such a case.
- the present invention has been made to solve the above-described problems, and an object of the present invention is to reduce the number of GCPs used for calculating the attitude angle by the camera calibration device.
- the camera calibration device of the present invention includes a reference point position information acquisition unit that acquires reference point position information indicating the position of a reference point in an image captured by the camera, and a reference point that indicates a coordinate value corresponding to the position of the reference point in real space.
- Reference point coordinate information acquisition unit for acquiring coordinate information
- horizontal line position information acquisition unit for acquiring horizontal line position information indicating the position of the horizontal line or horizon in the captured image, the position of the reference point in the captured image, and the reference point in real space
- An external parameter calculation unit that calculates a camera posture angle based on the coordinate value corresponding to the position and the position of the horizontal line or the horizon in the captured image.
- the camera calibration device of the present invention has a horizontal line position information acquisition unit that acquires horizontal line position information indicating the position of a horizontal line or a horizon in a captured image by the camera, and a moving object is captured at a predetermined position in the captured image.
- a moving body area information acquisition unit that acquires moving body area information indicating an area corresponding to the moving body in the captured image, and a position of the moving body in real space when the moving body is captured at a predetermined position
- a moving body coordinate information acquisition unit that acquires moving body coordinate information including coordinate values, and a coordinate value corresponding to the position of the horizontal line or the horizon in the captured image, the position of the moving body in the captured image, and the position of the moving body in real space.
- an external parameter calculation unit for calculating a camera attitude angle.
- the present invention since it is configured as described above, it is possible to reduce the number of GCPs used for calculating the attitude angle by the camera calibration device.
- FIG. 3 is a block diagram illustrating a main part of a computer including the camera calibration device according to the first embodiment.
- FIG. 2A is a block diagram illustrating a hardware configuration of a computer including the camera calibration device according to the first embodiment.
- FIG. 2B is a block diagram illustrating another hardware configuration of the computer including the camera calibration device according to Embodiment 1.
- 3 is a flowchart showing an operation of a computer including the camera calibration device according to the first embodiment. It is explanatory drawing which shows the example of UI when reference point position information, reference point coordinate information, and horizontal line position information are input. It is explanatory drawing which shows the example of UI when reference point position information, reference point coordinate information, and horizontal line position information are input.
- FIG. 6 is a flowchart illustrating an operation of a computer including a camera calibration device according to a second embodiment. 6 is a flowchart illustrating an operation of a computer including a camera calibration device according to a second embodiment.
- FIG. 1 is a block diagram illustrating a main part of a computer including a camera calibration device according to the first embodiment.
- a camera calibration apparatus 100 according to the first embodiment will be described with reference to FIG.
- the camera 1 is, for example, a live camera, a surveillance camera, or a security camera. That is, the captured image I by the camera 1 is a moving image.
- the camera 1 includes an image sensor such as a visible light camera, an infrared camera, or a distance image sensor (a so-called “TOF (Time of Flight) camera”).
- TOF Time of Flight
- the imaging control unit 11 controls the operation of the camera 1 and acquires image data indicating the captured image I from the camera 1.
- the imaging control unit 11 outputs the acquired image data, that is, image data indicating the captured image I to the input / output control unit 12.
- the input / output control unit 12 receives input of information (hereinafter referred to as “reference point position information”) indicating the position of the GCP (hereinafter referred to as “reference point”) in the captured image I.
- the input / output control unit 12 receives an input of coordinate values corresponding to the position of the reference point in the real space, that is, information indicating the absolute coordinate value of the reference point (hereinafter referred to as “reference point coordinate information”).
- the absolute coordinate value of the reference point is, for example, a latitude value, a longitude value, and an altitude value in a so-called “world coordinate system”.
- the input / output control unit 12 receives input of information indicating the position of the horizontal line in the captured image I (hereinafter referred to as “horizontal line position information”).
- horizontal line position information information indicating the position of the horizontal line in the captured image I
- the reference point position information and the horizontal line position information are collectively referred to as “position information”.
- the input / output control unit 12 causes the display device 2 to display a screen for inputting reference point position information, reference point coordinate information, and horizontal line position information (hereinafter referred to as “input screen”).
- the input screen includes a captured image I by so-called “live playback”.
- the reference point position information, the reference point coordinate information, and the horizontal line position information are input by operating the operation input device 3 on the input screen while the input screen is displayed on the display device 2.
- the display device 2 is configured by, for example, a liquid crystal display or an organic EL (Electro Luminescence) display.
- the operation input device 3 is composed of, for example, a keyboard and a mouse.
- the reference point position information acquisition unit 21 acquires the input reference point position information when the input / output control unit 12 receives the input of the reference point position information.
- the reference point coordinate information acquisition unit 22 acquires the input reference point coordinate information when the input / output control unit 12 receives an input of the reference point coordinate information.
- the horizontal line position information acquisition unit 23 acquires the input horizontal line position information when the input / output control unit 12 receives input of horizontal line position information.
- the external parameter calculation unit 24 is acquired by the reference point position information acquired by the reference point position information acquisition unit 21, the reference point coordinate information acquired by the reference point coordinate information acquisition unit 22, and the horizontal line position information acquisition unit 23.
- the posture angles ⁇ , ⁇ , ⁇ of the camera 1 are calculated using the horizontal line position information. That is, the external parameter calculation unit 24 calculates the attitude angles ⁇ , ⁇ , and ⁇ of the camera 1 based on the position of the reference point in the captured image I, the absolute coordinate value of the reference point, and the position of the horizontal line in the captured image I. Is.
- ⁇ is a posture angle of the camera 1 with respect to the roll direction
- ⁇ is a posture angle of the camera 1 with respect to the pitch direction
- ⁇ is a posture angle of the camera 1 with respect to the yaw direction.
- the input / output control unit 12 executes control for outputting the posture angles ⁇ , ⁇ , and ⁇ calculated by the external parameter calculation unit 24. More specifically, the input / output control unit 12 causes the display device 2 to display an image including the calculated posture angles ⁇ , ⁇ , and ⁇ .
- the reference point position information acquisition unit 21, the reference point coordinate information acquisition unit 22, the horizon position information acquisition unit 23, and the external parameter calculation unit 24 constitute a main part of the camera calibration apparatus 100.
- the imaging control unit 11, the input / output control unit 12, and the camera calibration device 100 constitute a main part of the computer 200.
- the computer 200 has a processor 31 and a memory 32.
- the memory 32 causes the computer 200 to function as the imaging control unit 11, the input / output control unit 12, the reference point position information acquisition unit 21, the reference point coordinate information acquisition unit 22, the horizontal line position information acquisition unit 23, and the external parameter calculation unit 24.
- a program for storing is stored.
- the processor 31 reads out and executes the program stored in the memory 32, the imaging control unit 11, the input / output control unit 12, the reference point position information acquisition unit 21, the reference point coordinate information acquisition unit 22, and the horizontal line position information acquisition.
- the functions of the unit 23 and the external parameter calculation unit 24 are realized.
- the computer 200 may include a processing circuit 33 as shown in FIG. 2B.
- the processing circuit 33 realizes the functions of the imaging control unit 11, the input / output control unit 12, the reference point position information acquisition unit 21, the reference point coordinate information acquisition unit 22, the horizontal line position information acquisition unit 23, and the external parameter calculation unit 24. It may be.
- the computer 200 may include a processor 31, a memory 32, and a processing circuit 33 (not shown).
- a processor 31 some of the functions of the imaging control unit 11, the input / output control unit 12, the reference point position information acquisition unit 21, the reference point coordinate information acquisition unit 22, the horizontal line position information acquisition unit 23, and the external parameter calculation unit 24
- the functions may be realized by the processor 31 and the memory 32, and the remaining functions may be realized by the processing circuit 33.
- the processor 31 uses, for example, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a microprocessor, a microcontroller, or a DSP (Digital Signal Processor).
- a CPU Central Processing Unit
- GPU Graphics Processing Unit
- microprocessor a microcontroller
- DSP Digital Signal Processor
- the memory 32 uses, for example, at least one of a semiconductor memory, a magnetic disk, an optical disk, or a magneto-optical disk. More specifically, the memory 32 includes a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory EMM, an EEPROM (Electrically EMM). State Drive), HDD (Hard Disk Drive), FD (Floppy Disk), CD (Compact Disc), DVD (Digital Versatile Disc), MO (Magneto-Optical) or MD (MiniDis) Taiko It is.
- RAM Random Access Memory
- ROM Read Only Memory
- a flash memory an EPROM (Erasable Programmable Read Only Memory EMM, an EEPROM (Electrically EMM). State Drive
- HDD Hard Disk Drive
- FD Compact Disc
- DVD Digital Versatile Disc
- MO Magneticto-Optical
- MD MiniDis Taiko It is.
- the processing circuit 33 may be, for example, an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), an FPGA (Field-Programmable Gate Array), a SoC (System-LargeSemi-ChemicalSigleSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigure
- the imaging control unit 11 is executing a process of acquiring image data indicating the captured image I from the camera 1 and outputting the acquired image data to the input / output control unit 12.
- step ST ⁇ b> 1 the input / output control unit 12 starts display of an input screen by the display device 2.
- the input screen includes a captured image I obtained by live reproduction.
- step ST2 the input / output control unit 12 accepts input of one or more reference point position information according to the operation of the operation input device 3 on the input screen.
- step ST3 the reference point position information acquisition unit 21 acquires the input reference point position information.
- step ST4 the input / output control unit 12 accepts input of one or more reference point coordinate information according to the operation of the operation input device 3 on the input screen.
- step ST5 the reference point coordinate information acquisition unit 22 acquires the input reference point coordinate information.
- step ST6 the input / output control unit 12 accepts input of one or more pieces of horizontal line position information in accordance with the operation of the operation input device 3 on the input screen.
- step ST7 the horizontal line position information acquisition unit 23 acquires the input horizontal line position information.
- step ST8 the input / output control unit 12 determines whether or not three or more pieces of position information have been input.
- step ST8 “NO” the processing of the computer 200 returns to step ST6.
- step ST8 “YES” the processing of the computer 200 proceeds to step ST9.
- the external parameter calculation unit 24 uses the reference point position information acquired by the reference point position information acquisition unit 21, the reference point coordinate information acquired by the reference point coordinate information acquisition unit 22, and the horizontal line position information.
- the posture angles ⁇ , ⁇ , ⁇ of the camera 1 are calculated using the horizontal line position information acquired by the acquisition unit 23. A specific example of the method of calculating the posture angles ⁇ , ⁇ , ⁇ by the external parameter calculation unit 24 will be described later.
- step ST10 the input / output control unit 12 executes control to output the posture angles ⁇ , ⁇ , ⁇ calculated by the external parameter calculation unit 24. More specifically, the input / output control unit 12 causes the display device 2 to display an image including the calculated posture angles ⁇ , ⁇ , and ⁇ .
- the number of input reference point position information is one
- the number of input reference point coordinate information is one
- the number of input horizontal line position information is two.
- the user uses the mouse of the operation input device 3 to press the “Next” button displayed in the lower right part of the input screen. Thereby, the input of the reference point position information and the reference point coordinate information is completed.
- the user clicks the position of the horizontal line in the captured image I in the input screen using the mouse of the operation input device 3 (see (C) in FIG. 4A). Then, a circular marker image M2 corresponding to the clicked position is superimposed on the captured image I (see (D) in FIG. 4B).
- the user clicks another position of the horizontal line in the captured image I in the input screen using the mouse of the operation input device 3 (see (E) in FIG. 4B). Then, a circular marker image M3 corresponding to the clicked position is displayed superimposed on the captured image I (see (F) in FIG. 4B).
- the user uses the mouse of the operation input device 3 to press the “complete” button displayed in the lower right part of the input screen. Thereby, the input of the horizontal line position information is completed.
- the color of the marker image M1 corresponding to the position of the reference point may be different from the colors of the marker images M2 and M3 corresponding to the position of the horizontal line.
- the marker image M1 may be red and the marker images M2 and M3 may be yellow.
- the imaging range by the camera 1 is about several kilometers to several tens of kilometers at maximum. For this reason, the distance from the installation position of the camera 1 to the horizontal line imaged in the captured image I is a sufficiently small value with respect to the radius of the earth. For this reason, the following calculation is executed assuming that the shape of the earth is a perfect circle.
- the external parameter calculation unit 24 calculates the coordinate value corresponding to the installation position of the camera 1 in real space, that is, the absolute coordinate value (b, l, h) of the camera 1.
- b is a latitude value in the world coordinate system
- l is a longitude value in the world coordinate system
- h is an elevation value in the world coordinate system.
- FIG. 5 shows an example of the world coordinate system, more specifically, an example of the earth center coordinate system. Since the calculation method of the absolute coordinate value (b, l, h) is well known, detailed description is omitted. Instead of calculating the absolute coordinate value (b, l, h) by the external parameter calculation unit 24, information indicating the absolute coordinate value (b, l, h) is stored in the external parameter calculation unit 24 in advance. It may be.
- the external parameter calculation unit 24 calculates the center of the earth from the point corresponding to the absolute coordinate value (b, l, 0) having the same latitude value and longitude value as the absolute coordinate value (b, l, h) of the camera 1.
- the distance r1 to the part is calculated.
- the external parameter calculation unit 24 calculates a geoid height r2 corresponding to (b, l) of the absolute coordinate values (b, l, h) of the camera 1.
- FIG. 6 shows an example of the camera coordinate system.
- the line-of-sight vector VE in the camera coordinate system is expressed by the following equation (4) by the following equations (2) and (3).
- the line-of-sight vector VE in the camera coordinate system is a vector from the center of the camera 1 to a position corresponding to each pixel of the captured image I.
- the line-of-sight vector VE in the camera coordinate system is multiplied by a 3 ⁇ 3 conversion matrix to convert the line-of-sight vector VE in the camera coordinate system into a line-of-sight vector VE ′ in the world coordinate system. Is done. If the posture angles ⁇ , ⁇ , ⁇ are set to known predetermined values, this transformation matrix can be calculated, and the following equation (6) is obtained.
- z ′ has an origin (that is, 0) corresponding to the center of the camera 1, a positive direction corresponding to the upper direction of the captured image I, and a lower direction of the captured image I. It is a coordinate value in a coordinate system having a corresponding negative direction. Therefore, the coordinate value v in the captured image I is calculated by the following equation (9). Thereby, the coordinate value v corresponding to the position of the horizontal line in the captured image I can be calculated.
- V -z '+ (height-1) / 2 (9)
- the external parameter calculation unit 24 has already calculated the absolute coordinate values (b, l, h), or information indicating the absolute coordinate values (b, l, h) is stored in the external parameter calculation unit 24. ing. For this reason, the installation position of the camera 1 is known. Therefore, based on the above principle, it is possible to calculate the coordinate value v when the posture angles ⁇ , ⁇ , ⁇ are set to known predetermined values, that is, the position of the horizontal line in the captured image I in this case. .
- the external parameter calculation unit 24 reduces the posture angle ⁇ , ⁇ , and the like so that the difference value between the horizontal line position obtained by the calculation and the actual horizontal line position (that is, the horizontal line position indicated by the horizontal line position information) becomes small.
- the iterative calculation is performed while changing the value of the parameter corresponding to ⁇ .
- the posture angles ⁇ , ⁇ , ⁇ corresponding to the parameter values when the difference value becomes the smallest, that is, the actual posture angles ⁇ , ⁇ , ⁇ can be approximately obtained.
- the external parameter calculation unit 24 performs iterative calculation so as to minimize the objective function shown in the following equation (10) by a gradient method such as the least square method or the Levenberg Marquardt method.
- Xi in Expression (10) is a coordinate value corresponding to the position of the i-th reference point in the captured image I, and indicates an actual measurement value of the coordinate value with respect to the X-axis direction.
- yi is a coordinate value corresponding to the position of the i-th reference point in the captured image I, and indicates an actual measurement value of the coordinate value with respect to the Y-axis direction.
- Xi is a coordinate value corresponding to the position of the i-th reference point in the captured image I, and indicates a predicted value of the coordinate value with respect to the X-axis direction.
- Yi is a coordinate value corresponding to the position of the i-th reference point in the captured image I, and indicates a predicted value of the coordinate value with respect to the Y-axis direction.
- vi is a coordinate value corresponding to the i-th position of the horizontal line in the captured image I, and indicates an actual measurement value of the coordinate value with respect to the Y-axis direction.
- Vi is a coordinate value corresponding to the i-th position of the horizontal line in the captured image I, and indicates a predicted value of the coordinate value with respect to the Y-axis direction.
- the actual measurement values xi and yi are included in the reference point position information, and the actual measurement value vi is included in the horizontal line position information.
- the predicted values Xi, Yi, Vi are calculated by the external parameter calculation unit 24 while changing the parameter values corresponding to the posture angles ⁇ , ⁇ , ⁇ . That is, the predicted values Xi, Yi, Vi can take different values for each calculation in the iterative calculation. Since the calculation methods of the predicted values Xi and Yi are known, detailed description thereof is omitted.
- the reference point coordinate information is used for calculating the predicted values Xi and Yi. Since the calculation method of the predicted value Vi is based on the above principle, the description thereof will be omitted.
- the number of reference points used for calculating the posture angles ⁇ , ⁇ , ⁇ can be reduced.
- the number of reference points used for calculating the posture angles ⁇ , ⁇ , ⁇ can be reduced to one.
- the number of input reference point position information is not limited to one, and the number of input horizontal line position information is not limited to two.
- the combination of the number of reference point position information and the number of horizontal line position information is based on any combination as long as three or more pieces of position information including one or more reference point position information are input. There may be. However, it is preferable to input two or more pieces of horizontal line position information from the viewpoint of reducing the number of reference points used for calculating the posture angles ⁇ , ⁇ , and ⁇ to one. Further, when increasing the number of input position information, it is preferable not to increase the number of input reference point position information but to increase the number of input horizontal line position information.
- the calculation accuracy of the posture angles ⁇ , ⁇ , ⁇ can be improved. For example, when the user clicks the position of the reference point or horizontal line in the captured image I using the mouse, the clicked position is converted into the coordinate value in the captured image I. At this time, a so-called “rounding error” occurs. By increasing the number of input position information, the influence of the rounding error on the calculation of the posture angles ⁇ , ⁇ , ⁇ can be reduced.
- the horizontal line position information may indicate the position of the horizon in the captured image I instead of the position of the horizontal line in the captured image I. Even in this case, the posture angles ⁇ , ⁇ , ⁇ can be calculated according to the above principle.
- the camera calibration device 100 includes the reference point position information acquisition unit 21 that acquires the reference point position information indicating the position of the reference point in the captured image I by the camera 1, and the reference point in the real space.
- a reference point coordinate information acquisition unit 22 that acquires reference point coordinate information indicating coordinate values (that is, absolute coordinate values) corresponding to the position of the horizontal line, and a horizontal line position that acquires horizontal line position information indicating the position of a horizontal line or a horizon in the captured image I
- the position of the reference point in the captured image I the coordinate value corresponding to the position of the reference point in real space (that is, the absolute coordinate value), and the position of the horizontal line or the horizon in the captured image I
- an external parameter calculation unit 24 for calculating the posture angles ⁇ , ⁇ , ⁇ .
- the reference point position information acquisition unit 21 acquires one reference point position information
- the reference point coordinate information acquisition unit 22 acquires one reference point coordinate information
- the horizontal line position information acquisition unit 23 2 Get horizontal line position information.
- the external parameter calculation unit 24 calculates posture angles ⁇ , ⁇ , ⁇ with respect to the roll direction, the yaw direction, and the pitch direction. That is, the camera calibration apparatus 100 can calculate the triaxial attitude angles ⁇ , ⁇ , and ⁇ using at least one reference point.
- the reference point position information, the reference point coordinate information, and the horizontal line position information are input by operating the operation input device 3 on the input screen in a state where the input screen including the captured image I is displayed on the display device 2. Is. Thereby, for example, the input of the reference point position information, the reference point coordinate information, and the horizontal line position information by the UI shown in FIG. 4 can be realized.
- FIG. 7 is a block diagram illustrating a main part of a computer including the camera calibration device according to the second embodiment. With reference to FIG. 7, the camera calibration apparatus 100a of Embodiment 2 is demonstrated. In FIG. 7, the same blocks as those shown in FIG.
- the camera calibration device 100 uses at least one reference point for calculating the attitude angles ⁇ , ⁇ , and ⁇ .
- the camera calibration apparatus 100a according to the second embodiment uses zero reference points for calculating the posture angles ⁇ , ⁇ , ⁇ , that is, no reference points are required for calculating the posture angles ⁇ , ⁇ , ⁇ . It is what.
- the input / output control unit 12 receives input of horizontal line position information.
- the UI when the horizontal line position information is input is the same as that described with reference to FIG. 4 in the first embodiment. That is, the input screen includes a captured image I obtained by live reproduction.
- the horizontal line position information acquisition unit 23 acquires the input horizontal line position information when the input / output control unit 12 receives input of horizontal line position information.
- the input / output control unit 12 receives an input of an operation indicating that when a single moving body (for example, a ship) is photographed at a predetermined position (for example, the center of the captured image I) in the captured image I It is.
- This operation is, for example, an operation of pressing the “capture” button displayed in the input screen using the mouse of the operation input device 3.
- the input / output control unit 12 temporarily stops the reproduction of the captured image I on the input screen.
- the input / output control unit 12 captures the captured image I at the timing when this operation is input.
- the input / output control unit 12 displays the captured still image (hereinafter referred to as “capture image”) instead of the captured image I on the input screen.
- the input / output control unit 12 is configured to display the one imaged image I in a state where the reproduction of the imaged image I on the input screen is stopped, that is, in the state where one ship is captured in the center of the imaged image I.
- the input of information (hereinafter referred to as “moving body area information”) indicating an area corresponding to the ship (hereinafter referred to as “moving body area information”) is received. More specifically, the moving body area is a rectangular area surrounding the one ship, and the moving body area information is information indicating the position and size of the area in the captured image I.
- the moving body region information is obtained when the reproduction of the captured image I on the input screen is stopped, that is, when one ship is captured in the center of the captured image I. It is input by operation.
- This operation is, for example, an operation of designating a moving body region by clicking and dragging using the mouse of the operation input device 3.
- the moving body region information acquisition unit 25 acquires the input moving body region information when the input / output control unit 12 receives the input of the moving body region information.
- the wireless communication device 4 receives one or more AIS (Automatic Identification System) information corresponding to one or more ships using the antenna 5 under the control of the communication control unit 13.
- the one or more ships include at least one of a ship that is navigating within a predetermined range including the installation position of the camera 1 or a ship that is anchored within the predetermined range. That is, the one or more ships include at least one ship shown in the central portion of the captured image I.
- the wireless communication device 4 includes, for example, an AIS transmitter and receiver.
- the AIS information may be referred to as “mobile identification information”.
- the mobile object identification information selection unit 26 is one that is copied in the central portion of the captured image I among the received plurality of AIS information. One AIS information corresponding to this ship is selected.
- the moving body identification information selection unit 26 acquires information indicating the focal length F of the camera 1 from the imaging control unit 11.
- the moving body identification information selection unit 26 acquires a plurality of AIS information received by the wireless communication device 4 from the communication control unit 13. Each of the plurality of AIS information includes the size S and the absolute coordinate value in the real space of the corresponding ship.
- the moving body identification information selection unit 26 acquires information indicating the absolute coordinate value of the camera 1 from the external parameter calculation unit 24.
- the moving body identification information selection unit 26 calculates the distance D between the camera 1 and each ship in the real space based on the absolute coordinate value of the camera 1 and the absolute coordinate value of each ship.
- the moving body identification information selection unit 26 calculates the size a of each ship in the captured image I when each ship is captured in the captured image I by the following equation (11).
- the moving body identification information selection unit 26 compares the calculated size a of each ship with the size of the moving body area indicated by the moving body area information acquired by the moving body area information acquisition unit 25.
- the moving body identification information selection unit 26 selects one piece of AIS information corresponding to the size a closest to the size of the moving body area.
- the moving body coordinate information acquisition unit 27 acquires the received one piece of AIS information as moving body coordinate information. Moreover, the mobile body coordinate information acquisition part 27 acquires one AIS information selected by the mobile body identification information selection part 26 as mobile body coordinate information, when several AIS information is received by the radio
- the external parameter calculation unit 24 includes the horizontal line position information acquired by the horizontal line position information acquisition unit 23, the moving body region information acquired by the moving body region information acquisition unit 25, and the movement acquired by the moving body coordinate information acquisition unit 27.
- the posture angles ⁇ , ⁇ , ⁇ of the camera 1 are calculated using the body coordinate information.
- the moving body region information acquired by the moving body region information acquisition unit 25 is the position of the moving body region in the captured image I (that is, the imaging) at the timing when one ship is captured in the center of the captured image I.
- the moving body coordinate information acquired by the moving body coordinate information acquisition unit 27 includes the absolute coordinate value of the one ship at the timing. Therefore, the attitude angle ⁇ , ⁇ , ⁇ can be calculated by the same method as that described in the first embodiment by using the one ship instead of one reference point.
- the external parameter calculation unit 24 calculates the posture angles ⁇ , ⁇ , ⁇ by this method.
- the input / output control unit 12 resumes live reproduction of the captured image I on the input screen.
- the communication control unit 13 starts continuous reception of AIS information corresponding to one ship that has been captured in the center of the captured image I.
- the input / output control unit 12 acquires information indicating the absolute coordinate values of the camera 1 and information indicating the posture angles ⁇ , ⁇ , and ⁇ of the camera 1 from the external parameter calculation unit 24.
- the input / output control unit 12 acquires the AIS information being received by the wireless communication device 4 from the communication control unit 13.
- the input / output control unit 12 uses these pieces of information to calculate the current position and size of the one ship in the captured image I.
- the input / output control unit 12 superimposes and displays an image corresponding to the calculated position and size (hereinafter referred to as “superimposed image”) on the captured image I during live reproduction.
- the superimposed image is, for example, a rectangular frame image.
- the ship is displayed in the rectangular frame.
- the input / output control unit 12 receives an input of an operation for selecting whether or not the superimposed image is displayed at a correct position in the captured image I.
- the input / output control unit 12 performs control to output the posture angles ⁇ , ⁇ , ⁇ calculated by the external parameter calculation unit 24. More specifically, the input / output control unit 12 causes the display device 2 to display an image including the calculated posture angles ⁇ , ⁇ , and ⁇ .
- the horizontal line position information acquisition unit 23, the external parameter calculation unit 24, the moving body region information acquisition unit 25, the moving body identification information selection unit 26, and the moving body coordinate information acquisition unit 27 constitute a main part of the camera calibration apparatus 100a.
- the imaging control unit 11, the input / output control unit 12, the communication control unit 13, and the camera calibration device 100a constitute a main part of the computer 200a.
- Each function of the information acquisition unit 27 may be realized by the processor 31 and the memory 32, or may be realized by the processing circuit 33.
- the imaging control unit 11 is executing a process of acquiring image data indicating the captured image I from the camera 1 and outputting the acquired image data to the input / output control unit 12.
- step ST21 the input / output control unit 12 starts display of an input screen by the display device 2.
- the input screen includes a captured image I obtained by live reproduction.
- step ST22 the input / output control unit 12 accepts input of one or more pieces of horizontal line position information according to the operation of the operation input device 3 on the input screen.
- step ST23 the horizontal line position information acquisition unit 23 acquires the input horizontal line position information.
- step ST24 the input / output control unit 12 determines whether or not two or more pieces of horizontal line position information have been input.
- the process of the computer 200a returns to step ST22.
- the number of input horizontal line position information is 2 or more (step ST24 “YES”), the processing of the computer 200a proceeds to step ST25.
- the input / output control unit 12 reproduces the captured image I on the input screen at the timing when one ship is captured in the center of the captured image I in accordance with the operation of the operation input device 3 on the input screen. Is temporarily stopped (step ST25).
- the processes in steps ST26 to ST33 are executed in a state where reproduction of the captured image I on the input screen is stopped, that is, in a state where one ship is photographed in the center of the captured image I.
- step ST26 the input / output control unit 12 accepts input of moving body region information in accordance with the operation of the operation input device 3 on the input screen.
- step ST27 the moving body area information acquisition unit 25 acquires the input moving body area information.
- step ST28 the communication control unit 13 executes control to receive one or more AIS information corresponding to one or more ships.
- the one or more ships include at least one ship shown in the central portion of the captured image I.
- step ST29 the communication control unit 13 determines whether the number of AIS information received by the wireless communication device 4 is one or more.
- step ST30 the mobile unit identification information selecting unit 26 selects the plurality of received AIS information. Among them, one AIS information corresponding to one ship shown in the center of the captured image I is selected. Subsequently, in step ST31, the moving body coordinate information acquisition unit 27 acquires the selected one AIS information as moving body coordinate information.
- step ST32 the mobile body coordinate information acquisition unit 27 performs the received one AIS information. Information is acquired as moving body coordinate information.
- step ST33 the external parameter calculation unit 24, the horizontal line position information acquired by the horizontal line position information acquisition unit 23, the mobile body region information acquired by the mobile body region information acquisition unit 25, And the posture angle ⁇ , ⁇ , ⁇ of the camera 1 is calculated using the moving body coordinate information acquired by the moving body coordinate information acquisition unit 27.
- step ST34 the input / output control unit 12 resumes live reproduction of the captured image I on the input screen.
- step ST ⁇ b> 35 the communication control unit 13 starts continuous reception of AIS information corresponding to one ship that has been captured in the center of the captured image I.
- the input / output control unit 12 acquires information indicating the absolute coordinate value of the camera 1 and information indicating the attitude angles ⁇ , ⁇ , and ⁇ of the camera 1 from the external parameter calculation unit 24.
- the input / output control unit 12 acquires the AIS information being received by the wireless communication device 4 from the communication control unit 13.
- the input / output control unit 12 uses these pieces of information to calculate the current position and size of the one ship in the captured image I.
- the input / output control unit 12 starts superimposed display of an image corresponding to the calculated position and size, that is, a superimposed image (step ST36).
- the input / output control unit 12 In a state where the superimposed image is superimposed on the captured image I being played live, the input / output control unit 12 inputs an operation for selecting whether or not the superimposed image is displayed at the correct position in the captured image I. Accept (step ST37). When an operation indicating that the display position of the superimposed image is correct is input (step ST37 “YES”), the input / output control unit 12 determines the posture angles ⁇ and ⁇ calculated by the external parameter calculation unit 24 in step ST38. , ⁇ is output. More specifically, the input / output control unit 12 causes the display device 2 to display an image including the calculated posture angles ⁇ , ⁇ , and ⁇ .
- step ST37 “NO” when an operation indicating that the display position of the superimposed image is not correct is input (step ST37 “NO”), the processing of the computer 200a returns to step ST25. Thereby, the generation of the captured image I on the input screen is temporarily stopped at the timing when another ship is captured in the center of the captured image I.
- a moving body such as a ship can be used instead of the reference point.
- the reference point in the calculation of the posture angles ⁇ , ⁇ , ⁇ can be made unnecessary.
- the posture angles ⁇ , ⁇ , ⁇ are calculated. be able to.
- the horizontal line position information may indicate the position of the horizon in the captured image I instead of the position of the horizontal line in the captured image I. Even in this case, the posture angles ⁇ , ⁇ , ⁇ can be calculated according to the above principle.
- the moving body is not limited to a ship, and may be a vehicle or an aircraft.
- the mobile object identification information may be information including identifiers, sizes, absolute coordinate values, and the like of these mobile objects, and is not limited to AIS information.
- the moving body identification information selection unit 26 may be provided outside the camera calibration device 100a.
- the moving body identification information selection unit 26 may be configured integrally with the communication control unit 13. That is, the horizon line position information acquisition unit 23, the moving body region information acquisition unit 25, the moving body coordinate information acquisition unit 27, and the external parameter calculation unit 24 may constitute a main part of the camera calibration device 100a. .
- the camera calibration device 100a includes the horizontal line position information acquisition unit 23 that acquires the horizontal line position information indicating the position of the horizontal line or the horizon in the captured image I by the camera 1, and the predetermined image in the captured image I.
- a moving body area information acquisition unit 25 that acquires moving body area information indicating an area (that is, a moving body area) corresponding to the moving body in the captured image I when the moving body is captured at the position, and moves to a predetermined position
- a moving body coordinate information acquisition unit 27 that acquires moving body coordinate information including coordinate values (that is, absolute coordinate values) corresponding to the position of the moving body in the real space when the body is captured;
- the appearance of the camera 1 based on the position of the horizon, the position of the moving body in the captured image I, and the coordinate values (that is, absolute coordinate values) corresponding to the position of the moving body in real space
- Angle omega comprising phi, an external parameter calculation unit 24 for calculating the kappa, the.
- the horizontal line position information acquisition unit 23 acquires two pieces of horizontal line position information
- the moving body region information acquisition unit 25 acquires one piece of moving body region information
- one moving body coordinate information acquisition unit 27 Get the moving body coordinate information.
- the external parameter calculation unit 24 calculates posture angles ⁇ , ⁇ , ⁇ with respect to the roll direction, the yaw direction, and the pitch direction. That is, the camera calibration apparatus 100a can calculate the triaxial attitude angles ⁇ , ⁇ , and ⁇ using zero reference points.
- the horizontal line position information and the moving body region information are input by an operation of the operation input device 3 on the input screen in a state where the input screen including the captured image I is displayed on the display device 2.
- the body coordinate information is received by the wireless communication device 4.
- the moving body is a ship.
- AIS information can be used for moving body coordinate information.
- the camera calibration device of the present invention can be applied to a technique for specifying the position of the object in real space according to the position of the object in the captured image when the object is captured in the image captured by the camera. .
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、カメラ較正装置に関する。 The present invention relates to a camera calibration device.
従来、いわゆる「ライブカメラ」等のカメラによる撮像画像に移動体等の物体(例えば船)が写されているとき、当該撮像画像における当該物体の位置に応じて、実空間における当該物体の位置を特定する方法が開発されている。この特定方法は、当該カメラの画角及びレンズ歪みなどに対応するパラメータ(いわゆる「内部パラメータ」)並びに当該カメラの設置位置及び姿勢角度などに対応するパラメータ(いわゆる「外部パラメータ」)を用いた事前の較正を要するものである。 Conventionally, when an object such as a moving object (for example, a ship) is captured in an image captured by a camera such as a so-called “live camera”, the position of the object in real space is determined according to the position of the object in the captured image. A method of identifying has been developed. This identification method uses parameters corresponding to the angle of view and lens distortion of the camera (so-called “internal parameters”) and parameters corresponding to the installation position and orientation angle of the camera (so-called “external parameters”) in advance. Calibration is required.
これに対して、実空間における複数個のGCP(Ground Control Point)の位置及びカメラによる撮像画像における当該複数個のGCPの位置に基づき、当該カメラの姿勢角度を計算する技術が開発されている(例えば、非特許文献1参照。)。当該複数個のGCPの各々は、例えば、実空間における位置を示す座標値(以下「絶対座標値」という。)が既知かつ一定である地上又は水上の構造物に対応するものである。 On the other hand, a technique for calculating the attitude angle of the camera based on the positions of a plurality of GCPs (Ground Control Points) in the real space and the positions of the plurality of GCPs in the image captured by the camera has been developed ( For example, refer nonpatent literature 1.). Each of the plurality of GCPs corresponds to, for example, a structure on the ground or water whose coordinate values (hereinafter referred to as “absolute coordinate values”) indicating positions in real space are known and constant.
非特許文献1等に記載されている従来技術は、姿勢角度の計算に複数個のGCPを用いるものである。しかしながら、カメラの設置場所によっては、カメラによる撮像範囲内に1個又は0個のGCPしか存在しない場合がある。すなわち、複数個のGCPを事前に用意することができない場合がある。非特許文献1等に記載されている従来技術は、このような場合に姿勢角度を計算することができない問題があった。 The conventional technique described in Non-Patent Document 1 and the like uses a plurality of GCPs for calculating the attitude angle. However, depending on the installation location of the camera, there may be only one or zero GCP within the imaging range of the camera. That is, a plurality of GCPs may not be prepared in advance. The conventional technique described in Non-Patent Document 1 and the like has a problem that the posture angle cannot be calculated in such a case.
本発明は、上記のような課題を解決するためになされたものであり、カメラ較正装置による姿勢角度の計算に用いられるGCPの個数を低減することを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to reduce the number of GCPs used for calculating the attitude angle by the camera calibration device.
本発明のカメラ較正装置は、カメラによる撮像画像における基準点の位置を示す基準点位置情報を取得する基準点位置情報取得部と、実空間における基準点の位置に対応する座標値を示す基準点座標情報を取得する基準点座標情報取得部と、撮像画像における水平線又は地平線の位置を示す水平線位置情報を取得する水平線位置情報取得部と、撮像画像における基準点の位置、実空間における基準点の位置に対応する座標値、及び撮像画像における水平線又は地平線の位置に基づき、カメラの姿勢角度を計算する外部パラメータ計算部と、を備えるものである。 The camera calibration device of the present invention includes a reference point position information acquisition unit that acquires reference point position information indicating the position of a reference point in an image captured by the camera, and a reference point that indicates a coordinate value corresponding to the position of the reference point in real space. Reference point coordinate information acquisition unit for acquiring coordinate information, horizontal line position information acquisition unit for acquiring horizontal line position information indicating the position of the horizontal line or horizon in the captured image, the position of the reference point in the captured image, and the reference point in real space An external parameter calculation unit that calculates a camera posture angle based on the coordinate value corresponding to the position and the position of the horizontal line or the horizon in the captured image.
または、本発明のカメラ較正装置は、カメラによる撮像画像における水平線又は地平線の位置を示す水平線位置情報を取得する水平線位置情報取得部と、撮像画像における所定の位置に移動体が写されているときの撮像画像における移動体に対応する領域を示す移動体領域情報を取得する移動体領域情報取得部と、所定の位置に移動体が写されているときの実空間における移動体の位置に対応する座標値を含む移動体座標情報を取得する移動体座標情報取得部と、撮像画像における水平線又は地平線の位置、撮像画像における移動体の位置、及び実空間における移動体の位置に対応する座標値に基づき、カメラの姿勢角度を計算する外部パラメータ計算部と、を備えるものである。 Alternatively, the camera calibration device of the present invention has a horizontal line position information acquisition unit that acquires horizontal line position information indicating the position of a horizontal line or a horizon in a captured image by the camera, and a moving object is captured at a predetermined position in the captured image. A moving body area information acquisition unit that acquires moving body area information indicating an area corresponding to the moving body in the captured image, and a position of the moving body in real space when the moving body is captured at a predetermined position A moving body coordinate information acquisition unit that acquires moving body coordinate information including coordinate values, and a coordinate value corresponding to the position of the horizontal line or the horizon in the captured image, the position of the moving body in the captured image, and the position of the moving body in real space. And an external parameter calculation unit for calculating a camera attitude angle.
本発明によれば、上記のように構成したので、カメラ較正装置による姿勢角度の計算に用いられるGCPの個数を低減することができる。 According to the present invention, since it is configured as described above, it is possible to reduce the number of GCPs used for calculating the attitude angle by the camera calibration device.
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。 Hereinafter, in order to explain the present invention in more detail, modes for carrying out the present invention will be described with reference to the accompanying drawings.
実施の形態1.
図1は、実施の形態1に係るカメラ較正装置を含む計算機の要部を示すブロック図である。図1を参照して、実施の形態1のカメラ較正装置100について説明する。
Embodiment 1 FIG.
FIG. 1 is a block diagram illustrating a main part of a computer including a camera calibration device according to the first embodiment. A
カメラ1は、例えば、ライブカメラ、監視カメラ又は防犯カメラである。すなわち、カメラ1による撮像画像Iは動画像である。カメラ1は、可視光カメラ、赤外線カメラ又は距離画像センサ(いわゆる「TOF(Time of Flight)カメラ」)などの画像センサにより構成されている。 The camera 1 is, for example, a live camera, a surveillance camera, or a security camera. That is, the captured image I by the camera 1 is a moving image. The camera 1 includes an image sensor such as a visible light camera, an infrared camera, or a distance image sensor (a so-called “TOF (Time of Flight) camera”).
撮像制御部11は、カメラ1の動作を制御するとともに、撮像画像Iを示す画像データをカメラ1から取得するものである。撮像制御部11は、当該取得された画像データ、すなわち撮像画像Iを示す画像データを入出力制御部12に出力するものである。
The
入出力制御部12は、撮像画像IにおけるGCP(以下「基準点」という。)の位置を示す情報(以下「基準点位置情報」という。)の入力を受け付けるものである。入出力制御部12は、実空間における当該基準点の位置に対応する座標値、すなわち当該基準点の絶対座標値を示す情報(以下「基準点座標情報」という。)の入力を受け付けるものである。当該基準点の絶対座標値は、例えば、いわゆる「世界座標系」における緯度値、経度値及び標高値である。入出力制御部12は、撮像画像Iにおける水平線の位置を示す情報(以下「水平線位置情報」という。)の入力を受け付けるものである。以下、基準点位置情報及び水平線位置情報を「位置情報」と総称する。
The input /
入出力制御部12は、基準点位置情報、基準点座標情報及び水平線位置情報の入力用の画面(以下「入力画面」という。)を表示装置2に表示させるものである。入力画面は、いわゆる「ライブ再生」による撮像画像Iを含むものである。基準点位置情報、基準点座標情報及び水平線位置情報は、入力画面が表示装置2に表示されている状態にて、入力画面に対する操作入力装置3の操作により入力されるものである。表示装置2は、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイにより構成されている。操作入力装置3は、例えば、キーボード及びマウスにより構成されている。
The input /
基準点位置情報取得部21は、入出力制御部12が基準点位置情報の入力を受け付けたとき、当該入力された基準点位置情報を取得するものである。基準点座標情報取得部22は、入出力制御部12が基準点座標情報の入力を受け付けたとき、当該入力された基準点座標情報を取得するものである。水平線位置情報取得部23は、入出力制御部12が水平線位置情報の入力を受け付けたとき、当該入力された水平線位置情報を取得するものである。
The reference point position
外部パラメータ計算部24は、基準点位置情報取得部21により取得された基準点位置情報、基準点座標情報取得部22により取得された基準点座標情報、及び水平線位置情報取得部23により取得された水平線位置情報を用いて、カメラ1の姿勢角度ω,φ,κを計算するものである。すなわち、外部パラメータ計算部24は、撮像画像Iにおける基準点の位置、当該基準点の絶対座標値、及び撮像画像Iにおける水平線の位置に基づき、カメラ1の姿勢角度ω,φ,κを計算するものである。ここで、ωはカメラ1のロール方向に対する姿勢角度であり、φはカメラ1のピッチ方向に対する姿勢角度であり、κはカメラ1のヨー方向に対する姿勢角度である。外部パラメータ計算部24による姿勢角度ω,φ,κの計算方法の具体例については後述する。
The external
入出力制御部12は、外部パラメータ計算部24により計算された姿勢角度ω,φ,κを出力する制御を実行するものである。より具体的には、入出力制御部12は、当該計算された姿勢角度ω,φ,κの値を含む画像を表示装置2に表示させるものである。
The input /
基準点位置情報取得部21、基準点座標情報取得部22、水平線位置情報取得部23及び外部パラメータ計算部24により、カメラ較正装置100の要部が構成されている。撮像制御部11、入出力制御部12及びカメラ較正装置100により、計算機200の要部が構成されている。
The reference point position
次に、図2を参照して、計算機200の要部のハードウェア構成について説明する。
Next, the hardware configuration of the main part of the
図2Aに示す如く、計算機200はプロセッサ31及びメモリ32を有している。メモリ32には、計算機200を撮像制御部11、入出力制御部12、基準点位置情報取得部21、基準点座標情報取得部22、水平線位置情報取得部23及び外部パラメータ計算部24として機能させるためのプログラムが記憶されている。メモリ32に記憶されているプログラムをプロセッサ31が読み出して実行することにより、撮像制御部11、入出力制御部12、基準点位置情報取得部21、基準点座標情報取得部22、水平線位置情報取得部23及び外部パラメータ計算部24の機能が実現される。
As shown in FIG. 2A, the
または、図2Bに示す如く、計算機200は処理回路33を有するものであっても良い。この場合、撮像制御部11、入出力制御部12、基準点位置情報取得部21、基準点座標情報取得部22、水平線位置情報取得部23及び外部パラメータ計算部24の機能が処理回路33により実現されるものであっても良い。
Alternatively, the
または、計算機200はプロセッサ31、メモリ32及び処理回路33を有するものであっても良い(不図示)。この場合、撮像制御部11、入出力制御部12、基準点位置情報取得部21、基準点座標情報取得部22、水平線位置情報取得部23及び外部パラメータ計算部24の機能のうちの一部の機能がプロセッサ31及びメモリ32により実現されて、残余の機能が処理回路33により実現されるものであっても良い。
Alternatively, the
プロセッサ31は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)のうちの少なくとも一つを用いたものである。
The
メモリ32は、例えば、半導体メモリ、磁気ディスク、光ディスク又は光磁気ディスクのうちの少なくとも一つを用いたものである。より具体的には、メモリ32は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、SSD(Solid State Drive)、HDD(Hard Disk Drive)、FD(Floppy Disk)、CD(Compact Disc)、DVD(Digital Versatile Disc)、MO(Magneto-Optical)又はMD(Mini Disc)のうちの少なくとも一つを用いたものである。
The
処理回路33は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field-Programmable Gate Array)、SoC(System-on-a-Chip)又はシステムLSI(Large-Scale Integration)のうちの少なくとも一つを用いたものである。 The processing circuit 33 may be, for example, an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), an FPGA (Field-Programmable Gate Array), a SoC (System-LargeSemi-ChemicalSigleSigureSigureSigureSigureSigureSigureSigureSigureSigureSigureSigure). Using at least one of them.
次に、図3のフローチャートを参照して、計算機200の動作について説明する。なお、撮像制御部11は、撮像画像Iを示す画像データをカメラ1から取得して、当該取得された画像データを入出力制御部12に出力する処理を実行中である。
Next, the operation of the
まず、ステップST1にて、入出力制御部12は、表示装置2による入力画面の表示を開始させる。入力画面は、ライブ再生による撮像画像Iを含むものである。
First, in step ST <b> 1, the input /
次いで、ステップST2にて、入出力制御部12は、入力画面に対する操作入力装置3の操作に応じて、1個以上の基準点位置情報の入力を受け付ける。次いで、ステップST3にて、基準点位置情報取得部21は、当該入力された基準点位置情報を取得する。
Next, in step ST2, the input /
次いで、ステップST4にて、入出力制御部12は、入力画面に対する操作入力装置3の操作に応じて、1個以上の基準点座標情報の入力を受け付ける。次いで、ステップST5にて、基準点座標情報取得部22は、当該入力された基準点座標情報を取得する。
Next, in step ST4, the input /
次いで、ステップST6にて、入出力制御部12は、入力画面に対する操作入力装置3の操作に応じて、1個以上の水平線位置情報の入力を受け付ける。次いで、ステップST7にて、水平線位置情報取得部23は、当該入力された水平線位置情報を取得する。
Next, in step ST6, the input /
次いで、ステップST8にて、入出力制御部12は、3個以上の位置情報が入力済みであるか否かを判定する。入力された位置情報の個数が2個以下である場合(ステップST8“NO”)、計算機200の処理はステップST6に戻る。他方、入力された位置情報の個数が3個以上である場合(ステップST8“YES”)、計算機200の処理はステップST9に進む。
Next, in step ST8, the input /
次いで、ステップST9にて、外部パラメータ計算部24は、基準点位置情報取得部21により取得された基準点位置情報、基準点座標情報取得部22により取得された基準点座標情報、及び水平線位置情報取得部23により取得された水平線位置情報を用いて、カメラ1の姿勢角度ω,φ,κを計算する。外部パラメータ計算部24による姿勢角度ω,φ,κの計算方法の具体例については後述する。
Next, in step ST9, the external
次いで、ステップST10にて、入出力制御部12は、外部パラメータ計算部24により計算された姿勢角度ω,φ,κを出力する制御を実行する。より具体的には、入出力制御部12は、当該計算された姿勢角度ω,φ,κの値を含む画像を表示装置2に表示させる。
Next, in step ST10, the input /
次に、図4を参照して、基準点位置情報、基準点座標情報及び水平線位置情報が入力されるときのUI(User Interface)の具体例について説明する。なお、入力される基準点位置情報の個数は1個であり、かつ、入力される基準点座標情報の個数は1個であり、かつ、入力される水平線位置情報の個数は2個であるものとする。 Next, a specific example of a UI (User Interface) when reference point position information, reference point coordinate information, and horizontal line position information are input will be described with reference to FIG. The number of input reference point position information is one, the number of input reference point coordinate information is one, and the number of input horizontal line position information is two. And
まず、ユーザは、操作入力装置3のうちのマウスを用いて、入力画面内の撮像画像Iにおける基準点の位置をクリックする(図4Aの(A)参照)。すると、当該クリックされた位置に対応する円形のマーカー画像M1が撮像画像Iに重畳表示されるとともに、当該基準点の絶対座標値の入力フォームがポップアップ表示される(図4Aの(B)参照)。ユーザは、操作入力装置3のうちのキーボードを用いて、当該基準点の絶対座標値を入力する。 First, the user clicks the position of the reference point in the captured image I in the input screen using the mouse of the operation input device 3 (see (A) in FIG. 4A). Then, a circular marker image M1 corresponding to the clicked position is superimposed and displayed on the captured image I, and an input form for the absolute coordinate value of the reference point is popped up (see (B) of FIG. 4A). . The user inputs the absolute coordinate value of the reference point using the keyboard of the operation input device 3.
次いで、ユーザは、操作入力装置3のうちのマウスを用いて、入力画面内の右下部に表示されている「次へ」ボタンを押下する。これにより、基準点位置情報及び基準点座標情報の入力が完了する。 Next, the user uses the mouse of the operation input device 3 to press the “Next” button displayed in the lower right part of the input screen. Thereby, the input of the reference point position information and the reference point coordinate information is completed.
次いで、ユーザは、操作入力装置3のうちのマウスを用いて、入力画面内の撮像画像Iにおける水平線の位置をクリックする(図4Aの(C)参照)。すると、当該クリックされた位置に対応する円形のマーカー画像M2が撮像画像Iに重畳表示される(図4Bの(D)参照)。 Next, the user clicks the position of the horizontal line in the captured image I in the input screen using the mouse of the operation input device 3 (see (C) in FIG. 4A). Then, a circular marker image M2 corresponding to the clicked position is superimposed on the captured image I (see (D) in FIG. 4B).
次いで、ユーザは、操作入力装置3のうちのマウスを用いて、入力画面内の撮像画像Iにおける水平線の他の位置をクリックする(図4Bの(E)参照)。すると、当該クリックされた位置に対応する円形のマーカー画像M3が撮像画像Iに重畳表示される(図4Bの(F)参照)。 Next, the user clicks another position of the horizontal line in the captured image I in the input screen using the mouse of the operation input device 3 (see (E) in FIG. 4B). Then, a circular marker image M3 corresponding to the clicked position is displayed superimposed on the captured image I (see (F) in FIG. 4B).
次いで、ユーザは、操作入力装置3のうちのマウスを用いて、入力画面内の右下部に表示されている「完了」ボタンを押下する。これにより、水平線位置情報の入力が完了する。 Next, the user uses the mouse of the operation input device 3 to press the “complete” button displayed in the lower right part of the input screen. Thereby, the input of the horizontal line position information is completed.
なお、基準点の位置に対応するマーカー画像M1の色は、水平線の位置に対応するマーカー画像M2,M3の色と異なるものであっても良い。例えば、マーカー画像M1が赤色であり、かつ、マーカー画像M2,M3が黄色であっても良い。 Note that the color of the marker image M1 corresponding to the position of the reference point may be different from the colors of the marker images M2 and M3 corresponding to the position of the horizontal line. For example, the marker image M1 may be red and the marker images M2 and M3 may be yellow.
次に、外部パラメータ計算部24による姿勢角度ω,φ,κの計算方法の具体例について説明する。
Next, a specific example of a method for calculating the posture angles ω, φ, κ by the external
通常、カメラ1の設置位置における標高が極端に高い場合を除き、カメラ1による撮像範囲は最大数キロメートル~数十キロメートル程度である。このため、カメラ1の設置位置から撮像画像Iに写されている水平線までの距離は、地球の半径に対して十分に小さい値となる。このため、以下の計算は地球の形状が真円であるものとみなして実行される。 Usually, unless the altitude at the installation position of the camera 1 is extremely high, the imaging range by the camera 1 is about several kilometers to several tens of kilometers at maximum. For this reason, the distance from the installation position of the camera 1 to the horizontal line imaged in the captured image I is a sufficiently small value with respect to the radius of the earth. For this reason, the following calculation is executed assuming that the shape of the earth is a perfect circle.
まず、外部パラメータ計算部24は、実空間におけるカメラ1の設置位置に対応する座標値、すなわちカメラ1の絶対座標値(b,l,h)を計算する。ここで、bは世界座標系における緯度値であり、lは世界座標系における経度値であり、hは世界座標系における標高値である。図5は、世界座標系の例、より具体的には地球中心座標系の例を示している。絶対座標値(b,l,h)の計算方法は公知であるため、詳細な説明は省略する。なお、外部パラメータ計算部24が絶対座標値(b,l,h)を計算するのに代えて、絶対座標値(b,l,h)を示す情報が外部パラメータ計算部24に予め記憶されているものであっても良い。
First, the external
次いで、外部パラメータ計算部24は、カメラ1の絶対座標値(b,l,h)と同様の緯度値及び経度値を有する絶対座標値(b,l,0)に対応する地点から地球の中心部までの距離r1を計算する。外部パラメータ計算部24は、カメラ1の絶対座標値(b,l,h)のうちの(b,l)に対応するジオイド高r2を計算する。外部パラメータ計算部24は、r=r1+r2により仮想的な地球の半径rを計算する。距離r1及びジオイド高r2の計算方法は公知であるため、詳細な説明は省略する。
Next, the external
ここで、いわゆる「カメラ座標系」において以下の式(1)が成立する。図6は、カメラ座標系の例を示している。このとき、以下の式(2)及び式(3)により、カメラ座標系における視線ベクトルVEは以下の式(4)により表される。カメラ座標系における視線ベクトルVEは、カメラ1の中心部から撮像画像Iの各ピクセルに対応する位置までのベクトルである。 Here, the following equation (1) is established in the so-called “camera coordinate system”. FIG. 6 shows an example of the camera coordinate system. At this time, the line-of-sight vector VE in the camera coordinate system is expressed by the following equation (4) by the following equations (2) and (3). The line-of-sight vector VE in the camera coordinate system is a vector from the center of the camera 1 to a position corresponding to each pixel of the captured image I.
以下の式(5)に示す如く、カメラ座標系における視線ベクトルVEに3行3列の変換行列が乗算されることにより、カメラ座標系における視線ベクトルVEが世界座標系における視線ベクトルVE’に変換される。仮に姿勢角度ω,φ,κが既知の所定値に設定されている場合、この変換行列は計算可能なものであり、以下の式(6)が得られる。 As shown in the following equation (5), the line-of-sight vector VE in the camera coordinate system is multiplied by a 3 × 3 conversion matrix to convert the line-of-sight vector VE in the camera coordinate system into a line-of-sight vector VE ′ in the world coordinate system. Is done. If the posture angles ω, φ, κ are set to known predetermined values, this transformation matrix can be calculated, and the following equation (6) is obtained.
この視線ベクトルVE’が地球と接するものであるとき、カメラ1の設置位置を通り、かつ、方向ベクトルvを有するベクトルと地球の中心部(0,0,0)との距離が地球の半径rに等しくなる。このため、以下の式(7)が成立する。また、式(7)の等式変形により以下の式(8)が得られる。 When the line-of-sight vector VE ′ is in contact with the earth, the distance between the vector having the direction vector v and the center (0, 0, 0) of the earth passing through the installation position of the camera 1 is the radius r of the earth. Is equal to For this reason, the following formula | equation (7) is materialized. Further, the following equation (8) is obtained by the equational deformation of the equation (7).
式(8)において、ベクトルv以外の変数は定数であり、かつ、ベクトルvはz’の一次式により表されるものである。したがって、この等式はz’の二次式となり、二次方程式の解の公式を用いて解が一意に求められる。 In Expression (8), variables other than the vector v are constants, and the vector v is expressed by a linear expression of z ′. Therefore, this equation becomes a quadratic expression of z ′, and the solution is uniquely obtained using the solution formula of the quadratic equation.
ここで、z’は、カメラ1の中心部に対応する原点(すなわち0)を有し、かつ、撮像画像Iの上方向に対応する正方向を有し、かつ、撮像画像Iの下方向に対応する負方向を有する座標系における座標値である。よって、以下の式(9)により、撮像画像Iにおける座標値vが計算される。これにより、撮像画像Iにおける水平線の位置に対応する座標値vを計算することができる。 Here, z ′ has an origin (that is, 0) corresponding to the center of the camera 1, a positive direction corresponding to the upper direction of the captured image I, and a lower direction of the captured image I. It is a coordinate value in a coordinate system having a corresponding negative direction. Therefore, the coordinate value v in the captured image I is calculated by the following equation (9). Thereby, the coordinate value v corresponding to the position of the horizontal line in the captured image I can be calculated.
v=-z’+(height-1)/2 (9) V = -z '+ (height-1) / 2 (9)
上記のとおり、外部パラメータ計算部24が絶対座標値(b,l,h)を計算済みであるか、又は絶対座標値(b,l,h)を示す情報が外部パラメータ計算部24に記憶されている。このため、カメラ1の設置位置は既知である。よって、以上の原理に基づき、仮に姿勢角度ω,φ,κが既知の所定値に設定されている場合の座標値v、すなわち、この場合の撮像画像Iにおける水平線の位置を計算することができる。
As described above, the external
そこで、外部パラメータ計算部24は、当該計算により求められる水平線の位置と実際の水平線の位置(すなわち水平線位置情報が示す水平線の位置)との差分値が小さくなるように、姿勢角度ω,φ,κに対応するパラメータの値を変更しながら反復計算を実行する。これにより、当該差分値が最も小さくなるときの当該パラメータの値に対応する姿勢角度ω,φ,κ、すなわち実際の姿勢角度ω,φ,κを近似的に求めることができる。
Therefore, the external
より具体的には、外部パラメータ計算部24は、最小二乗法又はレーベンバーグマルカート法などの勾配法により、以下の式(10)に示す目的関数を最小化するように反復計算を実行する。
More specifically, the external
式(10)におけるxiは、撮像画像Iにおける第i番目の基準点の位置に対応する座標値であって、X軸方向対する座標値の実測値を示している。yiは、撮像画像Iにおける第i番目の基準点の位置に対応する座標値であって、Y軸方向に対する座標値の実測値を示している。Xiは、撮像画像Iにおける第i番目の基準点の位置に対応する座標値であって、X軸方向に対する座標値の予測値を示している。Yiは、撮像画像Iにおける第i番目の基準点の位置に対応する座標値であって、Y軸方向に対する座標値の予測値を示している。viは、撮像画像Iにおける水平線の第i番目の位置に対応する座標値であって、Y軸方向に対する座標値の実測値を示している。Viは、撮像画像Iにおける水平線の第i番目の位置に対応する座標値であって、Y軸方向に対する座標値の予測値を示している。 Xi in Expression (10) is a coordinate value corresponding to the position of the i-th reference point in the captured image I, and indicates an actual measurement value of the coordinate value with respect to the X-axis direction. yi is a coordinate value corresponding to the position of the i-th reference point in the captured image I, and indicates an actual measurement value of the coordinate value with respect to the Y-axis direction. Xi is a coordinate value corresponding to the position of the i-th reference point in the captured image I, and indicates a predicted value of the coordinate value with respect to the X-axis direction. Yi is a coordinate value corresponding to the position of the i-th reference point in the captured image I, and indicates a predicted value of the coordinate value with respect to the Y-axis direction. vi is a coordinate value corresponding to the i-th position of the horizontal line in the captured image I, and indicates an actual measurement value of the coordinate value with respect to the Y-axis direction. Vi is a coordinate value corresponding to the i-th position of the horizontal line in the captured image I, and indicates a predicted value of the coordinate value with respect to the Y-axis direction.
すなわち、実測値xi,yiは基準点位置情報に含まれるものであり、実測値viは水平線位置情報に含まれるものである。他方、予測値Xi,Yi,Viは、姿勢角度ω,φ,κに対応するパラメータの値を変更しながら外部パラメータ計算部24が計算するものである。すなわち、予測値Xi,Yi,Viは、反復計算における各回の計算毎に異なる値を取り得るものである。予測値Xi,Yiの計算方法は公知であるため、詳細な説明は省略する。基準点座標情報は、予測値Xi,Yiの計算に用いられるものである。予測値Viの計算方法は上記の原理に基づくものであるため、再度の説明は省略する。
That is, the actual measurement values xi and yi are included in the reference point position information, and the actual measurement value vi is included in the horizontal line position information. On the other hand, the predicted values Xi, Yi, Vi are calculated by the external
このように、水平線位置情報を用いることにより、姿勢角度ω,φ,κの計算に用いられる基準点の個数を低減することができる。特に、2個以上の水平線位置情報を用いることにより、姿勢角度ω,φ,κの計算に用いられる基準点の個数を1個に低減することができる。この結果、カメラ1による撮像範囲内に1個の基準点しか存在しない場合、すなわち事前に1個の基準点しか用意することができない場合であっても、姿勢角度ω,φ,κを計算することができる。 Thus, by using the horizon position information, the number of reference points used for calculating the posture angles ω, φ, κ can be reduced. In particular, by using two or more pieces of horizontal line position information, the number of reference points used for calculating the posture angles ω, φ, κ can be reduced to one. As a result, even when only one reference point exists within the imaging range of the camera 1, that is, when only one reference point can be prepared in advance, the posture angles ω, φ, κ are calculated. be able to.
なお、入力される基準点位置情報の個数は1個に限定されるものではなく、入力される水平線位置情報の個数は2個に限定されるものではない。上記のとおり、1個以上の基準点位置情報を含む3個以上の位置情報が入力されるものであれば、基準点位置情報の個数と水平線位置情報の個数との組合せは如何なる組合せによるものであっても良い。ただし、姿勢角度ω,φ,κの計算に用いられる基準点の個数を1個に低減する観点から、2個以上の水平線位置情報が入力されるのが好適である。また、入力される位置情報の個数を増やす場合、入力される基準点位置情報の個数を増やすのではなく、入力される水平線位置情報の個数を増やすのが好適である。 Note that the number of input reference point position information is not limited to one, and the number of input horizontal line position information is not limited to two. As described above, the combination of the number of reference point position information and the number of horizontal line position information is based on any combination as long as three or more pieces of position information including one or more reference point position information are input. There may be. However, it is preferable to input two or more pieces of horizontal line position information from the viewpoint of reducing the number of reference points used for calculating the posture angles ω, φ, and κ to one. Further, when increasing the number of input position information, it is preferable not to increase the number of input reference point position information but to increase the number of input horizontal line position information.
すなわち、入力される位置情報の個数を増やすことにより、姿勢角度ω,φ,κの計算精度を向上することができる。例えば、ユーザがマウスを用いて撮像画像Iにおける基準点又は水平線の位置をクリックしたとき、当該クリックされた位置が撮像画像Iにおける座標値に変換される。このとき、いわゆる「丸め誤差」が発生する。入力される位置情報の個数を増やすことにより、この丸め誤差による姿勢角度ω,φ,κの計算に対する影響を低減することができる。 That is, by increasing the number of input position information, the calculation accuracy of the posture angles ω, φ, κ can be improved. For example, when the user clicks the position of the reference point or horizontal line in the captured image I using the mouse, the clicked position is converted into the coordinate value in the captured image I. At this time, a so-called “rounding error” occurs. By increasing the number of input position information, the influence of the rounding error on the calculation of the posture angles ω, φ, κ can be reduced.
また、水平線位置情報は、撮像画像Iにおける水平線の位置に代えて、撮像画像Iにおける地平線の位置を示すものであっても良い。この場合であっても、上記の原理により姿勢角度ω,φ,κを計算することができる。 Further, the horizontal line position information may indicate the position of the horizon in the captured image I instead of the position of the horizontal line in the captured image I. Even in this case, the posture angles ω, φ, κ can be calculated according to the above principle.
以上のように、実施の形態1のカメラ較正装置100は、カメラ1による撮像画像Iにおける基準点の位置を示す基準点位置情報を取得する基準点位置情報取得部21と、実空間における基準点の位置に対応する座標値(すなわち絶対座標値)を示す基準点座標情報を取得する基準点座標情報取得部22と、撮像画像Iにおける水平線又は地平線の位置を示す水平線位置情報を取得する水平線位置情報取得部23と、撮像画像Iにおける基準点の位置、実空間における基準点の位置に対応する座標値(すなわち絶対座標値)、及び撮像画像Iにおける水平線又は地平線の位置に基づき、カメラ1の姿勢角度ω,φ,κを計算する外部パラメータ計算部24と、を備える。水平線位置情報を用いることにより、姿勢角度ω,φ,κの計算に用いられる基準点の個数を低減することができる。
As described above, the
また、基準点位置情報取得部21が1個の基準点位置情報を取得して、基準点座標情報取得部22が1個の基準点座標情報を取得して、水平線位置情報取得部23が2個の水平線位置情報を取得する。2個以上の水平線位置情報を用いることにより、姿勢角度ω,φ,κの計算に用いられる基準点の個数を最低1個に低減することができる。
In addition, the reference point position
また、外部パラメータ計算部24は、ロール方向、ヨー方向及びピッチ方向に対する姿勢角度ω,φ,κを計算するものである。すなわち、カメラ較正装置100は、最低1個の基準点を用いて3軸の姿勢角度ω,φ,κを計算することができる。
The external
また、基準点位置情報、基準点座標情報及び水平線位置情報は、撮像画像Iを含む入力画面が表示装置2に表示されている状態にて、入力画面に対する操作入力装置3の操作により入力されるものである。これにより、例えば、図4に示すUIによる基準点位置情報、基準点座標情報及び水平線位置情報の入力を実現することができる。
Further, the reference point position information, the reference point coordinate information, and the horizontal line position information are input by operating the operation input device 3 on the input screen in a state where the input screen including the captured image I is displayed on the
実施の形態2.
図7は、実施の形態2に係るカメラ較正装置を含む計算機の要部を示すブロック図である。図7を参照して、実施の形態2のカメラ較正装置100aについて説明する。なお、図7において、図1に示すブロックと同様のブロックには同一符号を付して説明を省略する。
FIG. 7 is a block diagram illustrating a main part of a computer including the camera calibration device according to the second embodiment. With reference to FIG. 7, the
実施の形態1のカメラ較正装置100は、姿勢角度ω,φ,κの計算に最低1個の基準点を用いるものであった。これに対して、実施の形態2のカメラ較正装置100aは、姿勢角度ω,φ,κの計算に0個の基準点を用いるもの、すなわち姿勢角度ω,φ,κの計算における基準点を不要としたものである。
The
入出力制御部12は、水平線位置情報の入力を受け付けるものである。水平線位置情報が入力されるときのUIは、実施の形態1にて図4を参照して説明したものと同様である。すなわち、入力画面は、ライブ再生による撮像画像Iを含むものである。水平線位置情報取得部23は、入出力制御部12が水平線位置情報の入力を受け付けたとき、当該入力された水平線位置情報を取得するものである。
The input /
入出力制御部12は、撮像画像Iにおける所定の位置(例えば撮像画像Iの中央部)に1個の移動体(例えば船)が写されているとき、その旨を示す操作の入力を受け付けるものである。この操作は、例えば、操作入力装置3のうちのマウスを用いて、入力画面内に表示されている「キャプチャ」ボタンを押下する操作である。入出力制御部12は、この操作が入力されたとき、入力画面における撮像画像Iの再生を一時的に停止させるものである。
The input /
具体的には、例えば、入出力制御部12は、この操作が入力されたタイミングにおける撮像画像Iをキャプチャする。入出力制御部12は、入力画面において、撮像画像Iに代えて当該キャプチャされた静止画像(以下「キャプチャ画像」という。)を表示させる。
Specifically, for example, the input /
入出力制御部12は、入力画面における撮像画像Iの再生が停止している状態、すなわち撮像画像Iの中央部に1個の船が写されている状態にて、撮像画像Iにおける当該1個の船に対応する領域(以下「移動体領域」という。)を示す情報(以下「移動体領域情報」という。)の入力を受け付けるものである。より具体的には、移動体領域は当該1個の船を囲む矩形状の領域であり、移動体領域情報は撮像画像Iにおける当該領域の位置及びサイズを示す情報である。
The input /
移動体領域情報は、入力画面における撮像画像Iの再生が停止している状態、すなわち撮像画像Iの中央部に1個の船が写されている状態にて、入力画面に対する操作入力装置3の操作により入力されるものである。この操作は、例えば、操作入力装置3のうちのマウスを用いて、クリック及びドラッグにより移動体領域を指定する操作である。 The moving body region information is obtained when the reproduction of the captured image I on the input screen is stopped, that is, when one ship is captured in the center of the captured image I. It is input by operation. This operation is, for example, an operation of designating a moving body region by clicking and dragging using the mouse of the operation input device 3.
移動体領域情報取得部25は、入出力制御部12が移動体領域情報の入力を受け付けたとき、当該入力された移動体領域情報を取得するものである。
The moving body region
無線通信装置4は、通信制御部13による制御の下、アンテナ5を用いて1個以上の船に対応する1個以上のAIS(Automatic Identification System)情報を受信するものである。当該1個以上の船は、カメラ1の設置位置を含む所定範囲内を航行中の船又は当該所定範囲内に停泊中の船のうちの少なくとも一方を含むものである。すなわち、当該1個以上の船は、少なくとも、撮像画像Iの中央部に写されている1個の船を含むものである。
The wireless communication device 4 receives one or more AIS (Automatic Identification System) information corresponding to one or more ships using the antenna 5 under the control of the
無線通信装置4は、例えば、AIS用の送信機及び受信機により構成されている。以下、AIS情報を「移動体識別情報」ということがある。 The wireless communication device 4 includes, for example, an AIS transmitter and receiver. Hereinafter, the AIS information may be referred to as “mobile identification information”.
移動体識別情報選択部26は、無線通信装置4により複数個のAIS情報が受信された場合、当該受信された複数個のAIS情報のうち、撮像画像Iの中央部に写されている1個の船に対応する1個のAIS情報を選択するものである。
When a plurality of AIS information is received by the wireless communication device 4, the mobile object identification
すなわち、移動体識別情報選択部26は、カメラ1の焦点距離Fを示す情報を撮像制御部11から取得する。移動体識別情報選択部26は、無線通信装置4により受信された複数個のAIS情報を通信制御部13から取得する。当該複数個のAIS情報の各々は、対応する船の実空間におけるサイズS及び絶対座標値を含むものである。移動体識別情報選択部26は、カメラ1の絶対座標値を示す情報を外部パラメータ計算部24から取得する。移動体識別情報選択部26は、カメラ1の絶対座標値及び各船の絶対座標値に基づき、実空間におけるカメラ1と各船間の距離Dを計算する。移動体識別情報選択部26は、以下の式(11)により、仮に各船が撮像画像Iに写されている場合における、撮像画像Iにおける各船のサイズaを計算する。
That is, the moving body identification
a[pixel]=S[m]×F[pixel]÷D[m] (11) A [pixel] = S [m] × F [pixel] ÷ D [m] (11)
移動体識別情報選択部26は、当該計算された各船のサイズaを、移動体領域情報取得部25により取得された移動体領域情報が示す移動体領域のサイズと比較する。移動体識別情報選択部26は、移動体領域のサイズに最も近いサイズaに対応する1個のAIS情報を選択する。
The moving body identification
移動体座標情報取得部27は、無線通信装置4により1個のAIS情報が受信された場合、当該受信された1個のAIS情報を移動体座標情報として取得するものである。また、移動体座標情報取得部27は、無線通信装置4により複数個のAIS情報が受信された場合、移動体識別情報選択部26により選択された1個のAIS情報を移動体座標情報として取得するものである。すなわち、移動体座標情報は、撮像画像Iの中央部に写されている1個の船の絶対座標値を含むものである。
When the wireless communication device 4 receives one piece of AIS information, the moving body coordinate
外部パラメータ計算部24は、水平線位置情報取得部23により取得された水平線位置情報、移動体領域情報取得部25により取得された移動体領域情報、及び移動体座標情報取得部27により取得された移動体座標情報を用いて、カメラ1の姿勢角度ω,φ,κを計算するものである。
The external
すなわち、移動体領域情報取得部25により取得された移動体領域情報は、撮像画像Iの中央部に1個の船が写されているタイミングにおける、撮像画像Iにおける移動体領域の位置(すなわち撮像画像Iにおける当該1個の船の位置)を含むものである。また、移動体座標情報取得部27により取得された移動体座標情報は、当該タイミングにおける当該1個の船の絶対座標値を含むものである。したがって、当該1個の船を1個の基準点の代わりに用いて、実施の形態1にて説明したものと同様の方法により姿勢角度ω,φ,κを計算することができる。外部パラメータ計算部24は、この方法により姿勢角度ω,φ,κを計算する。
That is, the moving body region information acquired by the moving body region
外部パラメータ計算部24により姿勢角度ω,φ,κが計算された後、入出力制御部12は、入力画面における撮像画像Iのライブ再生を再開させる。通信制御部13は、撮像画像Iの中央部に写されていた1個の船に対応するAIS情報の継続的な受信を開始する。入出力制御部12は、カメラ1の絶対座標値を示す情報及びカメラ1の姿勢角度ω,φ,κを示す情報を外部パラメータ計算部24から取得する。入出力制御部12は、無線通信装置4による受信中のAIS情報を通信制御部13から取得する。入出力制御部12は、これらの情報を用いて、撮像画像Iにおける当該1個の船の現在の位置及びサイズを計算する。入出力制御部12は、当該計算された位置及びサイズに対応する画像(以下「重畳画像」という。)をライブ再生中の撮像画像Iに重畳表示させる。重畳画像は、例えば、矩形枠状の画像である。撮像画像Iにおける当該矩形枠の重畳位置が正しい場合、当該矩形枠内に船が表示されている状態となる。
After the attitude angles ω, φ, and κ are calculated by the external
入出力制御部12は、重畳画像が撮像画像Iにおける正しい位置に表示されているか否かを選択する操作の入力を受け付ける。重畳画像の表示位置が正しいことを示す操作が入力された場合、入出力制御部12は、外部パラメータ計算部24により計算された姿勢角度ω,φ,κを出力する制御を実行する。より具体的には、入出力制御部12は、当該計算された姿勢角度ω,φ,κの値を含む画像を表示装置2に表示させる。
The input /
水平線位置情報取得部23、外部パラメータ計算部24、移動体領域情報取得部25、移動体識別情報選択部26及び移動体座標情報取得部27により、カメラ較正装置100aの要部が構成されている。撮像制御部11、入出力制御部12、通信制御部13及びカメラ較正装置100aにより、計算機200aの要部が構成されている。
The horizontal line position
計算機200aの要部のハードウェア構成は、実施の形態1にて図2を参照して説明したものと同様であるため、図示及び説明を省略する。すなわち、撮像制御部11、入出力制御部12、通信制御部13、水平線位置情報取得部23、外部パラメータ計算部24、移動体領域情報取得部25、移動体識別情報選択部26及び移動体座標情報取得部27の各々の機能は、プロセッサ31及びメモリ32により実現されるものであっても良く、又は処理回路33により実現されるものであっても良い。
Since the hardware configuration of the main part of the computer 200a is the same as that described with reference to FIG. 2 in the first embodiment, illustration and description thereof are omitted. That is, the
次に、図8のフローチャートを参照して、計算機200aの動作について説明する。なお、撮像制御部11は、撮像画像Iを示す画像データをカメラ1から取得して、当該取得された画像データを入出力制御部12に出力する処理を実行中である。
Next, the operation of the computer 200a will be described with reference to the flowchart of FIG. Note that the
まず、ステップST21にて、入出力制御部12は、表示装置2による入力画面の表示を開始させる。入力画面は、ライブ再生による撮像画像Iを含むものである。
First, in step ST21, the input /
次いで、ステップST22にて、入出力制御部12は、入力画面に対する操作入力装置3の操作に応じて、1個以上の水平線位置情報の入力を受け付ける。次いで、ステップST23にて、水平線位置情報取得部23は、当該入力された水平線位置情報を取得する。
Next, in step ST22, the input /
次いで、ステップST24にて、入出力制御部12は、2個以上の水平線位置情報が入力済みであるか否かを判定する。入力された水平線位置情報の個数が1個以下である場合(ステップST24“NO”)、計算機200aの処理はステップST22に戻る。他方、入力された水平線位置情報の個数が2個以上である場合(ステップST24“YES”)、計算機200aの処理はステップST25に進む。
Next, in step ST24, the input /
次いで、入出力制御部12は、入力画面に対する操作入力装置3の操作に応じて、撮像画像Iの中央部に1個の船が写されているタイミングにて、入力画面における撮像画像Iの再生を一時的に停止させる(ステップST25)。ステップST26~ST33の処理は、入力画面における撮像画像Iの再生が停止している状態、すなわち撮像画像Iの中央部に1個の船が写されている状態にて実行される。
Next, the input /
次いで、ステップST26にて、入出力制御部12は、入力画面に対する操作入力装置3の操作に応じて、移動体領域情報の入力を受け付ける。次いで、ステップST27にて、移動体領域情報取得部25は、当該入力された移動体領域情報を取得する。
Next, in step ST26, the input /
次いで、ステップST28にて、通信制御部13は、1個以上の船に対応する1個以上のAIS情報を受信する制御を実行する。当該1個以上の船は、少なくとも、撮像画像Iの中央部に写されている1個の船を含むものである
Next, in step ST28, the
次いで、ステップST29にて、通信制御部13は、無線通信装置4により受信されたAIS情報の個数が1個であるか複数個であるかを判定する。
Next, in step ST29, the
無線通信装置4により受信されたAIS情報の個数が複数個である場合(ステップST29“YES”)、ステップST30にて、移動体識別情報選択部26は、当該受信された複数個のAIS情報のうち、撮像画像Iの中央部に写されている1個の船に対応する1個のAIS情報を選択する。次いで、ステップST31にて、移動体座標情報取得部27は、当該選択された1個のAIS情報を移動体座標情報として取得する。
When the number of AIS information received by the wireless communication device 4 is plural (step ST29 “YES”), in step ST30, the mobile unit identification
他方、無線通信装置4により受信されたAIS情報の個数が1個である場合(ステップST29“NO”)、ステップST32にて、移動体座標情報取得部27は、当該受信された1個のAIS情報を移動体座標情報として取得する。
On the other hand, when the number of AIS information received by the wireless communication device 4 is 1 (step ST29 “NO”), in step ST32, the mobile body coordinate
ステップST31又はステップST32に次いで、ステップST33にて、外部パラメータ計算部24は、水平線位置情報取得部23により取得された水平線位置情報、移動体領域情報取得部25により取得された移動体領域情報、及び移動体座標情報取得部27により取得された移動体座標情報を用いて、カメラ1の姿勢角度ω,φ,κを計算する。
Subsequent to step ST31 or step ST32, in step ST33, the external
次いで、ステップST34にて、入出力制御部12は、入力画面における撮像画像Iのライブ再生を再開させる。また、ステップST35にて、通信制御部13は、撮像画像Iの中央部に写されていた1個の船に対応するAIS情報の継続的な受信を開始する。
Next, in step ST34, the input /
入出力制御部12は、カメラ1の絶対座標値を示す情報及びカメラ1の姿勢角度ω,φ,κを示す情報を外部パラメータ計算部24から取得する。入出力制御部12は、無線通信装置4による受信中のAIS情報を通信制御部13から取得する。入出力制御部12は、これらの情報を用いて、撮像画像Iにおける当該1個の船の現在の位置及びサイズを計算する。入出力制御部12は、当該計算された位置及びサイズに対応する画像、すなわち重畳画像の重畳表示を開始する(ステップST36)。
The input /
重畳画像がライブ再生中の撮像画像Iに重畳表示されている状態にて、入出力制御部12は、重畳画像が撮像画像Iにおける正しい位置に表示されているか否かを選択する操作の入力を受け付ける(ステップST37)。重畳画像の表示位置が正しいことを示す操作が入力された場合(ステップST37“YES”)、ステップST38にて、入出力制御部12は、外部パラメータ計算部24により計算された姿勢角度ω,φ,κを出力する制御を実行する。より具体的には、入出力制御部12は、当該計算された姿勢角度ω,φ,κの値を含む画像を表示装置2に表示させる。
In a state where the superimposed image is superimposed on the captured image I being played live, the input /
他方、重畳画像の表示位置が正しくないことを示す操作が入力された場合(ステップST37“NO”)、計算機200aの処理はステップST25に戻る。これにより、他の1個の船が撮像画像Iの中央部に写されているタイミングにて、入力画面における撮像画像Iの生成が一時的に停止する。 On the other hand, when an operation indicating that the display position of the superimposed image is not correct is input (step ST37 “NO”), the processing of the computer 200a returns to step ST25. Thereby, the generation of the captured image I on the input screen is temporarily stopped at the timing when another ship is captured in the center of the captured image I.
このように、移動体領域情報及び移動体座標情報を用いることにより、船等の移動体を基準点の代わりに用いることができる。これにより、姿勢角度ω,φ,κの計算における基準点を不要とすることができる。この結果、カメラ1による撮像範囲内に基準点が1個も存在しない場合、すなわち事前に基準点を1個も用意することができない場合であっても、姿勢角度ω,φ,κを計算することができる。 Thus, by using the moving body region information and the moving body coordinate information, a moving body such as a ship can be used instead of the reference point. Thereby, the reference point in the calculation of the posture angles ω, φ, κ can be made unnecessary. As a result, even when there is no reference point in the imaging range of the camera 1, that is, when no reference point can be prepared in advance, the posture angles ω, φ, κ are calculated. be able to.
なお、水平線位置情報は、撮像画像Iにおける水平線の位置に代えて、撮像画像Iにおける地平線の位置を示すものであっても良い。この場合であっても、上記の原理により姿勢角度ω,φ,κを計算することができる。 The horizontal line position information may indicate the position of the horizon in the captured image I instead of the position of the horizontal line in the captured image I. Even in this case, the posture angles ω, φ, κ can be calculated according to the above principle.
また、移動体は船に限定されるものではなく、車両又は航空機などであっても良い。また、移動体識別情報は、これらの移動体の識別子、サイズ及び絶対座標値などを含む情報であれば良く、AIS情報に限定されるものではない。 Further, the moving body is not limited to a ship, and may be a vehicle or an aircraft. Further, the mobile object identification information may be information including identifiers, sizes, absolute coordinate values, and the like of these mobile objects, and is not limited to AIS information.
また、移動体識別情報選択部26はカメラ較正装置100a外に設けられているものであっても良い。例えば、移動体識別情報選択部26は通信制御部13と一体に構成されているものであっても良い。すなわち、水平線位置情報取得部23、移動体領域情報取得部25、移動体座標情報取得部27及び外部パラメータ計算部24により、カメラ較正装置100aの要部が構成されているものであっても良い。
Further, the moving body identification
以上のように、実施の形態2のカメラ較正装置100aは、カメラ1による撮像画像Iにおける水平線又は地平線の位置を示す水平線位置情報を取得する水平線位置情報取得部23と、撮像画像Iにおける所定の位置に移動体が写されているときの撮像画像Iにおける移動体に対応する領域(すなわち移動体領域)を示す移動体領域情報を取得する移動体領域情報取得部25と、所定の位置に移動体が写されているときの実空間における移動体の位置に対応する座標値(すなわち絶対座標値)を含む移動体座標情報を取得する移動体座標情報取得部27と、撮像画像Iにおける水平線又は地平線の位置、撮像画像Iにおける移動体の位置、及び実空間における移動体の位置に対応する座標値(すなわち絶対座標値)に基づき、カメラ1の姿勢角度ω,φ,κを計算する外部パラメータ計算部24と、を備える。移動体領域情報及び移動体座標情報を用いることにより、船等の移動体を基準点の代わりに用いることができる。この結果、姿勢角度ω,φ,κの計算における基準点を不要とすることができる。
As described above, the
また、水平線位置情報取得部23が2個の水平線位置情報を取得して、移動体領域情報取得部25が1個の移動体領域情報を取得して、移動体座標情報取得部27が1個の移動体座標情報を取得する。2個以上の水平線位置情報を用いることにより、基準点の代わりに用いられる移動体の個数を1個にすることができる。
Further, the horizontal line position
また、外部パラメータ計算部24は、ロール方向、ヨー方向及びピッチ方向に対する姿勢角度ω,φ,κを計算するものである。すなわち、カメラ較正装置100aは、0個の基準点を用いて3軸の姿勢角度ω,φ,κを計算することができる。
The external
また、水平線位置情報及び移動体領域情報は、撮像画像Iを含む入力画面が表示装置2に表示されている状態にて、入力画面に対する操作入力装置3の操作により入力されるものであり、移動体座標情報は、無線通信装置4により受信されるものである。移動体座標情報にAIS情報を用いることにより、移動体(より具体的には船)の絶対座標値の入力を不要とすることができる。
The horizontal line position information and the moving body region information are input by an operation of the operation input device 3 on the input screen in a state where the input screen including the captured image I is displayed on the
また、移動体が船である。これにより、移動体座標情報にAIS情報を用いることができる。 Also, the moving body is a ship. Thereby, AIS information can be used for moving body coordinate information.
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, any combination of the embodiments, any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .
本発明のカメラ較正装置は、カメラによる撮像画像に物体が写されているとき、当該撮像画像における当該物体の位置に応じて、実空間における当該物体の位置を特定する技術に応用することができる。 The camera calibration device of the present invention can be applied to a technique for specifying the position of the object in real space according to the position of the object in the captured image when the object is captured in the image captured by the camera. .
1 カメラ、2 表示装置、3 操作入力装置、4 無線通信装置、5 アンテナ、11 撮像制御部、12 入出力制御部、13 通信制御部、21 基準点位置情報取得部、22 基準点座標情報取得部、23 水平線位置情報取得部、24 外部パラメータ計算部、25 移動体領域情報取得部、26 移動体識別情報選択部、27 移動体座標情報取得部、31 プロセッサ、32 メモリ、33 処理回路、100,100a カメラ較正装置、200,200a 計算機。 1 camera, 2 display device, 3 operation input device, 4 wireless communication device, 5 antenna, 11 imaging control unit, 12 input / output control unit, 13 communication control unit, 21 reference point position information acquisition unit, 22 reference point coordinate information acquisition Unit, 23 horizontal line position information acquisition unit, 24 external parameter calculation unit, 25 mobile unit area information acquisition unit, 26 mobile unit identification information selection unit, 27 mobile unit coordinate information acquisition unit, 31 processor, 32 memory, 33 processing circuit, 100 , 100a Camera calibration device, 200, 200a calculator.
Claims (9)
実空間における前記基準点の位置に対応する座標値を示す基準点座標情報を取得する基準点座標情報取得部と、
前記撮像画像における水平線又は地平線の位置を示す水平線位置情報を取得する水平線位置情報取得部と、
前記撮像画像における前記基準点の位置、前記実空間における前記基準点の位置に対応する座標値、及び前記撮像画像における前記水平線又は前記地平線の位置に基づき、前記カメラの姿勢角度を計算する外部パラメータ計算部と、
を備えるカメラ較正装置。 A reference point position information acquisition unit for acquiring reference point position information indicating the position of the reference point in the image captured by the camera;
A reference point coordinate information acquisition unit for acquiring reference point coordinate information indicating a coordinate value corresponding to the position of the reference point in real space;
A horizontal line position information acquisition unit that acquires horizontal line position information indicating a position of a horizontal line or a horizon in the captured image;
An external parameter for calculating the attitude angle of the camera based on the position of the reference point in the captured image, the coordinate value corresponding to the position of the reference point in the real space, and the position of the horizontal line or the horizon in the captured image A calculation unit;
A camera calibration device comprising:
前記撮像画像における所定の位置に移動体が写されているときの前記撮像画像における前記移動体に対応する領域を示す移動体領域情報を取得する移動体領域情報取得部と、
前記所定の位置に前記移動体が写されているときの実空間における前記移動体の位置に対応する座標値を含む移動体座標情報を取得する移動体座標情報取得部と、
前記撮像画像における前記水平線又は前記地平線の位置、前記撮像画像における前記移動体の位置、及び前記実空間における前記移動体の位置に対応する座標値に基づき、前記カメラの姿勢角度を計算する外部パラメータ計算部と、
を備えるカメラ較正装置。 A horizontal line position information acquisition unit for acquiring horizontal line position information indicating a position of a horizontal line or a horizon in a captured image by a camera;
A moving body area information acquisition unit that acquires moving body area information indicating an area corresponding to the moving body in the captured image when the moving body is captured at a predetermined position in the captured image;
A moving object coordinate information acquisition unit that acquires moving object coordinate information including coordinate values corresponding to the position of the moving object in real space when the moving object is copied at the predetermined position;
An external parameter that calculates the attitude angle of the camera based on coordinate values corresponding to the position of the horizontal line or the horizon in the captured image, the position of the moving object in the captured image, and the position of the moving object in the real space A calculation unit;
A camera calibration device comprising:
前記移動体座標情報は、無線通信装置により受信されるものである
ことを特徴とする請求項5記載のカメラ較正装置。 The horizontal line position information and the moving body region information are input by operation of the operation input device on the input screen in a state where the input screen including the captured image is displayed on the display device,
The camera calibration apparatus according to claim 5, wherein the moving body coordinate information is received by a wireless communication apparatus.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2018/022246 WO2019239460A1 (en) | 2018-06-11 | 2018-06-11 | Camera calibration device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2018/022246 WO2019239460A1 (en) | 2018-06-11 | 2018-06-11 | Camera calibration device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019239460A1 true WO2019239460A1 (en) | 2019-12-19 |
Family
ID=68842809
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/022246 Ceased WO2019239460A1 (en) | 2018-06-11 | 2018-06-11 | Camera calibration device |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2019239460A1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022269609A1 (en) * | 2021-06-21 | 2022-12-29 | Orca Ai Ltd. | Automatic camera registration and calibration using marine sensors |
| CN117152400A (en) * | 2023-10-30 | 2023-12-01 | 武汉苍穹融新科技有限公司 | Method and system for fusing multiple paths of continuous videos and three-dimensional twin scenes on traffic road |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS63304187A (en) * | 1987-06-03 | 1988-12-12 | Mitsubishi Electric Corp | distance measuring device |
| JP2000213953A (en) * | 1999-01-25 | 2000-08-04 | Mitsubishi Electric Corp | Flying object navigation device |
| JP2007255955A (en) * | 2006-03-22 | 2007-10-04 | Mitsubishi Electric Corp | Attitude angle detector and camera |
| JP2012068923A (en) * | 2010-09-24 | 2012-04-05 | Toshiba Corp | Image processing device |
-
2018
- 2018-06-11 WO PCT/JP2018/022246 patent/WO2019239460A1/en not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS63304187A (en) * | 1987-06-03 | 1988-12-12 | Mitsubishi Electric Corp | distance measuring device |
| JP2000213953A (en) * | 1999-01-25 | 2000-08-04 | Mitsubishi Electric Corp | Flying object navigation device |
| JP2007255955A (en) * | 2006-03-22 | 2007-10-04 | Mitsubishi Electric Corp | Attitude angle detector and camera |
| JP2012068923A (en) * | 2010-09-24 | 2012-04-05 | Toshiba Corp | Image processing device |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022269609A1 (en) * | 2021-06-21 | 2022-12-29 | Orca Ai Ltd. | Automatic camera registration and calibration using marine sensors |
| US20240286720A1 (en) * | 2021-06-21 | 2024-08-29 | Orca Ai Ltd. | Automatic camera registration and calibration using marine sensors |
| IL284251B1 (en) * | 2021-06-21 | 2025-12-01 | Orca Ai Ltd | Automatic camera registration and calibration using marine sensors |
| CN117152400A (en) * | 2023-10-30 | 2023-12-01 | 武汉苍穹融新科技有限公司 | Method and system for fusing multiple paths of continuous videos and three-dimensional twin scenes on traffic road |
| CN117152400B (en) * | 2023-10-30 | 2024-03-19 | 武汉苍穹融新科技有限公司 | Method and system for fusing multiple paths of continuous videos and three-dimensional twin scenes on traffic road |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112505065B (en) | Method for detecting surface defects of large part by indoor unmanned aerial vehicle | |
| CN108171733B (en) | Method of registering two or more three-dimensional 3D point clouds | |
| CN110930508B (en) | Two-dimensional photoelectric video and three-dimensional scene fusion method | |
| WO2019219077A1 (en) | Positioning method, positioning apparatus, positioning system, storage medium, and method for constructing offline map database | |
| US7149346B2 (en) | Three-dimensional database generating system and method for generating three-dimensional database | |
| WO2012053521A1 (en) | Optical information processing device, optical information processing method, optical information processing system, and optical information processing program | |
| JP6526955B2 (en) | Sensor information integration method and device thereof | |
| CN110532853B (en) | Classification method and device for remote sensing super-phase data | |
| JP2018009918A (en) | Self-position detection device, mobile device, and self-position detection method | |
| JP2024521816A (en) | Unrestricted image stabilization | |
| Wang et al. | HVL-SLAM: Hybrid vision and LiDAR fusion for SLAM | |
| WO2019239460A1 (en) | Camera calibration device | |
| Su et al. | Accurate pose tracking for uncooperative targets via data fusion of laser scanner and optical camera | |
| CN117974766A (en) | Multi-target identity determination method of distributed dual infrared sensors based on time and space | |
| JP4132068B2 (en) | Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus | |
| JP2017192106A (en) | Imaging apparatus and control method of the same | |
| CN111581322B (en) | Method, device and equipment for displaying region of interest in video in map window | |
| US12000703B2 (en) | Method, software product, and system for determining a position and orientation in a 3D reconstruction of the earth's surface | |
| CN111324139A (en) | UAV landing method, device, equipment and storage medium | |
| CN117789193A (en) | Multimode data fusion 3D target detection method based on secondary enhancement | |
| WO2023131544A1 (en) | Image processing methods and systems for training a machine learning model to predict illumination conditions for different positions relative to a scene | |
| Belbachir et al. | Real-time vehicle localization using on-board visual SLAM for detection and tracking | |
| Wang | Towards real-time 3d reconstruction using consumer uavs | |
| US11940569B2 (en) | Method for determining extrinsic calibration parameters for a measuring system | |
| US20250317649A1 (en) | Photographing instruction method, mobile body, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18922201 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18922201 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |